JP7241598B2 - 画像処理方法、画像処理装置及び画像処理システム - Google Patents

画像処理方法、画像処理装置及び画像処理システム Download PDF

Info

Publication number
JP7241598B2
JP7241598B2 JP2019085082A JP2019085082A JP7241598B2 JP 7241598 B2 JP7241598 B2 JP 7241598B2 JP 2019085082 A JP2019085082 A JP 2019085082A JP 2019085082 A JP2019085082 A JP 2019085082A JP 7241598 B2 JP7241598 B2 JP 7241598B2
Authority
JP
Japan
Prior art keywords
image
image processing
pixel
area
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019085082A
Other languages
English (en)
Other versions
JP2020181441A (ja
Inventor
アニールバン レイ
英春 服部
容弓 柿下
卓 坂詰
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi High Tech Corp
Original Assignee
Hitachi High Tech Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi High Tech Corp filed Critical Hitachi High Tech Corp
Priority to JP2019085082A priority Critical patent/JP7241598B2/ja
Priority to PCT/JP2020/004529 priority patent/WO2020217643A1/ja
Priority to US17/605,349 priority patent/US20230177699A1/en
Priority to CN202080030691.3A priority patent/CN113728357B/zh
Priority to EP20795159.1A priority patent/EP3961562B1/en
Publication of JP2020181441A publication Critical patent/JP2020181441A/ja
Application granted granted Critical
Publication of JP7241598B2 publication Critical patent/JP7241598B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/194Segmentation; Edge detection involving foreground-background segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/12Edge-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/26Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
    • G06V10/267Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion by performing operations on regions, e.g. growing, shrinking or watersheds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/60Extraction of image or video features relating to illumination properties, e.g. using a reflectance or lighting model
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/98Detection or correction of errors, e.g. by rescanning the pattern or by human intervention; Evaluation of the quality of the acquired patterns
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/69Microscopic objects, e.g. biological cells or cellular parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10056Microscopic image
    • G06T2207/10061Microscopic image from scanning electron microscope
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20036Morphological image processing
    • G06T2207/20041Distance transform
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20092Interactive image processing based on input by user
    • G06T2207/20104Interactive definition of region of interest [ROI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20112Image segmentation details
    • G06T2207/20152Watershed segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20112Image segmentation details
    • G06T2207/20156Automatic seed setting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30024Cell structures in vitro; Tissue sections in vitro
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30242Counting objects in image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/03Recognition of patterns in medical or anatomical images

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Evolutionary Computation (AREA)
  • Medical Informatics (AREA)
  • Quality & Reliability (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Radiology & Medical Imaging (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Image Analysis (AREA)

Description

本発明は、画像処理方法、画像処理装置、及び画像処理システムに関する。
近年、IT化の進展に伴い、社会に多数のセンサーが配置され、極めて大量のデータが蓄積されている。そうした中、集積された画像データを活用する様々な方策が検討されている。特に、写真、動画、画像等の映像コンテンツが増える中、その映像におけるオブジェクトを自在に特定し、特定したオブジェクトに関する定量的な情報を抽出するニーズが高まっている。
従来では、画像内のオブジェクトの定量的分析の手段の一つとして、均質性の高い、オブジェクトの集合に対して、集合内のオブジェクト数を計数する手段が知られている。
例えば、米国特許明細書5671290(特許文献1)には、「均質性の高い、オブジェクトの集合を少なくとも一つ含む画像に対して、集合の輪郭上の各点から集合の質量中心までの距離に基づいて、集合内に含まれるオブジェクトの数を計数する、または、均質性の高いオブジェクトの少なくとも一つの集合と、少なくとも一つの孤立したオブジェクトを含む画像に対して、孤立したオブジェクトの大きさに基づいてオブジェクトの集合に含まれるオブジェクトの数を推定する」技術が記載されている。
米国特許明細書5671290
画像中のオブジェクトを定量的に分析するためには、オブジェクトを正確に識別することが重要である。例えば、対象のオブジェクトに類似しているオブジェクトが画像の背景に含まれる場合、対象のオブジェクト(前景)と背景を区別し、前景となっている対象のオブジェクトをクラス毎に分類し、対象のオブジェクトのクラス毎の数や割合等を定量的に分析することが望ましいが、上記の特許文献のいずれにも、対象のオブジェクトの正確なクラス分類を可能にする手段は記載されていない。
そこで、本発明は、画像内の互いに接触している複数のオブジェクトを分離することによって、当該オブジェクトを正確に識別し、識別したオブジェクトに対する定量的な分析を可能にする手段を提供することを目的とする。ここで、「互いに接触している」との表現は、複数のオブジェクトの一部が接触したり、部分的に重なったり、同一の空間を占領することを意味する。
上記の課題を解決するために、代表的な本発明の画像処理装置の一つは、
画像を入力する入力部と、画像の前景と背景を分割する領域分割部と、画像内の接触している複数のオブジェクトを分離する接触分離部と、各オブジェクトをクラス毎に分類する分類部と、オブジェクトに関する定量情報を生成する定量情報算出部とを含む。
本発明によれば、画像内の互いに接触している複数のオブジェクトを分離することによって、当該オブジェクトを正確に識別し、識別したオブジェクトに対する定量的分析を可能にする手段を提供することができる。
本発明の実施例1に係る画像処理装置の機能的構成を示すブロック図である。 本発明の実施例1に係る画像処理装置のハードウェア構成の一例を示すブロック図である。 本発明に係る中間出力のデータを示す図である。 本発明の実施例1に係る領域分割部による動作の一例を示す図である。 本発明の実施例1に係る接触分離部による動作の一例を示す図である。 ボーダーオブジェクトの一例を示す図である。 ボーダーオブジェクトを分離した状態を示す図である。 非ボーダーオブジェクトの一例を示す図である。 非ボーダーオブジェクトを分離した状態を示す図である。 本発明の実施例1に係る接触分離処理を示すフローチャートである。 本発明の実施例1に係る、互いに接触しているボーダーオブジェクトを分離する処理の一例を示す図である。 本発明の実施例1に係る、分類処理を示すフローチャートである。 本発明の実施例1に係る、互いに接触している非ボーダーオブジェクトの一例を示す図である。 図13に示す、互いに接触している非ボーダーオブジェクトの拡大した状態を示す図である。 第1のオブジェクト及び第2のオブジェクトに対して距離変換処理を施した後の状態を示す図である。 第1のオブジェクトと第2のオブジェクトの境界線の中心点となる対象画素Pを特定する処理を説明するための図である。 境界基準画素を特定する処理を説明するための図である。 第1のオブジェクトと第2のオブジェクトを分離した状態を示す図である。 本発明の実施例1に係る分類処理を示すフローチャートである。 本発明の実施例1に係る分類部による動作の一例を示す図である。 本発明の実施例1に係る定量的分析の処理の一例を示す図である。 本発明の実施例2に係る画像処理装置の機能的構成を示すブロック図である。 本発明の実施例2に係る画像処理装置のハードウェア構成の一例を示すブロック図である。 本発明の実施例2に係る領域修正処理の一例を示す図である。 図24に示す、誤背景領域を含む画像を本発明の実施例2に係る領域修正部によって修正した画像の一例を示す図である。 本発明の実施例2に係る領域修正処理の一例を示すフローチャートである。 本発明の実施例2に係る領域修正処理の一例を示すフローチャートである。 本発明の実施例3に係る画像処理システムの一例を示す図である。 本発明の実施例3に係る画像処理システムの一例を示す図である。
以下、図面を参照して、本発明の実施形態について説明する。なお、この実施形態により本発明が限定されるものではない。また、図面の記載において、同一部分には同一の符号を付して示している。
(本発明の概要)
分析用の画像には、分析の対象となるオブジェクトが分析に不要なオブジェクトと共に写っている場合がある。しかし、対象のオブジェクトに関する定量的情報を精度良く算出するためには、対象のオブジェクトと不要なオブジェクトを分ける必要がある。対象のオブジェクトとそうでないオブジェクトを分けることは、手動では簡単にできるが、数千、数百万枚以上の画像を短時間で処理する必要がある場合には、このプロセスを自動化することが望ましい。このため、画像内の対象のオブジェクトを自動的に検出し、不要なオブジェクトを排除する必要がある。
そこで、以下に説明する本発明の実施形態によれば、画像に前景として現れているオブジェクトを正確に検出し、互いに接触している複数のオブジェクトを独立したオブジェクトに分離し、分離したオブジェクトをクラスカテゴリ毎に分類した後、正確な定量分析を行うことができる。
なお、本発明は特に、円形や球形等の、2次元又は3次元空間において連続した曲面から形成されるオブジェクトの識別・分離・分析に効果的である。ここでの「円形」や「球形」とは、幾何学的に正確な「円形」や「球形」の形状である物体に限定されず、楕円、卵形、及びその断面も含む。更に、本発明は円形や球形等のものに限定されるものではなく、閉鎖空間を構成するオブジェクトであれば、本発明で説明する処理が有効である。
なお、以下の図面では、説明の便宜上、二次元のオブジェクトを示しているが、本発明はそれに限定されない。
次に、本発明に係る処理の概要について説明する。
まず、対象となるオブジェクト及び不要なオブジェクトを含む画像は、領域分割部(Segmentation Unit)と、接触分離部(Separation Unit)と、分類部(Classification Unit)と、定量情報算出部(Quantitative Calculation Unit)とを含む画像処理装置に入力される。領域分割部は、入力された画像を、対象となるオブジェクトを含む前景の部分と、不要なオブジェクトを含む背景の部分とに分割する。次に、接触分離部は、前景において互いに接触している複数のオブジェクトを後述する処理によって分離する。次に、分類部は、分離されたオブジェクトをクラス毎に分類する。次に、定量情報算出部は、分類されたオブジェクトに対する定量的分析を施すことにより、分類されたオブジェクトに関する定量情報を生成し、提供する。
また、画像の前景と背景を分割する際に、色やテクスチャが背景に類似しているため、背景と判断されてしまう前景領域(誤背景領域)が発生する場合がある。誤背景領域が画像に存在する場合には、正確な画像分析結果を得られない恐れがあるため、本発明の第二の実施形態においては、画像中に発生する誤背景領域を特定し、修正することで、より正確な定量的分析結果を提供する装置および方法について説明する。
まず、図1を参照して、本発明の実施例1に係る画像処理装置1の機能的構成について説明する。
図1は、本発明の実施例1に係る画像処理装置1の機能的構成を示すブロック図である。
図1に示されるように、画像処理装置1は、入力部10と、領域分割部11と、接触分離部12と、分類部15と、定量情報算出部16と、ストレージ部90と、制御部91とを含む。また、接触分離部12は、ボーダーオブジェクト分離部13と、非ボーダーオブジェクト分離部14とを更に含む。画像処理装置1を構成する機能部は、例えばソフトウエアモジュールとして実現されてもよく、独立した専用ハードウェアとして実現されてもよい。
入力部10は、分析用の画像(以下、元画像や入力画像ともいう)の入力を受け付ける機能部である。この画像は、画像処理装置1に直接に接続されている撮像装置(例示せず)によって取得される画像であってもよく、インターネット等の情報通信ネットワークを介して取得される画像であってもよい。また、入力される画像は静止画であってもよく、動画中の任意のフレームを抽出した画像であってもよい。画像が静止画の場合、入力部10は、例えばJPEG、JPEG2000、PNG、BMP等、任意のデータフォーマットの静止画を受け付けることができる。また、動画の場合には、入力部10は、例えば、Motion JPEG、MPEG、H.264、HD/SDI等、任意のデータフォーマットの動画を受け付けることができる。
領域分割部11は、入力された画像の前景と背景を分割する機能部である。ここでは、「前景」とは、画像において、対象のオブジェクトが占める領域を意味し、「背景」とは、それ以外の領域を意味する。領域分割部11は、例えば背景差分、メディアンフィルター、二値化処理、畳み込みニューラルネットワーク等、任意の手段を用いて、対象のオブジェクトを含む前景と、不要のオブジェクトを含む背景とを分割した画像を出力する。
ここでの「分割」とは、画像の背景と前景とを区別することを意味する。具体的には、領域分割部は、背景に属する画素(以下、背景画素)と、前景に属する画素(以下前景画素)に対して、当該画素が背景画素であるか、前景画素であるかを示すメタデータをラベルとして付けることで、画像の背景と前景を区別してもよい。
接触分離部12は、領域分割部11が出力した画像において単一のオブジェクトとして識別された複数のオブジェクト(例えば、本来2つであるオブジェクトであるが、互いに接触しているため、1つのオブジェクトとして認識されているオブジェクト)を分離する機能部である。接触分離部12を用いることで、複数の接触しているオブジェクトを個々の独立したオブジェクトに切り離すことができ、画像中のオブジェクトに対する定量的分析を円滑に行うことができる。
また、画像において、オブジェクトの一部が画像外に存在する「ボーダーオブジェクト」と、オブジェクト全体が画像内に存在する「非ボーダーオブジェクト」が存在する場合がある。
図6にボーダーオブジェクトの一例、図8に非ボーダーオブジェクトの一例を示す。図6のボーダーオブジェクトB2001に示すように、オブジェクトの一部が画像外に存在し、かつ、互いに接触している複数のオフジェクトを、本開示ではボーダーオブジェクトと呼ぶ。また、図8の非ボーダーオブジェクトNB2001に示すように、オブジェクト全体が画像内に存在し、かつ、互いに接触している複数のオフジェクトを、本開示では非ボーダーオブジェクトと呼ぶ。
オブジェクトがボーダーオブジェクトであるか、非ボーダーオブジェクトであるかによって、当該オブジェクトを分離する手段が異なる。そのため、図1に示すように、接触分離部12は、ボーダーオブジェクトを分離するためのボーダーオブジェクト分離部13と、非ボーダーオブジェクトを分離するための非ボーダーオブジェクト分離部14とを含む。これらの機能部の処理については後述する。
分類部15は、前景に属するオブジェクトをクラス毎に分類するための機能部である。分類部15は、例えば、フィッシャーの線形判別分析、ロジスティック回帰、線形サポートベクターマシン等の線形分類器、二次分類器、k近傍法、ニューラルネットワーク、ベイジアンネットワーク等の非線形の手段を用いてオブジェクトの分類を行ってもよい。
定量情報算出部16は、対象のオブジェクトに関する定量情報を計算し、提供する機能部である。ここでの定量情報とは、オブジェクトの数(オレンジが10個、リンゴが5個)、クラス間の割合(2:1)、比率等であってもよいが、これらに限定されるものではない。
ストレージ部90は、画像処理装置1の各機能部の入力、出力及び中間結果(例えば図3に示す出力データ)を記憶するメモリである。画像処理装置1の各機能部は必要に応じて、データをストレージ部90において格納したり、読み出したりすることができる。ストレージ部90は、例えばフラッシュメモリ、ハードディスクドライブ等、任意の記憶媒体であってもよい。
制御部91は、上述した画像処理装置1の各機能部と接続されており、各機能部の動作を制御するための機能部である。制御部91は、例えば機能部間のアクセス許可、データの通信、CPUからの命令等を管理してもよい。
なお、図1では、制御部91を含む構成を一例として示しているが、本発明はこれに限定されず、各機能部が自律的に動作する構成であってもよい。
次に、図2を参照して、画像処理装置1のハードウェア構成について説明する。
図2は、本発明の実施例1に係る画像処理装置1のハードウェア構成の一例を示すブロック図である。図2に示されるように、画像処理装置1は、CPU201と、メモリ202と、ストレージ装置206と、出力装置203と、入力装置204と、通信装置205とを含む。これらの装置は、バス207によって相互に接続される。
なお、入力部10、領域分割部11、接触分離部12、ボーダーオブジェクト分離部13、非ボーダーオブジェクト分離部14、分類部15、定量情報算出部16、ストレージ部90、及び制御部91は、図1と同様であるため、それらの説明は省略する。
CPU201は、必要に応じてメモリ202に格納されている各種プログラムを読み出して、プログラムからの命令に応じて処理を実行するプロセッサである。例えば、図1の入力部10、領域分割部11、接触分離部12、分類部15、定量情報算出部16の機能は、CPU201が実行する処理によって実現されてもよい。
ストレージ装置206は、画像処理装置1の各機能部に用いられる各種データを記憶する装置であり、図1のストレージ部90に対応する装置である。ストレージ装置206は、例えば、入力された画像、前景と背景が分割された画像、接触しているオブジェクトが分離された画像、及びオブジェクトがクラス毎に分類されている画像を格納してもよい。また、過去の画像処理の際に用いられた画像データおよび定量情報算出結果もストレージ装置206に記憶されてもよい。
出力装置203は、本発明の処理によって算出される定量的な分析の結果や各部において生成される各種画像を出力する装置である。この出力装置は、例えば、ディスプレイ、プリンタ、スピーカ等の機器であってもよい。例えば、出力装置203としてディスプレイを用いた場合、領域分割部11により生成された分割画像、接触分離部12によって生成された対象オブジェクト分離画像、分類部15によって生成された対象オブジェクト分類画像、及び定量情報算出部16によって生成される、対象オブジェクトに関する定量情報が画面上のGUI(Graphical User Interface)に表示される。
入力装置204は、ユーザによる指示等を入力するための装置である。この入力装置は、例えば、キーボード、マウス、マイクロフォン等の機器である。画像処理装置1を使用するユーザは、例えば処理の対象となる画像を入力装置204を介して選択してもよい。
通信装置205は、外部の装置(図示せず)との通信を行うための装置である。この通信装置205は、例えば、インターネットやLAN等の通信ネットワークを介して外部の撮像装置やカメラ又はサーバから送信された画像を受信してもよい。
尚、通信装置205が画像処理装置1に内蔵されている構成を一例として示しているが、本発明はこれに限定されず、通信装置205が外部に配置されており、画像処理装置1に接続される構成も可能である。そのため通信装置205は画像処理装置1のハードウェア構成要素として必ずしも含まれる必要はない。
次に、図3を参照して、本発明における中間出力のデータについて説明する。
図3は、図1の各機能部が生成する中間出力のデータを示す図である。入力部の出力F1001は、入力部を介して入力された元の画像Cであり、領域分割部の出力F1002は背景と前景が分割された画像CAであり、接触分離部の出力F1003は接触しているオブジェクトが分離された画像CBであり、分類部の出力F1004はオブジェクトがクラス毎に分類された画像CCであり、定量情報算出部の出力F1005はオブジェクトについて導出された定量情報である。
なお、これらの中間出力の詳細については後述する。以下の説明では、それぞれの画像の一例を図示するが、これはあくまでも説明を分かりやすくするための例示であり、本発明の機能部の出力が図示されている画像に限定される趣旨ではない。
次に、図4を参照して、領域分割部(例えば、図1に示す領域分割部11)が元画像の背景と前景を分割する処理について説明する。
上述したように、画像に写っている対象のオブジェクトに関する定量情報を精度良く算出するためには、分析の対象となるオブジェクトとそうでないオブジェクトを分ける必要がある。そのため、分析の対象となるオブジェクトを含む元画像Cが入力部を介して入力されると、領域分割部は、この入力された画像Cに対して、例えば背景差分、メディアンフィルター、二値化処理、畳み込みニューラルネットワーク等の手段を用いて処理することで、対象のオブジェクトを含む前景と、不要のオブジェクトを含む背景とに区別した画像CAを出力する。
図4は、本発明の実施例1に係る領域分割部による動作の一例を示す図である。画像Cは、入力部を介して入力された画像である。図4に示すように、この画像Cは、背景領域R1002と、前景領域を占めるオブジェクトR1003と、不要なオブジェクトR1004とを含む。領域分割部は、例えば畳み込みニューラルネットワークによる分割方法を用いて画像Cを処理することで、前景領域R2001と背景領域R2002とが区別された画像CAを生成する。領域分割部によって生成される画像CAは、ストレージ部90に記憶される。
なお、上記では、領域分割部が畳み込みニューラルネットワークを用いて画像Cの背景領域と前景領域とを区別する例を説明したが、本発明はそれに限定されず、背景領域と前景領域とを区別できる手段であれば、任意の方法を用いてもよい。
次に、図5~図18を参照して、接触分離部(例えば、図1に示す接触分離部12)が接触しているオブジェクトを分離する処理について説明する。上述した領域分割部が出力する画像CAに対して、接触分離部が接触しているオブジェクトを分離することにより画像CBを生成する。
図5は、接触分離部による動作の一例を示す図である。上述したように、画像CAは領域分割部11からの出力であり、前景に含まれる複数のオブジェクトが互いに接触している状態R3000となっている。複数のオブジェクトが互いに接触している状態で画像の定量的な分析を行っても、良好な分析結果が得られないため、接触しているオブジェクトを分離することが望ましい。従って、画像CAを接触分離部によって処理し、重なっているオブジェクトを分離することで、画像CBに示すような、それぞれのオブジェクトが独立した状態R3001となる画像CBを生成することができる。
上述したように、オブジェクトがボーダーオブジェクトであるか、非ボーダーオブジェクトであるかによって、当該オブジェクトを分離する手段が異なる。従って、接触分離部は、対象のオブジェクトがボーダーオブジェクトか否かを判定し、オブジェクトの種類によって適切な接触分離処理を行うように構成されている。
図6は、ボーダーオブジェクトの一例を示す図である。上述したように、ボーダーオブジェクトは、画像の端付近に位置し、オブジェクトの一部が画像外に存在するオブジェクトである。図6のボーダーオブジェクトB2001は、複数の(分離前)オブジェクトが互いに接触している状態となっている。
図7は、ボーダーオブジェクトを分離した状態を示す図である。図6に示す、互いに接触しているボーダーオブジェクトB2001を接触分離部によって分離することで、図7のボーダーオブジェクトB3001に示すように、互いに接触した複数のオブジェクトが分離した状態となる。
図8は、非ボーダーオブジェクトの一例を示す図である。上述したように、非ボーダーオブジェクトは、オブジェクトの全体が画像内に収まるオブジェクトである。図8の非ボーダーオブジェクトNB2001は、複数の(分離前の)非ボーダーオブジェクトが互いに接触している状態となっている。
図9は、非ボーダーオブジェクトを分離した状態を示す図である。図8に示す、互いに接触している非ボーダーオブジェクトNB2001を接触分離部によって分離することで、図9の非ボーダーオブジェクトNB3001に示すように、互いに接触した複数のオブジェクトが分離した状態となる。
図10は、接触分離処理を示すフローチャートである。上述した接触分離部は、以下の処理を実行することで、対象のオブジェクトがボーダーオブジェクトであるか、非ボーダーオブジェクトであるかを判定し、オブジェクトの種類に応じて適切な接触分離処理を実行する。
まず、ステップS1001では、上述した領域分割部の出力である画像CAにおいて、対象のオブジェクトを含む前景領域が選択される。この前景領域は、例えばユーザが入力装置(図2に示す入力装置204)を介して入力した指示に基づいて選択されてもよく、予め設定された選択条件(特定の面積、色、形状等を指定する条件)を満たす前景領域が接触分離部によって自動的に選択されてもよい。
次に、ステップS1002では、接触分離部は、選択された前景領域においてボーダーオブジェクトが存在するか否かを判定する。ここで、接触分離部は、例えば画像において選択された前景領域に含まれるオブジェクトに対して、既存のエッジ検出手段等を実行し、オブジェクトのエッジが画像の端に接触しているか否かを検証することで、選択された前景領域においてボーダーオブジェクトが存在するか否かを判定してもよい。選択された前景領域においてボーダーオブジェクトが存在する場合には、本処理はステップS1003に進み、ボーダーオブジェクトが選択された前景領域において存在しない場合には、本処理はステップS1004に進む。
次に、ステップS1003では、接触分離部は後述するボーダーオブジェクト分離処理を実行し、互いに接触しているオブジェクトを分離する。
次に、ステップS1004では、接触分離部は後述する非ボーダーオブジェクト分離処理を実行し、互いに接触しているオブジェクトを分離する。
次に、ステップS1005では、接触分離部は、前景領域の全体に対して処理が実行されたか否かを判定する。前景領域が全て処理されていない場合には、本処理はステップS1001に戻り、前景領域が全て処理された場合には、本処理は終了する。
次に、図11を参照して、ボーダーオブジェクトを分離する処理の一例について説明する。このボーダーオブジェクト分離処理は、例えば、図10に示したフローチャートにおけるステップS1003に該当する処理であり、図1に示すボーダーオブジェクト分離部13によって行われる処理である。
まず、図11のステップS1101では、ボーダーオブジェクト分離部13は、互いに接触しているボーダーオブジェクトB2001を含む前景領域を選択する。図11に示すように、ボーダーオブジェクトB2001は、画像の端に存在するため、ボーダーオブジェクトB2001の一部が隠れている。
次に、ステップS1102では、ボーダーオブジェクト分離部13は、ボーダーオブジェクトB2001を構成する複数のオブジェクトのシード領域(Seed Region)B20011を生成する。具体的には、ボーダーオブジェクト分離部13は、対象の前景領域に対して、いわゆる距離変換処理を施す。この距離変換処理では、それぞれの前景画素から最も近い背景画素までの距離が輝度値として表現される距離マップが生成される。
この距離マップでは、前景画素から最も近い背景画素までの距離が長い程、輝度値が高いため、背景画素から離れているオブジェクトの中心部分の輝度値が高く、オブジェクトの縁に近い部分の輝度値が低くなる。また、この距離変換処理では、所定の輝度値に達しない前景画素が背景とされるため、それぞれのオブジェクトにおいて、輝度値が最も高い領域(つまり、中心部)がいわゆるシード領域B20011として残る。
次に、ステップS1103では、ボーダーオブジェクト分離部13は、ステップS1102で生成したシード領域を用いて、既存のウォーターシェッド変換を施すことで、互いに接触しているボーダーオブジェクトB2001を個々のオブジェクトB3001に分離することができる。
次に、図12~図18を参照して、非ボーダーオブジェクトを分離する処理について説明する。この非ボーダーオブジェクト分離処理は、例えば、図10に示したフローチャートにおけるステップS1004に該当する処理であり、図1に示す非ボーダーオブジェクト分離部14によって行われる処理である。
図12は、非ボーダーオブジェクトを分離する処理のフローチャートを示す図である。
まず、ステップNBS1では、非ボーダーオブジェクト分離部14は、上述した領域分割部から出力される画像CAにおいて、互いに接触する非ボーダーオブジェクトNB2001を含む前景領域を選択する(図13参照)。図14に示すように、実際には、この非ボーダーオブジェクトNB2001は、第1のオブジェクトNB2002と第2のオブジェクトNB2003とから構成される。
互いに接触している非ボーダーオブジェクトNB2001が選択された後、非ボーダーオブジェクト分離部14は、選択した非ボーダーオブジェクトNB2001を構成する第1のオブジェクトNB2002及び第2のオブジェクトNB2003に対して、図11のステップS1102と同様に距離変換処理を適用する。上述したように、この距離変換処理では、第1のオブジェクトNB2002及び第2のオブジェクトNB2003に属するそれぞれの画素から最も近い背景画素までの距離が輝度値として表現される距離マップが生成される。この距離マップでは、前景画素から最も近い背景画素までの距離が長い程、輝度値が高いため、背景から離れている第1のオブジェクトNB2002及び第2のオブジェクトNB2003のそれぞれの中心部の輝度値が高く、縁に近い部分の輝度値が低くなる。図15は、第1のオブジェクトNB2002及び第2のオブジェクトNB2003に対して距離変換を施した後の状態を示す図である。
次に、ステップNBS2では、非ボーダーオブジェクト分離部14は、第1のオブジェクトNB2002と第2のオブジェクトNB2003の境界線の中心点となる対象画素Pを特定する。対象画素Pを特定するためには、非ボーダーオブジェクト分離部14は、第1のオブジェクトNB2002と第2のオブジェクトNB2003の距離マップの各画素に対して、互いに直交する第1軸(X軸)と第2軸(Y軸)を定め、X軸の正方向に沿って所定の距離m(図示せず)だけ離れた画素PRVの輝度値と、X軸の負方向に沿って所定の距離m(図示せず)だけ離れた画素PLVの輝度値とが当該画素Pの輝度値未満であって、かつY軸の正方向に沿って所定の距離n(図示せず)だけ離れた画素PTVの輝度値と、Y軸の負方向に沿って所定の距離n(図示せず)だけ離れた画素PBVの輝度値とが当該画素Pの輝度値以上か否かを検証する(図16参照)。
これらの条件を満たす対象画素Pが検出された場合には、本処理はステップNBS3に進み、これらの条件を満たす対象画素Pが検出されない場合には、非ボーダーオブジェクト分離部14は第1軸と第2軸の角度を変更し、上記の処理を繰り返す。この処理は、対象画素Pが特定されるか、全ての画素および角度に対して上記の処理が適用されるまで、第1のオブジェクトNB2002と第2のオブジェクトNB2003の距離マップの各画素の周辺360度の全ての角度に対して繰り返して行われる。
なお、上記の処理では、特定の画素(PRV、PLV、PTV、PBV)の輝度を検証することで対象画素Pを特定したが、本発明はそれに限定されず、第1軸と第2軸から所定の距離範囲内の全ての画素の輝度値を検証することも可能である。
次に、ステップNBS3では、非ボーダーオブジェクト分離部14は、第1のオブジェクトNB2002及び第2のオブジェクトNB2003を分離するための分離境界線の両端となる第1の境界基準画素と第2の境界基準画素とを特定する。
以下では、上述した第1の境界基準画素Pを特定する処理の詳細について説明する。
まず、第1の境界基準画素Pを特定するために、非ボーダーオブジェクト分離部14は、画素Pの輝度値に基づいて、上述の処理で輝度が低いと判断された第1軸の正方向における最も近い背景画素までの距離dを計算し、そしてこの距離dと、所定のオフセットbとに基づいて、第1軸の正方向に沿って第1の境界基準画素Pまでの距離dを計算する。ここでは、dは以下の数式で求められる。
[数1]
=d+b
次に、非ボーダーオブジェクト分離部14は、第1の境界基準画素Pを特定するために、対象画素Pから第1軸(つまり、距離マップにおける輝度値が低い画素で構成される軸であるX軸)の正方向に沿った画素Pが下記a、b、cを満たすか否かを検証する。
a)背景画素(輝度値が0の画素)である
b)正方向に存在する画素(第1の参考画素PR1)が背景画素である
c)第1のオブジェクト及び第2のオブジェクトが第2軸の正方向および負方向に存在し、境界基準画素Pから第1のオブジェクト及び第2のオブジェクトまでの距離が所定の距離基準a(例えば、5画素)以内である
これらの条件を満たす画素が特定された場合には、非ボーダーオブジェクト分離部14は、特定された画素を第1の境界基準画素P(図16及び図17参照)とする。
なお、第1の参考画素PR1は、第1の境界基準画素Pに隣接している画素であってもよい。
同様に、第2の境界基準画素Pを特定するためには、非ボーダーオブジェクト分離部14は、画素Pの輝度値に基づいて、上述の処理で輝度が低いと判断された第1軸の負方向における最も近い背景画素までの距離dを計算し、そしてこの距離dと、所定のオフセットbとに基づいて、第1軸の負方向に沿って第2の境界基準画素Pまでの距離dを計算する。ここでは、dは上述した数式1によって求められる。
次に、非ボーダーオブジェクト分離部14は、第2の境界基準画素Pを特定するために、非ボーダーオブジェクト分離部14は、対象画素Pから第1軸(つまり、輝度値が低い画素で構成される軸であるX軸)の負方向に沿った画素Pが下記a、b、cを満たすか否かを検証する。
a)背景画素(輝度値が0の画素)である
b)負方向に存在する画素(第2の参考画素PL1、図示せず)が背景画素である
c)第1のオブジェクト及び第2のオブジェクトが第2軸の正方向および負方向に存在し、境界基準画素Pから第1のオブジェクト及び前記第2のオブジェクトまでの距離が所定の距離基準a(例えば、5画素)以内である
これらの条件を満たす画素が特定された場合には、非ボーダーオブジェクト分離部14は、特定された画素を第2の境界基準画素P(図16及び図17参照)とする。
なお、第2の参考画素PL1は、第2の境界基準画素Pに隣接している画素であってもよい。
次に、ステップNBS4では、非ボーダーオブジェクト分離部14は、第1の境界基準画素と第2の境界基準画素とに基づいて、分離境界線NB2005を生成する。具体的には、非ボーダーオブジェクト分離部14は、対象画素Pを通過し、第1の境界基準画素Pと第2の境界基準画素Pを結んだ線分を生成し、これを分離境界線としてもよい(図18参照)。これにより、第1のオブジェクトNB2002と第2のオブジェクトNB2003の輪郭が明確となり、後述する分類処理において、それぞれのオブジェクトを識別及び分類する精度が向上する。
また、分離境界線を生成した後、非ボーダーオブジェクト分離部14は、第1のオブジェクトNB2002と第2のオブジェクトNB2003を分離境界線NB2005に沿って分離した画像CBを生成する。この画像CBを後述する分類部に供給することで、画像CBに写っているオブジェクト(例えば、第1のオブジェクトNB2002と第2のオブジェクトNB2003)を、オブジェクトが属するカテゴリーに分類可能となる。
なお、P及びPから第1のオブジェクト及び第2のオブジェクトまでの距離が所定の距離基準a以内に存在するか否かを検証することにより、分離境界線が適切な位置に生成され、接触した複数のオブジェクトを分割可能となる。
以上説明した非ボーダーオブジェクト分離処理を行うことで、接触しているオブジェクトを個々の独立したオブジェクトに分離することができ、これにより、後述する分類処理及び定量的分析の精度が向上する。
なお、以上説明した非ボーダーオブジェクトを分離する処理はあくまでも一例であり、重なっている非ボーダーオブジェクトを分離できる手段であれば、他の手段も用いられてもよい。
次に、図19及び図20を参照して、本発明に係る分類処理について説明する。上述したように、互いに接触しているオブジェクトを分離した画像を本発明に係る分類部によって処理することで、画像に写っているオブジェクトをクラス毎に分類することができる。
図19は、本発明に係る分類処理を示すフローチャートである。
まず、ステップCON1では、分類部(例えば図1に示す分類部15)は、第1のオブジェクトと第2のオブジェクトとが分離境界線に沿って分離された画像CBの前景を複数の領域に区画する。ここで、「区画する」とは、画像CBを複数の領域に分割したり、仕切ったり、グループ化したりすることを含む。この画像区画処理では、対象の画像は例えば均等の面積を有する格子状のパッチに分断されてもよい。パッチの大きさは、対象画像の画素数や複雑さ、又は画像処理装置のメモリ制約等に応じて適宜に定める。
次に、ステップCON2では、分類部は、区画した領域の中から、任意の領域(又は複数の隣接している領域)を選択する。
次に、ステップCON3では、分類部は、例えば畳み込みニューラルネットワークや主成分分析、t-SNE(t-Distributed Stochastic Neighbor Embedding)等の分類手段を用いて、選択された領域に該当するクラスを判定する。ここでのクラスとは、選択された領域に含まれるオブジェクトを定義する種類(カテゴリー)である。一例として、このクラスは、例えば、選択された領域に写っている物体を判別するラベルであってもよい。
ステップCON4では、分類される領域がストレージ部(例えば図1に示すストレージ部90)に格納される。
次に、ステップCON5では、分類部は、画像における全ての領域が分類されているか否かを確認する。全ての領域が分類されている場合には、本処理はステップCON6に進み、全ての領域が分類されていない場合には、本処理は、ステップCON2に戻る。
次に、ステップCON6では、分類部は、領域に対する分類結果を結合し、画像CCとして出力する。
図20は、本発明に係る分類部による動作の一例を示す図である。図20に示す画像CBは、互いに接触している複数のオブジェクトを個々の独立したオブジェクトに分離した画像である。例えば画像CBのオブジェクトR4000はまだ分類されていないため、どのクラスに属するものであるかが不明である。このような画像CBを上述した分類部によって処理することで、それぞれのオブジェクトがクラス毎に分類される画像CCを生成することができる。
例えば、画像CCに示すように、画像CBのオブジェクトがRCA及びRCBの2つの異なるクラス(色の違いで示されている)に分かれており、オブジェクトR4001がRCBのクラスに分類されている。このような、オブジェクトがクラス毎に分類されている画像CCを後述する定量情報算出部によって処理することで、オブジェクトに関する定量情報を導出することができる。
このように画像のオブジェクトをクラス毎に分類することで、類似の特徴を有するオブジェクトを同様のカテゴリーに分けることができ、オブジェクトに関するカテゴリー毎の定量的分析が可能となる。
次に、図21を参照して、本発明に係る、オブジェクトに対する定量的分析の処理について説明する。
図21は、定量的分析の処理の一例を示す図である。上述したように、背景と前景が分割され、互いに接触したオブジェクトが分離され、オブジェクトがクラス毎に分類されている画像CCを本発明に係る定量情報算出部(例えば、図1に示す定量情報算出部16)によって処理することで、オブジェクトに関する定量情報を導出することができる。
なお、ここでは、オブジェクトに関する定量情報として、オブジェクトの数及びクラス間の割合を計算する一例を説明するが、本発明はそれに限定されず、他の定量情報を生成することもできる。
まず、ステップQ1では、定量情報算出部は、画像CCにおいて、一つのオブジェクト(つまり、繋がっている前景領域を含む領域)を選択する。
次に、ステップQ2では、定量情報算出部は、選択されたオブジェクトのクラスを分類部の結果(例えば、画像CCのオブジェクトに対して付与されているラベル)から、選択されたオブジェクトのクラスを特定し、そのクラスのカウンターをインクリメントする。
次に、ステップQ3では、定量情報算出部は、画像CCにおける全ての前景領域(つまり、オブジェクト)が計数済みか否かを確認する。全ての前景領域が計数済みである場合には、本処理はステップQ4に進み、全ての前景領域が数えられていない場合には、本処理はステップQ1に進む。
ステップQ4では、定量情報算出部は、各クラスのオブジェクト数の総和を計算する。
ステップQ5では、定量情報算出部は、画像のオブジェクトに関して計算した定量情報(例えば、クラス毎の数とクラス間の割合)を算出する。算出した定量情報は、例えばストレージ部(例えば図1に示すストレージ部90)に格納してもよいし、表示装置を用いてユーザに提供されてもよいし、オブジェクトの更なる計算のために別の機能部・外部の装置に送信されてもよい。
以上説明した実施例1によれば、画像内に互いに接触している複数のオブジェクトを分離することによって、当該オブジェクトを正確に分類し、分類したオブジェクトに対する定量的分析を可能にすることができる。
次に、図22~図27を参照して、本発明に係る実施例2について説明する。
上述したように、画像の前景と背景を分割する際に、色やテクスチャが背景に類似しているため、背景と判断されてしまう前景領域(誤背景領域)が発生する場合がある。このような誤背景領域が画像に存在する場合には、正確に画像を分析をできない恐れがあるため、本発明の係る実施例2は、画像中に発生する誤背景領域を特定し、修正することで、正確な定量的分析を可能にするものである。
まず、図22を参照して、本発明の実施例2に係る画像処理装置の機能的構成について説明する。
図22は、本発明の実施例2に係る画像処理装置H1の機能的構成を示すブロック図である。図22に示されるように、画像処理装置H1は、入力部10と、領域分割部11と、領域修正部H1000と、接触分離部12と、分類部15と、定量情報算出部16と、ストレージ部90と、制御部91とを含む。また、接触分離部12は、ボーダーオブジェクト分離部13と、非ボーダーオブジェクト分離部14とを更に含む。画像処理装置H1を構成する機能部は、例えばソフトウエアモジュールとして実現されてもよく、独立した専用ハードウェアとして実現されてもよい。
なお、本発明の実施例2に係る画像処理装置H1と実施例1に係る画像処理装置1と異なる点は、画像処理装置H1が領域修正部H1000を備える点である。画像処理装置H1が領域修正部H1000を備える点以外、画像処理装置H1の構成は実施例1の画像処理装置1と同様であるため、同様の機能部の説明は省略する。
領域修正部H1000は、例えば領域分割部11が画像の前景と背景とを分割する際に画像中に発生する誤背景領域を修正するための機能部である。領域修正部H1000が行う処理については後述する。
次に、図23を参照して、本発明の実施例2に係る画像処理装置のハードウェア構成について説明する。
図23は、本発明の実施例2に係る画像処理装置H1のハードウェア構成の一例を示すブロック図である。図23に示されるように、画像処理装置H1は、CPU201と、メモリ202と、出力装置203と、入力装置204と、通信装置205と、ストレージ装置206とを含む。これらの装置は、バス207によって相互に接続される。
なお、本発明の実施例2に係る画像処理装置H1と実施例1に係る画像処理装置1の異なる点は、画像処理装置H1が領域修正部H1000を備える点である。画像処理装置H1が領域修正部H1000を備える点以外、画像処理装置H1の構成は実施例1の画像処理装置1と同様であるため、同様の機能部の説明を省略する。
図24は、誤背景領域を含む画像の一例を示す図である。図24に示すように、画像の前景に含まれるオブジェクトの中には、誤って背景領域と判定されてしまった誤背景領域Hが存在する。これらの誤背景領域Hは、例えば上述した領域分割部が画像の前景と背景とを分割する際に生じてしまうものである。誤背景領域Hが前景に存在する場合には、上述した接触分離処理、分類処理、及び定量情報算出処理の精度が低下する可能性があるため、誤背景領域Hを修正することが望ましい。従って、本発明の実施例2に係る領域修正部は、画像中に発生する誤背景領域を修正することで、精度良く定量情報を算出可能となる。
図25は、図24に示す、誤背景領域を含む画像を本発明の実施例2に係る領域修正部によって修正された画像の一例を示す図である。図25に示すように、誤背景領域を含む画像を本発明の実施例2に係る領域修正部によって修正することで、上述した誤背景領域Hが前景領域として修正されているため、接触分離処理、分類処理、及び定量情報算出処理を円滑に行うことが可能となり、精度良く定量情報を算出可能となる。
次に、図26を参照して、本発明に係る領域修正処理の一例について説明する。
図26は、本発明の実施例2に係る領域修正処理を示すフローチャートである。上述したように、本発明の実施例2に係る領域修正部(例えば図22及び図23に示す領域修正部H1000)は、誤背景領域を含む画像に対して以下の処理を施すことで、誤背景領域を修正することができる。
まず、ステップK1001では、領域修正部は、上述した領域分割部(例えば、図1に示す領域分割部11)が出力する、前景と背景とが分割されている画像CAに対して、いわゆるウォーターシェッド変換処理を施す。このウォーターシェッド変換では、画像が地形学的な表面と見なされ、標高の高い領域に属する画素が高い輝度値となり、標高の低い領域に属する画素が低い輝度値となる。このウォーターシェッド変換を、前景と背景とが分割されている画像CAに対して施すことにより、独立している背景領域が他の背景領域に繋げられ、より大きい背景領域が1つ以上存在する画像が生成される。
次に、ステップK1002では、領域修正部は、ステップK1001で生成された画像のうち、背景に属する画素(輝度値が0の画素)を全て選択する。
次に、ステップK1003では、領域修正部は、ステップK1002で選択した背景画素の中から、所定の基準を満たす連結領域(例えば、最大の画素数を有する連結領域)を抽出し、背景領域とする。
次に、ステップK1004では、領域修正部は、ステップK1003で選択した背景領域以外の黒い領域(輝度値が0の領域)を前景に変換する。これにより、例えば前景のオブジェクトの内部に含まれている背景領域(すなわち、誤背景領域)が前景領域に修正される。
次に、ステップK1005では、領域修正部は、上述した領域分割部が出力する、前景と背景とが分割されている画像CAの前景領域をステップK1004で生成された画像に重ね合わせる。具体的には、領域修正部は、画像CAにおいて前景領域に属する画素に対応する、ステップK1004が生成した画像内の画素を前景画素に変換する。
上述のステップK1001からK1005を実行することで、領域修正部は画像CAに存在する誤背景領域を前景領域へ修正する。領域修正部が出力する画像を接触分離部に入力することにより、互いに接触しているオブジェクトをより正確に分離することができる。
次に、図27を参照して、本発明に係る領域修正処理の別の一例について説明する。
図27は、本発明の実施例2に係る領域修正処理の別の一例を示すフローチャートである。上述したように、本発明の実施例2に係る領域修正部(例えば図22及び図23に示す領域修正部H1000)は、誤背景領域を含む画像に対して以下の処理を施すことで、誤背景領域を修正することができる。
まず、ステップA1001では、領域修正部は、上述した領域分割部(例えば、図1に示す領域分割部11)が出力する、前景と背景が分割されている画像CAに対して、いわゆるウォーターシェッド変換処理を施す。このウォーターシェッド変換は、図26のステップK1001で行ったウォーターシェッド変換処理と同様である。ウォーターシェッド変換を、前景と背景とが分割されている画像CAに対して施すことにより、独立している背景領域が同一の背景領域として認識され、より大きい背景領域が1つ以上存在する画像が生成される。
次に、ステップA1002では、領域修正部は、ステップA1001で生成された画像に対して、画像の色を反転した上で、距離変換処理を施す。この距離変換処理により、それぞれの背景画素から最も近い前景画素までの距離が輝度値として表現される画像(距離マップ)が生成される。
次に、ステップA1003では、領域修正部は、輝度値が最も高い画素を画素[i,j]として選択する。これにより前景領域から最も離れた背景画素が選択される。
次に、ステップA1004では、領域修正部は、ステップA1003で選択された画素[i,j]に繋がっている全ての画素を背景領域として選択する。
次に、ステップA1005では、領域修正部は、ステップA1004で選択した背景領域以外の領域を前景に変換する。これにより、例えば前景のオブジェクトの内部に含まれている背景領域(すなわち、誤背景領域)が前景領域に修正される。
次に、ステップA1006では、領域修正部は、上述した領域分割部が出力する、前景と背景とが分割されている画像CAの前景領域をステップA1005で生成された画像に重ね合わせる。具体的には、領域修正部は、画像CAにおいて前景領域に属する画素に対応する、ステップA1005が生成した画像内の画素を前景画素に変換する。
上述のステップA1001からA1006を実行することで、領域修正部は画像CAに存在する誤背景領域を前景領域へ修正する。領域修正部が出力する画像を接触分離部に入力することにより、互いに接触しているオブジェクトを正確に分離することができる。
以上説明した領域修正処理により、実施例1において説明した接触分離処理、分類処理、及び定量情報算出処理の精度が向上するメリットが得られる。
次に、図28及び図29を参照して、本発明の実施例3に係る画像処理システムについて説明する。
図28は、本発明の実施例3に係る画像処理システムW1の一例を示す図である。本発明の実施例3に係る画像処理システムW1は、実施例1及び実施例2に係る画像処理装置を用いて、画像内のオブジェクトに関する定量情報を算出し、算出した定量情報を用いて試料の状態を分析し、分析結果をユーザに提供するための画像処理システムである。
本発明の実施例3に係る画像処理システムW1は、例えば血液、材料、細胞等の状態を分析するために適用されてもよい。
図28に示すように、画像処理システムW1は、撮影装置W11,画像処理装置1、試料状態分析装置W12、及び表示装置W13を含む。
撮影装置W11は、オブジェクトとなる試料(血球、材料、細胞等)を撮影し、画像を生成するための装置である。この撮影装置W11は、例えば、カメラや走査型電子顕微鏡等、画像を撮影できるものであれば任意の装置であってもよい。
画像処理装置1は、実施例1及び実施例2において説明した画像処理装置1と同様のものである。撮影装置W11によって撮影される画像を画像処理装置1によって処理することで、画像に写るオブジェクトに関する定量情報を生成することができる。
試料状態分析装置W12は、画像処理装置1から供給される、画像に写るオブジェクトに関する定量情報に基づいて、試料状態を分析する装置である。試料状態分析装置W12は、画像処理装置1から出力される定量情報を、特定の分野(医療、物理学等)に関する情報を格納する専用データベース(図示せず)に照合することで、画像に写るオブジェクトに関する分析結果を導出してもよい。
例えば、画像に写るオブジェクトが血球の場合、試料状態分析装置W12は、画像処理装置1から出力した血球の数や割合等の定量情報を血液分析用の専用データベースに照合することで、患者の健康状態に関する分析結果を導出することができる。
また、画像に写るオブジェクトが磁性粒子の場合、試料状態分析装置W12は、画像処理装置1から出力した磁性粒子の密度等の定量情報を物理学の情報を有する専用データベースに照合することで、試料の磁気特性に関する分析結果を導出することができる。
表示装置W13は、本発明の処理によって生成される各種データをユーザに提示するための装置である。表示装置W13は、例えば撮影装置W11によって撮影される画像、画像処理装置1によって生成される画像や定量情報、及び試料状態分析装置W12によって生成される結論に関する情報等を表示してもよい。この表示装置は、例えばテレビ、パソコンのディスプレイ、携帯電話・タブレットの画面等、情報を提示できるものであれば、任意の装置であってもよい。
図29は、本発明の実施例3に係る画像処理システムW5の一例を示す図である。本発明の実施例3に係る画像処理システムW5は、実施例1及び実施例2に係る画像処理装置を用いて、画像に写るオブジェクトに関する定量情報を算出し、算出した定量情報を用いて試料の状態を分析し、分析結果をユーザに提供するための画像処理システムである。
図29に示すように、画像処理システムW5は、画像解析装置W2と、サーバW3とから構成される。画像解析装置W2とサーバW3とは、例えばインターネットなどの通信ネットワーク(図示せず)を介して接続される。
画像解析装置W2は、画像処理装置1の代わりに、サーバW3との通信を行うための通信装置W22を備える点以外、図28に示した画像処理システムW1の構成と同様であるため、構成要素の説明を省略する。
サーバW3は、通信ネットワークを介して画像解析装置W2に接続される遠隔サーバである。図29に示すように、サーバW3は、上述した画像処理装置1(例えば実施例1及び実施例2において説明した画像処理装置1)と、ストレージ装置W31と、通信装置W32とを含む。サーバW3は、通信ネットワークを介して、撮影装置W11によって撮影される画像を通信装置W32にて受信し、ストレージ装置W31に格納する。その後、画像処理装置1は、実施例1及び実施例2において説明した処理を格納された画像に対して施すことで、定量情報を生成する。そして、通信装置W32は、画像処理装置1によって生成された定量情報を通信ネットワークを介して画像解析装置W2に送信する。
サーバW3から定量情報を受信した画像解析装置W2は、当該定量情報を上述した試料状態分析装置W12で分析し、画像に写る試料の状態を分析し、分析結果を得る。この分析結果は、例えば表示装置W13を介してユーザに提供されてもよい。
また、上述した図28には特に図示していないが、画像処理システムW1は内部に入力画像や、入力画像の属性情報、中間処理結果、画像処理装置1が算出する定量情報等を保存するためのストレージ装置を含んでも良い。入力画像の属性情報としては例えば試料の取得元を識別する為の符号や画像の取得日時等の情報を付与する。
前記ストレージ装置に、入力画像と入力画像の属性情報、および画像処理装置1が算出する定量情報を保存することで、例えば同一の試料から異なる時刻Aと時刻Bに取得した各画像に対する定量情報を算出し、定量情報の変化を解析することで、試料の状態または状態変化を分析することが可能となる。
前記画像処理システムW1は時刻Aと時刻Bの間に、試料に対して薬剤投与や温度変化、物理的な衝撃等、何らかの操作を適用し、その操作の影響を分析する為に用いても良いし、培養のように一定の時間が経過することで試料がどのように変化したかを分析する為に用いても良い。
また、ストレージ装置に画像処理装置1が算出した定量情報を蓄積することで、試料状態分析装置W12は定量情報の平均値や分散値等の統計情報を算出し、前記統計情報と、未知画像の定量情報を比較することで試料状態を分析しても良い。ストレージ装置には定量情報を網羅的に保存するのではなく、平均値や分散値等の統計情報を算出し、算出した統計情報のみを保存しても良い。また、入力画像の属性情報に応じて定量情報を分類して、分類毎に統計情報を算出し、算出した統計情報を用いて試料状態の分析を行ってもよい。
上記ストレージ装置を用いた画像処理システムは図29に示した画像処理システムW5についても適用できる。ストレージ装置がサーバW3の内部に位置すること以外は画像処理システムW1と同様であるため説明を省略する。
以上説明した実施例により、画像において互いに接触している複数のオブジェクトを分離し、オブジェクトに対するクラスを分類することで、精度良く定量的分析を行うことが可能となる。また、算出した定量情報に基づき、画像内の試料の状態を分析することが可能となる。
本発明に係る実施形態の機能は、ソフトウェアのプログラムコードによっても実現されてもよい。この場合、本発明の機能を実施するためのプログラムコードが記録された記憶媒体が装置やシステムに供給され、当該装置やシステムに搭載されるコンピューティングデバイス(CPU、MPU等)がプログラムコードを読み取って実施してもよい。記憶媒体から読出されたプログラムコードをコンピュータによって実行することで、前述した実施形態の機能が実現されることにとり、当該機能を実施するために用いられたプログラムコード、記憶媒体、及びコンピューティングデバイス自体が本発明の構成要素となる。
プログラムコードを記録するための記憶媒体としては、例えばフレキシブルディスク、CD-ROM、DVD-ROM、ハードディスク、光ディスク、光磁気ディスク、CD-R、磁気テープ、不揮発性メモリカード、ROM等がある。
以上、本発明の実施の形態について説明したが、本発明は、上述した実施の形態に限定されるものではなく、本発明の要旨を逸脱しない範囲において種々の変更が可能である。
1 画像処理装置
10 入力部
11 領域分割部
12 接触分離部
13 ボーダーオブジェクト分離部
14 非ボーダーオブジェクト分離部
15 分類部
16 定量情報算出部
90 ストレージ部
91 制御部
201 CPU
202 メモリ
203 出力装置
204 入力装置
205 通信装置
206 ストレージ装置
207 バス

Claims (15)

  1. 画像内のオブジェクトの定量的な情報を算出する画像処理装置であって、
    前記画像処理装置は、
    画像を入力する入力部と
    画像の前景と背景を分割する領域分割部と、
    画像内の接触している複数のオブジェクトを分離する接触分離部と、
    各オブジェクトをクラス毎に分類する分類部と、
    オブジェクトに関する定量情報を生成する定量情報算出部と、
    を含み、
    前記入力部は、
    定量情報の算出対象である画像を受付け、
    前記領域分割部は、
    前記画像において、定量情報の算出対象であるオブジェクトが写っている領域を前景領域、その他を背景領域として画像を分割し、
    前記接触分離部は、
    前記画像内の互いに接触している第1のオブジェクトと第2のオブジェクトに対して、
    前記領域分割部が出力する領域分割結果に基づいて、
    前記第1のオブジェクトと第2のオブジェクトの接触点を検出し、
    接触点から最も近い背景領域を第1の境界基準画素、
    第1の境界基準画素から接触点を挟んで逆方向にある背景領域を第2の境界基準画素として、
    2つの境界基準画素を結ぶことで前記第1のオブジェクトと第2のオブジェクトを分離し、
    前記分類部は、
    前記画像内の各オブジェクトをクラス毎に分類し、
    前記定量情報算出部は、
    前記領域分割部が出力する領域分割結果、前記接触分離部が出力する接触分離結果、および、前記分類部が出力する分類結果に基づいて、
    オブジェクトに関する定量情報を生成し、出力する、
    ことを特徴とする画像処理装置。
  2. 請求項1に記載の装置であって、
    前記接触分離部は、
    画像端に存在する接触している複数のオブジェクトを分離するボーダーオブジェクト分離部と、
    画像端以外に存在する接触している複数のオブジェクトを分離する非ボーダーオブジェクト分離部から構成され、
    前記ボーダーオブジェクト分離部は、
    画像端に存在する互いに接触している第1のオブジェクトと第2のオブジェクトに対して、
    前記領域分割部が出力する領域分割結果内の前景領域から各オブジェクトを代表する中心領域を抽出し、
    前記各オブジェクトの中心領域同士の位置関係に基づいて、
    前記第1のオブジェクトと第2のオブジェクトを分離し、
    前記非ボーダーオブジェクト分離部は、
    画像端以外に存在する互いに接触している第1のオブジェクトと第2のオブジェクトを分離する為に、
    請求項1に記載の接触分離部を用いる、
    ことを特徴とする画像処理装置。
  3. 請求項1または請求項2に記載の装置であって、
    前記領域分割部が出力する領域分割結果に含まれる、前景領域内の誤背景領域を修正する領域修正部、
    を更に含み、
    前記領域修正部は、前記領域分割結果内の前景領域または背景領域の接続状況や面積に基づいて、
    前記領域分割結果内の背景領域を特定することで、
    前記領域分割結果に含まれる前景領域内の誤背景領域を検出し、
    検出した誤背景領域を前景領域に変換する
    ことを特徴とする画像処理装置。
  4. 請求項1または請求項2に記載の装置であって、
    画像内の球状および類円状のオブジェクト、または、球状および類円状を拡大縮小した形状のオブジェクトを定量情報の算出対象とする、
    ことを特徴とする画像処理装置。
  5. 画像内のオブジェクトの定量的な情報を算出する画像処理装置であって、
    前記画像処理装置は、
    画像を入力する入力部と、
    画像の背景と前景を分割する領域分割部と、
    画像におけるオブジェクトを分離する接触分離部と、
    オブジェクトをクラス毎に分類する分類部と、
    オブジェクトに関する定量情報を生成する定量情報算出部と、
    を含み、
    前記入力部は、
    定量情報の算出対象である画像を受付け、
    前記領域分割部は、
    前記画像において、第1のオブジェクトと第2のオブジェクトとを含む前景と、それ以外の領域を含む背景とを分割し、
    前記接触分離部は、
    前記第1のオブジェクトと前記第2のオブジェクトの少なくとも一方に属する各画素に対して、当該画素から最も近い背景までの距離を輝度値で示す距離マップを生成し、
    前記距離マップにおいて、第1軸に沿う輝度値が第2軸に沿う輝度値より低い対象画素(P)を特定し、
    前記対象画素から、前記第1軸の正方向に沿った画素が以下の条件a、b、cを満たした場合に当該画素を第1の境界基準画素(PR)とし、
    a)当該画素が背景画素であり、
    b)当該画素の更に正方向に存在する第1の参考画素が背景画素であり、
    c)前記第1のオブジェクト及び前記第2のオブジェクトが前記第2軸の正方向および負方向に存在し、前記第1の境界基準画素から前記第1のオブジェクト及び前記第2のオブジェクトに対する距離が所定の距離基準内に存在する画素である、
    前記対象画素から、前記第1軸の負方向に沿った画素が以下の条件d、e、fを満たした場合に当該画素を第2の境界基準画素(PL)とし、
    d)当該画素が背景画素であり、
    e)当該画素の更に負方向に存在する第2の参考画素が背景画素であり、
    f)前記第1のオブジェクト及び前記第2のオブジェクトが前記第2軸の正方向および負方向に存在し、前記第2の境界基準画素から前記第1のオブジェクト及び前記第2のオブジェクトに対する距離が所定の距離基準内に存在する画素である、
    前記第1の境界基準画素と前記第2の境界基準画素とを結んだ線分を、前記対象画素を通過する分離境界線として生成し、
    前記第1のオブジェクトと前記第2のオブジェクトを前記分離境界線に沿って分離した最終画像を生成し、
    前記分類部は、
    前記第1のオブジェクトと前記第2のオブジェクトをクラス毎に分類し、
    前記定量情報算出部は、前記第1のオブジェクトと前記第2のオブジェクトに関する定量情報を生成し、出力する、
    ことを特徴とする画像処理装置。
  6. 画像内のオブジェクトの定量的な情報を算出する画像処理方法であって、
    前記画像処理方法は、
    画像を入力する入力処理と
    画像の前景と背景を分割する領域分割処理と、
    画像内の接触している複数のオブジェクトを分離する接触分離処理と、
    各オブジェクトをクラス毎に分類する分類処理と、
    オブジェクトに関する定量情報を生成する定量情報算出処理と、
    を含み、
    前記入力処理は、
    定量情報の算出対象である画像を受付け、
    前記領域分割処理は、
    前記画像において、定量情報の算出対象であるオブジェクトが写っている領域を前景領域、その他を背景領域として画像を分割し、
    前記接触分離処理は、
    前記画像内の互いに接触している第1のオブジェクトと第2のオブジェクトに対して、
    前記領域分割処理で算出する領域分割結果に基づいて、
    前記第1のオブジェクトと第2のオブジェクトの接触点を検出し、
    接触点から最も近い背景領域を第1の境界基準画素、
    第1の境界基準画素から接触点を挟んで逆方向にある背景領域を第2の境界基準画素として、
    2つの境界基準画素を結ぶことで前記第1のオブジェクトと第2のオブジェクトを分離し、
    前記分類処理は、
    前記画像内の各オブジェクトをクラス毎に分類し、
    前記定量情報算出処理は、
    前記領域分割処理で算出する領域分割結果、前記接触分離処理で算出する接触分離結果、および、前記分類処理で算出する分類結果に基づいて、
    オブジェクトに関する定量情報を生成し、出力する、
    ことを特徴とする画像処理方法。
  7. 請求項6に記載の画像処理方法であって、
    前記接触分離処理は、
    画像端に存在する接触している複数のオブジェクトを分離するボーダーオブジェクト分離処理と、
    画像端以外に存在する接触している複数のオブジェクトを分離する非ボーダーオブジェクト分離処理から構成され、
    前記ボーダーオブジェクト分離処理は、
    画像端に存在する互いに接触している第1のオブジェクトと第2のオブジェクトに対して、
    前記領域分割処理で算出する領域分割結果内の前景領域から各オブジェクトを代表する中心領域を抽出し、
    前記各オブジェクトの中心領域同士の位置関係に基づいて、
    前記第1のオブジェクトと第2のオブジェクトを分離し、
    前記非ボーダーオブジェクト分離処理は、
    画像端以外に存在する互いに接触している第1のオブジェクトと第2のオブジェクトを分割する方法として、請求項6に記載の接触分離処理を用いる、
    ことを特徴とする画像処理方法。
  8. 請求項6または請求項7に記載の画像処理方法であって、
    前記領域分割処理で算出する領域分割結果に含まれる、前景領域内の誤背景領域を修正する領域修正処理、
    を更に含み、
    前記領域修正処理は、前記領域分割結果内の前景領域または背景領域の接続状況や面積に基づいて、
    前記領域分割結果内の背景領域を特定することで、
    前記領域分割結果に含まれる前景領域内の誤背景領域を検出し、
    検出した誤背景領域を前景領域に変換する
    ことを特徴とする画像処理方法。
  9. 請求項6または請求項7に記載の画像処理方法であって、
    画像内の球状および類円状のオブジェクト、または、球状および類円状を拡大縮小した形状のオブジェクトを定量情報の算出対象とする、
    ことを特徴とする画像処理方法。
  10. 第1のオブジェクトと第2のオブジェクトが互いに接触している画像において、
    前記第1のオブジェクトと前記第2のオブジェクトの少なくとも一方に属する各画素に対して、当該画素から最も近い背景までの距離を輝度値で示す距離マップを生成する処理と、
    前記距離マップにおいて、第1軸に沿う輝度値が第2軸に沿う輝度値より低い対象画素(P)を特定する処理と、
    前記対象画素から、前記第1軸の正方向に沿った画素が以下の条件a、b、cを満たした場合に当該画素を第1の境界基準画素(PR)とする処理と、
    a)当該画素が背景画素であり、
    b)当該画素の更に正方向に存在する第1の参考画素が背景画素である、
    c)前記第1のオブジェクト及び前記第2のオブジェクトが前記第2軸の正方向および負方向に存在し、前記第1の境界基準画素から前記第1のオブジェクト及び前記第2のオブジェクトに対する距離が所定の距離基準内に存在する画素である、
    前記対象画素から、前記第1軸の負方向に沿った画素が以下の条件d、e、fを満たした場合に当該画素を第2の境界基準画素(PL)とする処理と、
    d)当該画素が背景画素であり、
    e)当該画素の更に負方向に存在する第2の参考画素が背景画素である、
    f)前記第1のオブジェクト及び前記第2のオブジェクトが前記第2軸の正方向および負方向に存在し、前記第2の境界基準画素から前記第1のオブジェクト及び前記第2のオブジェクトに対する距離が所定の距離基準内に存在する画素である、
    前記第1の境界基準画素と前記第2の境界基準画素とを結んだ線分を、前記対象画素を通過する分離境界線として生成する処理と、
    を含む画像処理方法。
  11. 試料の状態を判定する画像処理システムであって、
    前記画像処理システムは、
    試料の画像を取得する撮影装置と、
    前記撮影装置が撮影した画像内のオブジェクトの定量的な情報を算出する画像処理装置と、
    前記画像処理装置が出力するオブジェクトの定量的な情報から試料の状態を分析する試料状態分析装置と、
    前記試料状態分析装置が出力する試料状態分析結果をユーザーに提示する表示装置と、
    を含み、
    前記画像処理装置は請求項1乃至5に記載の画像処理装置のいずれかを用いる
    ことを特徴とする画像処理システム。
  12. 請求項11に記載の画像処理システムであって、
    前記画像処理システムは、
    前記撮影装置が取得した画像や
    前記画像処理装置が出力する定量情報を保存するストレージ装置
    を更に含み、
    前記ストレージ装置は、
    前記撮影装置が取得した画像、あるいは、画像と画像の属性情報および、
    前記定量情報を紐付けて保存すること
    を特徴とする画像処理システム。
  13. 請求項12に記載の画像処理システムであって、
    前記画像処理システムは
    前記撮影装置と
    前記試料状態分析装置と
    前記表示装置と、
    外部装置と通信を行う通信装置と、
    を有する画像解析装置と、
    前記画像処理装置と、
    外部装置と通信を行う通信装置と、
    前記画像処理装置が出力する定量情報等を保存するストレージ装置と、
    を有するサーバと、
    から構成され、
    前記通信装置は、
    前記撮影装置が撮影した画像と、
    前記サーバ内の画像処理装置またはストレージ装置が出力する定量情報を、
    前記画像解析装置と前記サーバ間で送受信する
    ことを特徴とする画像処理システム。
  14. 請求項12または請求項13に記載の画像処理システムであって、
    前記ストレージ装置は、
    前記撮影装置が取得する画像および試料の取得元を表す属性情報と、
    前記画像処理装置が出力する定量情報を紐付けて保存し、
    前記試料状態分析装置は、
    異なる時刻に入力された、同一の属性情報を有する複数の画像および定量情報を用いて、
    試料の状態変化を算出し、
    算出した試料の状態変化に関する情報を試料状態分析結果として出力する
    ことを特徴とする画像処理システム。
  15. 請求項12または請求項13に記載の画像処理システムであって、
    前記ストレージ装置は、
    前記画像処理装置が出力する定量情報を蓄積し、
    前記試料状態分析装置は、
    前記ストレージ装置が出力する蓄積された定量情報から、
    平均値や分散値等の統計量を算出し、
    前記撮影装置が取得する画像の定量情報と前記統計量との比較により、
    分析した試料の状態を試料状態分析結果として出力する
    ことを特徴とする画像処理システム。
JP2019085082A 2019-04-26 2019-04-26 画像処理方法、画像処理装置及び画像処理システム Active JP7241598B2 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2019085082A JP7241598B2 (ja) 2019-04-26 2019-04-26 画像処理方法、画像処理装置及び画像処理システム
PCT/JP2020/004529 WO2020217643A1 (ja) 2019-04-26 2020-02-06 画像処理方法、画像処理装置及び画像処理システム
US17/605,349 US20230177699A1 (en) 2019-04-26 2020-02-06 Image processing method, image processing apparatus, and image processing system
CN202080030691.3A CN113728357B (zh) 2019-04-26 2020-02-06 图像处理方法、图像处理装置以及图像处理系统
EP20795159.1A EP3961562B1 (en) 2019-04-26 2020-02-06 Image processing method, image processing device, and image processing system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019085082A JP7241598B2 (ja) 2019-04-26 2019-04-26 画像処理方法、画像処理装置及び画像処理システム

Publications (2)

Publication Number Publication Date
JP2020181441A JP2020181441A (ja) 2020-11-05
JP7241598B2 true JP7241598B2 (ja) 2023-03-17

Family

ID=72942469

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019085082A Active JP7241598B2 (ja) 2019-04-26 2019-04-26 画像処理方法、画像処理装置及び画像処理システム

Country Status (5)

Country Link
US (1) US20230177699A1 (ja)
EP (1) EP3961562B1 (ja)
JP (1) JP7241598B2 (ja)
CN (1) CN113728357B (ja)
WO (1) WO2020217643A1 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7449111B2 (ja) * 2020-02-18 2024-03-13 キヤノン株式会社 検査装置、検査方法
DE102020111955A1 (de) * 2020-05-04 2021-11-04 Airbus Defence and Space GmbH Gesichtserkennung mit neuronalen Netzen
CN118628941B (zh) * 2024-08-07 2024-10-11 中科云谷科技有限公司 边坡检测方法、装置、无人机及存储介质

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006018394A (ja) 2004-06-30 2006-01-19 Nikon Corp 細胞識別装置、細胞識別方法、細胞識別用プログラム、および細胞解析装置
JP2017111816A (ja) 2015-12-15 2017-06-22 株式会社リコー 物体分割方法及び装置

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5481620A (en) 1991-09-27 1996-01-02 E. I. Du Pont De Nemours And Company Adaptive vision system
US8687888B2 (en) * 2010-11-18 2014-04-01 Casio Computer Co., Ltd. Region specification method, region specification apparatus, recording medium, server, and system
JP6335695B2 (ja) * 2014-07-09 2018-05-30 キヤノン株式会社 情報処理装置、その制御方法、プログラム、及び記憶媒体
JP6571687B2 (ja) * 2014-12-26 2019-09-04 株式会社日立製作所 画像処理装置及び画像処理方法
US20170091948A1 (en) * 2015-09-30 2017-03-30 Konica Minolta Laboratory U.S.A., Inc. Method and system for automated analysis of cell images

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006018394A (ja) 2004-06-30 2006-01-19 Nikon Corp 細胞識別装置、細胞識別方法、細胞識別用プログラム、および細胞解析装置
JP2017111816A (ja) 2015-12-15 2017-06-22 株式会社リコー 物体分割方法及び装置

Also Published As

Publication number Publication date
JP2020181441A (ja) 2020-11-05
EP3961562B1 (en) 2023-12-20
CN113728357A (zh) 2021-11-30
WO2020217643A1 (ja) 2020-10-29
US20230177699A1 (en) 2023-06-08
CN113728357B (zh) 2023-12-12
EP3961562A4 (en) 2023-01-18
EP3961562A1 (en) 2022-03-02

Similar Documents

Publication Publication Date Title
US10943346B2 (en) Multi-sample whole slide image processing in digital pathology via multi-resolution registration and machine learning
US10839510B2 (en) Methods and systems for human tissue analysis using shearlet transforms
JP6710135B2 (ja) 細胞画像の自動分析方法及びシステム
Zhang et al. Automated semantic segmentation of red blood cells for sickle cell disease
KR101932009B1 (ko) 다중 객체 검출을 위한 영상 처리 장치 및 방법
US20220215548A1 (en) Method and device for identifying abnormal cell in to-be-detected sample, and storage medium
JP7241598B2 (ja) 画像処理方法、画像処理装置及び画像処理システム
CN111881913A (zh) 图像识别方法及装置、存储介质和处理器
US8600143B1 (en) Method and system for hierarchical tissue analysis and classification
CN109154978A (zh) 用于检测植物疾病的系统和方法
WO2020062360A1 (zh) 一种图像融合分类的方法及装置
US20080123959A1 (en) Computer-implemented method for automated object recognition and classification in scenes using segment-based object extraction
Yadav et al. An improved deep learning-based optimal object detection system from images
CN111199197B (zh) 一种人脸识别的图像提取方法及处理设备
WO2018050123A1 (zh) 虹膜图像的检测方法和装置
CN111095075B (zh) 用于电子显微镜的全自动、无模板粒子拾取
Hichri et al. Interactive segmentation for change detection in multispectral remote-sensing images
CN117315210B (zh) 一种基于立体成像的图像虚化方法及相关装置
CN112907206A (zh) 一种基于视频对象识别的业务审核方法、装置及设备
CN108229514A (zh) 物体检测方法、装置和电子设备
Patange et al. Blur Removal and Image Merging for Image Enhancement on Python
Aldakheel et al. Detection of targeted region using deep learning-based multiscale AlexNet CNN scheme for hyperspectral satellite image
CN111553925B (zh) 一种基于fcn的端对端农作物影像分割方法及系统
CN106056579A (zh) 一种基于背景对比的显著性检测方法
Yan et al. Cross-Scale Feature Selection Transformer for Street-Level Crop Classification

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211215

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211215

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221025

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221130

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230221

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230307

R150 Certificate of patent or registration of utility model

Ref document number: 7241598

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150