JP6915349B2 - 画像処理装置、画像処理方法、及び画像処理プログラム - Google Patents

画像処理装置、画像処理方法、及び画像処理プログラム Download PDF

Info

Publication number
JP6915349B2
JP6915349B2 JP2017074642A JP2017074642A JP6915349B2 JP 6915349 B2 JP6915349 B2 JP 6915349B2 JP 2017074642 A JP2017074642 A JP 2017074642A JP 2017074642 A JP2017074642 A JP 2017074642A JP 6915349 B2 JP6915349 B2 JP 6915349B2
Authority
JP
Japan
Prior art keywords
image
bright
feature map
feature
image processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017074642A
Other languages
English (en)
Other versions
JP2018180635A (ja
Inventor
岳彦 指田
岳彦 指田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konica Minolta Inc
Original Assignee
Konica Minolta Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konica Minolta Inc filed Critical Konica Minolta Inc
Priority to JP2017074642A priority Critical patent/JP6915349B2/ja
Priority to US15/944,211 priority patent/US10692209B2/en
Publication of JP2018180635A publication Critical patent/JP2018180635A/ja
Application granted granted Critical
Publication of JP6915349B2 publication Critical patent/JP6915349B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2413Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
    • G06F18/24133Distances to prototypes
    • G06F18/24137Distances to cluster centroïds
    • G06F18/2414Smoothing the distance, e.g. radial basis function networks [RBFN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • G06N20/10Machine learning using kernel methods, e.g. support vector machines [SVM]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/04Inference or reasoning models
    • G06N5/046Forward inferencing; Production systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/443Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
    • G06V10/449Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
    • G06V10/451Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
    • G06V10/454Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/69Microscopic objects, e.g. biological cells or cellular parts
    • G06V20/698Matching; Classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10052Images from lightfield camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10056Microscopic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10064Fluorescence image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30024Cell structures in vitro; Tissue sections in vitro

Description

本開示は、画像処理装置、画像処理方法、及び画像処理プログラムに関する。
近年、抗体医薬を中心とした分子標的薬治療の広がりに伴い、分子標的薬をより効果的に設計するため、観察対象の細胞の形態を識別したり、当該細胞内の生体物質(例えば、酵素、リボソーム、又はタンパク質等)の定量を行うことが求められている。
従来より、観察対象の細胞の形態を識別したり、当該細胞内の生体物質を定量する手法としては、細胞に蛍光試薬を付着させて、その蛍光反応を撮像した蛍光画像が用いられている。
例えば、特許文献1には、蛍光物質を内包したナノ粒子を用いて細胞の特定抗原を染色し、蛍光画像で撮像されるナノ粒子の蛍光シグナルに基づいて特定抗原の情報を生成する方法が記載されている。特許文献1に記載の方法によれば、蛍光シグナルがドット状の蛍光輝点として観察されるため、これによって、当該細胞における特定抗原の発現を容易に観察し、高精度に定量できる。
しかしながら、実際のところ、細胞を撮像した顕微鏡画像においては、複数の細胞が重畳した状態で観察されたり、観察対象とする細胞以外の物体(例えば、種別の異なる細胞等)が混在した状態で観察される場合もある。この点、蛍光画像のみを用いた特許文献1に記載の方法では、このような場合、蛍光輝点がいずれの細胞に所属するか等を判別できない。そのため、例えば、1細胞当りの蛍光輝点数や細胞内の蛍光輝点の分布等を診断情報とする場合には、正確な診断情報が生成できず、誤診に繋がる可能性がある。
かかる観点から、上記した蛍光画像に加えて、同一領域を明視野で撮像した明視野画像を用いて、当該蛍光画像と明視野画像とを比較することによって、個々の細胞の形態や、細胞内の生体物質を識別する手法が考えられる。
図1は、細胞を撮像した明視野画像の一例を示す図である。図2は、図1の明視野画像と同一の領域を撮像した蛍光画像の一例を示す図である。
明視野画像は、図1に示すように、細胞や背景で構築されており、個々の細胞の形態等を、ある程度確認できる状態で撮像される。
一方、蛍光画像は、図2に示すように、細胞や当該細胞内の生体物質に付着等した蛍光試薬の蛍光反応を撮像したものであって、ほぼ全体が黒い背景の中、蛍光反応を示す蛍光輝点だけが点在するような画像となる(図2は、背景色に対して蛍光輝点のコントラストが視認し得るように、背景色の色を変更して示している)。尚、蛍光画像に現れる蛍光輝点は、当該蛍光試薬内の蛍光物質の蛍光反応であり、特定の細胞又は当該細胞の生体物質の存在する位置、分布又は量等を示唆する。
つまり、明視野画像と蛍光画像とは、画像内の細胞に係る種々の内容を識別する際に互いに補完的に機能する。しかしながら、明視野画像と蛍光画像とを人為的に比較する作業は、非常に煩雑であり、大量の画像を観察することを考慮すると、より簡易、且つ、高精度に、かかる画像解析を実行し得る手法が求められる。
ところで、近年、画像内の被写体が属するカテゴリーを分類したり、当該画像内において被写体が占める領域を識別する画像処理技術として、畳み込みニューラルネットワーク(Convolutional Neural Network;以下、「CNN」とも称する)が知られている(例えば、非特許文献1、非特許文献2を参照)。
かかるCNNを用いて、明視野画像と蛍光画像の連関性も含めて画像解析することができれば、簡易、且つ、高精度に、細胞の種別や形態を識別したり、当該細胞内の生体物質の形態の識別や定量が可能となる。
本開示は、上記の問題点に鑑みてなされたものであり、CNNを用いて、画像に映る細胞に係る識別情報を生成する用に適した画像処理装置、画像処理方法、及び画像処理プログラムを提供することを目的とする。
尚、本開示に係る画像処理装置は、画像に映る細胞の種別、形態若しくは分布、又は、当該細胞内の生体物質の種別、形態若しくは分布等、細胞に係る種々の内容を識別対象とするものであってよく、以下では、これらを「細胞に係る識別情報」と総称して説明する。
前述した課題を解決する主たる本開示は、
細胞を明視野で撮像した明視野画像、及び前記細胞を含む領域に滴下された蛍光試薬の蛍光輝点を撮像した蛍光画像を取得する画像取得部と、
畳み込みニューラルネットワークを用いて、前記明視野画像及び前記蛍光画像の画像特徴を抽出して、前記細胞に係る識別情報を出力するCNN処理部と、
を備える、画像処理装置であって、
前記畳み込みニューラルネットワークは、
階層的に接続された第1の特徴量抽出層列により、前記明視野画像の画像特徴を抽出して、第1の特徴マップ群を生成する明視野画像処理部と、
階層的に接続された第2の特徴量抽出層列により、前記蛍光画像の画像特徴を抽出して、第2の特徴マップ群を生成する蛍光画像処理部と、
前記第1の特徴マップ群と前記第2の特徴マップ群を連結する連結部と、
階層的に接続された第3の特徴量抽出層列により、前記連結部で連結された前記第1及び第2の特徴マップ群の画像特徴を抽出して、第3の特徴マップ群を生成する統合処理部と、
前記第3の特徴マップ群に基づいて、前記細胞に係る識別情報を生成する識別部と、
を有する、画像処理装置である。
又、他の局面では、
細胞を明視野で撮像した明視野画像、及び前記細胞を含む領域に滴下された蛍光試薬の蛍光輝点を撮像した蛍光画像を取得し、
畳み込みニューラルネットワークを用いて、前記明視野画像及び前記蛍光画像の画像特徴を抽出して、前記細胞に係る識別情報を出力する、画像処理方法であって、
前記畳み込みニューラルネットワークは、
階層的に接続された第1の特徴量抽出層列により、前記明視野画像の画像特徴を抽出して、第1の特徴マップ群を生成し、
階層的に接続された第2の特徴量抽出層列により、前記蛍光画像の画像特徴を抽出して、第2の特徴マップ群を生成し、
前記第1の特徴マップ群と前記第2の特徴マップ群を連結し、
階層的に接続された第3の特徴量抽出層列により、前記連結部で連結された前記第1及び第2の特徴マップ群の画像特徴を抽出して、第3の特徴マップ群を生成し、
前記第3の特徴マップ群に基づいて、前記細胞に係る識別情報を生成する、画像処理方法である。
又、他の局面では、
コンピュータに、
細胞を明視野で撮像した明視野画像、及び前記細胞を含む領域に滴下された蛍光試薬の蛍光輝点を撮像した蛍光画像を取得する処理と、
畳み込みニューラルネットワークを用いて、前記明視野画像及び前記蛍光画像の画像特徴を抽出して、前記細胞に係る識別情報を出力する処理と、
を実行させる、画像処理プログラムであって、
前記畳み込みニューラルネットワークは、
階層的に接続された第1の特徴量抽出層列により、前記明視野画像の画像特徴を抽出して、第1の特徴マップ群を生成する処理と、
階層的に接続された第2の特徴量抽出層列により、前記蛍光画像の画像特徴を抽出して、第2の特徴マップ群を生成する処理と、
前記第1の特徴マップ群と前記第2の特徴マップ群を連結する処理と、
階層的に接続された第3の特徴量抽出層列により、前記連結部で連結された前記第1及び第2の特徴マップ群の画像特徴を抽出して、第3の特徴マップ群を生成する処理と、
前記第3の特徴マップ群に基づいて、前記細胞に係る識別情報を生成する処理と、有する、画像処理プログラムである。
本開示に係る画像処理装置によれば、CNNを用いて、画像内の細胞に係る種々の識別情報を生成することができる。
明視野画像の一例を示す図 蛍光画像の一例を示す図 実施形態に係る細胞認識システムの全体構成の一例を示す図 実施形態に係る画像処理装置のハードウェア構成の一例を示す図 一般的な畳み込みニューラルネットワークの構成を示す図 実施形態に係るCNN処理部が用いる畳み込みニューラルネットワークの構成の一例を示す図 特徴量抽出層40a・・40kの階層数が増加することによる特徴マップの変化について説明する図 細胞に係る識別情報の表示態様の一例を示す図
(細胞認識システムの構成)
以下、図3を参照して、本実施形態に係る画像処理装置1を適用する細胞認識システムUの構成の一例について説明する。
図3は、本実施形態に係る細胞認識システムUの全体構成の一例を示す図である。
本実施形態に係る細胞認識システムUは、画像処理装置1、撮像装置2、表示装置3を備えている。
本実施形態に係る細胞認識システムUにおいては、撮像装置2にて細胞を撮像し、画像処理装置1にて当該細胞を撮像した画像内における個々の細胞に係る識別情報を生成し、表示装置3にて識別結果を表示する。
本実施形態に係る細胞認識システムUは、画像処理装置1、撮像装置2及び表示装置3が、通信ネットワーク4を介してデータ通信可能に構成されている。
撮像装置2は、細胞が存在する領域を明視野で撮像した明視野画像、及び、当該領域に蛍光試薬を滴下したときの蛍光反応を暗視野で撮像した蛍光画像を生成する。
撮像装置2は、公知のカメラ付き光学顕微鏡であり、ステージ上に載置された標本たる細胞を顕微鏡で観察した画像を撮像する。そして、撮像装置2は、カメラの撮像素子が生成した画像信号をAD変換して、画像データを生成する。
撮像装置2は、光源やフィルター等の照射手段、接眼レンズや対物レンズ等の結像手段、CCD(Charge Coupled Device)センサー等の撮像手段、及び、通信インターフェイス等を含んで構成される。
撮像装置2は、明視野観察に適した照射手段及び結像手段を組み合わせた明視野ユニット、及び蛍光観察に適した照射手段及び結像手段を組み合わせた蛍光ユニットを備えており、例えば、明視野観察と蛍光観察とを切り替え可能に構成されている。尚、蛍光ユニットとしては、蛍光試薬に対応した励起光源、及び蛍光検出用光学フィルター等が用いられる。
明視野画像は、細胞が存在する領域を、明視野で拡大結像及び撮像することにより得られる顕微鏡画像であって、当該細胞の形態等を表す画像である。尚、明視野画像は、染色試薬(例えば、ヘマトキシリン)で染色された状態の細胞領域を撮像したものであってもよいし、蛍光画像を撮像する際の蛍光試薬を滴下した状態の細胞領域を撮像したものであってもよい。
蛍光画像は、細胞が存在する領域に対して、蛍光試薬を滴下すると共に、所定波長の励起光を照射して、当該蛍光試薬を蛍光反応させた状態で撮像した画像である。蛍光画像に現れる蛍光輝点は、当該蛍光試薬内の蛍光物質の蛍光反応であり、特定の細胞又は当該細胞の生体物質の存在する位置、これらの分布又はこれらが存在する量等を示唆する。
尚、蛍光試薬は、観察対象の細胞又は当該細胞の生体物質に応じて適宜選択され、観察対象の細胞又は当該細胞の生体物質に付着する物質、観察対象の細胞又は当該細胞の生体物質のみに付着しない物質、又は、観察対象の細胞又は当該細胞の生体物質と化学反応や免疫反応する物質等が用いられる。蛍光試薬には、例えば、観察対象の細胞又は当該細胞の生体物質に付着等する物質(例えば、タンパク質、核酸、又は抗源等)と、蛍光物質(例えば、蛍光有機色素又は量子ドット等)が含有されている。
画像処理装置1は、同一領域を撮像した明視野画像及び蛍光画像に対して、畳み込みニューラルネットワークを用いて画像処理を行って、当該明視野画像及び蛍光画像に映る細胞に係る識別情報を出力する。
表示装置3は、例えば、液晶ディスプレイであって、画像処理装置1から出力される識別情報を表示する。
(画像処理装置の構成)
以下、図4〜図8を参照して、本実施形態に係る画像処理装置1の構成の一例について説明する。
画像処理装置1は、画像取得部1aと、CNN処理部1bと、学習部1cと、を備えている。
画像取得部1aは、撮像装置2から、同一領域を撮像した明視野画像及び蛍光画像に係る画像データを取得する。
CNN処理部1bは、同一領域を撮像した明視野画像及び蛍光画像に対して、畳み込みニューラルネットワークを用いて画像処理を行って、当該明視野画像又は蛍光画像内の細胞に係る識別情報を生成する。
本実施形態に係るCNN処理部1bは、例えば、明視野画像の各画素領域に対応するように、画像に映る個々の細胞の種別及び存在領域を識別結果として出力する(図8を参照して後述)。尚、「画素領域」とは、一画素の領域、又は隣接する複数の画素で区画した領域を表す。本実施形態に係るCNN処理部1bが用いる畳み込みニューラルネットワークの詳細については、後述する。
学習部1cは、CNN処理部1bが参照する畳み込みニューラルネットワークの学習処理を行う。
図4は、本実施形態に係る画像処理装置1のハードウェア構成の一例を示す図である。
画像処理装置1は、主たるコンポーネントとして、CPU(Central Processing Unit)101、ROM(Read Only Memory)102、RAM(Random Access Memory)103、外部記憶装置(例えば、フラッシュメモリ)104、及び通信インターフェイス105等を備えたコンピュータである。
画像処理装置1の上記した各機能は、例えば、CPU101がROM102、RAM103又は外部記憶装置104等に記憶された制御プログラム(例えば、画像処理プログラム)や各種データ(例えば、CNNのネットワーク構造及び学習済みのネットワークパラメータ等)を参照することによって実現される。但し、各機能の一部又は全部は、CPUによる処理に代えて、又は、これと共に、DSP(Digital Signal Processor)による処理によって実現されてもよい。又、同様に、各機能の一部又は全部は、ソフトウェアによる処理に代えて、又は、これと共に、専用のハードウェア回路による処理によって実現されてもよい。
[畳み込みニューラルネットワークの構成]
まず、画像処理装置1が、一般的な畳み込みニューラルネットワークを用いて、入力される画像から、被写体のカテゴリーを識別する処理について説明する。
図5は、一般的な畳み込みニューラルネットワークの構成を示す図である。
畳み込みニューラルネットワークは、特徴抽出部Naと識別部Nbとを有し、特徴抽出部Naが、入力される画像から画像特徴を抽出する処理を施し、識別部Nbが、抽出された画像特徴から被写体を識別する処理を施す。
特徴抽出部Naは、複数の特徴量抽出層Na1、Na2・・・が階層的に接続された構成である。各特徴量抽出層Na1、Na2・・・は、それぞれ畳み込み層(Convolution layer)、活性化層(Activation layer)及びプーリング層(Pooling layer)を備える。
第1層目の特徴量抽出層Na1は、入力される画像を、ラスタスキャンにより所定サイズ毎に走査する。そして、走査したデータに対して、畳み込み層、活性化層及びプーリング層によって特徴量抽出処理を施すことにより、入力画像に含まれる特徴量を抽出する。第1層目の特徴量抽出層Na1は、例えば、水平方向に延びる線状の特徴量や斜め方向に延びる線状の特徴量等の比較的シンプルな単独の特徴量を抽出する。
第2層目の特徴量抽出層Na2は、前階層の特徴量抽出層Na1から入力される画像(以下、「特徴マップ」とも称する)を、例えば、ラスタスキャンにより所定サイズ毎に走査する。そして、走査したデータに対して、同様に、畳み込み層、活性化層及びプーリング層による特徴量抽出処理を施すことにより、入力画像に含まれる特徴量を抽出する。尚、第2層目の特徴量抽出層Na2は、第1層目の特徴量抽出層Na1が抽出された複数の特徴量の位置関係などを考慮しながら統合させることで、より高次元の複合的な特徴量を抽出する。
各特徴量抽出層Na1、Na2・・・は、より詳細には、以下のような処理を実行する。
畳み込み層は、例えば、走査した所定サイズの画像の各画素値に対して、重み係数(及びバイアス)が設定された特徴抽出フィルターを用いて畳み込み演算を行う。そして、畳み込み層は、かかる演算処理を走査の毎に順に実行し、マッピングしていく。そして、畳み込み層は、前階層から入力される画像のそれぞれに対して、当該特徴抽出フィルターを用いて畳み込み演算を行い、対応するマッピング位置に加算していくことによって、一の特徴マップを生成する。
活性化層は、畳み込み層による畳み込み演算後の特徴マップの各画素の画素値に対して、例えば、周知のロジスティックジグモイド関数やReLU関数(Rectified Linear Units)等を適用する処理を実行する。
プーリング層は、活性化層が出力する特徴マップに対して、所定サイズ毎(例えば、2×2画素毎)に、最大プーリング関数や平均プーリング関数を適用する処理を実行する。
各特徴量抽出層Na1、Na2・・・は、畳み込み層、活性化層及びプーリング層の一連の処理によって、次階層に出力する特徴マップを生成する。そして、各特徴量抽出層Na1、Na2・・・は、重みパターンが異なる複数の特徴抽出フィルターを用いて、上記の処理を実行し、当該複数の特徴抽出フィルターのフィルター数分の特徴マップ(以下、「特徴マップ群」と称する)を生成する。
このように、特徴抽出部Naは、階層的に接続された複数の特徴量抽出層Na1、Na2・・・による特徴抽出処理を繰り返すことで、画像内の被写体の種々の特徴量を高次元に抽出していく。そして、特徴抽出部Naは、複数の特徴量抽出層Na1、Na2・・・の最後の層が生成する特徴マップ群を最終的な演算結果として、識別部Nbに出力する。
識別部Nbは、例えば、複数の全結合層(Fully Connected)が階層的に接続された多層パーセプトロンによって構成される。
識別部Nbの入力側の全結合層は、特徴抽出部Naから取得した特徴マップ群の各値に全結合し、その結合結果に対して重み係数を異ならせながら積和演算を行って出力する。尚、識別部Nbの入力側の全結合層は、特徴マップ群の各値を特徴量ベクトルに変換するべく、特徴マップ群の各値と同数の素子が設けられる。
識別部Nbの次階層の全結合層は、前階層の全結合層の各素子が出力する値に全結合し、その結合結果に対して重み係数を異ならせながら積和演算を行う。識別部Nbは、かかる処理によって、画像から得られる特徴に基づいて、画像内の識別対象のカテゴリーの識別結果を出力する。
尚、識別部Nbは、例えば、多層パーセプトロンの出力層の各素子からの出力値に対して、ソフトマックス関数等を適用する処理を実行し、複数のカテゴリーのうち、該当するカテゴリーについて、積和演算による演算結果の値が大きくなるように識別結果を出力する。
この際、識別部Nbの出力層の素子を画像内の画素領域毎に設けることによって、画素領域毎に、複数のカテゴリーのうちの該当するカテゴリーを出力する構成となる。
畳み込みニューラルネットワークは、正解カテゴリーを付した画像を用いて学習処理が施されることによって、ネットワークパラメータ(例えば、畳み込み層の重み係数及びバイアス、全結合層の重み係数及びバイアス)が調整され、上記のように機能する。
尚、このように、畳み込みニューラルネットワークを用いて、入力画像の画素領域毎にカテゴリーを識別する一般的な手法については、例えば、非特許文献1や非特許文献2を参照されたい。
本実施形態に係る画像処理装置1は、上記のような一般なCNNとは異なり、画像内の被写体たる識別結果を識別するに際して、明視野画像と蛍光画像の両方の情報を相補的に用いるため、明視野画像に映る識別結果の特徴、蛍光画像に映る識別結果の特徴、及びこれらの連関性を抽出する。
図6は、本実施形態に係るCNN処理部1bが用いる畳み込みニューラルネットワークの構成の一例を示す図である。
本実施形態に係る畳み込みニューラルネットワークは、明視野画像入力部10、蛍光画像入力部20、明視野画像処理部30、蛍光画像処理部40、連結部50、統合処理部60、識別部70、及び出力部80を含んで構成される。
そして、本実施形態に係る畳み込みニューラルネットワークは、明視野画像処理部30、蛍光画像処理部40、連結部50、及び統合処理部60によって上記した特徴抽出部Naを構成し、識別部70によって上記した識別部Nbを構成する。
尚、畳み込みニューラルネットワークの明視野画像処理部30、蛍光画像処理部40、統合処理部60、及び識別部70等のネットワークパラメータ(重み係数、バイアス)は、明視野画像と蛍光画像とに基づいて、細胞の状態等の識別結果を出力し得るように、学習部1cによって予め学習処理が実行される。
[明視野画像入力部]
明視野画像入力部10は、明視野画像のデータD1(以下、「明視野画像D1」と称する)を取得し、明視野画像処理部30に出力する。
尚、明視野画像入力部10は、明視野画像D1に対してRGBの3チャンネルの色空間に分解する等の前処理を施した後に、当該明視野画像D1を明視野画像処理部30に出力する。
[蛍光画像入力部]
蛍光画像入力部20は、蛍光画像のデータD2(以下、「蛍光画像D2」と称する)を取得し、蛍光画像処理部40に出力する。
蛍光画像入力部20は、この際、明視野画像で撮像した領域と同一の領域を撮像した蛍光画像を取得する。より好適には、蛍光画像入力部20は、結像中心点及び拡大サイズが明視野画像と同一の条件下で撮像された蛍光画像を用いる。但し、撮像対象の細胞領域に目印等を付して、両画像の対応関係を識別可能にしておけば、明視野画像と蛍光画像との間で、撮像位置や拡大サイズが異なっていてもよい。
尚、蛍光画像入力部20は、蛍光画像D2に対して2値化処理等の前処理を施した後に、当該蛍光画像D2を蛍光画像処理部40に出力しもよい。
[明視野画像処理部]
明視野画像処理部30は、階層的に接続された特徴量抽出層(以下、「第1の特徴量抽出層列」とも称する)によって、明視野画像D1の画像特徴を抽出した複数の特徴マップのデータD3(以下、「第1の特徴マップ群D3」とも称する)を生成し、連結部50に出力する。
明視野画像処理部30は、図5を参照して説明した一般的なCNNと同様の構成を有し、複数の特徴量抽出層30a・・30n(任意の層数を表す)が階層的に接続されて構成されている。そして、明視野画像処理部30は、各特徴量抽出層30a・・30nにおいて、前階層から入力される入力データに対して畳み込み演算等の特徴量抽出処理を施して、特徴マップとして次階層に対して出力する。
各特徴量抽出層30a・・30nは、それぞれ、畳み込み層31a・・31n(図6中では、Convolutionと表す)、活性化層32a・・32n(図6中では、Reluと表す)、及びプーリング層33a・・33n(図6中では、Poolingと表す)を含んで構成される。尚、畳み込み層31a・・31n、活性化層32a・・32n、及びプーリング層33a・・33nが行う処理は、図5を参照して説明した処理と同様であるから、ここでの説明は省略する(後述する畳み込み層41a・・41k、活性化層42a・・42k、プーリング層43a・・43k、畳み込み層61a・・、活性化層62a・・、プーリング層63a・・についても同様)。
明視野画像処理部30の特徴量抽出層30a・・30nの階層数や各特徴量抽出層30a・・30nに設定される特徴抽出フィルターの枚数は、識別対象(画像に映る細胞の種別、形態若しくは分布、又は、当該細胞内の生体物質の種別、形態若しくは分布等)に応じて、適宜設定される。但し、これらは、少なくとも明視野画像から個々の細胞の存在領域を識別し得るように、設定されるのが望ましい。
明視野画像処理部30は、このように、複数の階層的の特徴量抽出層30a・・30nにおける処理を繰り返すことで、明視野画像に含まれる複数の観点の特徴量(例えば、エッジ、領域、分布等)を高次元に抽出していき、その結果(第1の特徴マップ群D3)を連結部50に出力する。
[蛍光画像処理部]
蛍光画像処理部40は、階層的に接続された特徴量抽出層40a・・40k(以下、「第2の特徴量抽出層列」とも称する)によって、蛍光画像D2の画像特徴を抽出した複数の特徴マップのデータD4(以下、「第2の特徴マップ群D4」とも称する)を生成し、連結部50に出力する。
蛍光画像処理部40は、図5を参照して説明した一般的なCNNと同様の構成を有し、複数の特徴量抽出層40a・・40k(任意の層数を表す)が階層的に接続されて構成されている。そして、蛍光画像処理部40は、各特徴量抽出層40a・・40kにおいて、前階層から入力される入力データに対して畳み込み演算等の特徴量抽出処理を施して、特徴マップとして次階層に対して出力する。
各特徴量抽出層40a・・40kは、図5を参照して説明した一般的なCNNと同様に、畳み込み層41a・・41k、活性化層42a・・42k、及びプーリング層43a・・43kを含んで構成される。
蛍光画像処理部40は、このように、複数の階層的の特徴量抽出層40a・・40kにおける処理を繰り返すことで、蛍光画像に含まれる複数の観点の特徴量(例えば、エッジ、領域、分布等)を高次元に抽出していき、その結果(第2の特徴マップ群D4)を連結部50に出力する。
尚、蛍光画像処理部40の特徴量抽出層40a・・40kの階層数や各特徴量抽出層40a・・40kに設定される特徴抽出フィルターの枚数は、識別対象(画像に映る細胞の種別、形態若しくは分布、又は、当該細胞内の生体物質の種別、形態若しくは分布等)に応じて、適宜設定される。但し、これらは、少なくとも蛍光画像から蛍光輝点の集合状態を識別し得るように、設定されるのが望ましい。
但し、本実施形態に係る蛍光画像処理部40の特徴量抽出層40a・・40kの階層数は、蛍光画像の一般的な画像特性を考慮して、明視野画像処理部30の特徴量抽出層30a・・30nの階層数よりも少なくなるように設定されている。
以下、蛍光画像処理部40の特徴量抽出層40a・・40kの階層数の設定方法について説明する。
図7は、特徴量抽出層40a・・40kの階層数が増加することによる特徴マップの変化について説明する図である。尚、図7では、図7A、図7B、図7C、図7Dの順に、プーリング処理の回数が多くなったときの特徴マップ内の蛍光輝点Tのサイズを表している。
本実施形態に係る蛍光画像処理部40は、上記したように、各特徴量抽出層40a・・40kにおいてプーリング処理を実行する。プーリング処理は、所定サイズの画素の領域(例えば、2×2画素)を一画素に圧縮する処理であり、一般に、CNNでは、かかる処理によって画像に映る物体の位置や回転等の変化に対して頑健性を持たせる。しかしながら、特徴量抽出層40a・・40kを過剰に多層に積み重ね、プーリング処理を繰り返し実行した場合、蛍光画像の特徴マップ内の蛍光輝点は、サイズが徐々に圧縮されていき、連結部50に出力する際には消失してしまうおそれがある。
かかる観点から、本実施形態に係る蛍光画像処理部40の特徴量抽出層40a・・40kの階層数は、蛍光画像の画像特性(ここでは、蛍光輝点の典型サイズ)に基づいて、連結部50に出力する第2の特徴マップ群D4において、蛍光輝点のサイズが一画素以下のサイズにならないように設定する。
尚、蛍光画像の蛍光輝点の典型サイズは、細胞の種別、蛍光試薬の種別、及び撮像時の拡大サイズ等に応じて、概ね一定であり、複数の蛍光画像を参照したときに算出される蛍光輝点の平均サイズ等に基づいて、特徴量抽出層40a・・40kの階層数を設定すればよい。
又、蛍光画像処理部40の特徴量抽出層40a・・40kの階層数は、より好適には、蛍光画像の画像特性(ここでは、蛍光輝点の典型的な分布)に基づいて、連結部50に出力する第2の特徴マップ群D4において、蛍光輝点が画像全体に占める画像領域が所定以上(例えば、特徴マップの全体のうちの3割以上)にならないように設定する。このように設定する理由としては、入力される蛍光画像に占める蛍光輝点の割合が多い場合、プーリング処理を繰り返し実行することによって、第2の特徴マップ群D4の画像全体に占める蛍光輝点の画像領域が過度に大きくなり、後段の処理が不可能となるためである。
[連結部]
連結部50は、明視野画像処理部30が生成した第1の特徴マップ群D3と蛍光画像処理部40が生成した第2の特徴マップ群D4とを連結し、統合処理部60に出力する。
連結部50は、例えば、明視野画像の第1の特徴マップ群D3と蛍光画像の第2の特徴マップ群D4を異なるチャンネルとして連結する。連結部50は、例えば、第1の特徴マップ群D3の特徴マップ数が100、第2の特徴マップ群D4の特徴マップ数が150であれば、これらを連結して、250の特徴マップとする。尚、連結部50の処理によって、第1の特徴マップ群D3と第2の特徴マップ群D4の間で画素領域毎の対応付けが行われることになる。
但し、連結部50は、より好適には、第1の特徴マップ群D3と第2の特徴マップ群D4の間で特徴マップの画像サイズをあわせて、後段の統合処理部60に出力する。明視野画像処理部30と蛍光画像処理部40とは、上記したように、特徴量抽出層の階層数が異なるため、第1の特徴マップ群D3の画像サイズと、第2の特徴マップ群D4の画像サイズとは異なっている。そのため、仮に、両者のサイズ合わせを行わなければ、後段の統合処理部60は、第1の特徴マップ群D3と第2の特徴マップ群D4の画素領域毎の対応付けを行うことができないおそれがある。
かかる観点から、連結部50は、例えば、逆畳み込み(Deconvolution)やバイオニア補間等を用いて、第1の特徴マップ群D3の画像サイズを第2の特徴マップ群D4の画像サイズにアップスケーリングすることによって、第1の特徴マップ群D3と第2の特徴マップ群D4の間で特徴マップの画像サイズをあわせる。これによって、第1の特徴マップ群D3と第2の特徴マップ群D4の画素領域毎の対応付けが行われ、後段の処理の精度を向上させることができる。
[統合処理部]
統合処理部60は、連結部50から出力される第1の特徴マップ群D3及び第2の特徴マップ群D4を取得して、階層的に接続された特徴量抽出層60・・(以下、「第3の特徴量抽出層列」とも称する)によって、再度、特徴抽出処理を実行する。そして、統合処理部60は、複数の特徴マップのデータD5(以下、「第3の特徴マップ群D3」とも称する)を生成し、識別部70に出力する。
統合処理部60は、複数の特徴量抽出層60a・・ (任意の層数を表す)が階層的に接続されて構成されている。そして、各特徴量抽出層60a・・は、畳み込み層61a・・、活性化層62a・・、及びプーリング層63a・・を含んで構成される。尚、各特徴量抽出層60a・・は、第1の特徴マップ群D3及び第2の特徴マップ群D4の両方を入力画像として、当該第1の特徴マップ群D3及び第2の特徴マップ群D4から統合的に特徴抽出処理を実行する。
統合処理部60の特徴量抽出層60a・・の階層数や各特徴量抽出層60a・・に設定される特徴抽出フィルターの枚数は、識別対象(画像に映る細胞の種別、形態若しくは分布、又は、当該細胞内の生体物質の種別、形態若しくは分布等)に応じて、適宜設定される。但し、これらは、少なくとも明視野画像の特徴と蛍光画像の特徴の連関性を抽出し得るように設定されるのが望ましい。
[識別部]
識別部70は、統合処理部60から出力される第3の特徴マップ群D5に基づいて、明視野画像及び蛍光画像に映る細胞に係る識別情報D6を生成し、出力部80に対して出力する。
識別部70は、例えば、階層的に接続された三層の全結合層(図6中では、Fully Connectと表す)71、72、73と、出力層(図6中では、Softmaxと表す)74と、を含んで構成される。
本実施形態に係る識別部70の構成は、一般的なCNNの識別部Nbと同様の構成を有する。入力側の全結合層71は、統合処理部60から取得した第3の特徴マップ群D5の各値(各画素の画素値)に全結合し、その結合結果に対して重み係数を異ならせながら積和演算を行って、次階層の全結合層72に対して出力する。そして、次階層の全結合層72は、前階層の全結合層71の各素子が出力する値に全結合し、その結合結果に対して重み係数を異ならせながら積和演算を行って次階層の全結合層73に対して出力する。又、次階層の全結合層73は、前階層の全結合層72の各素子が出力する値に全結合し、その結合結果に対して重み係数を異ならせながら積和演算を行って、出力層74に出力する。
出力側の全結合層73は、明視野画像及び蛍光画像に映る細胞に係る識別情報を出力する。全結合層73は、例えば、画素領域毎に出力素子を有し、画素領域毎に個々の細胞の種別(細胞種別A、細胞種別B、細胞種別C・・・等の数十カテゴリー)それぞれのいずれに属するかについての信頼度を出力する。
出力層74は、図5を参照して上記した一般的なCNNと同様に、例えば、全結合層73の各素子の出力値に対して、ソフトマックス関数を適用して、識別対象を確率として出力する。
識別部70の全結合層71、72、73の階層数や、全結合層72、73に設定される素子数は、識別対象(画像に映る細胞の種別、形態若しくは分布、又は、当該細胞内の生体物質の種別、形態若しくは分布等)に応じて、適宜設定される。但し、これらは、少なくとも個々の細胞の境界(例えば、細胞壁)を識別し、個々の細胞の存在領域について識別すると共に、複数の細胞が重なった状態で撮像された領域については、当該重なり領域を識別可能に設定されるのが望ましい。
尚、識別部70の構成は、識別対象、演算処理の際の処理負荷等を考慮して、種々に設計変更することができる。識別部70は、例えば、多層パーセプトロンに代えて、逆畳み込み処理を行う逆畳み込み部によって構成されてもよい(詳細は非特許文献1を参照されたい)。又、識別部70は、SVM(Support Vector Machine)等によって、構成されてもよい。
[出力部]
出力部80(図6中では、Resultと表す)は、識別部70から出力される識別情報D6を取得して、例えば、当該識別情報D6に基づいて、確率が最大のカテゴリーを最終的な識別結果として選択して、出力する。尚、表示装置3には、出力部80が出力する識別結果が、細胞に係る識別情報として表示される。
図8は、細胞に係る識別情報の表示態様の一例を示す図である。
図8において、Rの領域は明視野画像の全体領域、R1の領域は細胞Aの領域、R2の領域は細胞Bの領域、R3の領域は細胞Cの領域、及びR4の領域は細胞Bと細胞Aの重なり領域を示す。尚、領域R1〜R4は、例えば、異なる色に色分けされて表示される。
図8に示すように、出力部80は、例えば、明視野画像Rに映る複数の細胞を各別に識別すると共に、当該明視野画像内におけるそれぞれの細胞(ここでは、細胞A、細胞B、細胞C)の領域を画素領域毎に識別し、その結果を出力する。そして、出力部80は、複数の細胞が重なった状態で撮像された領域R4については、当該重なり領域を識別可能に構成している。これによって、細胞毎の状態をより明確に識別することが可能となる。
[学習部]
以上のように説明した畳み込みニューラルネットワーク(明視野画像処理部30、蛍光画像処理部40、統合処理部60、識別部70)は、学習部1cによって機械学習が実行されたものが用いられる。
学習部1cは、例えば、同一領域を撮像した明視野画像及び蛍光画像と、これらの正解カテゴリーが関連付けられたデータを教師データとして用いて、明視野画像処理部30、蛍光画像処理部40、統合処理部60、識別部70のネットワークパラメータ(例えば、重み係数、バイアス)を調整する。
学習部1cは、例えば、同一領域を撮像した明視野画像及び蛍光画像と、これらの正解カテゴリーが関連付けられた教師データを用いて、正解に対する出力データ(ここでは、識別部70の出力)の誤差分を示す損失が小さくなるように、明視野画像処理部30、蛍光画像処理部40、統合処理部60、識別部70のネットワークパラメータ(例えば、重み係数、バイアス)を調整することによって、かかる学習処理を実行することができる。尚、当該損失は、例えば、softmax cross entropy関数等を用いて、表すことができる。
学習部1cは、例えば、公知の誤差逆伝搬法等を用いて、これらの学習処理を行えばよい。そして、学習部1cは、学習処理によって調整したネットワークパラメータを記憶部(例えば、外部記憶装置104)に格納する。
尚、教師データとして、明視野画像及び蛍光画像に対して画素領域毎の正解カテゴリーを付したデータを用いることによって、図8に示したように、画素領域毎の識別結果を出力することが可能である。
以上のように、本実施形態に係る画像処理装置1によれば、同一の細胞領域を撮像した明視野画像と蛍光画像を用いて、畳み込みニューラルネットワークによる処理を行うことで、細胞に係る種々の識別情報を生成することができる。特に、本実施形態に係る畳み込みニューラルネットワークは、明視野画像処理部30と蛍光画像処理部40とによって、明視野画像と蛍光画像のそれぞれの画像特性に適合した特徴抽出処理を実行し、その後、統合処理部60で統合的に特徴抽出処理を行う。従って、本実施形態に係る画像処理装置1は、明視野画像又は蛍光画像の一方だけでは識別できないような細胞の種々の状態を識別することが可能である。
(その他の実施形態)
本発明は、上記実施形態に限らず、種々に変形態様が考えられる。
尚、上記実施形態で示した畳み込みニューラルネットワークの構成は、一例であって、識別対象や処理負荷等を考慮して、種々に設計変更可能である。例えば、特徴抽出を行う際に、所定領域毎に、特徴抽出処理を行って、これらを統合する方式を用いてもよい。又、その他、特徴抽出を行う際に、更に、HOG特徴量抽出処理、シルエット抽出処理、領域分割処理、輝度勾配抽出処理、動き抽出処理、形状モデルフィッティング又はこれらの組み合わせ等を用いてもよい。
又、当該畳み込みニューラルネットワークは、細胞毎の抗体反応の定量等を行うべく、個々の細胞内に含まれる蛍光輝点の数等を出力する態様であってもよい。
以上、本発明の具体例を詳細に説明したが、これらは例示にすぎず、請求の範囲を限定するものではない。請求の範囲に記載の技術には、以上に例示した具体例を様々に変形、変更したものが含まれる。
本開示に係る画像処理装置によれば、CNNを用いて、画像内の細胞に係る種々の識別情報を生成することができる。
U 細胞認識システム
1 画像処理装置
2 撮像装置
3 表示装置
4 通信ネットワーク
1a 画像取得部
1b CNN処理部
1c 学習部
10 明視野画像入力部
20 蛍光画像入力部
30 明視野画像処理部
40 蛍光画像処理部
50 連結部
60 統合処理部
70 識別部
80 出力部

Claims (13)

  1. 細胞を明視野で撮像した明視野画像、及び前記細胞を含む領域に滴下された蛍光試薬の蛍光輝点を撮像した蛍光画像を取得する画像取得部と、
    畳み込みニューラルネットワークを用いて、前記明視野画像及び前記蛍光画像の画像特徴を抽出して、前記細胞に係る識別情報を出力するCNN処理部と、
    を備える、画像処理装置であって、
    前記畳み込みニューラルネットワークは、
    階層的に接続された第1の特徴量抽出層列により、前記明視野画像の画像特徴を抽出して、第1の特徴マップ群を生成する明視野画像処理部と、
    階層的に接続された第2の特徴量抽出層列により、前記蛍光画像の画像特徴を抽出して、第2の特徴マップ群を生成する蛍光画像処理部と、
    前記第1の特徴マップ群と前記第2の特徴マップ群を連結する連結部と、
    階層的に接続された第3の特徴量抽出層列により、前記連結部で連結された前記第1及び第2の特徴マップ群の画像特徴を抽出して、第3の特徴マップ群を生成する統合処理部と、
    前記第3の特徴マップ群に基づいて、前記細胞に係る識別情報を生成する識別部と、
    を有する、画像処理装置。
  2. 前記細胞に係る識別情報は、前記細胞の種別、形態、若しくは分布、又は、前記細胞内に含まれる生体物質の種別、形態、若しくは分布に係る情報を含む、
    請求項1に記載の画像処理装置。
  3. 前記識別部は、前記明視野画像又は前記蛍光画像の各画素領域と関連付けて、前記細胞に係る識別情報を生成する、
    請求項1又は2に記載の画像処理装置。
  4. 前記明視野画像又は前記蛍光画像内に映る前記細胞が複数存在する場合、
    前記識別部は、前記明視野画像又は前記蛍光画像に映る複数の前記細胞の各々について、前記細胞に係る識別情報を生成する、
    請求項1乃至3のいずれか一項に記載の画像処理装置。
  5. 前記連結部は、前記第1の特徴マップ群と前記第2の特徴マップ群を、画像サイズをあわせて連結する、
    請求項1乃至4のいずれか一項に記載の画像処理装置。
  6. 前記第2の特徴量抽出層列の階層数は、前記第1の特徴量抽出層列の階層数よりも少ない、
    請求項1乃至5のいずれか一項に記載の画像処理装置。
  7. 前記第2の特徴量抽出層列の階層数は、前記細胞又は当該細胞内の生体物質の種別、前記蛍光試薬の種別、及び撮像時の拡大サイズに応じて定まる前記蛍光画像の画像特性に基づいて設定される、
    請求項1乃至6のいずれか一項に記載の画像処理装置。
  8. 前記第2の特徴量抽出層列の階層数は、前記蛍光画像の画像特性上の蛍光輝点の典型サイズに基づいて、前記第2の特徴マップ群における蛍光輝点一個あたりのサイズが所定のサイズ以下とならないように設定される、
    請求項7に記載の画像処理装置。
  9. 前記蛍光画像の画像特性上の蛍光輝点の典型サイズは、複数の前記蛍光画像で観察される蛍光輝点の平均サイズである、
    請求項8に記載の画像処理装置。
  10. 前記所定のサイズは、一画素である、
    請求項8又は9に記載の画像処理装置。
  11. 前記第2の特徴量抽出層列の階層数は、前記蛍光画像の画像特性上の蛍光輝点の典型分布に基づいて、前記第2の特徴マップ群において蛍光輝点が画像全体に占める領域割合が所定以上とならないように設定される、
    請求項1乃至10のいずれか一項に記載の画像処理装置。
  12. 細胞を明視野で撮像した明視野画像、及び前記細胞を含む領域に滴下された蛍光試薬の蛍光輝点を撮像した蛍光画像を取得し、
    畳み込みニューラルネットワークを用いて、前記明視野画像及び前記蛍光画像の画像特徴を抽出して、前記細胞に係る識別情報を出力する画像処理方法であって、
    前記畳み込みニューラルネットワークは、
    階層的に接続された第1の特徴量抽出層列により、前記明視野画像の画像特徴を抽出して、第1の特徴マップ群を生成し、
    階層的に接続された第2の特徴量抽出層列により、前記蛍光画像の画像特徴を抽出して、第2の特徴マップ群を生成し、
    前記第1の特徴マップ群と前記第2の特徴マップ群を連結し、
    階層的に接続された第3の特徴量抽出層列により連結された前記第1及び第2の特徴マップ群の画像特徴を抽出して、第3の特徴マップ群を生成し、
    前記第3の特徴マップ群に基づいて、前記細胞に係る識別情報を生成する、画像処理方法。
  13. コンピュータに、
    細胞を明視野で撮像した明視野画像、及び前記細胞を含む領域に滴下された蛍光試薬の蛍光輝点を撮像した蛍光画像を取得する処理と、
    畳み込みニューラルネットワークを用いて、前記明視野画像及び前記蛍光画像の画像特徴を抽出して、前記細胞に係る識別情報を出力する処理と、
    を実行させる、画像処理プログラムであって、
    前記畳み込みニューラルネットワークは、
    階層的に接続された第1の特徴量抽出層列により、前記明視野画像の画像特徴を抽出して、第1の特徴マップ群を生成する処理と、
    階層的に接続された第2の特徴量抽出層列により、前記蛍光画像の画像特徴を抽出して、第2の特徴マップ群を生成する処理と、
    前記第1の特徴マップ群と前記第2の特徴マップ群を連結する処理と、
    階層的に接続された第3の特徴量抽出層列により連結された前記第1及び第2の特徴マップ群の画像特徴を抽出して、第3の特徴マップ群を生成する処理と、
    前記第3の特徴マップ群に基づいて、前記細胞に係る識別情報を生成する処理と、有する、画像処理プログラム。

JP2017074642A 2017-04-04 2017-04-04 画像処理装置、画像処理方法、及び画像処理プログラム Active JP6915349B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2017074642A JP6915349B2 (ja) 2017-04-04 2017-04-04 画像処理装置、画像処理方法、及び画像処理プログラム
US15/944,211 US10692209B2 (en) 2017-04-04 2018-04-03 Image processing apparatus, image processing method, and computer-readable non-transitory recording medium storing image processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017074642A JP6915349B2 (ja) 2017-04-04 2017-04-04 画像処理装置、画像処理方法、及び画像処理プログラム

Publications (2)

Publication Number Publication Date
JP2018180635A JP2018180635A (ja) 2018-11-15
JP6915349B2 true JP6915349B2 (ja) 2021-08-04

Family

ID=63670627

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017074642A Active JP6915349B2 (ja) 2017-04-04 2017-04-04 画像処理装置、画像処理方法、及び画像処理プログラム

Country Status (2)

Country Link
US (1) US10692209B2 (ja)
JP (1) JP6915349B2 (ja)

Families Citing this family (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3586181B1 (en) 2017-06-13 2021-09-22 Google LLC Augmented reality microscope for pathology
JP6805984B2 (ja) * 2017-07-06 2020-12-23 株式会社デンソー 畳み込みニューラルネットワーク
SE542402C2 (en) * 2018-07-02 2020-04-21 Cellavision Ab Method and apparatus for training a neural network classifier to classify an image depicting one or more objects of a biological sample
WO2020081343A1 (en) * 2018-10-15 2020-04-23 Ventana Medical Systems, Inc. Systems and methods for cell classification
TWI717655B (zh) * 2018-11-09 2021-02-01 財團法人資訊工業策進會 適應多物件尺寸之特徵決定裝置及方法
CN111414922B (zh) * 2019-01-07 2022-11-15 阿里巴巴集团控股有限公司 特征提取方法、图像处理方法、模型训练方法及装置
EP3712618B1 (de) * 2019-03-18 2023-10-04 Euroimmun Medizinische Labordiagnostika AG Verfahren zum detektieren einer bindung von antikörpern einer patientenprobe an doppelsträngige dns unter verwendung von crithidia luciliae zellen und fluoreszenzmikroskopie
US11676685B2 (en) 2019-03-21 2023-06-13 Illumina, Inc. Artificial intelligence-based quality scoring
US11210554B2 (en) 2019-03-21 2021-12-28 Illumina, Inc. Artificial intelligence-based generation of sequencing metadata
JP7362284B2 (ja) * 2019-03-29 2023-10-17 キヤノン株式会社 画像処理方法、画像処理装置、プログラム、画像処理システム、および、学習済みモデルの製造方法
US11145058B2 (en) 2019-04-11 2021-10-12 Agilent Technologies, Inc. User interface configured to facilitate user annotation for instance segmentation within biological samples
US11132772B2 (en) 2019-06-11 2021-09-28 Samsung Electronics Co., Ltd. Asymmetric normalized correlation layer for deep neural network feature matching
JP7385241B2 (ja) * 2019-06-19 2023-11-22 国立大学法人 東京大学 画像抽出装置、画像抽出システム、画像抽出方法及び画像抽出プログラム
WO2021076623A1 (en) * 2019-10-14 2021-04-22 University Of Southern California Systems, methods and assays for outlier clustering unsupervised learning automated report (ocular)
CN110751160B (zh) * 2019-10-30 2022-09-13 华中科技大学 图像中物体的检测方法、装置及系统
WO2021096152A1 (en) * 2019-11-15 2021-05-20 Samsung Electronics Co., Ltd. Asymmetric normalized correlation layer for deep neural network feature matching
CN111147760B (zh) * 2019-12-23 2021-08-24 兴科迪智能科技(北京)有限公司 一种光场相机及其光度调整方法、装置及电子设备
CN111103275B (zh) * 2019-12-24 2021-06-01 电子科技大学 Pat先验信息辅助的基于cnn和自适应ekf的动态fmt重建方法
JP6737491B1 (ja) * 2020-01-09 2020-08-12 株式会社アドイン研究所 Aiを用いる診断装置、診断システム、及び、プログラム
EP4151709A4 (en) * 2020-05-12 2024-02-21 Hitachi High Tech Corp NUCLEIC ACID ANALYSIS DEVICE, NUCLEIC ACID ANALYSIS METHOD, AND MACHINE LEARNING METHOD
CA3194038A1 (en) * 2020-09-08 2022-03-17 Insitro, Inc. Biological image transformation using machine-learning models
CN114495096A (zh) * 2020-10-23 2022-05-13 上海交通大学医学院附属新华医院 一种细胞分类模型的获取方法和装置
CN112508909B (zh) * 2020-12-03 2023-08-25 中国人民解放军陆军军医大学第二附属医院 一种外周血细胞形态学自动检测系统的疾病联想方法
WO2022225890A1 (en) * 2021-04-19 2022-10-27 Thrive Bioscience, Inc. Plaque detection method and apparatus for imaging of cells
CN113408350B (zh) * 2021-05-17 2023-09-19 杭州电子科技大学 一种基于边缘特征提取的遥感图像显著性检测方法
CN114152557B (zh) * 2021-11-16 2024-04-30 深圳元视医学科技有限公司 基于图像分析的血细胞计数方法和系统
CN117169093A (zh) * 2023-10-30 2023-12-05 深圳市明鉴检测专业技术有限公司 基于荧光抗体标记的细胞定量检测方法

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0212060A (ja) * 1988-06-30 1990-01-17 Sumitomo Electric Ind Ltd 細胞の状態のモニター方法及びその装置
JPH0765161A (ja) * 1993-08-30 1995-03-10 Nec Corp 画像処理装置
JP5660273B2 (ja) * 2010-01-04 2015-01-28 日本電気株式会社 画像診断方法、画像診断装置および画像診断プログラム
JP5858461B2 (ja) 2011-03-17 2016-02-10 コニカミノルタ株式会社 病理診断情報生成方法及び病理診断情報生成システム
WO2013146841A1 (ja) * 2012-03-30 2013-10-03 コニカミノルタ株式会社 医用画像処理装置及びプログラム
US20130338016A1 (en) * 2012-04-17 2013-12-19 Vala Sciences, Inc. Method For Integrated Pathology Diagnosis And Digital Biomarker Pattern Analysis
AU2015261891A1 (en) * 2014-05-23 2016-10-13 Ventana Medical Systems, Inc. Systems and methods for detection of biological structures and/or patterns in images
CN107636693B (zh) * 2015-03-20 2022-01-11 弗劳恩霍夫应用研究促进协会 针对人工神经网络的相关性分数指派
US9947102B2 (en) * 2016-08-26 2018-04-17 Elekta, Inc. Image segmentation using neural network method
US10740651B2 (en) * 2016-10-27 2020-08-11 General Electric Company Methods of systems of generating virtual multi-dimensional models using image analysis
US10410348B2 (en) * 2016-12-21 2019-09-10 Elekta, Inc. Online learning enhanced atlas-based auto-segmentation
US10573003B2 (en) * 2017-02-13 2020-02-25 Amit Sethi Systems and methods for computational pathology using points-of-interest

Also Published As

Publication number Publication date
US10692209B2 (en) 2020-06-23
US20180286040A1 (en) 2018-10-04
JP2018180635A (ja) 2018-11-15

Similar Documents

Publication Publication Date Title
JP6915349B2 (ja) 画像処理装置、画像処理方法、及び画像処理プログラム
US11614610B2 (en) Systems, devices, and methods for image processing to generate an image having predictive tagging
US9684960B2 (en) Automated histological diagnosis of bacterial infection using image analysis
US10824847B2 (en) Generating virtually stained images of unstained samples
CN111524137B (zh) 基于图像识别的细胞识别计数方法、装置和计算机设备
JP2021073566A (ja) 生体試料の複数の画像を表示するための画像処理システムおよび方法
JP2022180419A (ja) 画像解析方法、装置、プログラムおよび学習済み深層学習アルゴリズムの製造方法
KR101628276B1 (ko) 클라우드 기반 병리 분석 시스템 및 방법
EP2803015B1 (en) Two stage categorization of objects in images
US8600143B1 (en) Method and system for hierarchical tissue analysis and classification
CN107646115A (zh) 图像分析系统及相关方法
Khan et al. Unsupervised identification of malaria parasites using computer vision
JP2017516992A (ja) 画像内の生物学的構造及び/又はパターンの検出のためのシステム及び方法
EP2095094A2 (en) Quantitative, multispectral image analysis of tissue specimens stained with quantum dots
US11776124B1 (en) Transforming multispectral images to enhanced resolution images enabled by machine learning
US7606779B2 (en) Methods and system for data aggregation of physical samples
CN104854620A (zh) 图像处理装置、图像处理系统和程序
JP4997255B2 (ja) 細胞画像解析装置
CN115032196B (zh) 一种全划片高通量彩色病理成像分析仪器及方法
CN116580394A (zh) 一种基于多尺度融合和可变形自注意力的白细胞检测方法
CN110728666B (zh) 基于数字病理玻片进行慢性鼻窦炎的分型方法及其系统
Juhong et al. Super-resolution and segmentation deep learning for breast cancer histopathology image analysis
JP4271054B2 (ja) 細胞画像解析装置
Hu et al. Automatic detection of tuberculosis bacilli in sputum smear scans based on subgraph classification
Tran et al. Protein crystallization segmentation and classification using subordinate color channel in fluorescence microscopy images

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171227

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20190708

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20191011

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200318

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210412

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210420

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210519

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210615

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210628

R150 Certificate of patent or registration of utility model

Ref document number: 6915349

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150