JP2023007599A - 画像処理装置、方法及び画像処理システム - Google Patents
画像処理装置、方法及び画像処理システム Download PDFInfo
- Publication number
- JP2023007599A JP2023007599A JP2021110546A JP2021110546A JP2023007599A JP 2023007599 A JP2023007599 A JP 2023007599A JP 2021110546 A JP2021110546 A JP 2021110546A JP 2021110546 A JP2021110546 A JP 2021110546A JP 2023007599 A JP2023007599 A JP 2023007599A
- Authority
- JP
- Japan
- Prior art keywords
- image
- image processing
- feature
- feature amount
- feature quantity
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000012545 processing Methods 0.000 title claims abstract description 143
- 238000000034 method Methods 0.000 title claims abstract description 42
- 238000000605 extraction Methods 0.000 claims abstract description 159
- 239000000284 extract Substances 0.000 claims abstract description 15
- 238000001514 detection method Methods 0.000 claims description 101
- 238000012795 verification Methods 0.000 claims description 41
- 230000011218 segmentation Effects 0.000 claims description 31
- 238000003384 imaging method Methods 0.000 claims description 19
- 238000003672 processing method Methods 0.000 claims description 13
- 230000009467 reduction Effects 0.000 claims description 12
- 238000004458 analytical method Methods 0.000 claims description 9
- 238000004159 blood analysis Methods 0.000 claims description 7
- 239000003153 chemical reaction reagent Substances 0.000 claims 1
- 238000010586 diagram Methods 0.000 description 21
- 238000004364 calculation method Methods 0.000 description 9
- 239000003814 drug Substances 0.000 description 6
- 229940079593 drug Drugs 0.000 description 5
- 238000010801 machine learning Methods 0.000 description 5
- 230000006870 function Effects 0.000 description 4
- 230000008569 process Effects 0.000 description 4
- 238000013135 deep learning Methods 0.000 description 3
- 241000894006 Bacteria Species 0.000 description 2
- 238000007689 inspection Methods 0.000 description 2
- 238000001000 micrograph Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000005070 sampling Methods 0.000 description 2
- 230000002159 abnormal effect Effects 0.000 description 1
- 230000005856 abnormality Effects 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 238000012742 biochemical analysis Methods 0.000 description 1
- 238000004422 calculation algorithm Methods 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 239000000470 constituent Substances 0.000 description 1
- 230000008602 contraction Effects 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 238000012217 deletion Methods 0.000 description 1
- 230000037430 deletion Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000007717 exclusion Effects 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 238000003018 immunoassay Methods 0.000 description 1
- 230000000873 masking effect Effects 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 238000007637 random forest analysis Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 239000000126 substance Substances 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/771—Feature selection, e.g. selecting representative features from a multi-dimensional feature space
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/69—Microscopic objects, e.g. biological cells or cellular parts
- G06V20/695—Preprocessing, e.g. image segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/69—Microscopic objects, e.g. biological cells or cellular parts
- G06V20/698—Matching; Classification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/07—Target detection
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Evolutionary Computation (AREA)
- Computing Systems (AREA)
- Databases & Information Systems (AREA)
- Artificial Intelligence (AREA)
- Medical Informatics (AREA)
- Software Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Image Analysis (AREA)
Abstract
【課題】画像内の対象物体を高精度かつ高速に識別する装置、方法およびシステムを提供する。【解決手段】入力画像を受付ける画像入力部201と、前記入力画像から特徴量抽出のための画像を生成する画像生成部202と、前記画像生成部により生成された生成画像から特徴量を抽出する特徴量抽出部203と、前記特徴量抽出部が出力する特徴量を用いて、画像内の物体を識別する識別部205と、前記識別部が出力する識別結果を出力する出力部206と、前記特徴量抽出部が出力する特徴量に基づき、必要に応じて新たな生成画像の生成を前記画像生成部に指示するとともに、当該新たな生成画像に対する特徴量の抽出条件を示す特徴量マップを生成して前記特徴量抽出部に出力する特徴量マップ生成部204とを備える。【選択図】図2
Description
本発明は、画像中の物体を識別する画像処理装置、方法及び画像処理システムに関する。
近年、カメラや顕微鏡で撮像した画像の解析のために、深層学習等の機械学習を用いた領域分割や識別が多く利用される。機械学習を用いた識別は、高い識別精度を実現できる一方で、手動設計した特徴量を用いた識別よりも一般的に処理コストが高いという課題がある。リアルタイム性や計算能力の低いデバイスでの実行が求められる場合には、計算量の削減が必要となる。例えば特許文献1には「解像度の低い画像に対して領域分割を行い、当該領域分割の処理結果における境界付近の領域を処理対象領域として解像度の高い画像に対する領域分割を行う」との記載がある。
特許文献1に記載の技術では低解像度画像に対する領域分割結果の境界を、高解像度画像から抽出した特徴量を用いて高精度化する手法であるため、低解像度画像の段階で各領域を正しいクラスに分割する必要がある。しかし、入力画像を正しく領域分割あるいは特定のクラスに識別するためには高解像度画像が必要な場合が多々ある。例えば顕微鏡画像による細胞や細菌解析において、各細胞や細菌の状態を正しく推定するためには低解像度画像のみでは判断が難しい。また、顕微鏡画像による半導体向け検査においても、低解像度画像だけでは判断できない異常が含まれる可能性がある。可視光画像を用いた検査においても、例えば局所的に存在する文字やパターンの有無によって領域全体のクラスが決定される場合がある。これらの場合には低解像度画像のみを用いて領域を正しいクラスに分割することは難しく、高解像度画像の特徴を用いて初めてクラスを特定することが可能となる。
そこで本発明は、識別に必要な最低限の特徴量を高速に抽出することで、高精度かつ高速に領域分割や識別処理を行う画像処理装置、方法およびシステムを提供することを目的とする。
上記目的を達成するために本発明で開示される画像処理装置は、画像内の物体を識別する画像処理装置であって、入力画像を受付ける画像入力部と、前記入力画像から特徴量抽出のための画像を生成する画像生成部と、前記画像生成部により生成された生成画像から特徴量を抽出する特徴量抽出部と、前記特徴量抽出部が出力する特徴量を用いて、画像内の物体を識別する識別部と、前記識別部が出力する識別結果を出力する出力部と、前記特徴量抽出部が出力する特徴量に基づき、必要に応じて新たな生成画像の生成を前記画像生成部に指示するとともに、当該新たな生成画像に対する特徴量の抽出条件を示す特徴量マップを生成して前記特徴量抽出部に出力する特徴量マップ生成部とを備える。
また、本発明で開示される画像処理方法は、画像内の物体を識別する画像処理方法であって、入力画像を受付ける画像入力ステップと、前記入力画像から特徴量抽出のための画像を生成する画像生成ステップと、前記画像生成ステップにより生成された生成画像から特徴量を抽出する特徴量抽出ステップと、前記特徴量抽出ステップにて算出した特徴量を用いて、画像内の物体を検出あるいは識別する識別ステップと、前記識別ステップにて算出した識別結果を出力する出力ステップと、を含み、前記特徴量抽出ステップが出力する特徴量に基づき、必要に応じて新たな生成画像の生成を前記画像生成ステップにより行わせるとともに、当該新たな生成画像に対する特徴量の抽出条件を示す特徴量マップを生成して前記特徴量抽出ステップによる処理に反映させる特徴量マップ生成ステップをさらに含む。
また、本発明で開示される画像処理方法は、画像内の物体を識別する画像処理方法であって、入力画像を受付ける画像入力ステップと、前記入力画像から特徴量抽出のための画像を生成する画像生成ステップと、前記画像生成ステップにより生成された生成画像から特徴量を抽出する特徴量抽出ステップと、前記特徴量抽出ステップにて算出した特徴量を用いて、画像内の物体を検出あるいは識別する識別ステップと、前記識別ステップにて算出した識別結果を出力する出力ステップと、を含み、前記特徴量抽出ステップが出力する特徴量に基づき、必要に応じて新たな生成画像の生成を前記画像生成ステップにより行わせるとともに、当該新たな生成画像に対する特徴量の抽出条件を示す特徴量マップを生成して前記特徴量抽出ステップによる処理に反映させる特徴量マップ生成ステップをさらに含む。
本発明によれば、画像内の対象物体を高精度かつ高速に識別する装置、方法およびシステムを提供可能となる。
以下、添付図面に従って本発明に係る画像処理装置、方法およびシステムの実施例について説明する。なお、以下の説明及び添付図面において、同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
<画像処理装置のハードウェア構成>
図1を用いて実施例1に係る画像処理装置のハードウェア構成について説明する。画像処理装置100は、インターフェース部110と、演算部111と、メモリ112と、バス113とを備え、インターフェース部110、演算部111、メモリ112はバス113を介して情報の送受信を行う。
図1を用いて実施例1に係る画像処理装置のハードウェア構成について説明する。画像処理装置100は、インターフェース部110と、演算部111と、メモリ112と、バス113とを備え、インターフェース部110、演算部111、メモリ112はバス113を介して情報の送受信を行う。
画像処理装置100の各部について説明する。
インターフェース部110は、画像処理装置100の外部にある装置と信号の送受信を行う通信装置である。インターフェース部110と通信を行う装置としてはカメラや顕微鏡などの撮像装置120、モニタやプリンタ等の表示装置121がある。
インターフェース部110は、画像処理装置100の外部にある装置と信号の送受信を行う通信装置である。インターフェース部110と通信を行う装置としてはカメラや顕微鏡などの撮像装置120、モニタやプリンタ等の表示装置121がある。
演算部111は、画像処理装置100内での各種の処理を実行する装置であり、例えばCPU(Central Processing Unit)やFPGA(Field-Programmable Gate Array)等である。演算部111によって実行される機能については、図2を用いて後述する。
メモリ112は、演算部111が実行するプログラムや、パラメタ、係数、処理結果等を保存する装置であり、HDD、SSD、RAM、ROM、フラッシュメモリ等である。
メモリ112は、演算部111が実行するプログラムや、パラメタ、係数、処理結果等を保存する装置であり、HDD、SSD、RAM、ROM、フラッシュメモリ等である。
<画像処理装置の機能構成>
図2は画像処理装置100の第一の実施例に係る機能ブロック図の一例である。これらの各機能部は、演算部111上で動作するソフトウェアで実現しても良いし、専用のハードウェアで実現しても良い。
図2は画像処理装置100の第一の実施例に係る機能ブロック図の一例である。これらの各機能部は、演算部111上で動作するソフトウェアで実現しても良いし、専用のハードウェアで実現しても良い。
画像処理装置100は、機能部として画像入力部201と、画像生成部202と、特徴量抽出部203と、特徴量マップ生成部204と、識別部205と、出力部206と、を含む。以下、各機能部について説明する。
画像入力部201は、インターフェース部110から入力される可視光画像や顕微鏡画像等の入力画像を受付ける。
画像生成部202は、前記入力画像を用いて特徴量抽出のための画像を生成する。尚、画像生成部202は後述する特徴量マップ生成部204から生成画像信号を受付けた場合には、生成画像信号に基づいて生成する画像を決定する。生成画像信号の入力が無い場合には予め定めた設定で画像を抽出する。
特徴量抽出部203は、前記画像生成部202が生成した画像から特徴量を抽出する。尚、特徴量抽出部203は、後述する特徴量マップ生成部204から特徴量抽出マップを受付けた場合には、特徴量抽出マップ内の領域や特徴量種別の内、予め設定された閾値以上の値を有する領域や特徴量に対してのみ特徴量を抽出する。特徴量抽出マップの入力が無い場合には、画像全体から全種別の特徴量を抽出する、あるいは予め定めた領域および特徴量のみを抽出する。
特徴量マップ生成部204は、前記特徴量抽出部203が出力する特徴量を用いて、特徴量抽出マップを生成する。特徴量抽出マップは、画像生成部202が次に生成する画像と、特徴量抽出部203にて次に特徴量を抽出する領域や特徴量の種別を指定する。
識別部205は、特徴量抽出部203が出力した全てあるいは一部の特徴量を用いて識別処理を行う。識別処理は入力画像を予め定めたクラスに分類する画像単位の識別処理、画素単位の識別処理(領域分割)、物体の位置を矩形で検出する処理等を含む。この識別処理により、物体の存在の検出や、物体の種類の判別が可能である。
出力部206は、前記識別部205が出力する識別結果を装置外部に出力する。識別結果が画像単位である場合には、画像毎のクラス情報や尤度情報を数値データの形で出力しても良いし、それらの情報を文字列等の視覚的に理解できる形で出力しても良い。識別結果が画素単位である場合には、画素毎のクラスや尤度の情報を数値データの形で出力しても良いし、クラスを固有の色で表現した画像として出力しても良い。識別結果が矩形情報である場合には、各矩形のクラスや尤度、矩形情報を数値データの形で出力しても良いし、画像上に矩形とクラス情報を枠線と色等で表現した画像として出力しても良い。
尚、上記の各機能は、図2の機能部の通りに構成される必要はなく、各機能ブロックの動作を実現する処理が実現できればよい。図5に実施例1に係る処理フロー図の一例を示す。各ステップは図2に示した機能ブロック図の各要素と対応している。
画像入力ステップ501は、インターフェース部110から入力される可視光画像や顕微鏡画像等の入力画像を受付ける。
画像生成ステップ502は、前記入力画像を用いて特徴量抽出のための画像を生成する。尚、画像生成ステップ502は後述する特徴量マップ生成ステップ504にて生成される生成画像信号を受付けた場合には、生成画像信号に基づいて生成する画像を決定する。生成画像信号の入力が無い場合には予め定めた設定で画像を生成する。
特徴量抽出ステップ503は、前記画像生成ステップ502にて生成した画像から特徴量を抽出する。尚、特徴量抽出ステップ503は、後述する特徴量マップ生成ステップ504から特徴量抽出マップを受付けた場合には、特徴量抽出マップ内の領域や特徴量種別の内、予め設定された閾値以上の値を有する領域や特徴量に対してのみ特徴量を抽出する。特徴量抽出マップの入力が無い場合には、画像全体から全種別の特徴量を抽出する、あるいは予め定めた領域および特徴量のみを抽出する。
特徴量マップ生成ステップ504は、前記特徴量抽出ステップ503にて算出した特徴量を用いて、特徴量抽出マップを生成する。特徴量抽出マップは、画像生成ステップ502にて次に生成する画像と、特徴量抽出ステップ503にて次に抽出する特徴量の種別や領域を指定する。
識別ステップ505は、特徴量抽出ステップ503にて出力する全てあるいは一部の特徴量を用いて識別処理を行う。識別処理は入力画像を予め定めたクラスに分類する画像単位の識別処理、画素単位の識別処理(領域分割)、物体の位置を矩形で特定する検出処理等を含む。
出力ステップ506は、前記識別ステップ505にて算出した識別結果を装置外部に出力する。識別結果が画像単位である場合には、画像毎のクラス情報や尤度情報を数値データの形で出力しても良いし、それらの情報を文字列等の視覚的に理解できる形で出力しても良い。識別結果が画素単位である場合には、画素毎のクラスや尤度の情報を数値データの形で出力しても良いし、クラスを固有の色で表現した画像として出力しても良い。識別結果が矩形情報である場合には、各矩形のクラスや尤度、矩形情報を数値データの形で出力しても良いし、画像上に矩形とクラス情報を枠線と色等で表現した画像として出力しても良い。
以降、各機能部を主語として詳細な動作について説明するが、各機能部に対応する各ステップを主語として読み替えても差し支えない。
<各部の構成と動作>
以下、機能部の内、画像生成部202、特徴量抽出部203、特徴量マップ生成部204、識別部205の動作について詳しく説明する。
以下、機能部の内、画像生成部202、特徴量抽出部203、特徴量マップ生成部204、識別部205の動作について詳しく説明する。
画像生成部202は、入力画像を用いて特徴量抽出のための画像を生成する。画像生成部は後述する特徴量マップ生成部204から生成画像信号を受付けているか否かで動作が異なる。生成画像信号を受付けている場合、生成画像信号に基づいて画像を生成する。生成画像信号は例えば画像の縮小率や画像サイズが指定される。尚、指定される画像はローパスフィルタやハイパスフィルタ、バンドパスフィルタ等を用いた特定の周波数成分を有する画像、補正・強調・ノイズ除去等の画像処理を適用した画像、後述する特徴量抽出マップを用いたマスキング処理を施した画像等を候補としても良い。また、これらの画像処理を組合せた画像を候補としても良い。尚、候補画像の種類は予め定めておくものとする。
また、生成画像信号の入力が無い場合、画像生成部202は予め定めた初期設定で画像を設定する。例えば予め定めた縮小率や画像サイズで入力画像を縮小した画像を生成する。生成画像の初期設定は、上記候補画像の内、一つを表していれば良い。
特徴量抽出部203は、前記画像生成部202が出力する生成画像から特徴量を抽出する。抽出する特徴量はHOGやHaar-Like特徴などのハンドクラフト特徴量でも良いし、深層学習やランダムフォレスト等の機械学習により自動的に求めたものでも良い。また、生成画像信号に基づいて抽出する特徴量や特徴量のパラメタを変更しても良い。
特徴量抽出部203は、後述する特徴量マップ生成部204から特徴量抽出マップを受付けた場合、特徴量抽出マップに基づいて、特徴量を抽出する領域や特徴量の種類を限定する。特徴量抽出マップは特徴量の種類や領域に対応した配列であり、特徴量抽出マップ内の値が予め設定した閾値よりも高い場合、該当する特徴量や領域に対して特徴抽出を行う。
図3に特徴量抽出マップの一例を示す。画像300は画像生成部202より入力された特徴抽出対象の画像、特徴量抽出マップ301、302、303はそれぞれ特徴量A,B,Cに対する特徴量抽出マップである。特徴量抽出マップ301、302、303内の白の領域は特徴量抽出マップ内の値が予め設定した閾値以上の領域を表しており、黒は閾値未満の領域を表している。対象物体304は検出対象の物体であり、ここではボトルを例示している。対象物体304はボトル本体とキャップ、そしてラベルから構成されているとする。領域305、306は特徴抽出マップ内で閾値以上の値を持つ領域である。
例えば特徴量抽出マップ301では領域305のみが閾値以上であるため、生成画像内の領域305に対応する領域のみから特徴量Aを抽出する。すなわち特徴量Aはボトル周辺の領域のみに適用され、背景や床の領域に対しては適用されない。また、特徴量抽出マップ302では領域306のみが閾値以上であるため、生成画像内の領域306に対応する領域のみから特徴量Bを抽出する。すなわち特徴量Bはラベル領域のみに適用され、その他の領域には適用されない。また、特徴量抽出マップ303は全ての領域が閾値未満であるため、特徴抽出処理を実行しない。この特徴抽出マップは、一つ前の生成画像から抽出した特徴量に基づいて決定されるため、特徴量によって有効化される領域は変化する。
また、特徴量抽出マップは全特徴量に共通の特徴量マップを指定しても良い。すなわち特徴抽出する領域のみを示したマップである。例えば図3の特徴量抽出マップ301が、全特徴量の共通の特徴量マップとして入力された場合、領域305に対して特徴量A,B,Cの抽出を行い、その他の領域に対しては特徴量抽出を行わない。
また、特徴量抽出マップは抽出する領域を指定せず、抽出する特徴量だけを指定しても良い。例えば特徴抽出マップは特徴量A、B、Cに対応した三つの配列を有し、特徴量マップ算出の結果、閾値以上となった特徴量のみを抽出し、その他の特徴量は抽出しないという方式でも良い。
このように特徴量抽出部203は、特徴量抽出マップに基づいて特徴量を抽出する領域や特徴量の種類を限定することで特徴抽出処理を削減し、識別部205での高速な識別処理を実現する。
特徴量マップ生成部204は、画像生成部202が生成する画像の種類を指定する生成画像信号と、特徴量抽出部203が特徴量を抽出する領域や特徴量の種類を限定するために用いる特徴量抽出マップを生成する。
生成画像信号の生成方法について説明する。生成画像信号は特徴量抽出部203が出力した特徴量に基づいて画像生成部202が次に生成する画像を決定する。例えば特徴量抽出部203にて生成画像に含まれる周波数成分量を特徴量として算出し、周波数成分の分布に基づいて生成する画像を決定する。また機械学習等により決定しても良い。例えば次に生成する画像の候補をN個用意し、特徴量抽出部203から出力された特徴量を入力、出力ユニット数をNとした深層学習のネットワークを設計する。入力された特徴量に基づいて識別に有効な特徴量を抽出する生成画像が選択されるように学習することで、次の生成画像を選択する選択器を生成可能である。
次に特徴量抽出マップの生成方法について説明する。例えば、現在までに抽出した特徴量を用いて仮の識別を行い、識別の確信度に基づいて特徴量抽出マップを生成する方法がある。すなわち、これまでに抽出した特徴量のみを用いて高い確信度で識別している領域に対しては新たな特徴抽出を行わず、確信度が低い領域に対しては確信度向上のために新たな特徴抽出を行う。また、どの特徴量あるいは領域から識別に有効な特徴量を抽出できるかを機械学習により推定しても良い。方法は前述の生成画像信号と同様であり、特徴量種別や領域を候補として、そこから抽出される特徴がどの程度識別に有効かを推定する。
尚、特徴量マップ生成部204は識別部205に対して特徴量抽出処理の終了を示す、抽出終了信号を出力する。特徴量抽出処理の終了条件は予めユーザーにより決定されるものとし、例えば上記仮の識別の確信度や、生成した画像数、抽出した特徴量数、処理時間等に基づいて決定する。確信度による終了条件は、例えば画素単位識別では、全領域に対する確信度が一定以上の場合、あるいは確信度の平均が一定以上の場合等がある。画像単位識別では、一画像に対して出力される識別の確信度が一定以上になった場合、あるいは識別スコアが一定以上になった場合等がある。生成画像数、抽出特徴量数、処理時間等に対して上限を定めて、いずれかの上限あるいは全ての上限に達した場合に終了する方法でも良い。また、生成画像数、抽出特徴量数、処理時間と、識別の確信度から総合的に終了を判定しても良い。
識別部205は、特徴量マップ生成部204が出力する抽出終了信号の入力を受けて、特徴量抽出部203が抽出した特徴量の内、全てあるいは一部を用いて最終的な識別を行い、識別結果を出力する。
図4に画素単位識別処理の一例を示す。図4は生成画像として複数の縮小画像を用いた場合の例である。生成画像400、401、402はそれぞれ1/4縮小画像、1/2縮小画像、非縮小画像である。特徴量410、411、412はそれぞれ生成画像400、401、402から特徴量抽出部203が抽出した特徴量である。原画像単位特徴量420、421はそれぞれ特徴量410、411を4倍、2倍に拡大した特徴量である。生成画像信号430、431は特徴量マップ生成部204が出力する生成画像信号である。特徴量抽出マップ440、441は特徴量マップ生成部204が出力する特徴量抽出マップである。結合後特徴量450は特徴量412および原画像単位特徴量420、421を結合した特徴量である。識別結果460は結合後特徴量450を識別部205に入力して得られる画素単位の識別結果の例である。ここで、生成画像400、401、402は垂直方向y、水平方向x、チャンネルchの次元を有する。また、特徴量410、411、412、原画像単位特徴量420、421、特徴量抽出マップ440、441および結合後特徴量450は、垂直方向y、水平方向x、特徴量種別chの次元を有する。また、識別結果460は、垂直方向y、水平方向x、クラスchの次元を有する。
図4の例では、まず、特徴量抽出部203が生成画像400を受付け、特徴量410を出力する。尚、生成画像400は画像生成部202が生成画像信号の入力が無い場合に入力画像から生成する画像であり、図4の例では1/4縮小画像を生成している。次に、特徴量マップ生成部204が特徴量410を受付け、生成画像信号430および特徴量抽出マップ440を出力する。生成画像信号430は前述のとおり、特徴量マップ生成部204が画像生成部202に対して出力する、次に生成すべき画像を決定するための信号である。図4の例では生成画像信号として画像縮小率を選択する。生成画像信号430、431内の丸印が選択可能な画像縮小率を表しており、黒丸は特徴量マップ生成部204が選択した画像縮小率を表す。生成画像信号430では縮小率1/2が選択されているものとし、画像生成部202は生成画像信号430に基づいて生成画像401(1/2縮小画像)を出力する。また、特徴量抽出マップ440は、特徴量抽出部203が生成画像401から特徴量抽出すべき領域を示している。図4の例では特徴量抽出マップ440内の白で示した領域のみから特徴量を抽出する。特徴量抽出部203は、生成画像401および特徴量抽出マップ440を受付けて、特徴量411を出力する。特徴量411は特徴量抽出マップ440が白の領域のみから抽出されており、それ以外の領域からは抽出されていない。特徴量411内の特徴量抽出対象外の領域には例えば0などの予め定めた値が格納される。
同様に、特徴量マップ生成部204が特徴量411を受付け、生成画像信号431および特徴量抽出マップ441を出力する。画像生成部202は生成画像信号431に基づいて生成画像402(非縮小画像)を出力する。また、特徴量抽出マップ441は、特徴量抽出部203が生成画像402から特徴量抽出すべき領域を示している。特徴量抽出部203は、生成画像402および特徴量抽出マップ441を受付けて、特徴量412を出力する。特徴量412は特徴量抽出マップ441内の白で示した領域のみから抽出されており、それ以外の領域からは抽出されていない。
特徴量410、411はそれぞれ特徴抽出元である生成画像と同じ倍率で縮小されているため、そのままでは各画素に対する特徴量として割り当てることができない。そこで例えば原画像単位特徴量420、421のように、特徴量410、411を原画像の各画素に割り当て可能な形に変換する。例えば図4の例では特徴量410および411を4倍および2倍に拡大している。その後、結合後特徴量450のように全ての特徴量を結合することで各画素に対応する総括的な特徴量を得ることができる。最後に識別部205が結合後特徴量450を入力として、識別結果460を出力する。識別結果460は画素毎のクラス情報を表す。
上述した原画像単位特徴量420、421の作成方法は一例であり、各特徴量を原画像内の各画素に割り当てることができればその他の方法でも構わない。例えば特徴量410を2倍拡大した特徴量と特徴量411を結合し、結合した特徴量に基づいて新たな特徴量を生成した後に更に2倍拡大する等、段階的に特徴量を原画像に割り当てる方法でも良い。
画像単位識別の場合は、特徴量を画素に割り当てるステップを省き、得られた全特徴量を用いて識別を行っても良いし、例えば領域毎の最大値を取るなどの方法で更に間引いた特徴量を用いて識別を行ってもよい。
出力部206は、識別部205が出力する識別結果を装置外部に出力する。識別結果の配列や数値をそのまま出力しても良いし、領域分割の場合は各画素を識別結果に応じて色付けした画像を出力しても良い。また画像単位識別の場合は識別結果を文字列等のユーザーが理解しやすい形で出力しても良い。
以上により、画像内の対象物体を高精度かつ高速に検出あるいは識別する装置および方法を提供可能となる。
実施例2は実施例1に記載の画像処理装置が出力する領域分割結果または識別結果と、検出に関する設定や情報を指定する検出関連指定信号とに基づいて高速に物体を検出する画像処理システムである。
実施例2に係るハードウェア構成図を図12に示す。実施例2に係る画像処理システム1200は、撮像装置1201と、画像処理装置100と、物体検出装置1202と、表示装置1203と、記憶装置1204から構成される。
撮像装置1201は、対象物体を撮像するための装置であり、例えばカメラ等である。
画像処理装置100は、実施例1に記載の画像処理装置であり、前記撮像装置1201で撮像した画像から特定の物体領域の領域分割または識別結果、あるいはその両方を算出する。
物体検出装置1202は、前記画像処理装置100が出力する領域分割結果または識別結果と、記憶装置1204が出力する検出関連指定信号の内、検出対象を指定する信号である検出対象指定信号に基づいて物体の検出情報を出力する。
表示装置1203は、前記物体検出装置1202による物体検出結果をユーザーに提示する。
画像処理装置100は、実施例1に記載の画像処理装置であり、前記撮像装置1201で撮像した画像から特定の物体領域の領域分割または識別結果、あるいはその両方を算出する。
物体検出装置1202は、前記画像処理装置100が出力する領域分割結果または識別結果と、記憶装置1204が出力する検出関連指定信号の内、検出対象を指定する信号である検出対象指定信号に基づいて物体の検出情報を出力する。
表示装置1203は、前記物体検出装置1202による物体検出結果をユーザーに提示する。
記憶装置1204は、ユーザーにより予め設定された検出関連指定信号を保持している。検出関連指定信号は検出に関連する種々の設定・情報を指定するための信号である。実施例2における検出関連指定信号は、物体検出装置1202における検出対象を指定する検出対象指定信号を含む。記憶装置1204は検出対象指定信号を物体検出装置1202に対して出力する。尚、図12には特に図示していないが、画像処理システム1200はキーボード等のユーザーインターフェース装置を含み、システム運用中に記憶装置1204に記録した検出関連指定信号をユーザーが書き換え可能な構成としても良い。
<各装置の動作>
撮像装置1201、表示装置1203、および記憶装置1204の動作は上述の通りである。また、画像処理装置100の動作は実施例1にて説明した通りである。そのためここでは物体検出装置1202について説明する。
撮像装置1201、表示装置1203、および記憶装置1204の動作は上述の通りである。また、画像処理装置100の動作は実施例1にて説明した通りである。そのためここでは物体検出装置1202について説明する。
画像処理装置100が領域分割結果を出力する場合について説明する。図7に撮像装置1201が撮像した画像と、画像処理装置100が出力した領域分割結果の一例を示す。画像701は複数の薬品ボトルを撮像した画像の例、領域分割結果702は画像701を画像処理装置100により領域分割した結果の一例である。ボトル703,704,705はそれぞれ薬品A,B,Cのボトルであり、ボトル領域706,707,708は領域分割により得た薬品A,B,Cのボトル領域である。ボトル領域706,707,708はそれぞれ異なるクラスとして領域分割されており、テクスチャの違いはクラスの違いを表している。
領域分割結果702はユーザーが視覚的に状況を確認するためには有効である。しかし、ユーザーが物体単位の情報(例えば特定の種類のボトルの有無や、画像内にボトルが何個あるか、ボトルはどのような順番で配置されているかといった情報)を必要とする場合には、別の処理が必要となる。そこで物体検出装置1202は記憶装置1204から検出対象指定信号を受付け、検出対象指定信号に基づいて物体情報を抽出し、検出結果として出力する。
物体検出装置1202は、各クラスに属する物体の有無、個数、座標情報、配置情報、あるいはそれらの組合せによって決定される情報を検出結果として出力することが可能であり、どの情報を出力するかは前記の検出対象指定信号により指定する。以降、各情報の抽出方法について説明する。
まず、物体検出装置1202が各クラスに属する物体の有無を検出する方法を説明する。領域分割結果内の結合領域を抽出し、各クラスに属する結合領域が存在するか否かを判定することで、各クラスに属する物体の有無を検出できる。このとき、領域分割結果には誤識別領域を含む可能性があるため、結合領域の状態に基づいて誤識別領域を除外した後で結合領域を抽出してもよい。誤識別領域の除外方法の一例としては、予め結合領域のサイズに対する閾値を設定しておき、結合領域のピクセル数が閾値を下回る場合、誤識別領域と判定して除外する方法がある。これは誤識別領域の結合領域のサイズが、正解領域の結合領域のサイズよりも小さい傾向があることを利用した除外方法である。他にも画像の幾何学変換(収縮・膨張処理等)やメディアンフィルタ等のノイズ除去処理を用いて除外してもよいし、各画素あるいは結合領域内の識別結果の確信度に基づいて算出した定量値に対して閾値処理を行う方法等で除外してもよい。
また、物体検出装置1202は前記の手法により領域分割結果内の各クラスに属する結合領域を抽出し、各クラスの結合領域の数をカウントすることで、各クラスに属する物体の個数を算出可能である。
また、物体検出装置1202は、前記の手法により各クラスの結合領域を抽出し、結合領域の代表点(例えば上端、下端、左端、右端、重心等)を算出することで、代表点の座標位置を検出結果として出力することが可能である。
また、物体検出装置1202は、領域分割結果内の各結合領域の配置位置を検出結果として出力することが可能である。例えば前記の手法により領域分割結果内の各結合領域から代表点の座標情報を抽出し、各結合領域のクラス情報と紐づけて記録する。その後、水平方向(あるいは垂直方向)の座標情報に基づいてソートし、ソート結果からクラス情報を抽出することで、画像内の物体の水平方向(あるいは垂直方向)の配置順を配置情報として得ることが可能である。他にも画像をグリッド状に分割して、各グリッドにおける結合領域の専有面積に基づき、グリッド内の各クラスの物体有無を決定することで、グリッド状の物体配置情報を得るなどしてもよい。
また、上述の各クラスに属する物体の有無、個数、座標情報、配置情報を組合せて一つあるいは複数の物体の総合的な状態を検出してもよい。
以上により、画像内の対象物体を高速に検出する画像処理システムを提供可能となる。
以上により、画像内の対象物体を高速に検出する画像処理システムを提供可能となる。
実施例3は実施例2に記載の画像処理システムを用いて、対象物体の配置が予め定めた位置関係にあるか否かを判定する画像処理システムである。
実施例3に係るハードウェア構成図を図6に示す。実施例2に係る画像処理システム600は、撮像装置1201と、画像処理装置100と、物体検出装置1202と、物体配置検証装置602と、表示装置1203と、記憶装置1204と、から構成される。
実施例3に係るハードウェア構成図を図6に示す。実施例2に係る画像処理システム600は、撮像装置1201と、画像処理装置100と、物体検出装置1202と、物体配置検証装置602と、表示装置1203と、記憶装置1204と、から構成される。
撮像装置1201、画像処理装置100、物体検出装置1202、表示装置1203は実施例2に記載の装置と同様であるため、説明を省略する。尚、実施例2にて説明した通り、物体検出装置1202は検出対象を指定する検出対象指定信号を記憶装置1204から受付ける。本実施例においては検出対象指定信号として領域分割結果内の各結合領域の配置情報を指定する。物体検出装置1202は実施例2で説明した方法により物体の配置情報を抽出する。
<各装置の動作>
記憶装置1204の動作について説明する。本実施例において、記憶装置1204に保持されている検出関連指定信号は、検出対象を指定する検出対象指定信号と、対象物体の正しい配置状態を表す正配置状態指定信号の二つを含む。記憶装置1204は検出対象指定信号を物体検出装置1202に出力し、正配置状態指定信号を物体配置検証装置602に出力する。尚、検出対象指定信号および正配置状態指定信号は予めユーザーにより設定されているものとする。
記憶装置1204の動作について説明する。本実施例において、記憶装置1204に保持されている検出関連指定信号は、検出対象を指定する検出対象指定信号と、対象物体の正しい配置状態を表す正配置状態指定信号の二つを含む。記憶装置1204は検出対象指定信号を物体検出装置1202に出力し、正配置状態指定信号を物体配置検証装置602に出力する。尚、検出対象指定信号および正配置状態指定信号は予めユーザーにより設定されているものとする。
物体配置検証装置602の動作について説明する。
物体配置検証装置602は、物体検出装置1202が出力する物体の配置情報と、記録装置1204が出力する正配置状態指定信号を受付け、両者が一致しているか否かに基づいて、撮像装置1201が撮像した画像内の物体が正しく配置されているかを検証する。
物体配置検証装置602は、物体検出装置1202が出力する物体の配置情報と、記録装置1204が出力する正配置状態指定信号を受付け、両者が一致しているか否かに基づいて、撮像装置1201が撮像した画像内の物体が正しく配置されているかを検証する。
図7を用いてボトルの配置検証の一例を説明する。ここでは水平方向のボトルの配置順序を判定する例を説明する。まず、正配置状態指定信号として正しい配置状態における薬品の種類を左から順に登録しておく(例えば“ABC”)。実施例2にて説明した方法により、物体検出装置1202は領域分割結果702から各物体領域の水平方向の配置情報を取得する。その結果、領域分割結果702の例ではラベルの配置情報は“ABC”と算出され、前記ユーザーにより登録されたボトルの正しい配置と照合することで全てのボトルが正しく配置されていることを判定できる。
物体配置検証装置602は、上記配置の正誤判定結果をユーザーに提示するための画像を作成する。図8A、8B、8Cに物体配置検証結果の表示例を示す。ウィンドウ801はユーザーに提示される結果表示ウィンドウ、総合検証結果802は総合的な配置検証結果、個別検証結果803、804、805は各対象物体の配置検証結果を表している。図8の例では総合検証結果802は全ての対象物体が正しく配置されている場合に“OK”と表示され、そうでない場合には“Error”と表示される。
図8Aの例では各ボトルは正しく配置されているため、個別検証結果803、804、805および総合検証結果802は全て“OK”と表示される。
図8Bの例では左から二番目と三番目のボトルの配置が正しくないため、個別検証結果804および805は“Error”と表示されており、総合検証結果802も“Error”となっている。
図8Cの例は、右端のボトルが想定と異なるボトルであるため正しく検出できなかった例である。左と真ん中のボトルの配置は正しいため、個別検証結果803および804は“OK”と表示されている。しかし、配置情報の算出結果は“AB”となり登録されたボトルの正しい配置“ABC”とは一致しない。そのため総合検証結果802には“Error”と表示されている。また“Error”という表示ではなく、検出されるべき数の対象物体が検出されなかった旨の表示、あるいは検出した対象物体の数を表示する等しても良い。
図8Bの例では左から二番目と三番目のボトルの配置が正しくないため、個別検証結果804および805は“Error”と表示されており、総合検証結果802も“Error”となっている。
図8Cの例は、右端のボトルが想定と異なるボトルであるため正しく検出できなかった例である。左と真ん中のボトルの配置は正しいため、個別検証結果803および804は“OK”と表示されている。しかし、配置情報の算出結果は“AB”となり登録されたボトルの正しい配置“ABC”とは一致しない。そのため総合検証結果802には“Error”と表示されている。また“Error”という表示ではなく、検出されるべき数の対象物体が検出されなかった旨の表示、あるいは検出した対象物体の数を表示する等しても良い。
また、図8A、8B、8Cでは“OK”と“Error”という表示で各物体の配置正誤を表したが、例えば検出した対象物体の種類等を併記しても良い。また領域の配置の正誤や対象物体の種類等は文字だけでなく、検出枠や領域の色、線種、アイコン等で示しても良く、対象物体の配置情報をユーザーに伝達可能な表示であればどのような表示でも良い。また、上記では左からの配置を例として説明したが、対象物体の相対的な配置を定義できれば上下左右、入れ子構造等を判定しても良い。また、総合検証結果および個別検証結果は必ずしも両方を表示する必要はなく、必要に応じてどちらか一方を表示しても良い。
また、物体配置検証装置602は画像処理装置100が出力する領域分割結果の確信度を併用して各ボトルの個別検証結果を決定しても良い。確信度とは、画像処理装置100が各画素をどの程度の確信をもって領域分割したかを表す値である。例えば領域分割により各画素に対して背景、ボトルA、ボトルB、ボトルCに対する識別スコアを得る場合、識別スコアの最大値を確信度として使用する方法がある。このとき、各識別スコアの値域が0.0から1.0、かつ、識別スコアの全クラスの総和が1.0になるように正規化することが望ましい。物体配置検証装置602は例えば十分な確信度をもって検出できていないボトル領域について、確信度不十分あるいは誤検出と判定して個別検証結果に表示する。また、確信度を物体配置検証結果画面に重畳する等して、ユーザーに提示しても良い。
図11に確信度を用いた物体配置検証の一例を示す。結果表示ウィンドウ1101は、ユーザーに提示される結果表示ウィンドウ、領域分割結果1102は画像処理装置100による領域分割結果、確信度重畳結果1113は画像処理装置100が出力する領域分割結果の画素毎の確信度を結果表示ウィンドウ1101に重畳した例を示している。結果表示ウィンドウ1101はボトルA1103、ボトルB1104、ボトルC1105を含んでおり、各ボトルの個別検証結果1106、1107、1108および総合検証結果1109を表示している。ここでボトルC1105は薬品名の書かれたラベルが無く、薬品名が視認できないとする。領域分割結果1102はボトルA1103、ボトルB1104、ボトルC1105に対する領域分割結果として領域分割結果A1110、領域分割結果B1111、領域分割結果C1112を示している。尚、ボトルA1103、ボトルB1104、ボトルC1105はそれぞれ正しく、ボトルの種別を識別されているとする。確信度重畳結果1113は領域分割結果A1110、領域分割結果B1111、領域分割結果C1112の確信度として確信度A1113、確信度B1114、確信度C1115を、結果表示ウィンドウ1101に重畳する形で表示している。確信度重畳結果1113では、画素毎の確信度が輝度値として表示されており、白に近づくほど高い確信度、黒に近づくほど低い確信度を表している。尚、画像処理装置100は実施例1で説明したとおり、複数の生成画像から特徴抽出マップに基づいて特徴抽出するため、確信度にこの特徴抽出方法が反映される。具体的には、例えば図11の確信度重畳結果1113は、複数の倍率で縮小した画像から特徴抽出した例を示しており、局所的に確信度の解像度が異なっている。例えばラベル内の文字の領域やボトルの輪郭部分は高解像度で特徴抽出されているため高解像度な確信度が得られているが、ラベルやボトルの輪郭から離れるにしたがって確信度の解像度が低下している。
画像処理装置100は前述のとおりボトルA1103、ボトルB1104、ボトルC1105のボトル種別を正しく識別しているが、その確信度には違いがある。ここでは、確信度に基づく個別判定結果の決定方法の一例として、確信度に対する閾値を予め定めておき、各結合領域内の最大確信度が前記閾値以上であるか未満であるかに基づいて個別判定結果を決定する方法を説明する。ボトルのラベルが視認可能なボトルA1103およびボトルB1104に対する確信度A1113および確信度B1114では、特にラベルの周辺に前記閾値を超える確信度が得られており、一方、ラベルが視認不可能なボトルC1105に対する確信度C1115では、前記閾値以上の確信度は得られていないとする。この場合、ボトルA1103およびボトルB1104は確信度が十分であると判定し、領域分割により得られたボトル種別をそのまま検出結果として採用する。ボトルA1103およびボトルB1104はボトル種別および配置が正しいため、個別検証結果1106、1107として“OK”が表示される。一方、ボトルC1105は前記閾値以上の確信度で領域分割できていないため、個別検証結果1108として確信度が不十分であることを示す“Low Conf”が表示される。また、ボトルC1105が正しく検出できなかったため、総合検証結果1109は“Error”と表示される。尚、確信度が不十分と判定された場合の表示内容は一例であり、例えば誤配置を示す“Error”を表示するなどしても良い。
上記の様に確信度が高い場合のみ配置の検証を行うことで、物体配置検証結果の信頼性を高め、ボトルの誤配置リスクを更に低減することが可能となる。また、確信度を物体配置検証結果画面あるいは入力画像に重畳する等して、ユーザーに提示することで、ユーザーは画像処理装置100がどの領域に基づいてボトル種別を識別したか、あるいは識別のための特徴の不足について、情報を得ることが可能となる。
以上により、画像内の対象物体が予め定めた位置関係にあるか否かを判定する画像処理システムを提供可能となる。
実施例4は実施例2に記載の画像処理システムを用いて、分析対象の試料を格納した容器の種別を高速かつ高精度に判別する機能を含む、血液自動分析向けの画像処理システムである。前記血液分析には生化学分析や免疫分析を含む。画像処理システムに入力された容器の種別を自動的に判定することで、容器種別に応じた検体状態判定機能(例えば分析に影響を与える気泡や異物の有無検知等)の適用が可能となり、血液分析の信頼性が向上する。
実施例4に係るハードウェア構成図を図9に示す。実施例4に係る画像処理システム900は、撮像装置1201と、画像処理装置100と、物体検出装置1202と、検体状態判定装置902と、試料採取装置903と、分析装置904と、表示装置1203と、記憶装置1204と、から構成される。
撮像装置1201、表示装置1203は実施例2にて説明した各装置と同様であるため説明を省略する。ただし、撮像装置1201は、試料を格納した容器(以下、検体)を横から撮像するものとする。画像処理装置100は容器種別を識別するための領域分割を行い、物体検出装置1202は領域分割結果に基づいて容器種別を判定し、出力する。詳細は後述する。
撮像装置1201、表示装置1203は実施例2にて説明した各装置と同様であるため説明を省略する。ただし、撮像装置1201は、試料を格納した容器(以下、検体)を横から撮像するものとする。画像処理装置100は容器種別を識別するための領域分割を行い、物体検出装置1202は領域分割結果に基づいて容器種別を判定し、出力する。詳細は後述する。
<各装置の動作>
以下では画像処理装置100、物体検出装置1202、検体状態判定装置902、試料採取装置903、分析装置904の動作について詳細を説明する。
以下では画像処理装置100、物体検出装置1202、検体状態判定装置902、試料採取装置903、分析装置904の動作について詳細を説明する。
記憶装置1204の動作について説明する。本実施例において、記憶装置1204に保持されている検出関連指定信号は、検出対象を指定する検出対象指定信号と、検体状態判定装置902における状態判定対象を指定する試料及び/又は容器状態判定対象指定信号の二つを含む。記憶装置1204は検出対象指定信号を物体検出装置1202に出力し、試料及び/又は容器状態判定対象指定信号を検体状態判定装置902に出力する。検出対象指定信号としては各クラスに属する物体の有無とその座標位置に基づいて決定される容器の種別情報を指定する。試料及び/又は容器状態判定対象指定信号としては、例えば試料内に存在する気泡や異物の有無、容器の傾き等、ユーザーが判定したい試料及び/又は容器の状態を指定する。尚、検出対象指定信号と、試料状態及び/又は容器状態判定対象指定信号は予めユーザーにより設定されているものとする。
実施例4に係る画像処理装置100および物体検出装置1202の動作について説明する。実施例4に係る画像処理装置100への入力画像例を図10Aおよび図10Bに示す。図10Aおよび図10Bの入力画像1000は、底上げ容器1001および1002の上に、カップA1003およびカップB1004を載せた状態を撮像した例を示している。また、カップA1003およびカップB1004の中に試料1005が格納されている。底上げ容器1001および1002とカップA1003およびカップB1004は分離しており、どのように組合せても良いとする。ここではカップの種類と底上げ容器の高さの組合せに基づいて容器種別を決定する例について説明する。
カップの種類を識別するためにはカップA1003およびカップB1004周辺から特徴量を抽出する必要がある。また、底上げ容器の高さを識別するためにはカップの上端や下端等の位置を検出する必要がある。カップの位置を高精度に検出するためには高解像度な画像の入力が必要となるが、画像全体から特徴量を抽出する場合、処理時間の長さが課題となる。一方、実施例1に記載の画像処理装置100を用いることで、例えば縮小画像から特徴量抽出マップを生成して、カップA1003やカップB1004周辺のみからカップの種別識別およびカップの位置検出に必要な特徴量を抽出するため、高速化が可能となる。
ここでは画像処理装置100を用いて入力画像内のカップの種別を領域分割する例について説明する。図13Aおよび図13Bは図10Aおよび図10Bを入力画像とした場合の領域分割結果の例である。領域分割結果1300はカップ領域A1303およびカップ領域B1304を含んでおり、それぞれカップの種類が異なるテクスチャとして表現されている。
画像処理装置100による領域分割結果は物体検出装置1202へ入力される。また、物体検出装置1202は記憶装置1204より検出対象指定信号を受付ける。検出対象指定信号としては前述の通り、各クラスに属する物体の有無(すなわち画像内に存在するカップの種別とその有無)とその座標位置に基づいて決定される容器の種別情報を指定する。
物体検出装置1202はまず、実施例2で説明した方法により領域分割結果1300から結合領域を抽出し、画像内のカップの種別を特定する。その後、物体検出装置1202は抽出した結合領域の位置から底上げ容器の長さを推定する。画素単位の底上げ容器の長さLは下記の式により推定する。
L=d2-l+d1
ここで、d2は底上げ容器下端の垂直方向の座標位置であり、1は画像処理装置100が推定したカップ領域下端の垂直方向の座標位置であり、d1はカップ下端から床上げ容器との接着点までの距離である。図15に図10Aの例における各パラメタの関係を図示する。尚、カップ下端から床上げ容器との接着点までの距離d1は、容器の種類毎に予め計測して記憶装置1204に記録しておくものとし、物体検出装置1202が特定したカップの種別に応じて記憶装置1204から読み出す。底上げ容器下端の垂直方向の座標位置d2は、どの底上げ容器であっても同じ位置であると仮定し、予め計測して記憶装置1204に記録しておくものとする。ただし、もし、底上げ容器下端の変動が大きい場合は、画像処理装置100により、カップ領域とは別に、底上げ容器下端の位置を推定するようにしてもよい。
L=d2-l+d1
ここで、d2は底上げ容器下端の垂直方向の座標位置であり、1は画像処理装置100が推定したカップ領域下端の垂直方向の座標位置であり、d1はカップ下端から床上げ容器との接着点までの距離である。図15に図10Aの例における各パラメタの関係を図示する。尚、カップ下端から床上げ容器との接着点までの距離d1は、容器の種類毎に予め計測して記憶装置1204に記録しておくものとし、物体検出装置1202が特定したカップの種別に応じて記憶装置1204から読み出す。底上げ容器下端の垂直方向の座標位置d2は、どの底上げ容器であっても同じ位置であると仮定し、予め計測して記憶装置1204に記録しておくものとする。ただし、もし、底上げ容器下端の変動が大きい場合は、画像処理装置100により、カップ領域とは別に、底上げ容器下端の位置を推定するようにしてもよい。
次に特定したカップの種別と底上げ容器の長さから容器種別を決定する。例えば予め記憶装置1204に、図14に示すようなカップ種別および底上げ容器の長さの対応表1400を保存しておく。対応表1400の横軸はカップの種別、縦軸は底上げ容器の高さを示しており、対応表1400を用いて、上記にて特定したカップ種別および底上げ容器の長さから、容器種別を自動的に決定することが可能となる。尚、底上げ容器の長さに関しては、上述の式により求めた推定値に対して、対応表1400内の候補中の最も値が近い要素を選択することとする。
検体状態判定装置902は、試料及び/又は容器の状態を判定する装置であり、任意の既存技術を用いて試料内の気泡有無判定や、容器の傾き有無判定等を実行する。この際、物体検出装置1202が出力する容器種別に基づいて判定アルゴリズムを切り替えることで、より高精度な検体状態判定が可能となる。
試料採取装置903は、検体状態判定装置902が出力する検体状態判定結果に基づいて試料採取処理の制御を行う。
分析装置904は、試料採取装置903が取得した試料と薬品を混合することで血液分析を行う。
出力装置905は、前記血液分析結果を表示する装置であり、モニタやプリンタ等である。
分析装置904は、試料採取装置903が取得した試料と薬品を混合することで血液分析を行う。
出力装置905は、前記血液分析結果を表示する装置であり、モニタやプリンタ等である。
このように画像処理装置100および物体検出装置1202により検体の容器種別を高速かつ高精度に識別可能となる。
試料採取装置903は、検体状態判定装置902が判定した検体状態に基づいて試料採取の制御を行う。例えば試料に分析に影響する気泡が含まれている場合、試料を採取しないで、ユーザーに非採取理由を通知する、あるいは別の検体搬送ルートに検体を送る等の処理を行う。
以上により容器種別を高速かつ高精度に判定することで、検体状態を高精度に判定可能となり、血液分析の信頼性向上を実現する。
<変形例>
実施例1の特徴量マップ生成部204における生成画像信号算出の際、生成画像信号のスコアに応じて複数の画像を生成するように生成画像信号を算出しても良い。この場合、生成画像信号を受付けた画像生成部202は、生成画像信号に基づいて複数の画像を生成し、特徴量抽出部203に出力する。この時、特徴量マップ生成部204は各生成画像に対する特徴量抽出マップを生成する。特徴量抽出部203は画像生成部202から受付けた生成画像群と、特徴量マップ生成部204から受付けた特徴量抽出マップ群を用いて、各ペア(生成画像と特徴量抽出マップの組み合わせ)から特徴量を抽出する。
実施例1の特徴量マップ生成部204における生成画像信号算出の際、生成画像信号のスコアに応じて複数の画像を生成するように生成画像信号を算出しても良い。この場合、生成画像信号を受付けた画像生成部202は、生成画像信号に基づいて複数の画像を生成し、特徴量抽出部203に出力する。この時、特徴量マップ生成部204は各生成画像に対する特徴量抽出マップを生成する。特徴量抽出部203は画像生成部202から受付けた生成画像群と、特徴量マップ生成部204から受付けた特徴量抽出マップ群を用いて、各ペア(生成画像と特徴量抽出マップの組み合わせ)から特徴量を抽出する。
実施例1の特徴量抽出部203において選択される特徴量の種別は、特徴量抽出フィルタの重み係数の違いのような特徴量の性質の違いだけでなく、例えば畳み込み処理におけるストライドやダイレート等、適用方法に関するパラメタであっても良い。
実施例3の確信度の表示方法は、例えば物体配置検証結果画面に確信度表示ボタンを配置して、確信度重畳のON/OFFあるいは原画像と確信度のどちらを表示するかをユーザーが切り替える方法でも良い。また、実施例2では確信度を輝度値として表現する例を用いて説明したが、ヒートマップや等高線、あるいはクラス毎に色分けして表示するなどしてもよい。また、一定以上の確信度を有する画素のみを重畳表示するなどしても良い。また、確信度が不十分と判定されたボトルが存在する場合、ボトルや撮影の状態が正常でない傾向があるため、確信度に応じてユーザーにボトルや撮影の状態の見直しを促すようなメッセージを表示してもよい。
実施例3の各個別判定結果の表示方法は、最終的に判定されたボトル種別だけでなく、複数のボトル種別に対する確信度を表示しても良い。表示する確信度は、例えば結合領域内の確信度の最大値、平均値、総和などを用いればよく、閾値処理や正規化処理などその他の画像処理と組合せてもよい。
実施例4に記載の画像処理システムでは、実施例2に記載の画像処理システムを用いて容器種別を判定する方法を説明したが、容器種別以外にもフタやラベルの有無等の容器状態を判定しても良い。
上述してきたように、実施例1に開示した画像内の物体を識別する画像処理装置は、入力画像を受付ける画像入力部201と、前記入力画像から特徴量抽出のための画像を生成する画像生成部202と、前記画像生成部により生成された生成画像から特徴量を抽出する特徴量抽出部203と、前記特徴量抽出部が出力する特徴量を用いて、画像内の物体を識別する識別部205と、前記識別部が出力する識別結果を出力する出力部206と、前記特徴量抽出部203が出力する特徴量に基づき、必要に応じて新たな生成画像の生成を前記画像生成部に指示するとともに、当該新たな生成画像に対する特徴量の抽出条件を示す特徴量マップを生成して前記特徴量抽出部203に出力する特徴量マップ生成部204とを備える。
また、前記画像生成部202は、前記入力画像を縮小して最初の生成画像を生成し、前記特徴量マップ生成部204は、既に抽出された特徴量では前記識別に不十分と判定した場合に、縮小率を下げた新たな生成画像の生成を指示する。
このように、縮小率の高い生成画像から処理を開始し、必要に応じて縮小率を下げた生成画像を用いることにより、画像内の対象物体を高精度かつ高速に識別することができる。
また、特徴量マップ生成部204は、既に抽出された特徴量では前記識別に不十分な領域を特定し、当該領域を特徴量抽出の範囲として指定する特徴量マップを生成する。
このように、識別に十分な特徴量を得られた領域を除外し、特徴量抽出の範囲を限定して再度の特徴量抽出を実行することで、画像内の対象物体を高精度かつ高速に識別することができる。
このように、縮小率の高い生成画像から処理を開始し、必要に応じて縮小率を下げた生成画像を用いることにより、画像内の対象物体を高精度かつ高速に識別することができる。
また、特徴量マップ生成部204は、既に抽出された特徴量では前記識別に不十分な領域を特定し、当該領域を特徴量抽出の範囲として指定する特徴量マップを生成する。
このように、識別に十分な特徴量を得られた領域を除外し、特徴量抽出の範囲を限定して再度の特徴量抽出を実行することで、画像内の対象物体を高精度かつ高速に識別することができる。
また、特徴量マップ生成部204は、既存の特徴量の抽出結果に基づいて、新たな生成画像の生成条件と、当該新たな生成画像から抽出すべき特徴量の種別とを決定する。
このため、生成画像の種類、縮小率、抽出する特徴量の種別を適宜変更し、画像内の対象物体を高精度かつ高速に識別することができる。
このため、生成画像の種類、縮小率、抽出する特徴量の種別を適宜変更し、画像内の対象物体を高精度かつ高速に識別することができる。
また、特徴量マップ生成部204は、所定の条件が成立した場合に、特徴量抽出処理の終了を示す抽出終了信号を前記識別部205に出力し、前記識別部205は、前記抽出終了信号を受けた場合に、それまでに生成された1又は複数の生成画像に係る特徴量を総合的に用いて、前記画像内の物体を識別する。
このため、不要な処理負荷を排除し、必要な特徴量を効率的に生成し、画像内の対象物体を高精度かつ高速に識別することができる。
このため、不要な処理負荷を排除し、必要な特徴量を効率的に生成し、画像内の対象物体を高精度かつ高速に識別することができる。
また、特徴量マップ生成部204は、前記特徴量抽出部203がそれまでに抽出した特徴量の一部または全てを用いて仮の識別を実行し、当該識別の確信度に基づいて特徴量抽出マップを生成する。
このため、新たな特徴量抽出の必要性を精度良く判定することができる。
このため、新たな特徴量抽出の必要性を精度良く判定することができる。
また、特徴量マップ生成部204が出力する特徴量抽出マップを、前記出力部を介して外部に出力することも可能である。
特徴量抽出マップを外部出力することで、どのような識別処理を行っているかを情報提供できる。
特徴量抽出マップを外部出力することで、どのような識別処理を行っているかを情報提供できる。
また、実施例2に開示した画像内の物体を高速に検出する画像処理システムは、対象物体を撮像して前記入力画像を得る撮像装置1201と、実施例1に開示した画像処理装置100と、前記画像処理装置100により出力された識別結果と記憶装置1204から出力される検出対象情報に基づいて対象物体を検出する物体検出装置1202と、前記物体検出装置1202が検出する対象を指定する検出対象情報を出力する記憶装置1204と、前記物体検出装置1202が出力する物体検出結果をユーザーに提示する表示装置1203を備える。
実施例2に示す構成によれば、画像内の検出対象物体を高速に検出することが可能となる。
また、実施例3に開示した画像処理システムにおいて物体の識別結果や特徴量抽出マップを利用し、「物体の配置が入れ替わっている」、「ラベルの向きが誤っている」などの可能性を示唆する表示を行うことも可能である。
実施例2に示す構成によれば、画像内の検出対象物体を高速に検出することが可能となる。
また、実施例3に開示した画像処理システムにおいて物体の識別結果や特徴量抽出マップを利用し、「物体の配置が入れ替わっている」、「ラベルの向きが誤っている」などの可能性を示唆する表示を行うことも可能である。
なお、本発明は上記の実施例に限定されるものではなく、様々な変形例が含まれる。例えば、上記した実施例は本発明を分かりやすく説明するために詳細に説明したものであり、必ずしも説明した全ての構成を備えるものに限定されるものではない。また、各構成要素の削除に限らず、構成要素の置き換えや追加も可能である。
100:画像処理装置、110:インターフェース部、111:演算部、112:メモリ、113:バス、201:画像入力部、202:画像生成部、203:特徴量抽出部、204:特徴量マップ生成部、205:識別部、206:出力部、500:画像処理方法、501:画像入力ステップ、502:画像生成ステップ、503:特徴量抽出ステップ、504:特徴量マップ生成ステップ、505:識別ステップ、506:出力ステップ、1200:画像処理システム、1201:撮像装置、1202:物体検出装置、1203:表示装置、1204:記憶装置、1400:対応表
Claims (15)
- 画像内の物体を識別する画像処理装置であって、
入力画像を受付ける画像入力部と、
前記入力画像から特徴量抽出のための画像を生成する画像生成部と、
前記画像生成部により生成された生成画像から特徴量を抽出する特徴量抽出部と、
前記特徴量抽出部が出力する特徴量を用いて、画像内の物体を識別する識別部と、
前記識別部が出力する識別結果を出力する出力部と、
前記特徴量抽出部が出力する特徴量に基づき、必要に応じて新たな生成画像の生成を前記画像生成部に指示するとともに、当該新たな生成画像に対する特徴量の抽出条件を示す特徴量マップを生成して前記特徴量抽出部に出力する特徴量マップ生成部と
を備えることを特徴とする画像処理装置。 - 請求項1に記載の画像処理装置であって、
前記画像生成部は、前記入力画像を縮小して最初の生成画像を生成し、
前記特徴量マップ生成部は、既に抽出された特徴量では前記識別に不十分と判定した場合に、縮小率を下げた新たな生成画像の生成を指示することを特徴とする画像処理装置。 - 請求項1に記載の画像処理装置であって、
前記特徴量マップ生成部は、既に抽出された特徴量では前記識別に不十分な領域を特定し、当該領域を特徴量抽出の範囲として指定する特徴量マップを生成することを特徴とする画像処理装置。 - 請求項1に記載の画像処理装置であって、
前記特徴量マップ生成部は、既存の特徴量の抽出結果に基づいて、新たな生成画像の生成条件と、当該新たな生成画像から抽出すべき特徴量の種別とを決定することを特徴とする画像処理装置。 - 請求項1に記載の画像処理装置であって、
前記特徴量マップ生成部は、所定の条件が成立した場合に、特徴量抽出処理の終了を示す抽出終了信号を前記識別部に出力し、
前記識別部は、前記抽出終了信号を受けた場合に、それまでに生成された1又は複数の生成画像に係る特徴量を総合的に用いて、前記画像内の物体を識別する
ことを特徴とする画像処理装置。 - 請求項1に記載の画像処理装置であって、
前記特徴量マップ生成部は、前記特徴量抽出部がそれまでに抽出した特徴量の一部または全てを用いて仮の識別を実行し、当該識別の確信度に基づいて特徴量抽出マップを生成することを特徴とする画像処理装置。 - 請求項1に記載の画像処理装置であって、
前記特徴量マップ生成部が出力する特徴量抽出マップを、前記出力部を介して外部に出力することを特徴とする画像処理装置。 - 画像内の物体を高速に検出する画像処理システムであって、
対象物体を撮像して前記入力画像を得る撮像装置と、
前記撮像装置が出力する前記入力画像に基づいて領域分割結果または識別結果を出力する請求項1に記載の画像処理装置と、
検出に関連する設定や情報を指定するための信号である検出関連指定信号として、検出対象を指定するための検出対象指定信号を出力する記憶装置と、
前記画像処理装置が出力する領域分割結果または識別結果と、前記記憶装置が出力する検出対象指定信号とに基づいて物体を検出する物体検出装置と、
前記物体検出装置が出力した物体検出結果をユーザーに提示する表示装置と、
を備えることを特徴とする画像処理システム。 - 請求項8に記載の画像処理システムであって、
前記画像処理装置は前記入力画像に基づく領域分割結果を出力し、
前記記憶装置は検出関連指定信号として、前記入力画像内に存在する複数物体の配置情報を検出するための検出対象指定信号と、予めユーザーによって設定された対象物体の正配置状態指定信号を出力し、
前記物体検出装置は前記領域分割結果と、前記検出対象指定信号を受付け、画像内に存在する複数物体の配置情報を検出し、
前記物体検出装置が出力する物体の配置情報と前記記憶装置が出力する正配置状態指定信号に基づいて、前記対象物体の配置が正しい配置であるか否かを検証する物体配置検証装置
をさらに備え、
前記表示装置は前記物体配置検証装置が出力する物体配置検証結果をユーザーに提示することを特徴とする画像処理システム。 - 請求項8に記載の画像処理システムであって、
前記撮像装置は試料を格納した容器を撮像して前記入力画像を取得し、
前記画像処理装置は前記入力画像に基づく領域分割結果または識別結果を出力し、
前記記憶装置は検出関連指定信号として、前記入力画像内に存在する容器の種別を検出するための検出対象指定信号と、前記試料及び/又は前記容器の状態を判定するための試料状態判定対象指定信号及び/又は容器状態判定対象指定信号を出力し、
前記物体検出装置は前記領域分割結果または識別結果と、前記検出対象指定信号に基づいて容器の種別を判定し、
前記物体検出装置が出力する前記容器の種別と、前記記憶装置が出力する前記試料状態判定対象指定信号及び/又は容器状態判定対象指定信号に基づいて、前記試料及び/又は前記容器の状態を判定する検体状態判定装置と、
前記検体状態判定装置が判定した前記試料及び/又は前記容器の状態に基づいて、前記試料の採取制御を行う試料採取装置と、
前記試料採取装置が採取した試料と試薬を混合することで血液分析を行う分析装置と、
をさらに備え、
前記表示装置は前記分析装置による血液分析結果をユーザーに提示することを特徴とする画像処理システム。 - 画像内の物体を識別する画像処理方法であって、
入力画像を受付ける画像入力ステップと、
前記入力画像から特徴量抽出のための画像を生成する画像生成ステップと、
前記画像生成ステップにより生成された生成画像から特徴量を抽出する特徴量抽出ステップと、
前記特徴量抽出ステップにて算出した特徴量を用いて、画像内の物体を検出あるいは識別する識別ステップと、
前記識別ステップにて算出した識別結果を出力する出力ステップと、を含み、
前記特徴量抽出ステップが出力する特徴量に基づき、必要に応じて新たな生成画像の生成を前記画像生成ステップにより行わせるとともに、前記特徴量抽出ステップにおける当該新たな生成画像に対する特徴量の抽出条件を示す特徴量マップを生成する特徴量マップ生成ステップをさらに含むことを特徴とする画像処理方法。 - 請求項11に記載の画像処理方法であって、
前記画像生成ステップは、前記入力画像を縮小して最初の生成画像を生成し、
前記特徴量マップ生成ステップは、既に抽出された特徴量では前記識別に不十分と判定した場合に、縮小率を下げた新たな生成画像の生成を指示することを特徴とする画像処理方法。 - 請求項11に記載の画像処理方法であって、
前記特徴量マップ生成ステップは、既に抽出された特徴量では前記識別に不十分な領域を特定し、当該領域を特徴量抽出の範囲として指定する特徴量マップを生成することを特徴とする画像処理方法。 - 請求項11に記載の画像処理方法であって、
前記特徴量マップ生成ステップは、前記特徴量抽出ステップがそれまでに抽出した特徴量の一部または全てを用いて仮の識別を実行し、当該識別の確信度に基づいて特徴量抽出マップを生成することを特徴とする画像処理方法。 - 請求項11に記載の画像処理方法であって、
前記特徴量マップ生成ステップが出力する特徴量抽出マップを、前記出力ステップにて外部に出力することを特徴とする画像処理方法。
Priority Applications (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021110546A JP2023007599A (ja) | 2021-07-02 | 2021-07-02 | 画像処理装置、方法及び画像処理システム |
PCT/JP2022/025146 WO2023276853A1 (ja) | 2021-07-02 | 2022-06-23 | 画像処理装置、方法及び画像処理システム |
US18/572,539 US20240119698A1 (en) | 2021-07-02 | 2022-06-23 | Image processing device and method, and image processing system |
CN202280043801.9A CN117546209A (zh) | 2021-07-02 | 2022-06-23 | 图像处理装置、方法以及图像处理系统 |
EP22833000.7A EP4365833A1 (en) | 2021-07-02 | 2022-06-23 | Image processing device, method, and image processing system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021110546A JP2023007599A (ja) | 2021-07-02 | 2021-07-02 | 画像処理装置、方法及び画像処理システム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2023007599A true JP2023007599A (ja) | 2023-01-19 |
Family
ID=84691305
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021110546A Pending JP2023007599A (ja) | 2021-07-02 | 2021-07-02 | 画像処理装置、方法及び画像処理システム |
Country Status (5)
Country | Link |
---|---|
US (1) | US20240119698A1 (ja) |
EP (1) | EP4365833A1 (ja) |
JP (1) | JP2023007599A (ja) |
CN (1) | CN117546209A (ja) |
WO (1) | WO2023276853A1 (ja) |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012113460A (ja) * | 2010-11-24 | 2012-06-14 | Sony Corp | 情報処理装置および方法、並びにプログラム |
JP6000602B2 (ja) * | 2012-03-30 | 2016-09-28 | キヤノン株式会社 | 体検出方法及び物体検出装置 |
US9355312B2 (en) * | 2013-03-13 | 2016-05-31 | Kofax, Inc. | Systems and methods for classifying objects in digital images captured using mobile devices |
JP7186539B2 (ja) * | 2018-08-03 | 2022-12-09 | Automagi株式会社 | 錆検出プログラム、錆検出システム及び錆検出方法 |
JP2021064120A (ja) * | 2019-10-11 | 2021-04-22 | キヤノン株式会社 | 情報処理装置、情報処理方法、及びプログラム |
-
2021
- 2021-07-02 JP JP2021110546A patent/JP2023007599A/ja active Pending
-
2022
- 2022-06-23 US US18/572,539 patent/US20240119698A1/en active Pending
- 2022-06-23 EP EP22833000.7A patent/EP4365833A1/en active Pending
- 2022-06-23 CN CN202280043801.9A patent/CN117546209A/zh active Pending
- 2022-06-23 WO PCT/JP2022/025146 patent/WO2023276853A1/ja active Application Filing
Also Published As
Publication number | Publication date |
---|---|
CN117546209A (zh) | 2024-02-09 |
US20240119698A1 (en) | 2024-04-11 |
WO2023276853A1 (ja) | 2023-01-05 |
EP4365833A1 (en) | 2024-05-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
TWI512684B (zh) | Defect observation method and defect observation device | |
US10297021B2 (en) | Defect quantification method, defect quantification device, and defect evaluation value display device | |
US5933519A (en) | Cytological slide scoring apparatus | |
KR101523159B1 (ko) | 패턴 매칭 장치 및 컴퓨터 프로그램을 기록한 기록 매체 | |
KR102294193B1 (ko) | 프로브 속도에 기초한 컴퓨터 보조 진단 지원 장치 및 방법 | |
CN103543277B (zh) | 一种基于灰度分析与种类识别的血型结果识别算法 | |
JP5010207B2 (ja) | パターン検査装置及び半導体検査システム | |
JP2019061484A (ja) | 画像処理装置及びその制御方法及びプログラム | |
JP6733983B2 (ja) | 画像解析装置 | |
KR102140385B1 (ko) | 골수 판독을 위한 셀존 레이블링 장치 및 이를 포함하는 셀존 검출 시스템 | |
TW201237363A (en) | Image processing apparatus and computer program | |
CN110974306A (zh) | 一种超声内镜下识别和定位胰腺神经内分泌肿瘤的系统 | |
JP2007048006A (ja) | 画像処理装置および画像処理プログラム | |
JP3661635B2 (ja) | 画像処理方法およびその装置 | |
CN113127349B (zh) | 软件测试方法和系统 | |
KR101991452B1 (ko) | 유두위치 검출 방법, 유방 이미지 표시방법 및 유두위치 검출 장치 | |
JP2013058036A (ja) | 画像処理装置、画像処理プログラム、ロボット装置及び画像処理方法 | |
WO2023276853A1 (ja) | 画像処理装置、方法及び画像処理システム | |
JP4500138B2 (ja) | 細胞画像解析方法 | |
CN115280158A (zh) | 生物体检体解析装置 | |
CN115830025A (zh) | 白细胞分类计数方法、系统、存储介质及计算机设备 | |
EP3611654A1 (en) | System and method for analysis of microscopic image data and for generating an annotated data set for classifier training | |
US10529453B2 (en) | Tool that analyzes image data and generates and displays a confidence indicator along with a cancer score | |
CN110543802A (zh) | 眼底图像中左右眼识别方法与装置 | |
CN114742803A (zh) | 一种结合深度学习与数字图像处理算法的血小板聚集检测方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20240215 |