JP7443244B2 - 画像処理装置、画像処理方法及びプログラム - Google Patents

画像処理装置、画像処理方法及びプログラム Download PDF

Info

Publication number
JP7443244B2
JP7443244B2 JP2020556087A JP2020556087A JP7443244B2 JP 7443244 B2 JP7443244 B2 JP 7443244B2 JP 2020556087 A JP2020556087 A JP 2020556087A JP 2020556087 A JP2020556087 A JP 2020556087A JP 7443244 B2 JP7443244 B2 JP 7443244B2
Authority
JP
Japan
Prior art keywords
image
display
processing
processing unit
regions
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020556087A
Other languages
English (en)
Other versions
JPWO2020095909A1 (ja
Inventor
連秀 梁
有 佐藤
博之 水谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Toshiba Digital Solutions Corp
Original Assignee
Toshiba Corp
Toshiba Digital Solutions Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp, Toshiba Digital Solutions Corp filed Critical Toshiba Corp
Publication of JPWO2020095909A1 publication Critical patent/JPWO2020095909A1/ja
Application granted granted Critical
Publication of JP7443244B2 publication Critical patent/JP7443244B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/22Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition
    • G06V10/235Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition based on user input or interaction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/211Selection of the most significant subset of features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2415Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/243Classification techniques relating to the number of classes
    • G06F18/2431Multiple classes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/088Non-supervised learning, e.g. competitive learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N7/00Computing arrangements based on specific mathematical models
    • G06N7/01Probabilistic graphical models, e.g. probabilistic networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/22Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/771Feature selection, e.g. selecting representative features from a multi-dimensional feature space
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/778Active pattern-learning, e.g. online learning of image or video features
    • G06V10/7784Active pattern-learning, e.g. online learning of image or video features based on feedback from supervisors
    • G06V10/7788Active pattern-learning, e.g. online learning of image or video features based on feedback from supervisors the supervisor being a human, e.g. interactive learning with a human teacher

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Computation (AREA)
  • Data Mining & Analysis (AREA)
  • Software Systems (AREA)
  • Multimedia (AREA)
  • Databases & Information Systems (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Mathematical Physics (AREA)
  • Probability & Statistics with Applications (AREA)
  • Computational Mathematics (AREA)
  • Algebra (AREA)
  • Mathematical Optimization (AREA)
  • Mathematical Analysis (AREA)
  • Pure & Applied Mathematics (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Molecular Biology (AREA)
  • Image Analysis (AREA)

Description

本発明の実施形態は、画像処理装置、画像処理方法及びプログラムに関する。
画像内に複数の領域を設定し、当該設定した複数の領域各々を所定の複数のクラスのうちのいずれかに分類して分類結果を得るための手法が従来から知られている。
しかし、従来から知られている手法によれば、例えば、前述の分類結果の尤度(likelihood)が低い領域等のような、画像内の精査が必要な箇所を特定するための作業に時間を要してしまう、という問題点がある。
特許文献1:日本国特開2018-18313号公報
非特許文献1:喜友名 朝春、"e-Pathologist:人工知能による病理画像解析システム"、[online]、2017年6月30日、J-STAGE、医用画像情報学会雑誌、2017年34巻2号、p.105-108、[平成30年10月29日検索]、インターネット<URL:https://www.jstage.jst.go.jp/article/mii/34/2/34_105/_pdf/-char/ja>
実施形態は、画像内の精査が必要な箇所を特定するための作業における作業効率を向上させることが可能な画像処理装置、画像処理方法及びプログラムを提供することを目的とする。
実施形態の画像処理装置は、推論処理部と、次元変換処理部と、表示処理部と、を有する。前記推論処理部は、処理対象画像に設定された複数の領域各々を所定の複数のクラスのうちのいずれかに分類した分類結果を取得するための処理を行うように構成されている。前記次元変換処理部は、前記処理対象画像に設定された前記複数の領域各々に対応する多次元データを取得するための処理を行うとともに、前記多次元データを低次元データに変換するための処理を行うように構成されている。前記表示処理部は、前記複数の領域のうちの1つ以上の領域を含む表示画像と、前記複数の領域各々における前記低次元データに対して前記分類結果に応じた異なる色または模様を付加して生成した複数のプロット点を有するプロット図と、を併せて表示装置に表示させるための処理を行うとともに、前記プロット図に含まれる各プロット点の中から所望のプロット点を選択点として選択するための指示が行われた場合に、前記選択点と、前記表示画像内における前記選択点に対応する領域と、を視覚的に識別可能とするための識別表示に係る処理を行うように構成されている。前記推論処理部は、機械学習により構成される統計モデルを用いて構成されており、前記統計モデルで計算される尤度に基づいて、前記複数の領域各々における前記分類結果を算出するための処理をさらに行う。前記表示処理部は、前記表示装置に表示されている表示画像の拡大率を示す情報と、前記表示画像内において設定された注目位置を示す情報と、前記表示画像内において選択された選択位置を示す情報と、前記選択点を示す情報とを取得し、画像記録部に記録された複数の画像のうちの少なくとも1つの画像を用い、取得した情報に含まれる前記拡大率及び前記注目位置に応じた表示画像を生成する処理をさらに行う
実施形態に係る画像処理装置を含む画像処理システムの構成の一例を示す図。 第1の実施形態に係る画像処理装置の構成の一例を示す図。 第1の実施形態に係る画像処理装置において行われる処理の具体例の一部を示すフローチャート。 図3Aの処理の続きを示すフローチャート。 第1の実施形態に係る画像処理装置の処理に応じて表示される表示画像の一例を示す図。 第1の実施形態に係る画像処理装置の処理に応じて表示される表示画像の一例を示す図。 第1の実施形態に係る画像処理装置の処理に応じて表示される表示画像の一例を示す図。 第1の実施形態に係る画像処理装置の処理に応じて表示される表示画像の一例を示す図。 第1の実施形態に係る画像処理装置の処理に応じて表示される表示画像の一例を示す図。 図8の表示画像の分析支援画像に含まれる2次元散布図を説明するための図。 第2の実施形態に係る画像処理装置の構成の一例を示す図 第2の実施形態に係る画像処理装置において行われる処理の具体例の一部を示すフローチャート。 図11Aの処理の続きを示すフローチャート。 第2の実施形態に係る画像処理装置の処理に応じて表示される表示画像の一例を示す図。 第2の実施形態に係る画像処理装置の処理に応じて表示される表示画像の一例を示す図。 第2の実施形態に係る画像処理装置の処理に応じて表示される表示画像の一例を示す図。 第2の実施形態に係る画像処理装置の処理に応じて表示される表示画像の一例を示す図。 第2の実施形態に係る画像処理装置の処理に応じて表示される表示画像の一例を示す図。 第2の実施形態に係る画像処理装置の処理に応じて表示される表示画像の一例を示す図。 図14Aの表示画像の分析支援画像に含まれる2次元散布図を説明するための図。 図14Bの表示画像の分析支援画像に含まれる2次元散布図を説明するための図。
以下、実施形態について、図面を参照しつつ説明を行う。
(第1の実施形態)
図1から図9は、第1の実施形態に係るものである。
画像処理システム101は、図1に示すように、撮像装置1と、画像処理装置2と、入力I/F(インターフェース)3と、表示装置4と、を有して構成されている。図1は、実施形態に係る画像処理装置を含む画像処理システムの構成の一例を示す図である。
撮像装置1は、例えば、イメージセンサを有して構成されている。また、撮像装置1は、被写体を撮像して画像を取得するとともに、当該取得した画像を画像処理装置2へ出力するように構成されている。なお、本実施形態においては、撮像装置1により撮像される被写体のID番号が、当該被写体を撮像して得られた画像の付加情報として予め付加されているものとして説明を行う。
画像処理装置2は、例えば、1つ以上のプロセッサ201と、記憶媒体202と、を有するコンピュータとして構成されている。また、画像処理装置2は、撮像装置1から出力される画像に対して処理を施すことにより表示画像を生成するとともに、当該生成した表示画像を表示装置4へ出力するように構成されている。また、画像処理装置2は、入力I/F3から出力される指示を検出し、当該検出した指示に応じた表示画像等を生成して表示装置4へ出力するように構成されている。
入力I/F3は、例えば、マウス、キーボード及びタッチパネル等のような、ユーザにより操作可能な入力デバイスを有して構成されている。また、入力I/F3は、表示装置4に表示される表示画像に含まれるメイン画像(後述)の拡大率を所望の拡大率に設定するための指示を行うことができるように構成されている。また、入力I/F3は、メイン画像を表示装置4の表示画面に表示する際の中心点に相当するとともに、当該メイン画像の拡大率を変更する際の基準点に相当する注目位置を設定するための指示を行うことができるように構成されている。また、入力I/F3は、表示装置4に表示されるメイン画像内の所望の位置を選択位置として選択するための指示を行うことができるように構成されている。また、入力I/F3は、表示装置4に表示される2次元散布図(後述)に含まれる各プロット点の中から所望のプロット点を選択点として選択するための指示を行うことができるように構成されている。
表示装置4は、例えば、液晶モニタ等を有して構成されている。また、表示装置4は、画像処理装置2から出力される表示画像及び表示情報等を表示することができるように構成されている。
画像処理装置2は、例えば、図2に示すように、前処理部21と、画像記録部22と、推論処理部23と、次元変換処理部24と、処理結果格納部25と、表示処理部26と、を有して構成されている。図2は、第1の実施形態に係る画像処理装置の構成の一例を示す図である。
前処理部21は、撮像装置1から出力される画像の解像度を変換するための変換処理を行うことにより、相互に異なる解像度を有する複数の画像を生成するように構成されている。また、前処理部21は、前述のように生成した複数の画像を画像記録部22へ出力するように構成されている。
画像記録部22は、前処理部21から出力される複数の画像を被写体のID番号毎に記録するように構成されている。
なお、以降においては、相互に異なるN種類の解像度R1、R2、…、RNを有するP個の画像が前処理部21により生成されるとともに、当該生成されたP個の画像が被写体のID番号毎に画像記録部22に記録されるものとして説明を行う。また、以降においては、前処理部21により生成されるP個の画像の解像度がR1<R2<…<RNの関係を満たすものとして説明を行う。また、本実施形態においては、解像度R1からRNまでの画像がP個の画像の中に少なくとも1つずつ含まれていればよい。
推論処理部23は、画像記録部22に記録されたP個の画像の中から最も高い解像度RNを有する画像GRNを読み込むとともに、当該読み込んだ画像GRNにS(S≧2)個の領域を設定するように構成されている。
なお、本実施形態においては、推論処理部23及び次元変換処理部24の処理により設定されるS個の領域が矩形の領域であるものとして説明を行う。また、本実施形態においては、推論処理部23及び次元変換処理部24によるS個の領域の設定方法が相互に同一であるものとして説明を行う。
推論処理部23は、画像GRNに設定されたS個の領域各々に対し、所定の複数のクラスのうちのいずれかに分類した分類結果を示す情報に相当するクラス分類情報を取得するための処理と、当該分類結果の尤度の算出結果を示す情報に相当する尤度情報を取得するための処理と、を行うように構成されている。また、推論処理部23は、画像GRNに設定されたS個の領域各々に対応するクラス分類情報及び尤度情報を被写体のID番号に関連付けて処理結果格納部25へ出力するように構成されている。
すなわち、推論処理部23は、画像GRN(処理対象画像)に設定された複数の領域各々を所定の複数のクラスのうちのいずれかに分類した分類結果を取得するための処理と、当該複数の領域各々における当該分類結果の尤度を算出するための処理と、を行うように構成されている。
なお、本実施形態においては、推論処理部23が、例えば、機械学習により構成される統計モデルの一種として、入力層、隠れ層及び出力層を有する多層のニューラルネットワークを用いて構成されている。加えて、本実施形態においては、推論処理部23が、前述のニューラルネットワークに含まれる各結合係数(重み)をディープラーニング(機械学習)で学習させた推論モデルとして構成されている。推論処理部23では、教師有り学習が行われる。そして、本実施形態の推論処理部23においては、例えば、画像GRNに設定されたS個の領域のうちの一の領域に含まれる各画素から得られる画素値または特徴ベクトルのような多次元データを入力データとしてニューラルネットワークの入力層に入力した場合に、当該一の領域を所定の複数のクラスのうちのいずれかに分類して得られる分類結果と、当該一の領域の分類結果の尤度と、を示す出力データが当該ニューラルネットワークの出力層から出力されるようになっている。なお、推論処理部23では尤度の大小に基づき分類を行うが、上述した統計モデルで計算される尤度の一例として、ニューラルネットワークの出力層にある各ノードの出力値を尤度として用いている(改めて別な処理で尤度を計算している訳ではない)。一般的にニューラルネットを用いた識別関数の学習では、出力層のノード出力が、正解カテゴリ1、非正解カテゴリ0になるように学習する。推論時には、出力が1に近づくほどノードに割り振られたカテゴリの出現がもっともらしく(尤度が高い)、逆に0に近づけばもっともらしくない(尤度が低い)という状態を示すことになる。尤度は、クラスの種類ごとに値が出るものであり、後に記載するような2分類問題であると、正常が0.8、異常が0.2になって(合計値1)、分類結果として正常に推論されることとなる。
次元変換処理部24は、多次元データ取得部24Aと、低次元データ変換部24Bと、を有して構成されている。
多次元データ取得部24Aは、画像記録部22に記録されたP個の画像の中から画像GRNを読み込むとともに、当該読み込んだ画像GRNにS個の領域を設定するように構成されている。
多次元データ取得部24Aは、画像GRNに設定されたS個の領域各々に対応する多次元データを取得するための処理を行うように構成されている。具体的には、多次元データ取得部24Aは、例えば、画像GRNに設定されたS個の領域各々に対し、当該S個の領域のうちの一の領域に含まれる各画素の画素値を取得するための処理を行うように構成されている。または、多次元データ取得部24Aは、例えば、画像GRNに設定されたS個の領域各々に対し、当該S個の領域のうちの一の領域に含まれる各画素の画素値に応じた特徴ベクトルを算出するための処理を行うように構成されている。
低次元データ変換部24Bは、多次元データ取得部24Aの処理結果として得られた多次元データを低次元データに変換するための処理を行うように構成されている。具体的には、低次元データ変換部24Bは、例えば、画像GRNに設定されたS個の領域各々に対し、当該S個の領域のうちの一の領域から取得された各画素値を2次元データに変換するための処理を行うように構成されている。または、低次元データ変換部24Bは、例えば、画像GRNに設定されたS個の領域各々に対し、当該S個の領域のうちの一の領域において算出された特徴ベクトルを2次元データに変換するための処理を行うように構成されている。
低次元データ変換部24Bは、画像GRNに設定されたS個の領域各々において取得された2次元データを被写体のID番号に関連付けた情報を処理結果格納部25へ出力するように構成されている。
すなわち、次元変換処理部24は、画像GRN(処理対象画像)に設定された複数の領域各々に対応する多次元データを取得するための処理を行うとともに、当該多次元データを低次元データに変換するための処理を行うように構成されている。本実施形態において、低次元変換処理部24ではクラスタリング手法を用いても良い。
なお、本実施形態においては、次元変換処理部24が、例えば、オートエンコーダを用いて構成されたニューラルネットワークを有して構成されていてもよい。また、本実施形態の次元変換処理部24は、画像GRNから得られた多次元データを前述のニューラルネットワークに入力するとともに、当該ニューラルネットワークの隠れ層から当該多次元データに対応する2次元データを抽出するように構成されていてもよい。また、本実施形態の次元変換処理部24は、例えば、画像GRNから得られた多次元データを前述のニューラルネットワークに入力して得られる出力データに基づき、当該多次元データに対応する尤度及び再構成誤差を2次元データとして取得するための処理を行うように構成されていてもよい。次元変換処理部24では、教師無し学習が行なわれる。
処理結果格納部25は、推論処理部23から出力される情報と、次元変換処理部24から出力される情報と、を被写体のID番号毎に格納するように構成されている。すなわち、処理結果格納部25には、画像GRNに設定されたS個の領域各々を所定の複数のクラスのうちのいずれかに分類して得られた分類結果を示すクラス分類情報と、当該S個の領域各々のクラス分類情報に対応する尤度情報と、当該S個の領域各々において取得された2次元データと、が被写体のID番号に関連付けられた状態で格納される。
表示処理部26は、情報取得部26Aと、表示画像生成部26Bと、表示情報生成部26Cと、表示制御部26Dと、を有して構成されている。
情報取得部26Aは、入力I/F3において行われた指示を検出するとともに、当該検出した指示に基づいて表示画像生成部26B、表示情報生成部26C及び表示制御部26Dの処理に用いられる情報を取得するための処理を行うように構成されている。具体的には、情報取得部26Aは、入力I/F3において行われた指示の検出結果に基づき、表示装置4に表示されているメイン画像の拡大率を示す情報と、当該メイン画像内において設定された注目位置を示す情報と、当該メイン画像内において選択された選択位置を示す情報と、当該メイン画像とともに表示装置4に表示されている2次元散布図に含まれる各プロット点の中から選択された選択点を示す情報と、をそれぞれ取得するための処理を行うように構成されている。
表示画像生成部26Bは、画像記録部22に記録されたP個の画像のうちの少なくとも1つの画像を用い、情報取得部26Aにより取得された情報に含まれる拡大率及び注目位置に応じたメイン画像を生成するように構成されている。すなわち、表示画像生成部26Bにより生成されたメイン画像は、情報取得部26Aにより取得された情報に含まれる注目位置と表示画面の中心とが一致し、かつ、当該情報に含まれる拡大率を有する画像として表示装置4に表示される。また、表示画像生成部26Bは、例えば、画像GRNを縮小することによりサブ画像を生成するように構成されている。また、表示画像生成部26Bは、メイン画像内の所定の領域にサブ画像を重畳することにより表示画像を生成するように構成されている。また、表示画像生成部26Bは、情報取得部26Aにより取得された情報に含まれる拡大率及び注目位置に基づき、表示装置4に表示されているメイン画像の表示範囲を画像GRNの中から特定するとともに、当該特定した表示範囲を示す矩形の枠をサブ画像に重畳するように構成されている。
表示情報生成部26Cは、処理結果格納部25から読み込んだ情報に応じた表示情報を生成するように構成されている。具体的には、表示情報生成部26Cは、処理結果格納部25から読み込んだ情報に含まれるS個の2次元データを平面座標系の座標としてプロットしたプロット図に相当する2次元散布図を生成するように構成されている。また、表示情報生成部26Cは、前述のように生成した2次元散布図に含まれるS個のプロット点各々に対し、処理結果格納部25から読み込んだ情報に含まれるクラス分類情報に応じた異なる色または模様を付加するように構成されている。また、表示情報生成部26Cは、処理結果格納部25から読み込んだ情報に含まれる推論結果に相当するクラス分類情報及び尤度情報を表示画像生成部26Bにより生成されたメイン画像内において視覚的に示すための視覚情報を生成するように構成されている。
表示制御部26Dは、表示画像生成部26Bにより生成された表示画像を表示装置4に表示させるための処理を行うように構成されている。また、表示制御部26Dは、ユーザによるメイン画像の分析を支援するための情報に相当する分析支援情報を表示装置4に表示させるための指示が入力I/F3において行われたことを検出した際に、表示情報生成部26Cにより生成された2次元散布図を含む分析支援画像を表示装置4に表示されている表示画像に合成して表示させるための処理を行うように構成されている。また、表示制御部26Dは、推論処理部23により得られた推論結果を表示装置4に表示させるための指示が入力I/F3において行われたことを検出した際に、表示情報生成部26Cにより生成された視覚情報を表示装置4に表示されている表示画像(メイン画像)に合成して表示させるための処理を行うように構成されている。また、表示制御部26Dは、情報取得部26Aにより取得された情報に含まれる選択位置に応じ、表示装置4に表示されているメイン画像及び2次元散布図の表示態様を変化させるための処理(後述)を行うように構成されている。また、表示制御部26Dは、情報取得部26Aにより取得された情報に含まれる選択点に応じ、表示装置4に表示されているメイン画像及び2次元散布図の表示態様を変化させるための処理(後述)を行うように構成されている。
すなわち、表示処理部26は、画像GRNに設定されたS個の領域のうちの1つ以上の領域を含む表示画像(メイン画像)と、当該S個の領域各々における低次元データ(2次元データ)に対して推論処理部23により得られた分類結果に応じた異なる色または模様を付加して生成した複数のプロット点を有するプロット図(2次元散布図)と、を併せて表示装置4に表示させるための処理を行うように構成されている。また、表示処理部26は、画像GRNに設定されたS個の領域各々における2次元データに対して推論処理部23により得られた分類結果に応じた色または模様を付加して生成した複数のプロット点を有する2次元散布図を生成するための処理を行うように構成されている。また、表示処理部26は、推論処理部23により得られた分類結果及び尤度に応じた視覚情報を表示画像(メイン画像)に合成して表示装置4に表示させるための処理を行うように構成されている。
なお、本実施形態においては、画像処理装置2の各部の機能が、プロセッサ201及び記憶媒体202を含むハードウェアにより実現されるようにしてもよい。または、本実施形態においては、例えば、画像処理装置2の各部の機能を実現するためのプログラムが記憶媒体202に格納されているとともに、プロセッサ201が当該プログラムを読み込んで実行するようにしてもよい。コンピュータ読取可能な記憶媒体202としては、CD-ROM等の光ディスク、DVD-ROM等の相変化型光ディスク、MO(Magnet Optical)やMD(Mini Disk)などの光磁気ディスク、フロッピー(登録商標)ディスクやリムーバブルハードディスクなどの磁気ディスク、コンパクトフラッシュ(登録商標)、スマートメディア、SDメモリカード、メモリスティック等のメモリカードが挙げられる。また、本発明の目的のために特別に設計されて構成された集積回路(ICチップ等)等のハードウェア装置も記憶媒体として含まれる。
続いて、本実施形態の作用について、図3A及び図3B等を参照しつつ説明する。図3Aは、第1の実施形態に係る画像処理装置において行われる処理の具体例の一部を示すフローチャートである。図3Bは、図3Aの処理の続きを示すフローチャートである。
なお、本実施形態においては、半導体ウエハー及び当該半導体ウエハー上に形成された複数のチップを被写体として撮像して得られた画像が撮像装置1から画像処理装置2へ出力されるとともに、当該画像に応じたP個の画像が前処理部21により生成される場合を例に挙げて説明する。また、本実施形態においては、画像GRNに設定されたS個の領域各々を「正常」及び「異常」の2つのクラスのうちのいずれかに分類した分類結果を示すクラス分類情報を取得するための処理が推論処理部23により行われるものとして説明する。また、本実施形態においては、「正常」クラスに分類された領域(以降、正常領域とも称する)各々における分類結果の尤度の算出結果と、「異常」クラスに分類された領域(以降、異常領域とも称する)各々における分類結果の尤度の算出結果と、を示す尤度情報を取得するための処理が推論処理部23により行われるものとして説明する。
表示画像生成部26Bは、情報取得部26Aにより取得された情報に含まれる拡大率及び注目位置に基づき、画像記録部22に記録されたP個の画像のうちの少なくとも1つの画像を用い、メイン画像及びサブ画像を有する表示画像を生成するための処理を行う(図3AのステップS1)。
具体的には、表示画像生成部26Bは、例えば、拡大率及び注目位置の設定に係る指示が行われていない状態に相当するデフォルト状態において、画像記録部22から読み込んだ画像GRNを用いて表示画像を生成するための処理を行う。そして、このような処理によれば、例えば、図4に示すような、メイン画像MGA及びサブ画像SGAを有する表示画像DGAが表示装置4に表示される。図4は、第1の実施形態に係る画像処理装置の処理に応じて表示される表示画像の一例を示す図である。
メイン画像MGAは、画像GRNの全域が表示範囲として設定された画像に相当する。また、サブ画像SGAは、画像GRNを縮小した画像に相当する。また、図4の表示画像DGAにおいては、画像GRNの全域がメイン画像MGAの表示範囲であることを示す矩形の枠FGAがサブ画像SGAの最外部に重畳されている。
表示画像生成部26Bは、情報取得部26Aにより取得された情報に含まれる拡大率または注目位置が図3AのステップS1の状態から変更されたか否かに係る判定処理を行う(図3AのステップS2)。
表示画像生成部26Bは、情報取得部26Aにより取得された情報に含まれる拡大率または注目位置が図3AのステップS1の状態から変更されたとの判定結果を得た(S2:YES)場合には、変更後の拡大率及び注目位置に応じた表示画像を生成するための処理を行う(図3AのステップS3)。また、表示画像生成部26Bは、情報取得部26Aにより取得された情報に含まれる拡大率及び注目位置が図3AのステップS1の状態からいずれも変更されていないとの判定結果を得た(S2:NO)場合には、図3AのステップS3の処理をスキップする。
ここで、図3AのステップS3の処理が行われた場合には、例えば、図5に示すような、メイン画像MGB及びサブ画像SGAを有する表示画像DGBが表示装置4に表示される。図5は、第1の実施形態に係る画像処理装置の処理に応じて表示される表示画像の一例を示す図である。
メイン画像MGBは、メイン画像MGAの中央部付近を注目位置として設定した状態において、情報取得部26Aにより取得された情報に含まれる拡大率に応じてメイン画像MGAを拡大した画像に相当する。また、表示画像DGBにおいては、画像GRNの中央部付近がメイン画像MGBの表示範囲であることを示す矩形の枠FGBがサブ画像SGAの内部に重畳されている。
表示制御部26Dは、図3AのステップS2またはステップS3の処理が行われた後に、推論処理部23により得られた推論結果を表示装置4に表示させるための指示が入力I/F3において行われた否かに係る判定処理を行う(図3AのステップS4)。
表示制御部26Dは、推論処理部23により得られた推論結果を表示装置4に表示させるための指示が行われたとの判定結果を得た(S4:YES)場合には、表示情報生成部26Cにより生成された視覚情報、すなわち、処理結果格納部25に格納されたクラス分類情報及び尤度情報に応じた視覚情報を表示装置4に表示されている表示画像に合成して表示させるための処理を行う(図3AのステップS5)。また、表示制御部26Dは、推論処理部23により得られた推論結果を表示装置4に表示させるための指示が行われなかったとの判定結果を得た(S4:NO)場合には、図3AのステップS5の処理をスキップしてステップS6の処理を行う。
ここで、表示画像DGBが表示装置4に表示されている状態で図3AのステップS5の処理が行われた場合には、例えば、図6に示すような、メイン画像MGC及びサブ画像SGAを有する表示画像DGCが表示装置4に表示される。図6は、第1の実施形態に係る画像処理装置の処理に応じて表示される表示画像の一例を示す図である。
メイン画像MGCにおいては、画像GRNに設定されたS個の領域の設定状態を示すグリッド線GLAが破線で描かれている。
メイン画像MGCにおいては、S個の領域各々において得られた推論結果のうち、グリッド線GLAにより分割された4つの領域に対応する推論結果が示されている。
具体的には、メイン画像MGCにおいては、例えば、グリッド線GLAにより分割された4つの領域のうち、ハッチングパターンが重畳された1つの領域AXが異常領域であるとともに、当該ハッチングパターンが重畳されていない当該領域AX以外の3つの領域が正常領域であることが示されている。
本実施形態においては、例えば、処理結果格納部25から読み込んだ尤度情報により示される尤度の大きさに応じ、メイン画像MGCの領域AXに重畳されるハッチングパターンの濃度が変更されるようにしてもよい。
本実施形態においては、例えば、処理結果格納部25から読み込んだクラス分類情報に応じ、メイン画像MGCに含まれる正常領域と異常領域とが異なる色で着色されるようにしてもよい。また、本実施形態においては、例えば、処理結果格納部25から読み込んだ尤度情報により示される尤度の大きさに応じ、メイン画像MGCの正常領域に着色される色の濃度と、当該メイン画像MGCの異常領域に着色される色の濃度と、がそれぞれ変更されるようにしてもよい。
本実施形態によれば、例えば、正常領域に対応する推論結果のみをメイン画像に表示させるための指示が入力I/F3において行われるようにしてもよい。また、本実施形態によれば、例えば、異常領域に対応する推論結果のみをメイン画像に表示させるための指示が入力I/F3において行われるようにしてもよい。
本実施形態によれば、例えば、図3AのステップS5において、処理結果格納部25から読み込んだ尤度情報により示される尤度に対して閾値判定を行って得られた判定結果に応じた処理が行われるようにしてもよい。具体的には、本実施形態によれば、例えば、表示制御部26Dが、メイン画像に設定されたS個の領域のうち、処理結果格納部25から読み込んだ尤度情報により示される尤度が所定の閾値未満の領域に対してのみ視覚情報を合成するための処理を行うようにしてもよい。または、本実施形態によれば、例えば、表示制御部26Dが、メイン画像に設定されたS個の領域のうち、処理結果格納部25から読み込んだ尤度情報により示される尤度が所定の閾値異常の領域に対してのみ視覚情報を合成するための処理を行うようにしてもよい。
表示制御部26Dは、図3AのステップS4またはステップS5の処理を行った後に、分析支援情報を表示装置4に表示させるための指示が入力I/F3において行われた否かに係る判定処理を行う(図3AのステップS6)。
表示制御部26Dは、分析支援情報を表示装置4に表示させるための指示が行われたとの判定結果を得た(S6:YES)場合には、表示情報生成部26Cにより生成された2次元散布図を含む分析支援画像を表示装置4に表示されている表示画像に合成して表示させるための処理を行う(図3AのステップS7)。また、表示制御部26Dは、分析支援情報を表示装置4に表示させるための指示が行われなかったとの判定結果を得た(S6:NO)場合には、図3AのステップS7以降の処理をスキップして一連の処理を終了させる。
ここで、表示画像DGCが表示装置4に表示されている状態で図3AのステップS7の処理が行われた場合には、例えば、図7に示すような、表示画像DGCに対して分析支援画像AGAを重畳した表示画像DGDが表示装置4に表示される。図7は、第1の実施形態に係る画像処理装置の処理に応じて表示される表示画像の一例を示す図である。
分析支援画像AGAには、S個のプロット点を有する2次元散布図SPAが含まれている。また、2次元散布図SPAにおいては、正常領域に対応する各プロット点が白抜きの点として描かれているとともに、異常領域に対応する各プロット点が黒塗りの点として描かれている。
なお、本実施形態によれば、メイン画像MGCに含まれる正常領域と、2次元散布図SPAに含まれる当該正常領域に対応するプロット点と、が同系色で着色されるようにしてもよい。また、本実施形態によれば、メイン画像MGCに含まれる異常領域と、2次元散布図SPAに含まれる当該異常領域に対応するプロット点と、が同系色で着色されるようにしてもよい。
表示制御部26Dは、図3AのステップS7の処理を行った後に、情報取得部26Aにより取得された情報に基づき、メイン画像内における所望の位置を選択位置として選択するための指示が入力I/F3において行われた否かに係る判定処理を行う(図3BのステップS8)。
表示制御部26Dは、メイン画像内における所望の位置を選択位置として選択するための指示が行われなかったとの判定結果を得た(S8:NO)場合には、後述の図3BのステップS10の処理を続けて行う。また、表示制御部26Dは、メイン画像内における所望の位置を選択位置として選択するための指示が行われたとの判定結果を得た(S8:YES)場合には、当該メイン画像における当該選択位置を含む選択領域と、当該メイン画像とともに表示されている2次元散布図に含まれる当該選択領域に対応するプロット点と、を視覚的に識別可能とするための識別表示に係る処理を行った(図3BのステップS9)後、一連の処理を終了させる。
具体的には、例えば、図7のメイン画像MGCにおける領域AX内の任意の位置が選択位置として選択された場合には、当該領域AXと、当該メイン画像MGCとともに表示されている2次元散布図SPAに含まれる当該領域AXに対応するプロット点PXと、を視覚的に識別可能とするための識別表示に係る処理が行われる。そして、このような処理によれば、例えば、図8及び図9に示すように、表示画像DGEに表示されているメイン画像MGDにおける領域AXの周囲と、表示画像DGEに表示されている分析支援画像AGBに含まれる2次元散布図SPBにおけるプロット点PXの周囲と、がそれぞれ縁取られる。なお、図9の2次元散布図SPBにおいては、図示の便宜上、図7と同様のハッチングパターンを異常領域に対応する各プロット点に付与している。図8は、第1の実施形態に係る画像処理装置の処理に応じて表示される表示画像の一例を示す図である。図9は、図8の表示画像の分析支援画像に含まれる2次元散布図を説明するための図である。
表示制御部26Dは、情報取得部26Aにより取得された情報に基づき、メイン画像とともに表示されている2次元散布図内に含まれる各プロット点の中から所望のプロット点を選択点として選択するための指示が入力I/F3において行われた否かに係る判定処理を行う(図3BのステップS10)。
表示制御部26Dは、メイン画像とともに表示されている2次元散布図内に含まれる各プロット点の中から所望のプロット点を選択点として選択するための指示が行われなかったとの判定結果を得た(S10:NO)場合には、一連の処理を終了させる。また、表示制御部26Dは、メイン画像とともに表示されている2次元散布図内に含まれる各プロット点の中から所望のプロット点を選択点として選択するための指示が行われたとの判定結果を得た(S10:YES)場合には、当該選択点と、当該メイン画像内における当該選択点に対応する領域と、を視覚的に識別可能とするための識別表示に係る処理を行った(図3BのステップS11)後、一連の処理を終了させる。
具体的には、例えば、図7の2次元散布図SPAにおけるプロット点PXが選択点として選択された場合には、当該プロット点PXと、メイン画像MGC内における当該プロット点PXに対応する領域AXと、を視覚的に識別可能とするための識別表示に係る処理が行われる。そして、このような処理によれば、例えば、図8及び図9に示すように、表示画像DGEに表示されている分析支援画像AGBに含まれる2次元散布図SPBにおけるプロット点PXの周囲と、表示画像DGEに表示されているメイン画像MGDにおける領域AXの周囲と、がそれぞれ縁取られる。
なお、本実施形態の表示制御部26Dは、図3BのステップS9及び/またはステップS11において、例えば、メイン画像MGCにおける領域AX以外の各領域の輝度を低下させるような処理を行うものであってもよい。また、本実施形態の表示制御部26Dは、例えば、図3BのステップS9において、メイン画像MGCにおける領域AXを拡大表示させるための処理を行うものであってもよい。
以上に述べたように、本実施形態によれば、例えば、画像内に設定された複数の領域を所定の複数のクラスのうちのいずれかに分類して得られた分類結果の尤度が低い箇所を2次元散布図で発見することができるとともに、当該2次元散布図内における当該箇所に対応するプロット点と、当該2次元散布図とともに表示されているメイン画像内における当該箇所に対応する領域と、を視認し易くすることができる。そのため、本実施形態によれば、画像内の精査が必要な箇所を特定するための作業における作業効率を向上させることができる。
なお、本実施形態によれば、例えば、2次元散布図における複数のプロット点またはメイン画像における視覚情報として表示される分類結果を修正するための指示が入力I/F3において行われた場合に、当該指示に応じて修正された修正後の分類結果に応じたクラス分類情報が処理結果格納部25に格納されるようにしてもよい。
また、本実施形態によれば、例えば、多次元データ取得部24Aにより取得された多次元データを1次元データに変換するための処理が低次元データ変換部24Bにおいて行われるとともに、当該1次元データを直線上の座標としてプロットしたプロット図を生成するための処理が表示情報生成部26Cにより行われるようにしてもよい。
また、本実施形態によれば、例えば、多次元データ取得部24Aにより取得された多次元データを3次元データに変換するための処理が低次元データ変換部24Bにおいて行われるとともに、当該3次元データを空間座標系の座標としてプロットしたプロット図を生成するための処理が表示情報生成部26Cにより行われるようにしてもよい。
また、本実施形態によれば、例えば、表示情報生成部26Cが、処理結果格納部25から読み込んだ情報に含まれるS個の2次元データを用い、2次元散布図とは異なるプロット図を生成するための処理を行うように構成されていてもよい。
(第2の実施形態)
図10から図15Bは、第2の実施形態に係るものである。
なお、本実施形態においては、第1の実施形態と同様の構成等を有する部分に関する詳細な説明を適宜省略するとともに、第1の実施形態と異なる構成等を有する部分に関して主に説明を行う。
本実施形態の画像処理システム101は、図2に示した画像処理装置2の代わりに、図10に示すような画像処理装置2Aを有して構成されている。図10は、第2の実施形態に係る画像処理装置の構成の一例を示す図である。
画像処理装置2Aは、例えば、1つ以上のプロセッサ201と、記憶媒体202と、を有するコンピュータとして構成されている(図示省略)。また、画像処理装置2Aは、撮像装置1から出力される画像に対して処理を施すことにより表示画像を生成するとともに、当該生成した表示画像を表示装置4へ出力するように構成されている。また、画像処理装置2Aは、入力I/F3から出力される指示を検出し、当該検出した指示に応じた表示画像等を生成して表示装置4へ出力するように構成されている。
画像処理装置2Aは、例えば、図10に示すように、前処理部21と、画像記録部22と、推論処理部33と、次元変換処理部34と、表示処理部36と、を有して構成されている。
推論処理部33は、表示処理部36から出力されるメイン画像に対してT(T≧2)個の領域を設定するように構成されている。
なお、本実施形態においては、推論処理部33及び次元変換処理部34の処理対象となる領域の個数に相当するTの値が、第1の実施形態の推論処理部23及び次元変換処理部24の処理対象となる領域の個数に相当するSの値よりも十分小さい値として設定されるようにすればよい。また、本実施形態においては、推論処理部33及び次元変換処理部34の処理により設定されるT個の領域が矩形の領域であるものとして説明を行う。また、本実施形態においては、推論処理部33及び次元変換処理部34によるT個の領域の設定方法が相互に同一であるものとして説明を行う。
推論処理部33は、表示処理部36から出力されるメイン画像に設定されたT個の領域各々に対し、所定の複数のクラスのうちのいずれかに分類した分類結果を示す情報に相当するクラス分類情報を取得するための処理と、当該分類結果の尤度の算出結果を示す情報に相当する尤度情報を取得するための処理と、を行うように構成されている。また、推論処理部33は、前述の処理により得られたクラス分類情報及び尤度情報を表示処理部36へ出力するように構成されている。具体的には、推論処理部33は、例えば、機械学習により構成される統計モデルの一種として、第1の実施形態の推論処理部23と同様の多層のニューラルネットワークを用いて構成されている。
すなわち、推論処理部33は、表示処理部36から出力されるメイン画像(処理対象画像)に設定された複数の領域各々を所定の複数のクラスのうちのいずれかに分類した分類結果を取得するための処理と、当該複数の領域各々における当該分類結果の尤度を算出するための処理と、を行うように構成されている。
次元変換処理部34は、多次元データ取得部34Aと、低次元データ変換部34Bと、を有して構成されている。
多次元データ取得部34Aは、表示処理部36から出力されるメイン画像に対してT個の領域を設定するように構成されている。
多次元データ取得部34Aは、表示処理部36から出力されるメイン画像に設定されたT個の領域各々に対応する多次元データを取得するための処理を行うように構成されている。具体的には、多次元データ取得部34Aは、例えば、表示処理部36から出力されるメイン画像に設定されたT個の領域各々に対し、当該T個の領域のうちの一の領域に含まれる各画素の画素値を取得するための処理を行うように構成されている。または、多次元データ取得部34Aは、例えば、表示処理部36から出力されるメイン画像に設定されたT個の領域各々に対し、当該T個の領域のうちの一の領域に含まれる各画素の画素値に応じた特徴ベクトルを算出するための処理を行うように構成されている。
低次元データ変換部34Bは、多次元データ取得部34Aの処理結果として得られた多次元データを低次元データに変換するための処理を行うように構成されている。具体的には、低次元データ変換部34Bは、例えば、表示処理部36から出力されるメイン画像に設定されたT個の領域各々に対し、当該T個の領域のうちの一の領域から取得された各画素値を2次元データに変換するための処理を行うように構成されている。または、低次元データ変換部34Bは、例えば、表示処理部36から出力されるメイン画像に設定されたT個の領域各々に対し、当該T個の領域のうちの一の領域において算出された特徴ベクトルを2次元データに変換するための処理を行うように構成されている。
低次元データ変換部34Bは、前述の処理により得られた2次元データを表示処理部36へ出力するように構成されている。
すなわち、次元変換処理部34は、表示処理部36から出力されるメイン画像(処理対象画像)に設定された複数の領域各々に対応する多次元データを取得するための処理を行うとともに、当該多次元データを低次元データに変換するための処理を行うように構成されている。
表示処理部36は、情報取得部36Aと、表示画像生成部36Bと、表示情報生成部36Cと、表示制御部36Dと、を有して構成されている。
情報取得部36Aは、入力I/F3において行われた指示を検出するとともに、当該検出した指示に基づいて表示画像生成部36B、表示情報生成部36C及び表示制御部36Dの処理に用いられる情報を取得するための処理を行うように構成されている。具体的には、情報取得部36Aは、入力I/F3において行われた指示の検出結果に基づき、表示装置4に表示されているメイン画像の拡大率を示す情報と、当該メイン画像内において設定された注目位置を示す情報と、当該メイン画像内において選択された選択位置を示す情報と、当該メイン画像とともに表示装置4に表示されている2次元散布図に含まれる各プロット点の中から選択された選択点を示す情報と、をそれぞれ取得するための処理を行うように構成されている。
表示画像生成部36Bは、画像記録部22に記録されたP個の画像のうちの少なくとも1つの画像を用い、情報取得部36Aにより取得された情報に含まれる拡大率及び注目位置に応じたメイン画像を生成するように構成されている。すなわち、表示画像生成部36Bにより生成されたメイン画像は、情報取得部36Aにより取得された情報に含まれる注目位置と表示画面の中心とが一致し、かつ、当該情報に含まれる拡大率を有する画像として表示装置4に表示される。また、表示画像生成部36Bは、前述のように生成したメイン画像を推論処理部33及び次元変換処理部34へ出力するように構成されている。また、表示画像生成部36Bは、例えば、画像GRNを縮小することによりサブ画像を生成するように構成されている。また、表示画像生成部36Bは、メイン画像内の所定の領域にサブ画像を重畳することにより表示画像を生成するように構成されている。また、表示画像生成部26Bは、情報取得部36Aにより取得された情報に含まれる拡大率及び注目位置に基づき、表示装置4に表示されているメイン画像の表示範囲を画像GRNの中から特定するとともに、当該特定した表示範囲を示す矩形の枠をサブ画像に重畳するように構成されている。
表示情報生成部36Cは、推論処理部33から出力される推論結果と、次元変換処理部34から出力される2次元データと、に応じた表示情報を生成するように構成されている。具体的には、表示情報生成部36Cは、次元変換処理部34から出力されるT個の2次元データを平面座標系の座標としてプロットした2次元散布図を生成するように構成されている。また、表示情報生成部36Cは、前述のように生成した2次元散布図に含まれるT個のプロット点各々に対し、推論処理部33から出力されるクラス分類情報に応じた異なる色または模様を付加するように構成されている。また、表示情報生成部36Cは、推論処理部33から出力される推論結果に相当するクラス分類情報及び尤度情報を表示画像生成部36Bにより生成されたメイン画像内において視覚的に示すための視覚情報を生成するように構成されている。
表示制御部36Dは、表示画像生成部36Bにより生成された表示画像を表示装置4に表示させるための処理を行うように構成されている。また、表示制御部36Dは、ユーザによるメイン画像の分析を支援するための情報に相当する分析支援情報を表示装置4に表示させるための指示が入力I/F3において行われたことを検出した際に、表示情報生成部36Cにより生成された2次元散布図を含む分析支援画像を表示装置4に表示されている表示画像に合成して表示させるための処理を行うように構成されている。また、表示制御部36Dは、推論処理部33により得られた推論結果を表示装置4に表示させるための指示が入力I/F3において行われたことを検出した際に、表示情報生成部36Cにより生成された視覚情報を表示装置4に表示されている表示画像(メイン画像)に合成して表示させるための処理を行うように構成されている。また、表示制御部36Dは、情報取得部36Aにより取得された情報に含まれる選択位置に応じ、表示装置4に表示されているメイン画像及び2次元散布図の表示態様を変化させるための処理(後述)を行うように構成されている。また、表示制御部36Dは、情報取得部36Aにより取得された情報に含まれる選択点に応じ、表示装置4に表示されているメイン画像及び2次元散布図の表示態様を変化させるための処理(後述)を行うように構成されている。
すなわち、表示処理部36は、メイン画像に設定されたT個の領域を含む表示画像(メイン画像)と、当該T個の領域各々における低次元データ(2次元データ)に対して推論処理部33により得られた分類結果に応じた異なる色または模様を付加して生成した複数のプロット点を有するプロット図(2次元散布図)と、を併せて表示装置4に表示させるための処理を行うように構成されている。また、表示処理部36は、メイン画像に設定されたT個の領域各々における2次元データに対して推論処理部33により得られた分類結果に応じた色または模様を付加して生成した複数のプロット点を有する2次元散布図を生成するための処理を行うように構成されている。また、表示処理部36は、推論処理部33により得られた分類結果及び尤度に応じた視覚情報を表示画像(メイン画像)に合成して表示装置4に表示させるための処理を行うように構成されている。
なお、本実施形態においては、画像処理装置2Aの各部の機能が、プロセッサ201及び記憶媒体202を含むハードウェアにより実現されるようにしてもよい。または、本実施形態においては、例えば、画像処理装置2Aの各部の機能を実現するためのプログラムが記憶媒体202に格納されているとともに、プロセッサ201が当該プログラムを読み込んで実行するようにしてもよい。コンピュータ読取可能な記憶媒体202としては、CD-ROM等の光ディスク、DVD-ROM等の相変化型光ディスク、MO(Magnet Optical)やMD(Mini Disk)などの光磁気ディスク、フロッピー(登録商標)ディスクやリムーバブルハードディスクなどの磁気ディスク、コンパクトフラッシュ(登録商標)、スマートメディア、SDメモリカード、メモリスティック等のメモリカードが挙げられる。また、本発明の目的のために特別に設計されて構成された集積回路(ICチップ等)等のハードウェア装置も記憶媒体として含まれる。
続いて、本実施形態の作用について、図11A及び図11B等を参照しつつ説明する。図11Aは、第2の実施形態に係る画像処理装置において行われる処理の具体例の一部を示すフローチャートである。図11Bは、図11Aの処理の続きを示すフローチャートである。
表示画像生成部36Bは、情報取得部36Aにより取得された情報に含まれる拡大率及び注目位置に基づき、画像記録部22に記録されたP個の画像のうちの少なくとも1つの画像を用い、メイン画像及びサブ画像を有する表示画像を生成するための処理を行う(図11AのステップS21)。また、表示画像生成部36Bは、図11AのステップS21において生成した表示画像に含まれるメイン画像を推論処理部33及び次元変換処理部34へ出力する。
具体的には、表示画像生成部36Bは、例えば、拡大率及び注目位置の設定に係る指示が行われていない状態に相当するデフォルト状態において、図4に示したようなメイン画像MGA及びサブ画像SGAを有する表示画像DGAを生成する。また、表示画像生成部36Bは、表示画像DGAに含まれるメイン画像MGAを推論処理部33及び次元変換処理部34へ出力する。
推論処理部33は、図11AのステップS21を経て表示処理部36から出力されるメイン画像にT個の領域を設定する。また、推論処理部33は、前述のメイン画像に設定されたT個の領域各々を所定の複数のクラスのうちのいずれかに分類した分類結果を示すクラス分類情報と、当該T個の領域各々における分類結果の尤度の算出結果を示す尤度情報と、を推論結果として取得するための処理を行う(図11AのステップS22)。また、推論処理部33は、図11AのステップS22において取得した推論結果(クラス分類情報及び尤度情報)を表示処理部36へ出力する。
なお、本実施形態においては、表示処理部36から出力されるメイン画像に設定されたT個の領域各々を「正常」及び「異常」の2つのクラスのうちのいずれかに分類した分類結果を示すクラス分類情報を取得するための処理が推論処理部33により行われるものとして説明する。また、本実施形態においては、正常領域各々における分類結果の尤度の算出結果と、異常領域各々における分類結果の尤度の算出結果と、を示す尤度情報を取得するための処理が推論処理部33により行われるものとして説明する。
次元変換処理部34(多次元データ取得部34A)は、図11AのステップS21を経て表示処理部36から出力されるメイン画像にT個の領域を設定する。また、次元変換処理部34(多次元データ取得部34A及び低次元データ変換部34B)は、前述のメイン画像に設定されたT個の領域各々に対応する多次元データを取得するための処理を行うとともに、当該多次元データを変換して2次元データを取得するための処理を行う(図11AのステップS23)。また、次元変換処理部34(低次元データ変換部34B)は、図11AのステップS23において取得した2次元データを表示処理部36へ出力する。
表示画像生成部36Bは、情報取得部36Aにより取得された情報に含まれる拡大率または注目位置が図11AのステップS21の状態から変更されたか否かに係る判定処理を行う(図11AのステップS24)。
表示画像生成部36Bは、情報取得部36Aにより取得された情報に含まれる拡大率または注目位置が図11AのステップS21の状態から変更されたとの判定結果を得た(S24:YES)場合には、図11AのステップS21に戻って処理を行うことにより、変更後の拡大率及び注目位置に応じた表示画像を生成するとともに、当該生成した表示画像に含まれるメイン画像を推論処理部33及び次元変換処理部34へ出力する。
具体的には、表示画像生成部36Bは、例えば、図4の表示画像DGAが表示装置4に表示されている状態で拡大率または注目位置が変更された場合に、図5に示したようなメイン画像MGB及びサブ画像SGAを有する表示画像DGBを生成する。また、表示画像生成部36Bは、表示画像DGBに含まれるメイン画像MGBを推論処理部33及び次元変換処理部34へ出力する。
以上に述べた処理によれば、メイン画像における拡大率または注目位置が変更される毎に、当該メイン画像にT個の領域を設定する処理と、当該T個の領域各々を所定の複数のクラスのうちのいずれかに分類した分類結果を取得するための処理と、当該T個の領域各々における当該分類結果の尤度を算出するための処理と、が推論処理部33により行われる。また、以上に述べた処理によれば、メイン画像における拡大率または注目位置が変更される毎に、当該メイン画像にT個の領域を設定する処理と、当該T個の領域各々に対応する多次元データを取得するための処理と、当該多次元データを変換して2次元データを取得するための処理と、が次元変換処理部34により行われる。
表示制御部36Dは、情報取得部36Aにより取得された情報に含まれる拡大率及び注目位置が図11AのステップS21の状態からいずれも変更されていないとの判定結果が得られたことを検出した(S24:NO)場合に、推論処理部33により得られた推論結果を表示装置4に表示させるための指示が入力I/F3において行われた否かに係る判定処理を行う(図11AのステップS25)。
表示制御部36Dは、推論処理部33により得られた推論結果を表示装置4に表示させるための指示が行われたとの判定結果を得た(S25:YES)場合には、表示情報生成部36Cにより生成された視覚情報を表示装置4に表示されている表示画像に合成して表示させるための処理を行う(図11AのステップS26)。また、表示制御部36Dは、推論処理部33により得られた推論結果を表示装置4に表示させるための指示が行われなかったとの判定結果を得た(S25:NO)場合には、図11AのステップS26の処理をスキップしてステップS27の処理を行う。
ここで、図4の表示画像DGAが表示装置4に表示されている状態で図11AのステップS26の処理が行われた場合には、例えば、図12Aに示すような、メイン画像MGK及びサブ画像SGAを有する表示画像DGKが表示装置4に表示される。図12Aは、第2の実施形態に係る画像処理装置の処理に応じて表示される表示画像の一例を示す図である。
メイン画像MGKにおいては、T個の領域の設定状態を示すグリッド線GLKが破線で描かれている。
メイン画像MGKにおいては、T個の領域各々に対応する推論結果が示されている。
具体的には、メイン画像MGKにおいては、例えば、グリッド線GLKにより分割された16個の領域のうち、ハッチングパターンが重畳された領域AYを含む2つの領域が異常領域であるとともに、当該ハッチングパターンが重畳されていない14個の領域が正常領域であることが示されている。
また、図5の表示画像DGBが表示装置4に表示されている状態で図11AのステップS26の処理が行われた場合には、例えば、図12Bに示すような、メイン画像MGP及びサブ画像SGAを有する表示画像DGPが表示装置4に表示される。図12Bは、第2の実施形態に係る画像処理装置の処理に応じて表示される表示画像の一例を示す図である。
メイン画像MGPにおいては、T個の領域の設定状態を示すグリッド線GLPが破線で描かれている。
メイン画像MGPにおいては、T個の領域各々に対応する推論結果が示されている。
具体的には、メイン画像MGPにおいては、例えば、グリッド線GLPにより分割された16個の領域のうち、ハッチングパターンが重畳された領域AZを含む3つの領域が異常領域であるとともに、当該ハッチングパターンが重畳されていない13個の領域が正常領域であることが示されている。
表示制御部36Dは、図11AのステップS25またはステップS26の処理を行った後に、分析支援情報を表示装置4に表示させるための指示が入力I/F3において行われた否かに係る判定処理を行う(図11AのステップS27)。
表示制御部36Dは、分析支援情報を表示装置4に表示させるための指示が行われたとの判定結果を得た(S27:YES)場合には、表示情報生成部26Cにより生成された2次元散布図を含む分析支援画像を表示装置4に表示されている表示画像に合成して表示させるための処理を行う(図11AのステップS28)。また、表示制御部36Dは、分析支援情報を表示装置4に表示させるための指示が行われなかったとの判定結果を得た(S27:NO)場合には、図11AのステップS28以降の処理をスキップして一連の処理を終了させる。
ここで、図12Aの表示画像DGKが表示装置4に表示されている状態で図11AのステップS28の処理が行われた場合には、例えば、図13Aに示すような、表示画像DGKに対して分析支援画像AGKを重畳した表示画像DGLが表示装置4に表示される。図13Aは、第2の実施形態に係る画像処理装置の処理に応じて表示される表示画像の一例を示す図である。
分析支援画像AGKには、T個のプロット点を有する2次元散布図SPKが含まれている。また、2次元散布図SPKにおいては、正常領域に対応する各プロット点が白抜きの点として描かれているとともに、異常領域に対応する各プロット点が黒塗りの点として描かれている。
また、図12Bの表示画像DGPが表示装置4に表示されている状態で図11AのステップS28の処理が行われた場合には、例えば、図13Bに示すような、表示画像DGPに対して分析支援画像AGPを重畳した表示画像DGQが表示装置4に表示される。図13Bは、第2の実施形態に係る画像処理装置の処理に応じて表示される表示画像の一例を示す図である。
分析支援画像AGPには、T個のプロット点を有する2次元散布図SPPが含まれている。また、2次元散布図SPPにおいては、正常領域に対応する各プロット点が白抜きの点として描かれているとともに、異常領域に対応する各プロット点が黒塗りの点として描かれている。
すなわち、以上に述べたような処理によれば、メイン画像において設定された拡大率及び注目位置に応じ、当該メイン画像に表示される推論結果の表示内容と、当該メイン画像とともに表示される2次元散布図の表示内容と、を動的に変化させることができる。
表示制御部36Dは、図11AのステップS28の処理を行った後に、情報取得部36Aにより取得された情報に基づき、メイン画像内における所望の位置を選択位置として選択するための指示が入力I/F3において行われた否かに係る判定処理を行う(図11BのステップS29)。
表示制御部36Dは、メイン画像内における所望の位置を選択位置として選択するための指示が行われなかったとの判定結果を得た(S29:NO)場合には、後述の図11BのステップS31の処理を続けて行う。また、表示制御部36Dは、メイン画像内における所望の位置を選択位置として選択するための指示が行われたとの判定結果を得た(S29:YES)場合には、当該メイン画像における当該選択位置を含む選択領域と、当該メイン画像とともに表示されている2次元散布図に含まれる当該選択領域に対応するプロット点と、を視覚的に識別可能とするための識別表示に係る処理を行った(図11BのステップS30)後、一連の処理を終了させる。
具体的には、例えば、図13Aのメイン画像MGKにおける領域AY内の任意の位置が選択位置として選択された場合には、当該領域AYと、当該メイン画像MGKとともに表示されている2次元散布図SPKに含まれる当該領域AYに対応するプロット点PYと、を視覚的に識別可能とするための識別表示に係る処理が行われる。そして、このような処理によれば、例えば、図14A及び図15Aに示すように、表示画像DGMに表示されているメイン画像MGLにおける領域AYの周囲と、表示画像DGMに表示されている分析支援画像AGLに含まれる2次元散布図SPLにおけるプロット点PYの周囲と、がそれぞれ縁取られる。なお、図15Aの2次元散布図SPLにおいては、図示の便宜上、図13Aと同様のハッチングパターンを異常領域に対応する各プロット点に付与している。図14Aは、第2の実施形態に係る画像処理装置の処理に応じて表示される表示画像の一例を示す図である。図15Aは、図14Aの表示画像の分析支援画像に含まれる2次元散布図を説明するための図である。
また、例えば、図13Bのメイン画像MGPにおける領域AZ内の任意の位置が選択位置として選択された場合には、当該領域AZと、当該メイン画像MGPとともに表示されている2次元散布図SPPに含まれる当該領域AZに対応するプロット点PZと、を視覚的に識別可能とするための識別表示に係る処理が行われる。そして、このような処理によれば、例えば、図14B及び図15Bに示すように、表示画像DGRに表示されているメイン画像MGQにおける領域AZの周囲と、表示画像DGRに表示されている分析支援画像AGQに含まれる2次元散布図SPQにおけるプロット点PZの周囲と、がそれぞれ縁取られる。なお、図15Bの2次元散布図SPQにおいては、図示の便宜上、図13Bと同様のハッチングパターンを異常領域に対応する各プロット点に付与している。図14Bは、第2の実施形態に係る画像処理装置の処理に応じて表示される表示画像の一例を示す図である。図15Bは、図14Bの表示画像の分析支援画像に含まれる2次元散布図を説明するための図である。
表示制御部36Dは、情報取得部36Aにより取得された情報に基づき、メイン画像とともに表示されている2次元散布図内に含まれる各プロット点の中から所望のプロット点を選択点として選択するための指示が入力I/F3において行われた否かに係る判定処理を行う(図11BのステップS31)。
表示制御部36Dは、メイン画像とともに表示されている2次元散布図内に含まれる各プロット点の中から所望のプロット点を選択点として選択するための指示が行われなかったとの判定結果を得た(S31:NO)場合には、一連の処理を終了させる。また、表示制御部36Dは、メイン画像とともに表示されている2次元散布図内に含まれる各プロット点の中から所望のプロット点を選択点として選択するための指示が行われたとの判定結果を得た(S31:YES)場合には、当該選択点と、当該メイン画像内における当該選択点に対応する領域と、を視覚的に識別可能とするための識別表示に係る処理を行った(図11BのステップS32)後、一連の処理を終了させる。
具体的には、例えば、図13Aの2次元散布図SPKにおけるプロット点PYが選択点として選択された場合には、当該プロット点PYと、メイン画像MGK内における当該プロット点PYに対応する領域AYと、を視覚的に識別可能とするための識別表示に係る処理が行われる。そして、このような処理によれば、例えば、図14A及び図15Aに示すように、表示画像DGMに表示されている分析支援画像AGLに含まれる2次元散布図SPLにおけるプロット点PYの周囲と、表示画像DGMに表示されているメイン画像MGLにおける領域AYの周囲と、がそれぞれ縁取られる。
また、例えば、図13Bの2次元散布図SPPにおけるプロット点PZが選択点として選択された場合には、当該プロット点PZと、メイン画像MGQ内における当該プロット点PZに対応する領域AZと、を視覚的に識別可能とするための識別表示に係る処理が行われる。そして、このような処理によれば、例えば、図14B及び図15Bに示すように、表示画像DGRに表示されている分析支援画像AGQに含まれる2次元散布図SPQにおけるプロット点PZの周囲と、表示画像DGRに表示されているメイン画像MGQにおける領域AZの周囲と、がそれぞれ縁取られる。
なお、本実施形態においては、例えば、推論処理部33及び次元変換処理部34が、表示制御部36Dから出力されるメイン画像において設定したT個の領域と同じ形状及びサイズを有するU個の領域を当該T個の領域の周囲に追加設定するようにしてもよい。
そして、前述のような構成によれば、例えば、図11AのステップS22において、(T+U)個の領域各々を所定の複数のクラスのうちのいずれかに分類した分類結果を示すクラス分類情報と、当該(T+U)個の領域各々における分類結果の尤度の算出結果を示す尤度情報と、を取得するための処理が推論処理部33により行われる。また、前述のような構成によれば、例えば、図11AのステップS23において、(T+U)個の領域各々に対応する多次元データを取得するとともに、当該多次元データを変換して2次元データを取得するための処理が次元変換処理部34により行われる。そのため、前述のような構成によれば、例えば、メイン画像における注目位置の変化に応じて行われる推論処理部33及び次元変換処理部34の処理の頻度を減らすことができる。
以上に述べたように、本実施形態によれば、例えば、画像内に設定された複数の領域を所定の複数のクラスのうちのいずれかに分類して得られた分類結果の尤度が低い箇所を2次元散布図で発見することができるとともに、当該2次元散布図内における当該箇所に対応するプロット点と、当該2次元散布図とともに表示されているメイン画像内における当該箇所に対応する領域と、を視認し易くすることができる。そのため、本実施形態によれば、画像内の精査が必要な箇所を特定するための作業における作業効率を向上させることができる。
なお、以上に述べた各実施形態は、半導体ウエハー及び当該半導体ウエハー上に形成された複数のチップを被写体として撮像して得られた工業分野の画像に対して適用されるものに限らず、例えば、生体組織等を被写体として撮像して得られた医療分野の画像に対しても略同様に適用される。
本発明の実施形態を説明したが、これらの実施形態は、例として示したものであり、本発明の範囲を限定することは意図していない。具体的には、例えば、処理結果格納部25から読み込んだ情報に含まれるクラス分類情報に応じた異なる色または模様を付加するように構成しない場合も許容される。推論処理部23により得られた推論結果について、色または模様を付加せずとも、当該推論結果の集まり(固まり)の分布で特徴量が近い領域が分かる場合もあるからである。また、次元変換処理部34は、教師無し学習に相当するクラスタリング結果であってもよくて、必ずしも次元変換をしなくて良い。これら新規の実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。
本出願は、2018年11月7日に日本国に出願された特願2018-209738号を優先権主張の基礎として出願するものであり、上記の開示内容は、本願明細書、請求の範囲に引用されるものとする。

Claims (6)

  1. 処理対象画像に設定された複数の領域各々を所定の複数のクラスのうちのいずれかに分類した分類結果を取得するための処理を行うように構成された推論処理部と、
    前記処理対象画像に設定された前記複数の領域各々に対応する多次元データを取得するための処理を行うとともに、前記多次元データを低次元データに変換するための処理を行うように構成された次元変換処理部と、
    前記複数の領域のうちの1つ以上の領域を含む表示画像と、前記複数の領域各々における前記低次元データに対して前記分類結果に応じた異なる色または模様を付加して生成した複数のプロット点を有するプロット図と、を併せて表示装置に表示させるための処理を行うとともに、前記プロット図に含まれる各プロット点の中から所望のプロット点を選択点として選択するための指示が行われた場合に、前記選択点と、前記表示画像内における前記選択点に対応する領域と、を視覚的に識別可能とするための識別表示に係る処理を行うように構成された表示処理部と、
    を有し、
    前記推論処理部は、機械学習により構成される統計モデルを用いて構成されており、前記統計モデルで計算される尤度に基づいて、前記複数の領域各々における前記分類結果を算出するための処理をさらに行い、
    前記表示処理部は、前記表示装置に表示されている表示画像の拡大率を示す情報と、前記表示画像内において設定された注目位置を示す情報と、前記表示画像内において選択された選択位置を示す情報と、前記選択点を示す情報とを取得し、画像記録部に記録された複数の画像のうちの少なくとも1つの画像を用い、取得した情報に含まれる前記拡大率及び前記注目位置に応じた表示画像を生成する処理をさらに行う
    ことを特徴とする画像処理装置。
  2. 前記表示処理部は、前記表示画像内の所望の位置を選択位置として選択するための指示が行われた場合に、前記複数の領域のうちの前記選択位置を含む選択領域と、前記プロット図に含まれる前記選択領域に対応するプロット点と、を視覚的に識別可能とするための識別表示に係る処理を行う
    ことを特徴とする請求項1に記載の画像処理装置。
  3. 前記プロット図における前記複数のプロット点または前記表示画像における視覚情報として表示される前記分類結果を修正するための指示が行われた場合に、修正後の分類結果を格納するように構成された格納部をさらに有する
    ことを特徴とする請求項1に記載の画像処理装置。
  4. 前記次元変換処理部は、前記多次元データを2次元データに変換するための処理を行い、
    前記表示処理部は、前記複数の領域各々における前記2次元データに対して前記分類結果に応じた色または模様を付加して生成した前記複数のプロット点を有する2次元散布図を生成するための処理を行う
    ことを特徴とする請求項1に記載の画像処理装置。
  5. 推論処理部が、処理対象画像に設定された複数の領域各々を所定の複数のクラスのうちのいずれかに分類した分類結果を取得するための処理を行い、
    次元変換処理部が、前記処理対象画像に設定された前記複数の領域各々に対応する多次元データを取得するための処理を行うとともに、前記多次元データを低次元データに変換するための処理を行い、
    表示処理部が、前記複数の領域のうちの1つ以上の領域を含む表示画像と、前記複数の領域各々における前記低次元データに対して前記分類結果に応じた異なる色または模様を付加して生成した複数のプロット点を有するプロット図と、を併せて表示装置に表示させるための処理を行い、
    前記表示処理部が、前記プロット図に含まれる各プロット点の中から所望のプロット点を選択点として選択するための指示が行われた場合に、前記選択点と、前記表示画像内における前記選択点に対応する領域と、を視覚的に識別可能とするための識別表示に係る処理を行い、
    前記推論処理部が、機械学習により構成される統計モデルを用いて構成されており、前記統計モデルで計算される尤度に基づいて、前記複数の領域各々における前記分類結果を算出するための処理をさらに行い、
    前記表示処理部が、前記表示装置に表示されている表示画像の拡大率を示す情報と、前記表示画像内において設定された注目位置を示す情報と、前記表示画像内において選択された選択位置を示す情報と、前記選択点を示す情報とを取得し、画像記録部に記録された複数の画像のうちの少なくとも1つの画像を用い、取得した情報に含まれる前記拡大率及び前記注目位置に応じた表示画像を生成する処理をさらに行う
    ことを特徴とする画像処理方法。
  6. コンピュータに、
    処理対象画像に設定された複数の領域各々を所定の複数のクラスのうちのいずれかに分類した分類結果を取得するための処理と、
    前記処理対象画像に設定された前記複数の領域各々に対応する多次元データを取得するための処理と、
    前記多次元データを低次元データに変換するための処理と、
    前記複数の領域のうちの1つ以上の領域を含む表示画像と、前記複数の領域各々における前記低次元データに対して前記分類結果に応じた異なる色または模様を付加して生成した複数のプロット点を有するプロット図と、を併せて表示装置に表示させるための処理と、
    前記プロット図に含まれる各プロット点の中から所望のプロット点を選択点として選択するための指示が行われた場合に、前記選択点と、前記表示画像内における前記選択点に対応する領域と、を視覚的に識別可能とするための識別表示に係る処理と、
    機械学習により構成される統計モデルで計算される尤度に基づいて、前記複数の領域各々における前記分類結果を算出するための処理と、
    前記表示装置に表示されている表示画像の拡大率を示す情報と、前記表示画像内において設定された注目位置を示す情報と、前記表示画像内において選択された選択位置を示す情報と、前記選択点を示す情報とを取得し、画像記録部に記録された複数の画像のうちの少なくとも1つの画像を用い、取得した情報に含まれる前記拡大率及び前記注目位置に応じた表示画像を生成する処理と、
    を実行させるプログラム。
JP2020556087A 2018-11-07 2019-11-05 画像処理装置、画像処理方法及びプログラム Active JP7443244B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2018209738 2018-11-07
JP2018209738 2018-11-07
PCT/JP2019/043334 WO2020095909A1 (ja) 2018-11-07 2019-11-05 画像処理装置、画像処理方法及びプログラム

Publications (2)

Publication Number Publication Date
JPWO2020095909A1 JPWO2020095909A1 (ja) 2021-09-02
JP7443244B2 true JP7443244B2 (ja) 2024-03-05

Family

ID=70611507

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020556087A Active JP7443244B2 (ja) 2018-11-07 2019-11-05 画像処理装置、画像処理方法及びプログラム

Country Status (4)

Country Link
US (1) US11875547B2 (ja)
JP (1) JP7443244B2 (ja)
CN (1) CN112955929A (ja)
WO (1) WO2020095909A1 (ja)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001156135A (ja) 1999-11-29 2001-06-08 Hitachi Ltd 欠陥画像の分類方法及びその装置並びにそれを用いた半導体デバイスの製造方法
JP2009123196A (ja) 2007-10-22 2009-06-04 Hitachi Kokusai Electric Inc 画像検索装置
JP2009238992A (ja) 2008-03-27 2009-10-15 Tokyo Electron Ltd 欠陥分類方法、プログラム、コンピュータ記憶媒体及び欠陥分類装置
JP2011089976A (ja) 2009-09-28 2011-05-06 Hitachi High-Technologies Corp 欠陥検査装置および欠陥検査方法
JP5101164B2 (ja) 2007-05-21 2012-12-19 株式会社ティラド モジュール型熱交換器のタンク接続構造
JP2014153906A (ja) 2013-02-08 2014-08-25 Honda Motor Co Ltd 検査装置、検査方法及びプログラム

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3194996B2 (ja) * 1991-09-13 2001-08-06 富士通株式会社 疵検査装置
JP3005440B2 (ja) * 1994-12-28 2000-01-31 大日本スクリーン製造株式会社 欠陥検査装置および欠陥検査方法
JP4042462B2 (ja) 2002-04-24 2008-02-06 ソニー株式会社 画像処理装置およびその方法
KR100810058B1 (ko) * 2003-06-10 2008-03-05 에이디이 코포레이션 멀티-채널 데이터의 그래픽 표현을 이용하여 기판의표면에서 발생하는 결함을 분류하는 방법 및 시스템
JP4077869B2 (ja) 2006-05-29 2008-04-23 松下電器産業株式会社 光源推定装置、光源推定システムおよび光源推定方法、並びに、画像高解像度化装置および画像高解像度化方法
JP2009129196A (ja) 2007-11-22 2009-06-11 Sharp Corp 熱解析モデル生成装置、熱解析モデル生成方法、熱解析装置および熱解析方法
CN102027490B (zh) * 2008-05-14 2016-07-06 皇家飞利浦电子股份有限公司 基于图像分割的图像分类
JP5220705B2 (ja) * 2009-07-23 2013-06-26 オリンパス株式会社 画像処理装置、画像処理プログラムおよび画像処理方法
JP5075924B2 (ja) * 2010-01-13 2012-11-21 株式会社日立製作所 識別器学習画像生成プログラム、方法、及びシステム
CN102741882B (zh) * 2010-11-29 2015-11-25 松下电器(美国)知识产权公司 图像分类装置、图像分类方法、集成电路、模型制作装置
JP2012217591A (ja) * 2011-04-07 2012-11-12 Toshiba Corp 画像処理システム、装置、方法及びプログラム
JP5257958B2 (ja) * 2011-06-01 2013-08-07 株式会社日立メディコ 画像表示装置、画像表示システムおよび画像表示方法
WO2016182608A2 (en) * 2015-02-10 2016-11-17 D-Wave Systems Inc. Systems, devices, articles, and methods for quantum processor architecture
US9613300B2 (en) * 2015-06-17 2017-04-04 Canon Kabushiki Kaisha Material classification using multiview capture
JP6742745B2 (ja) 2016-02-08 2020-08-19 キヤノン株式会社 情報取得装置および表示方法
JP6842745B2 (ja) 2016-07-28 2021-03-17 国立大学法人信州大学 画像判別装置及び画像判別方法
JP2018175227A (ja) * 2017-04-10 2018-11-15 富士フイルム株式会社 医用画像表示装置、方法およびプログラム
US11464473B2 (en) * 2018-05-24 2022-10-11 Case Western Reserve University Distinguishing minimally invasive carcinoma and adenocarcinoma in situ from invasive adenocarcinoma with intratumoral and peri-tumoral textural features

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001156135A (ja) 1999-11-29 2001-06-08 Hitachi Ltd 欠陥画像の分類方法及びその装置並びにそれを用いた半導体デバイスの製造方法
JP5101164B2 (ja) 2007-05-21 2012-12-19 株式会社ティラド モジュール型熱交換器のタンク接続構造
JP2009123196A (ja) 2007-10-22 2009-06-04 Hitachi Kokusai Electric Inc 画像検索装置
JP2009238992A (ja) 2008-03-27 2009-10-15 Tokyo Electron Ltd 欠陥分類方法、プログラム、コンピュータ記憶媒体及び欠陥分類装置
JP2011089976A (ja) 2009-09-28 2011-05-06 Hitachi High-Technologies Corp 欠陥検査装置および欠陥検査方法
JP2014153906A (ja) 2013-02-08 2014-08-25 Honda Motor Co Ltd 検査装置、検査方法及びプログラム

Also Published As

Publication number Publication date
CN112955929A (zh) 2021-06-11
JPWO2020095909A1 (ja) 2021-09-02
WO2020095909A1 (ja) 2020-05-14
US20210256325A1 (en) 2021-08-19
US11875547B2 (en) 2024-01-16

Similar Documents

Publication Publication Date Title
CN111524106B (zh) 颅骨骨折检测和模型训练方法、装置、设备和存储介质
CN111445449B (zh) 感兴趣区域的分类方法、装置、计算机设备和存储介质
JP6635648B2 (ja) 医用画像処理装置、医用画像処理方法及び分類器トレーニング方法
JP5652227B2 (ja) 画像処理装置および方法、並びにプログラム
JP2019533805A (ja) 視覚化されたスライド全域画像分析を提供するためのデジタル病理学システムおよび関連するワークフロー
JP5442542B2 (ja) 病理診断支援装置、病理診断支援方法、病理診断支援のための制御プログラムおよび該制御プログラムを記録した記録媒体
JPWO2007026598A1 (ja) 医用画像処理装置
JP4823204B2 (ja) 医用画像処理装置
US9378552B2 (en) Image processing apparatus and image processing method
KR101992044B1 (ko) 정보 처리 장치, 방법, 및 컴퓨터 프로그램
JP2013103023A (ja) 画像診断支援装置および画像診断支援方法
US11927540B2 (en) Information processing apparatus, information processing method, and recording medium
US20180182485A1 (en) Information processing apparatus, information processing method, and recording medium
US20210209834A1 (en) Image processing apparatus, image processing method, and image processing system
JP7443244B2 (ja) 画像処理装置、画像処理方法及びプログラム
US20150363054A1 (en) Medical image display apparatus, method for controlling the same
JP2012061019A (ja) 画像処理装置、方法およびプログラム
JP2020131019A (ja) 画像処理装置、画像処理方法、およびプログラム
JP2019170881A (ja) コンピュータプログラム、分類装置、分類方法、画像出力装置及び画像出力装置の動作方法
JP4816373B2 (ja) 医用画像処理システム
JP6897431B2 (ja) 画像処理装置、設定支援方法、および設定支援プログラム
EP4270311A1 (en) Image identification program, image identification method, image identification device
JP7277762B2 (ja) 組織構成特定方法、組織構成特定装置及びプログラム
JP2006304840A (ja) 医用画像表示システム
WO2024150572A1 (ja) 画像識別方法および画像識別プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210326

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220524

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20220722

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220926

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20221220

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230320

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20230320

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20230329

C21 Notice of transfer of a case for reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C21

Effective date: 20230404

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20230502

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231110

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240221

R150 Certificate of patent or registration of utility model

Ref document number: 7443244

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150