JP2021015317A - 認識装置、認識方法及びプログラム - Google Patents

認識装置、認識方法及びプログラム Download PDF

Info

Publication number
JP2021015317A
JP2021015317A JP2017223473A JP2017223473A JP2021015317A JP 2021015317 A JP2021015317 A JP 2021015317A JP 2017223473 A JP2017223473 A JP 2017223473A JP 2017223473 A JP2017223473 A JP 2017223473A JP 2021015317 A JP2021015317 A JP 2021015317A
Authority
JP
Japan
Prior art keywords
feature map
image
feature
cutout
processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017223473A
Other languages
English (en)
Inventor
喬俊 狩野
Takatoshi Karino
喬俊 狩野
正明 大酒
Masaaki Ozake
正明 大酒
誠 大関
Makoto Ozeki
誠 大関
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Priority to JP2017223473A priority Critical patent/JP2021015317A/ja
Priority to PCT/JP2018/040069 priority patent/WO2019102796A1/ja
Publication of JP2021015317A publication Critical patent/JP2021015317A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis

Abstract

【課題】入力画像からそれぞれ特徴の異なる複数の対象物を認識する際に、処理負荷を軽減させ、認識精度を向上させる認識装置、認識方法及びプログラムを提供する。【解決手段】画像を示す画像データが入力されると処理層毎に画像内の特徴量を示す特徴マップを算出する第1層構造特徴量算出部の複数の処理層のうち第1処理層が算出した第1特徴マップから画像内の第1対象物を認識し、第1処理層よりも入力側の処理層である第2処理層が算出した第2特徴マップから第2対象物に関する外部情報に基づいて決定した領域を切り出して切り出し特徴マップを生成し、切り出し特徴マップに基づいて画像内の第2対象物を認識する。【選択図】図2

Description

本発明は認識装置、認識方法及びプログラムに係り、特に入力画像からそれぞれ特徴の異なる複数の対象物を認識する認識装置、認識方法及びプログラムに関する。
対象物の特徴量を事前にコンピュータに学習させ、入力された画像の中から対象物を認識する認識装置が知られている。このような認識装置として、例えば多層構造のニューラルネットワークの機械学習を利用することが知られている。多層構造のニューラルネットワークの一例として、畳み込み層とプーリング層とを交互に含む畳み込みニューラルネットワーク(Convolutional Neural Network:CNN)がある。
特許文献1には、入力画像内における所定の対象の有無を認識するCNNを有し、CNNの中間層の出力である中間画像(特徴マップ)群からその対象の認識率向上に寄与する中間画像を抽出し、抽出された中間画像を合成した合成画像を生成し、中間画像から入力画像内の対象を含む領域を特定することで、入力画像から対象が含まれる領域をトリミングする装置が開示されている。
特開2017−059090号公報
入力画像からそれぞれ特徴の異なる第1対象物及び第2対象物を認識するには、第1対象物を認識するタスクのために作成されたCNNと、第2対象物を認識するタスクのために作成されたCNNとを用意して、それぞれのCNNに入力画像を入力すればよい。しかしながら、複数のCNNを個別に用意すると処理負荷が大きくなるという問題点がある。
このような問題点に対し、入力画像から第1対象物を認識するタスクのために作成されたCNNの中間層の特徴マップを、第1対象物とは特徴の異なる第2対象物のタスクに利用することが考えられる。
ここで、第2対象物は、画像中に現れる位置が局所的である(空間的局所性がある)ものとする。特徴マップは、入力画像の位置情報を反映している。したがって、例えば各特徴マップの特徴量の平均値を使用する場合、第2対象物が存在し得ない領域の特徴量もまとめて平均化される。このため、使用される平均値は、第2対象物に関する特徴量が希薄化するという問題点があった。
また、特許文献1には、このような問題点を解決する記載はない。
本発明はこのような事情に鑑みてなされたもので、入力画像からそれぞれ特徴の異なる複数の対象物を認識する際に、処理負荷を軽減させ、認識精度を向上させる認識装置、認識方法及びプログラムを提供することを目的とする。
上記目的を達成するために認識装置の一の態様は、画像を示す画像データを取得する画像取得部と、層構造を有する複数の処理層を有し、画像データが入力されると処理層毎に画像内の特徴量を示す特徴マップを算出する第1層構造特徴量算出部と、複数の処理層のうち第1処理層が算出した第1特徴マップから画像内の第1対象物を認識する第1対象物認識部と、複数の処理層のうち第1処理層よりも入力側の処理層である第2処理層が算出した第2特徴マップを取得する特徴マップ取得部と、第2対象物に関する外部情報に基づいて第2特徴マップから切り出す領域を決定する切り出し領域決定部と、第2特徴マップから決定した領域を切り出して切り出し特徴マップを生成する切り出し部と、切り出し特徴マップに基づいて画像内の第2対象物を認識する第2対象物認識部と、を備えた認識装置である。
本態様の認識装置によれば、層構造を有する複数の処理層を有し、画像データが入力されると処理層毎に画像内の特徴量を示す特徴マップを算出する第1層構造特徴量算出部の複数の処理層のうち第1処理層よりも入力側の処理層である第2処理層が算出した第2特徴マップを取得し、第2対象物に関する外部情報に基づいて第2特徴マップから領域を切り出して切り出し特徴マップを生成し、切り出し特徴マップに基づいて画像内の第2対象物を認識するようにしたので、入力画像からそれぞれ特徴の異なる複数の対象物を認識する際に、処理負荷を軽減させ、認識精度を向上させることができる。
第2対象物に関する外部情報は、画像内の第2対象物の位置情報であることが好ましい。これにより、第2特徴マップから切り出す領域を適切に決定することができる。
特徴マップ取得部は、第2処理層とは異なる第3処理層であって、複数の処理層のうち第1処理層よりも入力側の第3処理層が算出した第3特徴マップをさらに取得し、切り出し部は、第2特徴マップから決定した領域を切り出して第1切り出し特徴マップを生成し、かつ第3特徴マップから決定した領域を切り出して第2切り出し特徴マップを生成し、第2対象物認識部は、第1切り出し特徴マップ及び第2切り出し特徴マップに基づいて画像内の第2対象物を認識することが好ましい。これにより、第2特徴マップだけでは第2対象物の情報が足りない場合であっても、第2対象物を適切に認識することができる。
特徴マップ取得部は、第2処理層が算出した複数の第2特徴マップを取得し、切り出し部は、複数の第2特徴マップから決定した領域を切り出して複数の切り出し特徴マップを生成し、第2対象物認識部は、複数の切り出し特徴マップを特徴量ベクトルに変換し、特徴量ベクトルに基づいて第2対象物の有無を判別することが好ましい。これにより、第2対象物の有無を適切に判別することができる。
第2対象物認識部は、複数の切り出し特徴マップの各切り出し特徴マップ内の特徴量の平均値を算出し、平均値を特徴量ベクトルに変換することが好ましい。これにより、第2対象物の有無を適切に判別することができる。
第2対象物認識部は、複数の切り出し特徴マップの各切り出し特徴マップ内の特徴量を特徴量ベクトルに変換することが好ましい。これにより、第2対象物の有無を適切に判別することができる。
層構造を有する複数の第4処理層を有し、切り出し特徴マップが入力されると切り出し特徴マップ内の特徴量を示す第4特徴マップを算出する第2層構造特徴量算出部を備え、第2対象物認識部は、第4特徴マップに基づいて第2対象物の有無を判別、又は第2対象物の少なくとも一部の領域を抽出することが好ましい。これにより、第2対象物の有無を適切に判別、又は第2対象物の少なくとも一部の領域を適切に抽出することができる。
第1層構造特徴量算出部は、畳み込み演算部を備えることが好ましい。これにより、画像内の第1対象物を適切に認識することができ、さらに第2対象物を認識するための適切な特徴マップを取得することができる。
第1層構造特徴量算出部は、畳み込みニューラルネットワーク(Convolutional Neural Network:CNN)であることが好ましい。また、特徴マップは、CNNの中間層の特徴マップであることが好ましい。これにより、画像内の第1対象物を適切に認識することができ、さらに第2対象物を認識するための適切な特徴マップを取得することができる。
認識装置は、さらに第1対象物認識部の学習を行う第1学習部を備えることが好ましい。これにより、第1対象物認識部の認識精度を向上させることができる。
認識装置は、さらに第2対象物認識部の学習を行う第2学習部を備えることが好ましい。これにより、第2対象物認識部の認識精度を向上させることができる。
特徴マップは2次元データで構成され、切り出し領域決定部は、2次元データの一部を切り出す領域として決定することが好ましい。これにより2次元データで構成された特徴マップを取得して、第2対象物を適切に認識することができる。
特徴マップは3次元データで構成され、切り出し領域決定部は、3次元データの一部を切り出す領域として決定することが好ましい。これにより3次元データで構成された特徴マップを取得して、第2対象物を適切に認識することができる。
上記目的を達成するために認識方法の一の態様は、画像を示す画像データを取得する画像取得工程と、画像データが入力されると層構造を有する複数の処理層の処理層毎に画像内の特徴量を示す特徴マップを算出する第1層構造特徴量算出工程と、複数の処理層のうち第1処理層が算出した第1特徴マップから画像内の第1対象物を認識する第1対象物認識工程と、複数の処理層のうち第1処理層よりも入力側の処理層である第2処理層が算出した第2特徴マップを取得する特徴マップ取得工程と、第2対象物に関する外部情報に基づいて第2特徴マップから切り出す領域を決定する切り出し領域決定工程と、第2特徴マップから決定した領域を切り出して切り出し特徴マップを生成する切り出し工程と、切り出し特徴マップに基づいて画像内の第2対象物を認識する第2対象物認識工程と、を備えた認識方法である。
本態様の認識方法によれば、層構造を有する複数の処理層を有し、画像データが入力されると処理層毎に画像内の特徴量を示す特徴マップを算出する第1層構造特徴量算出部の複数の処理層のうち第1処理層よりも入力側の処理層である第2処理層が算出した第2特徴マップを取得し、第2対象物に関する外部情報に基づいて第2特徴マップから領域を切り出して切り出し特徴マップを生成し、切り出し特徴マップに基づいて画像内の第2対象物を認識するようにしたので、入力画像からそれぞれ特徴の異なる複数の対象物を認識する際に、処理負荷を軽減させ、認識精度を向上させることができる。
上記目的を達成するためにコンピュータに実行させるプログラムの一の態様は、画像を示す画像データを取得する画像取得工程と、画像データが入力されると層構造を有する複数の処理層の処理層毎に画像内の特徴量を示す特徴マップを算出する第1層構造特徴量算出工程と、複数の処理層のうち第1処理層が算出した第1特徴マップから画像内の第1対象物を認識する第1対象物認識工程と、複数の処理層のうち第1処理層よりも入力側の処理層である第2処理層が算出した第2特徴マップを取得する特徴マップ取得工程と、第2対象物に関する外部情報に基づいて第2特徴マップから切り出す領域を決定する切り出し領域決定工程と、第2特徴マップから決定した領域を切り出して切り出し特徴マップを生成する切り出し工程と、切り出し特徴マップに基づいて画像内の第2対象物を認識する第2対象物認識工程と、をコンピュータに実行させるプログラムである。
本態様のプログラムによれば、層構造を有する複数の処理層を有し、画像データが入力されると処理層毎に画像内の特徴量を示す特徴マップを算出する第1層構造特徴量算出部の複数の処理層のうち第1処理層よりも入力側の処理層である第2処理層が算出した第2特徴マップを取得し、第2対象物に関する外部情報に基づいて第2特徴マップから領域を切り出して切り出し特徴マップを生成し、切り出し特徴マップに基づいて画像内の第2対象物を認識するようにしたので、入力画像からそれぞれ特徴の異なる複数の対象物を認識する際に、処理負荷を軽減させ、認識精度を向上させることができる。
本発明によれば、入力画像からそれぞれ特徴の異なる複数の対象物を認識する際に、処理負荷を軽減させ、認識精度を向上させることができる。
認識装置のハードウェア構成を示すブロック図 認識方法の処理を示すフローチャート 各処理を概念的に説明するための模式図 入力画像の一例を示す図 表示部の表示内容を示す図 認識方法の処理を示すフローチャート 各処理を概念的に説明するための模式図 認識装置のハードウェア構成を示すブロック図 認識方法の処理を示すフローチャート 各処理を概念的に説明するための模式図 表示部の表示内容を示す図 認識方法の処理を示すフローチャート 各処理を概念的に説明するための模式図 認識方法の処理を示すフローチャート 各処理を概念的に説明するための模式図 認識装置のハードウェア構成を示すブロック図 内視鏡システムの外観図 挿入部の先端面の正面図 内視鏡システムの制御系の構成を示した構成図 運転画像の一例を示す図 認識装置のハードウェア構成を示すブロック図 認識方法の処理を示すフローチャート 各処理を概念的に説明するための模式図 表示部の表示内容を示す図 3次元医用画像の一例を示す図
以下、添付図面に従って本実施形態の好ましい実施形態について詳説する。
<第1の実施形態>
〔認識装置〕
本実施形態に係る認識装置10は、取得した画像からそれぞれ特徴の異なる第1対象物及び第2対象物を認識するための装置である。認識装置10は、画像内の第1対象物について領域の抽出(セグメンテーション)のタスクを行い、画像内の第2対象物について有無の判別のタスクを行う。
図1は、認識装置10のハードウェア構成を示すブロック図である。認識装置10は、画像取得部12、第1層構造特徴量算出部14、第1対象物認識部16、表示部18、特徴マップ取得部20、切り出し領域決定部22、切り出し部24、第2対象物認識部30等を備えて構成される。
画像取得部12は、画像を示す画像データを取得する。画像取得部12は、画像データを不図示のカメラから取得してもよいし、不図示のサーバ等から取得してもよい。カメラ及びサーバ等は、ネットワークを介して接続されていてもよい。
第1層構造特徴量算出部14は、複数の処理層が階層的に接続された構造(層構造)を有している。第1層構造特徴量算出部14は、画像データが入力されると処理層毎に画像内の位置情報を反映した特徴量を示す特徴マップを算出する。
第1対象物認識部16は、複数の処理層のうち第1処理層が算出した第1特徴マップから画像内の第1対象物を認識する。ここでは、第1層構造特徴量算出部14の複数の処理層のうち最終層(最も入力側から遠い層)を第1処理層とし、第1処理層が算出した第1特徴マップに基づいて画像内の第1対象物の領域を抽出する。
表示部18は、液晶画面等により構成されるディスプレイ装置である。表示部18は、第1対象物認識部16の認識結果を表示する。
特徴マップ取得部20は、第1層構造特徴量算出部14の複数の処理層のうち第1処理層(ここでは最終層)よりも入力側の処理層である第2処理層が算出した第2特徴マップを取得する。第2処理層は、複数の第2特徴マップを算出する。特徴マップ取得部20は、第2処理層が算出した複数の第2特徴マップを取得する。
切り出し領域決定部22は、第2対象物に関する外部情報に基づいて第2特徴マップから切り出す領域を決定する。ここでいう外部情報とは、例えば画像内の第2対象物の位置情報であり、画像の上半分、下半分、右半分、又は左半分等の情報である。この外部情報は、画像取得部12が取得した画像データを解析することによって得られる情報ではなく、画像の有する属性として予め判明している情報である。
切り出し部24は、特徴マップ取得部20が取得した第2特徴マップから切り出し領域決定部22が決定した領域を切り出して、切り出し特徴マップを生成する。切り出し部24は、複数の第2特徴マップから複数の切り出し特徴マップを生成する。
第2対象物認識部30は、切り出し特徴マップに基づいて画像内の第2対象物を認識する。
本実施形態では、第2対象物認識部30は、複数の切り出し特徴マップを特徴量ベクトルに変換する。具体的には、複数の切り出し特徴マップの各切り出し特徴マップ内の特徴量の平均値を算出し、算出した特徴量の平均値を特徴量ベクトルに変換する。
第2対象物認識部30は、この特徴量ベクトルに基づいて画像内の第2対象物の有無を判別する。第2対象物認識部30として、例えばSVM(Support Vector Machine)を用いることができる。第2対象物認識部30は、画像を入力した際の特徴量ベクトルとその画像内の第2対象物の有無である正解ラベルとの組を教師データとして、第2対象物の有無を判別するために予め学習させてある。なお、第2対象物認識部30は、NN(Neural Network)、又はその他の公知の識別器を利用することも可能である。
〔認識方法〕
認識装置10を用いた画像内の第1対象物及び第2対象物の認識方法について説明する。ここでは、不図示の内視鏡システムによって撮影された、被検体の体腔内の画像(以下、内視鏡画像と表記する)を示す画像データから、第1対象物として病変を、第2対象物として不図示の鉗子口から挿通された生検器具を認識する。
図2は、認識方法の処理を示すフローチャートである。また、図3は、各処理を概念的に説明するための模式図である。
最初に、ステップS1において、画像取得部12によって内視鏡画像である入力画像Gを示す画像データ100を取得する(画像取得工程の一例)。図4は、入力画像Gの一例を示す図である。
次に、ステップS2では、第1層構造特徴量算出部14において、画像データ100の特徴マップを算出する(第1層構造特徴量算出工程)。ここでは、第1層構造特徴量算出部14は、中間層102−1、102−2、102−3、102−4、102−5、…、及び102−nからなる畳み込み演算部である畳み込みニューラルネットワーク(Convolutional Neural Network:CNN)104(以下、CNN104と表記する)により構成される。CNN104は、複数のフィルタによる畳み込み処理により画像の局所的な特徴抽出を行う畳み込み層と、抽出した特徴を矩形領域毎にまとめるプーリング層とを繰り返した構造を有している。即ち、中間層102−1、102−2、102−3、102−4、102−5、…、及び102−nは、それぞれ畳み込み層又はプーリング層である。なお、中間層102−1、102−2、102−3、102−4、102−5、…、及び102−nは、畳み込み層又はプーリング層に限定されず、抽出した特徴に活性化処理を行うアクティベーション層であってもよい。CNN104は、内視鏡画像から特定の病変を認識することを目的として設計及び学習されている。
CNN104に画像データ100が入力されると、中間層102−1、102−2、102−3、102−4、102−5、…、及び102−nは、それぞれ特徴マップ106−1、106−2、106−3、106−4、…、及び106−nを算出する。ここでは、各中間層102−1、102−2、102−3、102−4、102−5、…、及び102−nは、入力画像Gに含まれる複数の特徴にそれぞれ対応するchannel数分の複数の特徴マップ106−1、106−2、106−3、106−4、…、及び106−nを算出する。複数の特徴マップ106−1、106−2、106−3、106−4、…、及び106−nは、それぞれ水平方向にwidth、垂直方向にheightのサイズを有する2次元データである。この2次元データは、それぞれ入力画像G内の位置情報を反映した入力画像Gの特徴量を示している。
なお、channel、width、及びheightは、特徴マップ106−1、106−2、106−3、106−4、…、及び106−n毎に任意の値を取る。
続いて、ステップS3では、第1対象物認識部16において、CNN104の中間層102−1、102−2、102−3、102−4、102−5、…、及び102−nのうち、第1処理層108が算出した第1特徴マップ110を取得する。ここでは、最終の中間層である中間層102−nを第1処理層108とし、中間層102−nが算出した複数の特徴マップ106−nを複数の第1特徴マップ110として取得する。なお、第1処理層108は中間層102−nに限定されず、中間層102−2〜102−(n−1)のいずれを採用してもよい。
さらに、ステップS4では、第1対象物認識部16において、第1特徴マップ110から入力画像G内の第1対象物である病変を認識する処理112を行う(第1対象物認識工程の一例)。ここでは、処理112は、病変の少なくとも一部の領域を抽出する。具体的には、複数の第1特徴マップ110に基づいて入力画像G内の各領域に対して病変である可能性を示すスコアを算出し、スコアの高い領域を示すスコアマップ114を出力する。複数の第1特徴マップ110は、それぞれ入力画像G内の位置情報を反映した特徴量を有している。したがって、複数の第1特徴マップ110から、病変の位置を認識することができる。
一方、ステップS5では、特徴マップ取得部20において、CNN104の中間層102−1、102−2、102−3、102−4、102−5、…、及び102−nのうち、第1処理層108よりも入力側の第2処理層116が算出した第2特徴マップ118を取得する処理120を行う(特徴マップ取得工程の一例)。ここでは、処理120は、中間層102−3を第2処理層116とし、中間層102−3が算出した複数の特徴マップ106−3を複数の第2特徴マップ118として取得する。この複数の第2特徴マップ118は、2次元データで構成される。なお、第2処理層116は中間層102−3に限定されず、第1処理層108よりも入力側であれば中間層102−1〜102−(n−1)のいずれを採用してもよい。
また、第2処理層116とした中間層102−3の出力である複数の特徴マップ106−3の全てを第2特徴マップ118とするのではなく、複数の特徴マップ106−3のうち特定の1つ又は複数の特徴マップ106−3のみを第2特徴マップ118としてもよい。
次に、ステップS6では、切り出し領域決定部22において、第2対象物である生検器具に関する外部情報に基づいて第2特徴マップ118から切り出す切り出し領域121を決定する(切り出し領域決定工程の一例)。ここでは、生検器具に関する外部情報は、入力画像G内の生検器具の位置情報である。
生検器具の出現頻度が高い位置は、内視鏡画像の下半分であることが予めわかっている。また、特徴マップは入力画像G内の位置情報を反映している。したがって、切り出し領域決定部22は、内視鏡画像の下半分という空間的局所性の外部情報から、切り出し領域121を第2特徴マップ118の下半分に決定する。このように、切り出し領域決定部22は、2次元データである複数の第2特徴マップ118の一部を切り出す領域として決定する。
続いて、ステップS7では、切り出し部24において、第2特徴マップ118から切り出し領域121の切り出し処理122を行って、切り出し特徴マップ124を生成する(切り出し工程の一例)。ここでは、複数の第2特徴マップ118のそれぞれの下半分を切り出した複数の切り出し特徴マップ124が生成される。
ここで、複数の切り出し特徴マップ124のwidth及びheightのサイズを縮小するために、プーリング処理を行ってもよい。プーリング処理として、周辺画素値の最大値を選択するmax pooling、及び平均値を選択するaverage pooling等の手法がある。また、サイズの縮小はプーリング処理に限定されず、主成分分析等の他の手法を用いてもよい。
次に、ステップS8では、第2対象物認識部30において、複数の切り出し特徴マップ124のchannel毎の特徴量の平均値を算出する(特徴量算出工程の一例)。さらに、第2対象物認識部30において、この平均値をベクトル変換処理126により特徴量ベクトル128に変換する。
続くステップS9では、第2対象物認識部30において、特徴量ベクトル128に基づいて判別処理130を行い、入力画像G内の生検器具の有無132を出力する(第2対象物認識工程の一例)。
最後に、ステップS10では、表示部18において、ステップS4の病変の認識結果及びステップS9の生検器具の認識結果を出力し、本フローチャートの処理を終了する。
図5は、図4に示す入力画像Gが入力された場合の表示部18の表示内容を示す図である。ここでは、表示部18に入力画像Gを表示するとともに、病変の認識結果として入力画像Gにスコアマップ114を重畳表示している。また、生検器具の認識結果として、表示部18に生検器具の有無132を表示している。
ここでは、スコアマップ114は、病変の領域を着色して示したが、病変の領域を枠で囲んで表示する等、病変の領域を認識できれば表示の方法については限定されない。
一定のフレームレートで撮影された入力画像Gを示す画像データ100を取得し、本フローチャートの処理を逐次行うことで、動画像の内視鏡画像からリアルタイムで病変及び生検器具を認識することができる。
このように、認識装置10によれば、第1対象物の認識結果及び第2対象物の認識結果を出力することができる。ここで、第2対象物の認識は、特徴マップが入力画像の位置情報を反映していることと、第2対象物が空間的局所性を有することとを利用して、外部情報に基づいて特徴マップの必要な領域のみを切り出して使用する。このため、特徴マップの全体を使用した場合よりも第2対象物の特徴が希薄化せず、認識精度を向上させることができる。また、第1対象物の認識のために作成された第1層構造特徴量算出部の中間層の出力を利用して第2対象物の認識を行うため、第2対象物のために層構造特徴量算出部を独立に用意し、2つの層構造特徴量算出部において処理を行う場合よりも処理負荷を軽減させることができる。
本実施形態では、第1対象物認識部16における病変の認識処理(ステップS3~S4)及び第2対象物認識部30における生検器具の認識処理(ステップS5〜S8)を並列に行ったが、一方の処理を先に行い、他方の処理をその後に行ってもよい。
また、本実施形態では、第2対象物認識部30において、複数の切り出し特徴マップを特徴量ベクトルに変換する際に、複数の切り出し特徴マップの各切り出し特徴マップ内の特徴量の平均値を算出し、算出した特徴量の平均値を特徴量ベクトルに変換したが、特徴マップを特徴量ベクトルに変換する方法は、これに限定されない。
例えば、複数の切り出し特徴マップの各切り出し特徴マップ内の特徴量の最大値を算出し、算出した特徴量の最大値を特徴量ベクトルに変換してもよい。なお、これらの方法では、特徴量ベクトルの次元数は特徴マップの数となる。
また、特徴マップの水平方向のサイズがW、垂直方向のサイズがH、特徴マップの数がNの場合に、各切り出し特徴マップ内の特徴量を一列に並べて(N×W×H)次元の特徴量ベクトルに変換してもよい。
<第2の実施形態>
認識装置10を用いた画像内の第1対象物及び第2対象物の認識方法について説明する。第1の実施形態と同様に、内視鏡画像を示す画像データから、画像内の第1対象物について領域の抽出のタスクを行い、画像内の第2対象物について有無の判別のタスクを行う。
図6は、認識方法の処理を示すフローチャートである。また、図7は、各処理を概念的に説明するための模式図である。なお、図2に示すフローチャート及び図3に示す模式図と共通する部分には同一の符号を付し、その詳細な説明は省略する。
まず、ステップS1において、入力画像Gを示す画像データ100を取得する。次に、ステップS2において、画像データ100の特徴マップを算出する。続いて、ステップS3において、第1処理層108である中間層102−nが算出した複数の特徴マップ106−nを、複数の第1特徴マップ110として取得する。さらに、ステップS4において、複数の第1特徴マップ110に基づいて病変のスコアマップ114を出力する。このように、第1の実施形態と同様に入力画像G内の病変を認識する。
一方、ステップS11では、特徴マップ取得部20において、CNN104の中間層102−1、102−2、102−3、102−4、102−5、…、及び102−nのうち第1処理層108よりも入力側の第2処理層116−1が算出した第2特徴マップ118−1を取得する処理120−1を行う。ここでは、処理120−1は、中間層102−3を第2処理層116−1とし、中間層102−3が算出した複数の特徴マップ106−3を複数の第2特徴マップ118−1として取得する。
なお、第1の実施形態と同様に、第2処理層116−1とした中間層102−3の出力である複数の特徴マップ106−3の全てを第2特徴マップ118−1とするのではなく、複数の特徴マップ106−3のうち特定の1つ又は複数の特徴マップ106−3のみを第2特徴マップ118−1としてもよい。
ステップS11ではさらに、特徴マップ取得部20において、CNN104の中間層102−1、102−2、102−3、102−4、102−5、…、及び102−nのうち第2処理層116−1とは異なる第3処理層116−2であって、第1処理層108よりも入力側の第3処理層116−2が算出した第3特徴マップ118−2を取得する処理120−2を行う。ここでは、処理120−2は、中間層102−4を第3処理層116−2とし、中間層102−4が算出した複数の特徴マップ106−4を複数の第3特徴マップ118−2として取得する。
ここでも同様に、第3処理層116−2とした中間層102−3の出力である複数の特徴マップ106−3の全てを第3特徴マップ118−2とするのではなく、複数の特徴マップ106−3のうち特定の1つ又は複数の特徴マップ106−3のみを第3特徴マップ118−2としてもよい。
次に、ステップS12では、切り出し領域決定部22において、生検器具に関する外部情報に基づいて複数の第2特徴マップ118−1から切り出す切り出し領域121−1、及び複数の第3特徴マップ118−2から切り出す切り出し領域121−2を決定する。第1の実施形態と同様に、切り出し領域決定部22は、切り出し領域121−1を複数の第2特徴マップ118−1の下半分、及び切り出し領域121−2を複数の第3特徴マップ118−2の下半分に決定する。
続いて、ステップS13では、切り出し部24において切り出し処理122−1を行って、複数の第2特徴マップ118−1から切り出し領域121−1を切り出して複数の第1切り出し特徴マップ124−1を生成する。同様に、切り出し部24において切り出し処理122−2を行って、複数の第3特徴マップ118−2から切り出し領域121−2を切り出して複数の第2切り出し特徴マップ124−2を生成する。
ここで、必要であれば、複数の第1切り出し特徴マップ124−1及び複数の第2切り出し特徴マップ124−2について、プーリング処理を行ってもよい。
次に、ステップS14では、第2対象物認識部30において、複数の第1切り出し特徴マップ124−1のchannel毎の特徴量の平均値(第1特徴量の一例)を算出し、この平均値をベクトル変換処理126−1により特徴量ベクトル128−1に変換する。同様に、第2対象物認識部30において、複数の第2切り出し特徴マップ124−2のchannel毎の特徴量の平均値(第2特徴量の一例)を算出し、この平均値をベクトル変換処理126−2により特徴量ベクトル128−2に変換する。
続いて、ステップS15では、第2対象物認識部30においてベクトル連結処理134を行い、特徴量ベクトル128−1及び特徴量ベクトル128−2を1つの特徴量ベクトル136に連結する。
さらに、ステップS16では、第2対象物認識部30において、特徴量ベクトル136に基づいて判別処理130を行い、入力画像G内の生検器具の有無132を出力する。
最後に、ステップS10において、第1の実施形態と同様に、表示部18に病変の認識結果及び生検器具の認識結果を出力する。
このように、第2対象物についての情報が足りない場合には、それぞれ異なる複数の中間層の出力の特徴マップを用いることで、第2対象物の認識精度を向上させることができる。
<第3の実施形態>
〔認識装置〕
本実施形態に係る認識装置40は、画像内の第1対象物及び第2対象物について、それぞれ領域を抽出するタスクを行う。
図8は、認識装置40のハードウェア構成を示すブロック図である。なお、図1に示すブロック図と共通する部分には同一の符号を付し、その詳細な説明は省略する。認識装置40の第2対象物認識部30は、第2層構造特徴量算出部28を備えている。
第2層構造特徴量算出部28は、第1層構造特徴量算出部14と同様に、複数の処理層が階層的に接続された構造を有している。第2層構造特徴量算出部28は、画像データが入力されると処理層毎に画像内の位置情報を反映した特徴量を示す特徴マップを算出する。
〔認識方法〕
認識装置40を用いた画像内の第1対象物及び第2対象物の認識方法について説明する。これまでと同様に、内視鏡画像を示す画像データから、第1対象物として病変を、第2対象物として不図示の鉗子口から挿通された生検器具を認識する例を説明する。
図9は、認識方法の処理を示すフローチャートである。また、図10は、各処理を概念的に説明するための模式図である。なお、図2に示すフローチャート及び図3に示す模式図と共通する部分には同一の符号を付し、その詳細な説明は省略する。
認識装置10と同様に、ステップS1〜S4の処理を行い、第1対象物である病変の認識を行う。
また、認識装置10と同様に、ステップS5〜S7の処理を行う。即ち、ステップS5において、CNN104の中間層102−3を第2処理層116とし、中間層102−3が算出した複数の特徴マップ106−3を複数の第2特徴マップ118として取得する。次に、ステップS6において、生検器具に関する外部情報に基づいて第2特徴マップ118から切り出す切り出し領域121を決定する。さらに、ステップS7において、複数の第2特徴マップ118のそれぞれの下半分を切り出した複数の切り出し特徴マップ124を生成する。
次に、ステップS21において、第2層構造特徴量算出部28によって切り出し特徴マップ124内の特徴量を示す第4特徴マップ142−nを取得する。
第2層構造特徴量算出部28は、中間層138−1、138−2、…、及び138−n(複数の第4処理層の一例)からなるCNN140により構成される。中間層138−1、…、及び138−nは、それぞれ特徴マップ142−1、…、及び142−nを算出する。CNN140は、内視鏡画像から生検器具を認識することを目的として設計及び学習されている。
CNN140に切り出し特徴マップ124が入力されると、最終の中間層138−nから切り出し特徴マップ124内の特徴量を示す第4特徴マップ142−nが出力される。切り出し特徴マップ124は、入力画像Gの位置情報を反映している。また、CNN140は、入力された画像内の位置情報を反映した特徴量を示す第4特徴マップ142−nを算出する。したがって、第4特徴マップ142−nは、入力画像Gの位置情報を反映した特徴量を有している。ここでは、channel数分の第4特徴マップ142−nが出力されるものとする。
続くステップS22では、第2対象物認識部30において、第4特徴マップ142−nから入力画像G内の生検器具の少なくとも一部の領域を抽出する処理144を行う。ここでは、処理144は、複数の第4特徴マップ142−nに基づいて入力画像G内の各領域に対して生検器具である可能性を示すスコアを算出し、スコアの高い領域を示すスコアマップ146を出力する。複数の第4特徴マップ142−nは、それぞれ入力画像G内の位置情報を反映した特徴量を有している。したがって、複数の第4特徴マップ142−nから、生検器具の位置を認識することができる。
最後に、ステップS23では、表示部18において、ステップS4の病変の認識結果及びステップS22の生検器具の認識結果を出力し、本フローチャートの処理を終了する。
図11は、入力画像Gが入力された場合の表示部18の表示内容を示す図である。ここでは、表示部18に入力画像Gを表示するとともに、病変の認識結果として入力画像Gに病変のスコアマップ114を重畳表示している。さらに、生検器具の認識結果として、入力画像Gに生検器具のスコアマップ146を重畳表示している。スコアマップ114及びスコアマップ146は、それぞれ異なる色で着色することが好ましい。
このように、第2対象物の有無だけでなく、第2対象物が存在する領域を認識することも可能である。
<第4の実施形態>
認識装置40を用いた画像内の第1対象物及び第2対象物の認識方法について説明する。ここでは、画像内の第1対象物について領域の抽出のタスクを行い、画像内の第2対象物について有無の判別のタスクを行う。
図12は、認識方法の処理を示すフローチャートである。また、図13は、各処理を概念的に説明するための模式図である。なお、図2及び図9に示すフローチャートと共通する部分、及び図3及び図10に示す模式図と共通する部分には同一の符号を付し、その詳細な説明は省略する。
第3の実施形態と同様に、ステップS1〜S4の処理を行い、第1対象物である病変の認識を行う。
また、第1の実施形態と同様に、ステップS5〜S7の処理を行う。即ち、ステップS5において、CNN104の中間層102−3を第2処理層116とし、中間層102−3が算出した複数の特徴マップ106−3を複数の第2特徴マップ118として取得する。次に、ステップS6において、生検器具に関する外部情報に基づいて第2特徴マップ118から切り出す切り出し領域121を決定する。さらに、ステップS7において、複数の第2特徴マップ118のそれぞれの下半分を切り出した複数の切り出し特徴マップ124を生成する。
次に、第3の実施形態と同様に、ステップS21において、第2層構造特徴量算出部28によって切り出し特徴マップ124内の特徴量を示す第4特徴マップ142−nを取得する。
CNN140に切り出し特徴マップ124が入力されると、最終の中間層138−nから切り出し特徴マップ124内の特徴量を示す第4特徴マップ142−nが出力される。ここでは、channel数分の第4特徴マップ142−nが出力されるものとする。
次に、ステップS8では、第2対象物認識部30において、第4特徴マップ142−nのchannel毎の特徴量の平均値を算出する。さらに、第2対象物認識部30において、この平均値をベクトル変換処理126により特徴量ベクトル128に変換する。
続くステップS9では、第2対象物認識部30において、特徴量ベクトル128に基づいて判別処理130を行い、入力画像G内の生検器具の有無132を出力する。
最後に、ステップS10では、表示部18において、ステップS4の病変の認識結果及びステップS9の生検器具の認識結果を出力し、本フローチャートの処理を終了する。
このように、切り出し特徴マップを畳み込み演算した結果を特徴量ベクトルに変換し、特徴量ベクトルを判別してもよい。
<第5の実施形態>
認識装置40を用いた画像内の第1対象物及び第2対象物の認識方法について説明する。第3の実施形態と同様に、画像内の第1対象物及び第2対象物について、それぞれ領域を抽出するタスクを行う例を説明する。
図14は、認識方法の処理を示すフローチャートである。また、図15は、各処理を概念的に説明するための模式図である。なお、図6及び図9に示すフローチャートと共通する部分、及び図7及び図10に示す模式図と共通する部分には同一の符号を付し、その詳細な説明は省略する。
第3の実施形態と同様に、ステップS1〜S4の処理を行い、第1対象物である病変の認識を行う。
また、第2の実施形態と同様に、ステップS11〜S13の処理を行う。即ち、ステップS11において、複数の第2特徴マップ118−1及び第3特徴マップ118−2として取得する。次に、ステップS12において、切り出し領域121−1及び切り出し領域121−2を決定する。さらに、ステップS13において、複数の第1切り出し特徴マップ124−1及び複数の第2切り出し特徴マップ124−2を生成する。
続くステップS31では、特徴マップ取得部20において、第1切り出し特徴マップ124−1及び第2切り出し特徴マップ124−2を連結する処理148を行い、連結切り出し特徴マップ150を生成する。連結の順序は学習と推論で同じであれば、特に問わない。複数の第1切り出し特徴マップ124−1のchannel数がA、複数の第2切り出し特徴マップ124−2のchannel数がBであるとすると、処理148により連結切り出し特徴マップ150のchannel数は(A+B)となる。
なお、第1切り出し特徴マップ124−1及び第2切り出し特徴マップ124−2のwidth及びheightのサイズが異なる場合は、特徴マップ取得部20は、第1切り出し特徴マップ124−1及び第2切り出し特徴マップ124−2の少なくとも一方について、拡大処理及び縮小処理の少なくとも一方を行うことで、第1切り出し特徴マップ124−1及び第2切り出し特徴マップ124−2のwidth及びheightのサイズを一致させればよい。拡大処理はデコンボリューション処理、縮小処理はプーリング処理を用いてもよい。
次に、ステップS21において、連結切り出し特徴マップ150を第2層構造特徴量算出部28のCNN140に入力し、最終の中間層138−nから連結切り出し特徴マップ150内の特徴量を示す複数の第4特徴マップ142−nを取得する。
さらに、ステップS22において、複数の第4特徴マップ142−nから入力画像G内の生検器具の少なくとも一部の領域を抽出する処理144を行い、入力画像G内の各領域に対して生検器具である可能性を示すスコアを算出し、スコアの高い領域を示すスコアマップ146を出力する。
最後に、ステップS23において、ステップS4の病変の認識結果及びステップS22の生検器具の認識結果を出力し、本フローチャートの処理を終了する。
このように、第2対象物についての情報が足りない場合には、それぞれ異なる複数の中間層の出力の特徴マップからそれぞれ切り出し特徴マップを生成し、切り出し特徴マップを連結して特徴を抽出することで、第2対象物の認識精度を向上させることができる。
<第6の実施形態>
図16は、認識装置50のハードウェア構成を示すブロック図である。なお、図8に示すブロック図と共通する部分には同一の符号を付し、その詳細な説明は省略する。認識装置50は、第1学習部52及び第2学習部54を備えている。
第1学習部52は、不図示の入力部から取得した画像及び画像内の第1対象物の認識結果の正解ラベルの組を、教師情報として第1層構造特徴量算出部14及び第1対象物認識部16に入力し、第1層構造特徴量算出部14及び第1対象物認識部16に学習させる。
第2学習部54は、不図示の入力部から取得した画像及び画像内の第2対象物の認識結果の正解ラベルの組を教師情報として第2層構造特徴量算出部28及び第2対象物認識部30に入力し、第2層構造特徴量算出部28及び第2対象物認識部30に学習させる。
このように、認識装置10において、第1層構造特徴量算出部14、第1対象物認識部16、第2層構造特徴量算出部28、及び第2対象物認識部30を学習させてもよい。これにより、第1対象物及び第2対象物の認識精度を向上させることができる。また、第1学習部52及び第2学習部54のうち、いずれか一方のみを備えていてもよい。
<第7の実施形態>
〔内視鏡システム〕
図17は、内視鏡システム70の外観図である。内視鏡システム70は、内視鏡71、プロセッサ装置72、及び光源装置73を備えて構成される。
内視鏡71は、被検体の体内に挿入される可撓性の挿入部74と、挿入部74の基端部分に連設された操作部75と、プロセッサ装置72および光源装置73に接続されるコネクタ76と、操作部75及びコネクタ76間を繋ぐユニバーサルコード77と、を有する。
操作部75の先端側には、鉗子口78が設けられる。鉗子口78には、電気メス等の処置具(生検器具)が挿通される。鉗子口78は、挿入部74内の鉗子チャンネルを通して、挿入部74の先端面74aの鉗子出口79に連通している。図18は、挿入部74の先端面74aの正面図である。
操作部75は、アングルノブ80、送気送水ボタン82、及び吸引ボタン84等の各種操作部材を備えている。アングルノブ80は、回転操作によって挿入部74の先端硬質部86を上下左右方向に湾曲させる。送気送水ボタン82は、押圧操作によって図18に示すように先端面74aに設けられた送気送水ノズル88からエアー又は水を噴出させる。吸引ボタン84は、押圧操作によって、体内の液体及び組織等の被吸引物を図18に示す鉗子出口79から吸引する。
プロセッサ装置72は、内視鏡71及び光源装置73と電気的に接続され、内視鏡システム70の動作を統括的に制御する。
先端硬質部86には、図18に示すように先端面74aに設けられた観察窓90を介して撮影を行う撮像部200(図19参照)が搭載されている。撮像部200には、ユニバーサルコード77及び挿入部74内に挿通された不図示の信号ケーブルを介してプロセッサ装置72からの電力及び制御信号が与えられ、撮像部200の動作がプロセッサ装置72によって制御される。
また、プロセッサ装置72には、撮像部200からの撮像信号が信号ケーブルを介して与えられ、プロセッサ装置72においてその撮像信号に対して各種処理が施されて撮像部200により観察されている観察画像の画像データが生成される。
プロセッサ装置72にはモニタ92が接続されている。モニタ92の画面には、プロセッサ装置72からの画像データに基づき撮像部200により撮影されている観察画像が表示される。
光源装置73は、撮像部200により撮像する体腔内に照明光を出射する照明手段である。光源装置73は、先端面74aに設けられた図18に示す照明窓94から被観察部位に向けて出射する照明光を内視鏡71に供給する。光源装置73から供給された照明光は、ユニバーサルコード77及び挿入部74内に挿通された不図示のライトガイドを介して先端硬質部86まで伝送される。
図19は、内視鏡システム70の制御系の構成を示した構成図である。内視鏡71の先端硬質部86には、撮像部200として、撮像素子202、アナログ信号処理回路204、及びタイミングジェネレータ206等が備えられている。また、先端硬質部86にはCPU(Central Processing Unit)208が備えられている。
タイミングジェネレータ206は、CPU208の制御に基づき、撮像素子202の垂直/水平走査パルス、及びリセットパルス等の駆動パルスとアナログ信号処理回路204用の同期パルスとを発生する。
撮像素子202は、複数の色セグメントからなる不図示のカラーフィルタ(例えば、ベイヤ配列の原色カラーフィルタ)を備えた単板カラー撮像方式の固体撮像素子である。撮像素子202は、タイミングジェネレータ206から入力される駆動パルスにより駆動され、先端面74aの観察窓90及び対物光学系210を介して不図示の撮像面に結像された光学像を光電変換して撮像信号として出力する。
撮像素子202の撮像面には、多数の画素がマトリクス状に配置されており、各画素にはそれぞれ不図示のフォトセンサ(光電変換素子)が設けられている。撮像素子202の撮像面に入射した光は、各画素のフォトセンサに電荷として蓄積される。そして、不図示の垂直走査回路及び水平走査回路による垂直方向と水平方向の走査によって、各画素のフォトセンサに蓄積された信号電荷量が画素信号として順次読み出され、所定のフレームレートで出力される。
撮像素子202の各フォトセンサの蓄積電荷を撮像信号として読み出す信号読出回路の構成は従来周知であり、例えば3トランジスタ構成又は4トランジスタ構成等の一般的な構成を適用することが可能であり、ここでは説明を省略する。
アナログ信号処理回路204は、不図示の相関二重サンプリング回路、自動ゲイン回路、及びアナログデジタル変換器により構成されている。相関二重サンプリング回路は、撮像素子202から出力される撮像信号に対して相関二重サンプリング処理を施し、撮像素子202で生じるリセット雑音及びアンプ雑音の除去を行う。
自動ゲイン回路は、相関二重サンプリング回路によりノイズ除去が行われた撮像信号を、CPU208から指定されたゲイン(増幅率)で増幅する。アナログデジタル変換器は、自動ゲイン回路により増幅された撮像信号を、所定のビット数のデジタル信号に変換して出力する。
アナログ信号処理回路204でデジタル化されて出力された撮像信号(デジタル撮像信号)は、プロセッサ装置72に入力される。
なお、撮像素子202を駆動するための回路、及び撮像素子202からの撮像信号をプロセッサ装置72に送信するための先端硬質部86内の構成は上記のものに限らない。
プロセッサ装置72は、CPU212、ROM(Read Only Memory)214、RAM(Random Access Memory)216、画像処理回路218、及び表示制御回路220を備えて構成される。
CPU212は、プロセッサ装置72内の各部を制御するとともに、内視鏡システム70の全体を統括的に制御する。ROM214には、プロセッサ装置72の動作を制御するための各種プログラム及び制御用データが記憶される。また、RAM216には、CPU212により実行されるプログラム及びデータ等が一時記憶される。
画像処理回路218は、CPU212の制御に基づき、アナログ信号処理回路204から入力された撮像信号に対し、色補間、色分離、色バランス調整、ガンマ補正、及び画像強調処理等を施し、画像データを生成する。
画像処理回路218から出力された画像データは表示制御回路220に入力される。表示制御回路220は、画像処理回路218から入力された画像データを、モニタ92に対応した信号形式に変換する。これにより、モニタ92の画面には、画像データに応じた画像が表示される。
プロセッサ装置72の操作部230は、ユーザの指示入力を受け付ける不図示の各種ボタンが設けられている。
光源装置73は、光源222、光源駆動回路224、及びCPU226を備えて構成される。CPU226は、プロセッサ装置72のCPU212と通信を行い、光源駆動回路224の制御を行う。
光源222は、例えばキセノンランプであり、光源駆動回路224により点灯及び消灯が制御される。光源222で発光された照明光は、不図示の多数本の光ファイバを束ねて構成されるライトガイド228の入射端に導入される。ライトガイド228を伝送した照明光は、ライトガイド228の出射端から出射され、内視鏡71の照明窓94を通して被観察部位を照射する。
上記のように構成された内視鏡システム70で体腔内を観察する際には、まず、内視鏡71、プロセッサ装置72、光源装置73、及びモニタ92の電源を投入する。次に、内視鏡71の挿入部74を体腔内に挿入する。そして、光源装置73からの照明光で体腔内を照明しながら、撮像部200の撮像素子202により撮像される体腔内の画像をモニタ92で観察する。
また、必要に応じて操作部75の先端側に設けられた鉗子口78から生検器具を挿通する。この生検器具は、挿入部74の先端面74aの鉗子出口79から突出する。鉗子出口79から突出した生検器具により、状況に応じた処置を行うことができる。
上記の内視鏡システム70において、認識装置10、認識装置40、又は認識装置50を備えることができる。これにより、撮像部200において撮影された内視鏡画像について、病変及び生検器具を認識することができる。
この場合、認識装置10等を専用のハードウェア構成としてもよいし、CPU212、ROM214、RAM216、画像処理回路218、表示制御回路220、及びモニタ92を用いて構成してもよい。
ここで、内視鏡システム70において撮影される画像の天地方向は、図18に示す+X方向が上側に、−X方向が下側に固定される。したがって、鉗子出口79から突出する生検器具は、常に撮像部200が撮影を行う観察窓90の下側から現れる。このため、生検器具の出現頻度が高い位置は、内視鏡画像の下半分であるという外部情報を取得することができる。
<第8の実施形態>
ここまでは、認識装置10、認識装置40、及び認識装置50において内視鏡画像内の対象物を認識する例を説明したが、認識装置10、認識装置40、及び認識装置50は、内視鏡画像以外の画像内の対象物の認識に適用することも可能である。
図20は、自動車の運転席から見える前方の状況を撮影した動画像の1シーンである画像(以下、運転画像と表記する)である入力画像Gの一例を示す図である。この入力画像Gには、自動車SB、自転車SB、歩行者SB、交通標識SB、及び信号機SBが写っている。
認識装置10、認識装置40、及び認識装置50によれば、入力画像Gから、画像全体に現れる自動車SB、自転車SB、又は歩行者SBを第1対象物として認識するタスクを行い、画像の特定部分に現れる交通標識SB又は信号機SBを第2対象物として認識するタスクを行うことができる。
なお、交通ルールにより自動車は左側通行と定められている場合であれば、交通標識SBは一般に道路の左側に設置される。したがって、交通標識SBに関する外部情報は、運転画像の左半分という位置情報である。また、信号機SBは視認性の関係で一般に高い場所に設置される。したがって、信号機SBに関する外部情報は、運転画像の上半分という位置情報である。
認識装置10、認識装置40、及び認識装置50に、運転画像から構成される動画像を入力して各対象物を認識させることで、自動車の自動運転等に活用することが可能になる。
<第9の実施形態>
〔認識装置〕
本実施形態に係る認識装置60は、画像内の第1対象物、第2対象物、及び第3対象物のそれぞれの領域を抽出するタスクを行う。
図21は、認識装置60のハードウェア構成を示すブロック図である。なお、図8に示すブロック図と共通する部分には同一の符号を付し、その詳細な説明は省略する。
認識装置60は、認識装置40の構成に加え、第3層構造特徴量算出部62及び第3対象物認識部64を備えている。
第3層構造特徴量算出部62は、第1層構造特徴量算出部14と同様に、複数の処理層が階層的に接続された構造を有している。第3層構造特徴量算出部62は、画像データが入力されると処理層毎に画像内の位置情報を反映した特徴量を示す第5特徴マップを算出する。
第3対象物認識部64は、第3層構造特徴量算出部62が算出した第5特徴マップから画像内の第3対象物を認識する。
〔認識方法〕
認識装置60を用いた画像内の第1対象物、第2対象物、及び第3対象物の認識方法について説明する。ここでは、運転画像を示す画像データから、第1対象物として自動車を、第2対象物として信号機を、第3対象物として交通標識を認識する例を説明する。
図22は、認識方法の処理を示すフローチャートである。また、図23は、各処理を概念的に説明するための模式図である。なお、図9に示すフローチャート及び図10に示す模式図と共通する部分には同一の符号を付し、その詳細な説明は省略する。
最初に、ステップS1において、画像取得部12によって運転画像である入力画像Gを示す画像データ240を取得する。
次に、ステップS2では、第1層構造特徴量算出部14において、画像データ240の特徴マップを算出する。ここでは、CNN104は、運転画像から自動車を認識することを目的として設計及び学習されている。
続いて、ステップS3において、第1処理層108である中間層102−nが算出した複数の特徴マップ106−nを、複数の第1特徴マップ110として取得する。さらに、ステップS4において、複数の第1特徴マップ110に基づいて自動車のスコアマップ114を出力する。
次に、ステップS5では、特徴マップ取得部20において、CNN104の中間層102−3を第2処理層116とし、中間層102−3が算出した複数の特徴マップ106−3を複数の第2特徴マップ118として取得する。
次に、ステップS41では、切り出し領域決定部22において、第2対象物である信号機に関する外部情報に基づいて第2特徴マップ118から切り出す切り出し領域121−3を決定する。ここでは、信号機に関する外部情報は、画像の下半分という位置情報である。したがって、切り出し領域決定部22は、切り出し領域121−3を複数の第2特徴マップ118の下半分に決定する。
また、ステップS41では、切り出し領域決定部22において、第3対象物である交通標識に関する外部情報に基づいて第2特徴マップ118から切り出す切り出し領域121−4を決定する。ここでは、交通標識に関する外部情報は、画像の左半分という位置情報である。したがって、切り出し領域決定部22は、切り出し領域121−4を複数の第2特徴マップ118の左半分に決定する。
続いて、ステップS42では、切り出し部24において、第2特徴マップ118から切り出し領域121−3の切り出し処理122−3を行って、第3切り出し特徴マップ124−3を生成する。ここでは、複数の第2特徴マップ118のそれぞれの上半分を切り出した複数の第3切り出し特徴マップ124−3が生成される。
また、ステップS42では、切り出し部24において、第2特徴マップ118から切り出し領域121−4の切り出し処理122−4を行って、第4切り出し特徴マップ124−4を生成する。ここでは、複数の第2特徴マップ118のそれぞれの左半分を切り出した複数の第4切り出し特徴マップ124−4が生成される。
なお、切り出し処理122−3及び切り出し処理122−4を行う順序は限定されず、同時に行ってもよい。
次に、ステップS43において、第2層構造特徴量算出部28によって第3切り出し特徴マップ124−3内の特徴量を示す第4特徴マップ142−nを取得する。ここでは、CNN140は、運転画像から信号機を認識することを目的として設計及び学習されている。
続いて、ステップS44では、第2対象物認識部30において、第4特徴マップ142−nから入力画像G内の信号機の少なくとも一部の領域を抽出する処理144を行う。ここでは、処理144は、複数の第4特徴マップ142−nに基づいて入力画像G内の各領域に対して信号機である可能性を示すスコアを算出し、スコアの高い領域を示すスコアマップ146を出力する。
また、ステップS45において、第3層構造特徴量算出部62によって第4切り出し特徴マップ124−4内の特徴量を示す第5特徴マップ168−nを取得する。
第3層構造特徴量算出部62は、中間層162−1、162−2、…、及び162−nからなるCNN164により構成される。中間層162−1、…、及び138−nは、それぞれ特徴マップ168−1、…、及び168−nを算出する。CNN164は、運転画像から交通標識を認識することを目的として設計及び学習されている。
第4切り出し特徴マップ124−4は、入力画像Gの位置情報を反映している。また、CNN164は、入力された画像内の位置情報を反映した特徴量を示す第5特徴マップ168−nを算出する。したがって、第5特徴マップ168−nは、入力画像Gの位置情報を反映した特徴量を有している。
続いて、ステップS46では、第3対象物認識部64において、第5特徴マップ168−nから入力画像G内の交通標識の少なくとも一部の領域を抽出する処理170を行う。ここでは、処理170は、複数の第5特徴マップ168−nに基づいて入力画像G内の各領域に対して交通標識である可能性を示すスコアを算出し、スコアの高い領域を示すスコアマップ172を出力する。複数の第5特徴マップ168−nは、それぞれ入力画像G内の位置情報を反映した特徴量を有している。したがって、複数の第5特徴マップ168−nから、交通標識の位置を認識することができる。
最後に、ステップS47では、表示部18において、ステップS4の自動車の認識結果、ステップS44の信号機の認識結果、及びステップS46の交通標識の認識結果を出力し、本フローチャートの処理を終了する。
図24は、図20に示す入力画像Gが入力された場合の表示部18の表示内容を示す図である。ここでは、表示部18に入力画像Gを表示するとともに、スコアマップ114、146、及び172を重畳表示している。
このように、画像全体から第1対象物が存在する領域を認識し、同じ画像から空間的局所性を有する第2対象物が存在する領域を認識し、さらにその画像から第2対象物とは異なる空間的局所性を有する第3対象物が存在する領域を認識することが可能である。
なお、第3層構造特徴量算出部62及び第3対象物認識部64を学習させる学習部を備えてもよい。
<第10の実施形態>
医療分野において、CT(Computed Tomography)装置及びMR(Magnetic Resonance)装置等において撮影された3次元の医用画像が診断に用いられている。ここでは、認識装置40(図8参照)において、不図示のCT装置により撮影された3次元医用画像から第1対象物として肺野領域を、第2対象物として背骨領域を、それぞれ抽出するタスクを行う場合について説明する。
図25は、CT装置によって撮影された、肺野SBと背骨SBとを含む3次元医用画像Gの一例を示す図である。図25に示すように、本実施形態に係る3次元医用画像は、複数のアキシャル断面画像が体軸方向に並べられて構成されている。3次元医用画像を示す画像データは、ボクセル値を有する3次元データ(ボクセルデータ)として表される。
ここでは、第1層構造特徴量算出部14のCNN104(図10参照)は、肺野と背骨とを含む3次元医用画像から3次元の肺野領域を抽出することを目的として設計及び学習されている。また、第2層構造特徴量算出部28のCNN140(図10参照)は、肺野と背骨とを含む3次元医用画像から3次元の背骨領域を抽出することを目的として設計及び学習されている。
CT装置では、一般的に被検体を寝台上に仰向けに寝かせた状態(被検体の背中を寝台の上面に接触させた状態)で撮影を行う。このため、3次元医用画像Gは、アキシャル断面において被検体の背中側が画像の下側となる。この場合、背骨は3次元医用画像Gのアキシャル断面において中央付近下半分に写る。
したがって、背骨に関する外部情報は、アキシャル断面画像の中央付近下半分という位置情報である。切り出し領域決定部22は、この外部情報を取得し、アキシャル断面の中央付近下半分を切り出し領域121として決定すればよい。
なお、本実施形態では、CNN104の中間層102−1、102−2、102−3、102−4、102−5、…、及び102−nは、それぞれ3次元データで構成された複数の特徴マップ106−1、106−2、106−3、106−4、…、及び106−nを算出する。したがって、切り出し領域決定部22は、3次元データである複数の第2特徴マップ118の一部を切り出す領域として決定する。
なお、中間層102−1、102−2、102−3、102−4、102−5、…、及び102−nは、それぞれ2次元データで構成された複数の特徴マップ106−1、106−2、106−3、106−4、…、及び106−nを算出してもよい。また、複数の特徴マップ106−2が2次元データで構成され、複数の特徴マップ106−3が3次元データで構成される等であってもよい。
このように構成した認識装置40において、画像取得部12から3次元医用画像Gを示す画像データが入力されると、表示部18において肺野領域のスコアマップ114及び背骨領域のスコアマップ146を出力する。
なお、撮影時の被検体の姿勢が仰向けでない場合は、CNN104に入力する画像の向きを調整するか、又は背骨領域に関する外部情報を、撮影時の被検体の姿勢を考慮した位置情報とすればよい。
ここでは、肺野領域と背骨領域とを抽出するタスクを行う場合について説明したが、この組に限定されるものではなく、必要な領域を自由に決定することができる。
また、第2特徴マップを複数のタスクに利用してもよい。例えば、第2特徴マップを、背骨領域、気管領域、及び胸骨領域を抽出するタスクに利用してもよい。ここで、気管領域は一般的に3次元医用画像のアキシャル断面において背骨上に存在する。また、胸骨領域は一般的に3次元医用画像のアキシャル断面において中央上部に存在する。したがって、気管領域に関する外部情報は背骨の上という位置情報、胸骨領域に関する外部情報は中央上部という位置情報となる。
さらに、タスク毎にそれぞれ異なる中間層の出力である特徴マップを用いてもよい。
ここでは、認識装置40において3次元医用画像内の対象物を認識する例について説明したが、認識装置10、50、及び60において3次元医用画像内の対象物を認識することも可能である。また、認識装置10、40、50、及び60の少なくとも1つを、CT装置及びMR装置と一体にして構成してもよい。
<その他>
上記の認識方法は、各工程をコンピュータに実現させるためのプログラムとして構成し、このプログラムを記憶したCD−ROM(Compact Disk-Read Only Memory)等の非一時的な記録媒体を構成することも可能である。
ここまで説明した実施形態において、例えば、認識装置10、40、50、及び60の各種の処理を実行する処理部(processing unit)のハードウェア的な構造は、次に示すような各種のプロセッサ(processor)である。各種のプロセッサには、ソフトウェア(プログラム)を実行して各種の処理部として機能する汎用的なプロセッサであるCPU(Central Processing Unit)、画像処理に特化したプロセッサであるGPU(Graphics Processing Unit)、FPGA(Field Programmable Gate Array)等の製造後に回路構成を変更可能なプロセッサであるプログラマブルロジックデバイス(Programmable Logic Device:PLD)、ASIC(Application Specific Integrated Circuit)等の特定の処理を実行させるために専用に設計された回路構成を有するプロセッサである専用電気回路等が含まれる。
1つの処理部は、これら各種のプロセッサのうちの1つで構成されていてもよいし、同種又は異種の2つ以上のプロセッサ(例えば、複数のFPGA、あるいはCPUとFPGAの組み合わせ、又はCPUとGPUの組み合わせ)で構成されてもよい。また、複数の処理部を1つのプロセッサで構成してもよい。複数の処理部を1つのプロセッサで構成する例としては、第1に、サーバ及びクライアント等のコンピュータに代表されるように、1つ以上のCPUとソフトウェアの組合せで1つのプロセッサを構成し、このプロセッサが複数の処理部として機能する形態がある。第2に、システムオンチップ(System On Chip:SoC)等に代表されるように、複数の処理部を含むシステム全体の機能を1つのIC(Integrated Circuit)チップで実現するプロセッサを使用する形態がある。このように、各種の処理部は、ハードウェア的な構造として、各種のプロセッサを1つ以上用いて構成される。
さらに、これらの各種のプロセッサのハードウェア的な構造は、より具体的には、半導体素子等の回路素子を組み合わせた電気回路(circuitry)である。
本発明の技術的範囲は、上記の実施形態に記載の範囲には限定されない。各実施形態における構成等は、本発明の趣旨を逸脱しない範囲で、各実施形態間で適宜組み合わせることができる。
10 認識装置
12 画像取得部
14 第1層構造特徴量算出部
16 第1対象物認識部
18 表示部
20 特徴マップ取得部
22 切り出し領域決定部
24 切り出し部
28 第2層構造特徴量算出部
30 第2対象物認識部
40 認識装置
50 認識装置
52 第1学習部
54 第2学習部
60 認識装置
62 第3層構造特徴量算出部
64 第3対象物認識部
70 内視鏡システム
71 内視鏡
72 プロセッサ装置
73 光源装置
74 挿入部
74a 先端面
75 操作部
76 コネクタ
77 ユニバーサルコード
78 鉗子口
79 鉗子出口
80 アングルノブ
82 送気送水ボタン
84 吸引ボタン
86 先端硬質部
88 送気送水ノズル
90 観察窓
92 モニタ
94 照明窓
100 画像データ
102−1 中間層
102−2 中間層
102−3 中間層
102−4 中間層
102−5 中間層
102−n 中間層
104 畳み込みニューラルネットワーク(CNN)
106−1 特徴マップ
106−2 特徴マップ
106−3 特徴マップ
106−4 特徴マップ
106−n 特徴マップ
108 第1処理層
110 第1特徴マップ
112 処理
114 スコアマップ
116 第2処理層
116−1 第2処理層
116−2 第3処理層
118 第2特徴マップ
118−1 第2特徴マップ
118−2 第3特徴マップ
120 処理
120−1 処理
120−2 処理
121 切り出し領域
121−1 切り出し領域
121−2 切り出し領域
121−3 切り出し領域
121−4 切り出し領域
122 切り出し処理
122−1 切り出し処理
122−2 切り出し処理
122−3 切り出し処理
122−4 切り出し処理
124 切り出し特徴マップ
124−1 第1切り出し特徴マップ
124−2 第2切り出し特徴マップ
124−3 第3切り出し特徴マップ
124−4 第4切り出し特徴マップ
126 ベクトル変換処理
126−1 ベクトル変換処理
126−2 ベクトル変換処理
128 特徴量ベクトル
128−1 特徴量ベクトル
128−2 特徴量ベクトル
130 判別処理
132 有無
134 ベクトル連結処理
136 特徴量ベクトル
138−1 中間層
138−2 中間層
138−n 中間層
140 畳み込みニューラルネットワーク(CNN)
142−1 特徴マップ
142−n 第4特徴マップ
144 処理
146 スコアマップ
148 処理
150 連結切り出し特徴マップ
162−1 中間層
162−2 中間層
164 畳み込みニューラルネットワーク(CNN)
168−1 特徴マップ
168−n 第5特徴マップ
170 処理
172 スコアマップ
200 撮像部
202 撮像素子
204 アナログ信号処理回路
206 タイミングジェネレータ
208 CPU
210 対物光学系
212 CPU
214 ROM
216 RAM
218 画像処理回路
220 表示制御回路
222 光源
224 光源駆動回路
226 CPU
228 ライトガイド
230 操作部
240 画像データ
入力画像
入力画像
3次元医用画像
S1〜S47 認識方法の処理のステップ
SB 自動車
SB 自転車
SB 歩行者
SB 交通標識
SB 信号機
SB 肺野
SB 背骨

Claims (16)

  1. 画像を示す画像データを取得する画像取得部と、
    層構造を有する複数の処理層を備え、前記画像データが入力されると前記処理層毎に前記画像内の特徴量を示す特徴マップを算出する第1層構造特徴量算出部と、
    前記複数の処理層のうち第1処理層が算出した第1特徴マップから前記画像内の第1対象物を認識する第1対象物認識部と、
    前記複数の処理層のうち前記第1処理層よりも入力側の処理層である第2処理層が算出した第2特徴マップを取得する特徴マップ取得部と、
    第2対象物に関する外部情報に基づいて前記第2特徴マップから切り出す領域を決定する切り出し領域決定部と、
    前記第2特徴マップから前記決定した領域を切り出して切り出し特徴マップを生成する切り出し部と、
    前記切り出し特徴マップに基づいて前記画像内の前記第2対象物を認識する第2対象物認識部と、
    を備えた認識装置。
  2. 前記第2対象物に関する外部情報は、前記画像内の前記第2対象物の位置情報である請求項1に記載の認識装置。
  3. 前記特徴マップ取得部は、前記第2処理層とは異なる第3処理層であって、前記複数の処理層のうち前記第1処理層よりも入力側の第3処理層が算出した第3特徴マップをさらに取得し、
    前記切り出し部は、前記第2特徴マップから前記決定した領域を切り出して第1切り出し特徴マップを生成し、かつ前記第3特徴マップから前記決定した領域を切り出して第2切り出し特徴マップを生成し、
    前記第2対象物認識部は、前記第1切り出し特徴マップ及び前記第2切り出し特徴マップに基づいて前記画像内の前記第2対象物を認識する請求項1又は2に記載の認識装置。
  4. 前記特徴マップ取得部は、前記第2処理層が算出した複数の前記第2特徴マップを取得し、
    前記切り出し部は、前記複数の第2特徴マップから前記決定した領域を切り出して複数の切り出し特徴マップを生成し、
    前記第2対象物認識部は、前記複数の切り出し特徴マップを特徴量ベクトルに変換し、前記特徴量ベクトルに基づいて前記第2対象物の有無を判別する請求項1から3のいずれか1項に記載の認識装置。
  5. 前記第2対象物認識部は、前記複数の切り出し特徴マップの各切り出し特徴マップ内の特徴量の平均値を算出し、前記平均値を特徴量ベクトルに変換する請求項4に記載の認識装置。
  6. 前記第2対象物認識部は、前記複数の切り出し特徴マップの各切り出し特徴マップ内の特徴量を特徴量ベクトルに変換する請求項4に記載の認識装置。
  7. 層構造を有する複数の第4処理層を有し、前記切り出し特徴マップが入力されると前記切り出し特徴マップ内の特徴量を示す第4特徴マップを算出する第2層構造特徴量算出部を備え、
    前記第2対象物認識部は、前記第4特徴マップに基づいて前記第2対象物の有無を判別、又は前記第2対象物の少なくとも一部の領域を抽出する請求項1から6のいずれか1項に記載の認識装置。
  8. 前記第1層構造特徴量算出部は、畳み込み演算部を備える請求項1から7のいずれか1項に記載の認識装置。
  9. 前記第1層構造特徴量算出部は、畳み込みニューラルネットワーク(Convolutional Neural Network:CNN)である請求項8に記載の認識装置。
  10. 前記特徴マップは、CNNの中間層の特徴マップである請求項9に記載の認識装置。
  11. 前記第1対象物認識部の学習を行う第1学習部を備えた請求項1から10のいずれか1項に記載の認識装置。
  12. 前記第2対象物認識部の学習を行う第2学習部を備えた請求項1から11のいずれか1項に記載の認識装置。
  13. 前記特徴マップは2次元データで構成され、
    前記切り出し領域決定部は、前記2次元データの一部を切り出す領域として決定する請求項1から12のいずれか1項に記載の認識装置。
  14. 前記特徴マップは3次元データで構成され、
    前記切り出し領域決定部は、前記3次元データの一部を切り出す領域として決定する請求項1から13のいずれか1項に記載の認識装置。
  15. 画像を示す画像データを取得する画像取得工程と、
    前記画像データが入力されると層構造を有する複数の処理層の前記処理層毎に前記画像内の特徴量を示す特徴マップを算出する第1層構造特徴量算出工程と、
    前記複数の処理層のうち第1処理層が算出した第1特徴マップから前記画像内の第1対象物を認識する第1対象物認識工程と、
    前記複数の処理層のうち前記第1処理層よりも入力側の処理層である第2処理層が算出した第2特徴マップを取得する特徴マップ取得工程と、
    第2対象物に関する外部情報に基づいて前記第2特徴マップから切り出す領域を決定する切り出し領域決定工程と、
    前記第2特徴マップから前記決定した領域を切り出して切り出し特徴マップを生成する切り出し工程と、
    前記切り出し特徴マップに基づいて前記画像内の前記第2対象物を認識する第2対象物認識工程と、
    を備えた認識方法。
  16. 画像を示す画像データを取得する画像取得工程と、
    前記画像データが入力されると層構造を有する複数の処理層の前記処理層毎に前記画像内の特徴量を示す特徴マップを算出する第1層構造特徴量算出工程と、
    前記複数の処理層のうち第1処理層が算出した第1特徴マップから前記画像内の第1対象物を認識する第1対象物認識工程と、
    前記複数の処理層のうち前記第1処理層よりも入力側の処理層である第2処理層が算出した第2特徴マップを取得する特徴マップ取得工程と、
    第2対象物に関する外部情報に基づいて前記第2特徴マップから切り出す領域を決定する切り出し領域決定工程と、
    前記第2特徴マップから前記決定した領域を切り出して切り出し特徴マップを生成する切り出し工程と、
    前記切り出し特徴マップに基づいて前記画像内の前記第2対象物を認識する第2対象物認識工程と、
    をコンピュータに実行させるプログラム。
JP2017223473A 2017-11-21 2017-11-21 認識装置、認識方法及びプログラム Pending JP2021015317A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2017223473A JP2021015317A (ja) 2017-11-21 2017-11-21 認識装置、認識方法及びプログラム
PCT/JP2018/040069 WO2019102796A1 (ja) 2017-11-21 2018-10-29 認識装置、認識方法及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017223473A JP2021015317A (ja) 2017-11-21 2017-11-21 認識装置、認識方法及びプログラム

Publications (1)

Publication Number Publication Date
JP2021015317A true JP2021015317A (ja) 2021-02-12

Family

ID=66630570

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017223473A Pending JP2021015317A (ja) 2017-11-21 2017-11-21 認識装置、認識方法及びプログラム

Country Status (2)

Country Link
JP (1) JP2021015317A (ja)
WO (1) WO2019102796A1 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111695491B (zh) * 2020-06-10 2023-12-19 阿波罗智联(北京)科技有限公司 用于检测行人的方法和装置
US20240119717A1 (en) 2020-10-08 2024-04-11 Panasonic Intellectual Property Management Co., Ltd. Processing method and processing device using same
TWI812888B (zh) * 2020-10-14 2023-08-21 財團法人工業技術研究院 影像辨識方法及影像辨識系統

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2955662B1 (en) * 2003-07-18 2018-04-04 Canon Kabushiki Kaisha Image processing device, imaging device, image processing method
JP5480532B2 (ja) * 2009-04-30 2014-04-23 グローリー株式会社 画像処理装置、画像処理方法、及び同方法をコンピュータに実行させるプログラム
JP7019137B2 (ja) * 2015-08-27 2022-02-15 ムラタオフィス株式会社 類似画像検索システム

Also Published As

Publication number Publication date
WO2019102796A1 (ja) 2019-05-31

Similar Documents

Publication Publication Date Title
US11734820B2 (en) Medical image processing device, medical image processing method, and medical image processing program
US11302092B2 (en) Inspection support device, endoscope device, inspection support method, and inspection support program
WO2016143312A1 (ja) 分岐構造判定装置、方法およびプログラム
US11298012B2 (en) Image processing device, endoscope system, image processing method, and program
JP7270626B2 (ja) 医用画像処理装置、医用画像処理システム、医用画像処理装置の作動方法、プログラム、及び記憶媒体
US8086005B2 (en) Medical image processing apparatus and medical image processing method
WO2012114600A1 (ja) 医用画像処理装置及び医用画像処理方法
CN113544743A (zh) 内窥镜用处理器、程序、信息处理方法和信息处理装置
EP2491849B1 (en) Information processing device and capsule endoscope system
US11957299B2 (en) Endoscope image processing apparatus, endoscope image processing method, and program
JP7050817B2 (ja) 画像処理装置、プロセッサ装置、内視鏡システム、画像処理装置の動作方法及びプログラム
WO2020008834A1 (ja) 画像処理装置、方法及び内視鏡システム
WO2019102796A1 (ja) 認識装置、認識方法及びプログラム
CN112105286A (zh) 内窥镜装置、内窥镜操作方法及程序
JP7326308B2 (ja) 医療画像処理装置及び医療画像処理装置の作動方法、内視鏡システム、プロセッサ装置、診断支援装置並びにプログラム
US10939800B2 (en) Examination support device, examination support method, and examination support program
US10970875B2 (en) Examination support device, examination support method, and examination support program
JP7289373B2 (ja) 医療画像処理装置、内視鏡システム、診断支援方法及びプログラム
US11398033B2 (en) Diagnosis support system, endoscope system, processor, and diagnosis support method
US11704794B2 (en) Filing device, filing method, and program
JPWO2020184257A1 (ja) 医用画像処理装置及び方法
JP7387859B2 (ja) 医用画像処理装置、プロセッサ装置、内視鏡システム、医用画像処理装置の作動方法及びプログラム
JP7122328B2 (ja) 画像処理装置、プロセッサ装置、画像処理方法、及びプログラム
WO2019088008A1 (ja) 画像処理装置、画像処理方法、プログラム、及び内視鏡システム
US20220222840A1 (en) Control device, image processing method, and storage medium