JP6986160B2 - 画像処理方法および画像処理装置 - Google Patents

画像処理方法および画像処理装置 Download PDF

Info

Publication number
JP6986160B2
JP6986160B2 JP2020535471A JP2020535471A JP6986160B2 JP 6986160 B2 JP6986160 B2 JP 6986160B2 JP 2020535471 A JP2020535471 A JP 2020535471A JP 2020535471 A JP2020535471 A JP 2020535471A JP 6986160 B2 JP6986160 B2 JP 6986160B2
Authority
JP
Japan
Prior art keywords
tip
output
feature map
image
image processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020535471A
Other languages
English (en)
Other versions
JPWO2020031380A1 (ja
Inventor
淳 安藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Corp filed Critical Olympus Corp
Publication of JPWO2020031380A1 publication Critical patent/JPWO2020031380A1/ja
Application granted granted Critical
Publication of JP6986160B2 publication Critical patent/JP6986160B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10068Endoscopic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20016Hierarchical, coarse-to-fine, multiscale or multiresolution image processing; Pyramid transform
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/03Recognition of patterns in medical or anatomical images
    • G06V2201/034Recognition of patterns in medical or anatomical images of medical instruments

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Image Analysis (AREA)
  • Endoscopes (AREA)

Description

本発明は、画像処理方法および画像処理装置に関する。
近年、深いネットワーク層をもつニューラルネットワークであるディープラーニングが注目を集めている。例えば特許文献1には、ディープラーニングを検出処理に応用した技術が提案されている。
特許文献1に記載される技術では、画像上に等間隔に配置された複数の領域のそれぞれが検出対象を含んでいるかどうか、含んでいるならば領域をどのように移動、変形させれば検出対象とよりフィットするかを学習することで、検出処理を実現している。
Shaoqing Ren、Kaiming He、Ross Girshick and Jian Sun「Faster R-CNN: Towards Real-Time Object Detection with Region Proposal Networks」、Conference on Neural Information Processing Systems (NIPS)、2015
物体の先端の検出処理には、その位置に加えて方向も重要となる場合があるが、特許文献1に記載されるような従来の技術では、方向を考慮できていない。
本発明はこうした状況に鑑みなされたものであり、その目的は、物体の先端の検出処理において、その位置に加えて方向も考慮できる技術を提供することにある。
上記課題を解決するために、本発明のある態様の画像処理装置は、画像から物体の先端を検出するための画像処理装置であって、画像の入力を受け付ける画像入力部と、画像に畳み込み演算を適用することにより特徴マップを生成する特徴マップ生成部と、特徴マップに第1の変換を適用することにより第1の出力を生成する第1変換部と、特徴マップに第2の変換を適用することにより第2の出力を生成する第2変換部と、特徴マップに第3の変換を適用することにより第3の出力を生成する第3変換部と、を備える。第1の出力は、画像上にあらかじめ決められた数の候補領域に関する情報を示し、第2の出力は、候補領域に物体の先端が存在するか否かの尤度を示し、第3の出力は、候補領域に存在する物体の先端の方向に関する情報を示す。
本発明の別の態様もまた、画像処理装置である。この装置は、画像から物体の先端を検出するための画像処理装置であって、画像の入力を受け付ける画像入力部と、画像に畳み込み演算を適用することにより特徴マップを生成する特徴マップ生成部と、特徴マップに第1の変換を適用することにより第1の出力を生成する第1変換部と、特徴マップに第2の変換を適用することにより第2の出力を生成する第2変換部と、特徴マップに第3の変換を適用することにより第3の出力を生成する第3変換部と、を備える。第1の出力は、画像上にあらかじめ決められた数の候補点に関する情報を示し、第2の出力は、候補点の近傍に物体の先端が存在するか否かの尤度を示し、第3の出力は、候補点の近傍に存在する物体の先端の方向に関する情報を示す。
本発明のさらに別の態様は、画像処理方法である。この方法は、画像から物体の先端を検出するための画像処理方法であって、画像の入力を受け付ける画像入力ステップと、画像に畳み込み演算を適用することにより特徴マップを生成する特徴マップ生成ステップと、特徴マップに第1の変換を適用することにより第1の出力を生成する第1変換ステップと、特徴マップに第2の変換を適用することにより第2の出力を生成する第2変換ステップと、特徴マップに第3の変換を適用することにより第3の出力を生成する第3変換ステップと、を含む。第1の出力は、画像上にあらかじめ決められた数の候補領域に関する情報を示し、第2の出力は、候補領域に物体の先端が存在するか否かの尤度を示し、第3の出力は、候補領域に存在する物体の先端の方向に関する情報を示す。
なお、以上の構成要素の任意の組み合わせ、本発明の表現を方法、装置、システム、記録媒体、コンピュータプログラムなどの間で変換したものもまた、本発明の態様として有効である。
本発明によれば、物体の先端の検出処理において、位置に加えて方向も考慮できる技術を提供できる。
実施の形態に係る画像処理装置の機能構成を示すブロック図である。 図1の候補領域判別部による、候補領域が処置具の先端を含むか否かの判別において、処置具の先端の方向の信頼度を考慮することの効果を説明するための図である。 削除する候補領域の決定において処置具の先端の方向を考慮することの効果を説明するための図である。
以下、本発明を好適な実施の形態をもとに図面を参照しながら説明する。
図1は、実施の形態に係る画像処理装置100の機能構成を示すブロック図である。ここに示す各ブロックは、ハードウエア的には、コンピュータのCPU(central processing unit)やGPU(Graphics Processing Unit)をはじめとする素子や機械装置で実現でき、ソフトウエア的にはコンピュータプログラム等によって実現されるが、ここでは、それらの連携によって実現される機能ブロックを描いている。したがって、これらの機能ブロックはハードウエア、ソフトウエアの組合せによっていろいろなかたちで実現できることは、本明細書に触れた当業者には理解されるところである。
以下では、画像処理装置100を内視鏡の処置具の先端の検出に用いる場合を例に説明するが、当業者によれば、画像処理装置100をそれ以外の物体の先端、具体的には例えばロボットアーム、顕微鏡下の針、スポーツで用いる棒状の道具等の他の物体の先端の検出にも適用できることは明らかである。
画像処理装置100は、内視鏡画像から内視鏡の処置具の先端を検出するための装置である。画像処理装置100は、画像入力部110と、正解入力部111と、特徴マップ生成部112と、領域設定部113と、第1変換部114と、第2変換部116と、第3変換部118と、統合スコア算出部120と、候補領域判別部122と、候補領域削除部124と、重み初期化部126と、全体誤差算出部128と、誤差伝播部130と、重み更新部132と、結果提示部133と、重み係数記憶部134と、を備える。
まず、学習済みの画像処理装置100により、内視鏡画像から処置具の先端を検出する適用過程について説明する。
画像入力部110は、例えば内視鏡に接続されたビデオプロセッサまたは他の装置から、内視鏡画像の入力を受け付ける。特徴マップ生成部112は、画像入力部110が受け付けた内視鏡画像に対して、所定の重み係数を用いた畳み込み演算を適用することで特徴マップを生成する。重み係数は、後述する学習過程において得られ、重み係数記憶部134に記憶されている。本実施の形態では、畳み込み演算として、VGG−16をベースにした畳み込みニューラルネットワーク(CNN : Convolutional Neural Network)を用いるが、これに限定されず、他のCNNを用いることもできる。例えば、畳み込み演算として、Identity Mapping(IM)を導入したResidual Networkを用いることもできる。
領域設定部113は、画像入力部110が受け付けた内視鏡画像上に、例えば等間隔に、あらかじめ決められた数の複数の領域(以下、「初期領域」と呼ぶ)を設定する。
第1変換部114は、特徴マップに第1の変換を適用することで、複数の初期領域のそれぞれに対応する複数の候補領域に関する情報(第1の出力)を生成する。本実施の形態では、候補領域に関する情報は、初期領域の基準点(例えば中心点)が先端により近づくための位置変動量を含む情報である。なお、候補領域に関する情報は、これには限定されず、例えば処置具の先端によりフィットするように初期領域を移動させた後の領域の位置およびサイズを含む情報であってもよい。第1の変換には、所定の重み係数を用いた畳み込み演算を用いる。重み係数は、後述する学習過程において得られ、重み係数記憶部134に記憶されている。
第2変換部116は、特徴マップに第2の変換を適用することで、複数の初期領域のそれぞれに処置具の先端が存在するか否かの尤度(第2の出力)を生成する。なお、第2変換部116は複数の候補領域のそれぞれに処置具の先端が存在するか否かの尤度を生成してもよい。第2の変換には、所定の重み係数を用いた畳み込み演算を用いる。重み係数は、後述する学習過程において得られ、重み係数記憶部134に記憶されている。
第3変換部118は、特徴マップに第3の変換を適用することで、複数の初期領域のそれぞれに存在する処置具の先端の方向に関する情報(第3の出力)を生成する。なお、第3変換部118は複数の候補領域のそれぞれに存在する処置具の先端の方向に関する情報を生成してもよい。本実施の形態では、処置具の先端の方向に関する情報は、処置具の先端を始点する、先端部の延在方向の延長線に沿って延びる方向ベクトル(v,v)である。第3の変換には、所定の重み係数を用いた畳み込み演算を用いる。重み係数は、後述する学習過程において得られ、重み係数記憶部134に記憶されている。
統合スコア算出部120は、第2変換部116により生成された尤度と、第3変換部118により生成された処置具の先端の方向に関する情報の信頼度に基づいて、複数の初期領域のそれぞれ又は複数の候補領域のそれぞれの統合スコアを算出する。方向に関する情報の「信頼度」とは、本実施の形態では、先端の方向ベクトルの大きさである。統合スコア算出部120は特に、尤度と方向の信頼度との重み付け和により、具体的には以下の式(1)により、統合スコア(Scoretotal)算出する。
Figure 0006986160
ここで、Score2は尤度であり、w3は方向ベクトルの大きさに掛けられる重み係数である。
候補領域判別部122は、統合スコアに基づいて、複数の候補領域のそれぞれについて処置具の先端を含むか否かを判別し、その結果、処置具の先端が存在している(と推測される)候補領域を特定する。具体的には候補領域判別部122は、統合スコアが所定の閾値以上である候補領域について、処置具の先端が存在していると判別する。
図2は、候補領域判別部122による、候補領域が処置具の先端を含むか否かの判別において、統合スコアを用いることの効果、すなわち候補領域の判別に尤度のみならず処置具の先端の方向ベクトルの大きさを考慮することの効果を説明するための図である。この例では、処置具10は二股状であり、二股に分岐する分岐部に突起12を有している。突起12は処置具の先端と一部類似した形状をもつことから突起12を含む候補領域20の尤度が高く出力される場合もある。この場合、処置具10の先端14が存在している候補領域であるか否かを尤度のみを用いて判別すると、候補領域20を処置具10の先端14が存在している候補領域として判別しうる、つまり分岐部の突起12を処置具の先端と誤検出しうる。これに対し本実施の形態では、上述したように、処置具10の先端14が存在している候補領域であるか否かを尤度に加えて先端の方向ベクトルの大きさを考慮して判別する。処置具10の先端14ではない分岐部の突起12の方向ベクトルの大きさは小さくなる傾向にあるため、尤度に加えて方向ベクトルの大きさを考慮することで、検出精度を向上させることができる。
図1に戻り、候補領域削除部124は、候補領域判別部122により複数の候補領域に処置具の先端が存在すると判別された場合、それら複数の候補領域間の類似度を算出する。そして、類似度が所定の閾値以上であり、かつ、それら複数の候補領域に対応する処置具の先端の方向が実質的に一致している場合、それらは同じ先端を検出していると考えられるため、候補領域削除部124は対応する統合スコアが高い方の候補領域を残して低い方の候補領域を削除する。一方、類似度が所定の閾値未満である場合、あるいはそれら複数の候補領域に対応する処置具の先端の方向が互いに異なる場合、それらは別の先端を検出している候補領域と考えられるため、候補領域削除部124はいずれの候補領域も削除せずに残す。なお、処置具の先端の方向が実質的に一致している場合とは、互いの先端の方向が平行である場合に加えて、互いの先端の方向がなす鋭角が所定のしきい値以下である場合をいう。また、本実施の形態では、類似度には候補領域間の重複度(Intersection over Union)を用いる。つまり、候補領域同士が重なっているほど類似度は高くなる。なお、類似度は、これには限定されず、例えば候補領域間の距離の逆数を用いてもよい。
図3は、削除する候補領域の決定において先端の方向を考慮することの効果を説明するための図である。この例では、第1の候補領域40が第1の処置具30の先端を検出し、第2の候補領域42が第2の処置具32の先端を検出している。第1の処置具30の先端と第2の処置具32の先端が近接し、ひいては第1の候補領域40と第2の候補領域42が近接している場合、それらの類似度だけで削除するか否かを決定すると、第1の候補領域40と第2の候補領域42は別々の処置具の先端を検出している候補領域であるにもかかわらず、その一方の候補領域を削除すると決定する虞がある。つまり、第1の候補領域40と第2の候補領域42が同じ先端を検出しているものとして、その一方の候補領域を削除してしまうことになる。これに対し、本実施の形態の候補領域削除部124は類似度に加えて先端の方向を考慮して候補領域を削除するか否かを決定するため、第1の候補領域40と第2の候補領域42とが近接していて類似度が高くても、それらが検出している第1の処置具30の先端の方向D1と第2の処置具32の先端の方向D2とが異なっているため、いずれの候補領域も削除されず、したがって近接している第1の処置具30の先端と第2の処置具32の先端を検出できる。
図1に戻り、結果提示部133は、処置具の先端の検出結果を、例えばディスプレイに提示する。結果提示部133は、候補領域判別部122により処置具の先端が存在すると判別された候補領域であって候補領域削除部124に削除されずに残った候補領域を、処置具の先端を検出している候補領域として提示する。
続いて、画像処理装置100による各畳み込み演算で用いられる各重み係数を学習(最適化)する学習過程について説明する。
重み初期化部126は、学習の対象となる各重み係数であって、特徴マップ生成部112、第1変換部114、第2変換部116および第3変換部118による各処理で用いられる各重み係数を初期化する。具体的には重み初期化部126は、初期化には平均0、標準偏差wscale/√(ci×k×k)の正規乱数を用いる。wscaleはスケールパラメータであり、ciは畳み込み層の入力チャンネル数であり、kは畳み込みカーネルサイズである。また、重み係数の初期値として、本学習に用いる内視鏡画像DBとは別の大規模画像DBによって学習済みの重み係数を用いてもよい。これにより、学習に用いる内視鏡画像の数が少ない場合でも、重み係数を学習できる。
画像入力部110は、例えばユーザ端末または他の装置から、学習用の内視鏡画像の入力を受け付ける。正解入力部111は、ユーザ端末または他の装置から、学習用の内視鏡画像に対応する正解データを受け付ける。第1変換部114の処理による出力に対応する正解には、領域設定部113によって学習用の内視鏡画像上に設定される複数の初期領域のそれぞれの基準点(中心点)を、処置具の先端に一致させるための位置変動量、すなわち複数の初期領域のそれぞれをどのように動かせばより処理具の先端に近づくかを示す位置変動量を用いる。第2変換部116の処理による出力に対応する正解には、初期領域に処置具の先端が存在するか否かを示す2値を用いる。第3の変換に対応する正解には、初期領域に存在する処置具の先端の方向を示す単位方向ベクトルを用いる。
特徴マップ生成部112、第1変換部114、第2変換部116および第3変換部118による学習過程での処理は、適用過程での処理と同様である。
全体誤差算出部128は、第1変換部114、第2変換部116、第3変換部118の各出力と、それらに対応する各正解データに基づいて、処理全体の誤差を算出する。誤差伝播部130は、全体誤差に基づいて、特徴マップ生成部112、第1変換部114、第2変換部116および第3変換部118の各処理における誤差を算出する。
重み更新部132は、誤差伝播部130により算出された誤差に基づいて、特徴マップ生成部112、第1変換部114、第2変換部116および第3変換部118の各畳み込み演算において用いられる重み係数を更新する。なお、誤差に基づいて重み係数を更新する手法には、例えば確率的勾配降下法を用いてもよい。
続いて、以上のように構成された画像処理装置100の適用過程での動作を説明する。
画像処理装置100は、まず、受け付けた内視鏡画像に複数の初期領域を設定する。続いて画像処理装置100は、内視鏡画像に畳み込み演算を適用して特徴マップを生成し、特徴マップに第1の演算を適用して複数の候補領域に関する情報を生成し、特徴マップに第2の演算を適用して複数の初期領域のそれぞれに処置具の先端が存在する尤度を生成し、特徴マップに第3の演算を適用して複数の初期領域のそれぞれに存在する処置具の先端の方向に関する情報を生成する。そして、画像処理装置100は、各候補領域の統合スコアを算出し、統合スコアが所定の閾値以上である候補領域を、処置具の先端を検出している候補領域であると判別する。さらに、画像処理装置100は、判別された候補領域間の類似度を算出し、当該類似度に基づいて、同じ先端を検出している候補領域のうち尤度の低い候補領域を削除する。最後に画像処理装置100は、削除されずに残った候補領域を、処理具の先端を検出している候補領域として提示する。
以上説明した画像処理装置100によると、処置具の先端が存在している候補領域の判別、すなわち処置具の先端の検出に、先端の方向に関する情報が考慮される。これにより、処置具の先端をより高精度に検出できる。
以上、本発明を実施の形態をもとに説明した。この実施の形態は例示であり、それらの各構成要素や各処理プロセスの組合せにいろいろな変形例が可能なこと、またそうした変形例も本発明の範囲にあることは当業者に理解されるところである。
変形例として、画像処理装置100は、内視鏡画像上に例えば等間隔にあらかじめ決められた数の複数の点(以下、「初期点」と呼ぶ)を設定し、特徴マップに第1の変換を適用することで複数の初期点のそれぞれに対応する複数の候補点に関する情報(第1の出力)を生成し、第2の変換を適用することで初期点のそれぞれ又は複数の候補点のそれぞれの近傍(例えば各点から所定の範囲内)に処置具の先端が存在するか否かの尤度(第2の出力)を生成し、第3の変換を適用することで複数の初期点のそれぞれ又は複数の候補点のそれぞれの近傍に存在する処置具の先端の方向に関する情報(第3の出力)を生成してもよい。
実施の形態および変形例において、画像処理装置は、プロセッサーと、メモリー等のストレージを含んでもよい。ここでのプロセッサーは、例えば各部の機能が個別のハードウェアで実現されてもよいし、あるいは各部の機能が一体のハードウェアで実現されてもよい。例えば、プロセッサーはハードウェアを含み、そのハードウェアは、デジタル信号を処理する回路およびアナログ信号を処理する回路の少なくとも一方を含むことができる。例えば、プロセッサーは、回路基板に実装された1又は複数の回路装置(例えばIC等)や、1又は複数の回路素子(例えば抵抗、キャパシター等)で構成することができる。プロセッサーは、例えばCPU(Central Processing Unit)であってもよい。ただし、プロセッサーはCPUに限定されるものではなく、GPU(Graphics Processing Unit)、あるいはDSP(Digital Signal Processor)等、各種のプロセッサーを用いることが可能である。またプロセッサーはASIC(Application Specific Integrated Circuit)又はFPGA(Field-programmable Gate Array)によるハードウェア回路でもよい。またプロセッサーは、アナログ信号を処理するアンプ回路やフィルター回路等を含んでもよい。メモリーは、SRAM、DRAMなどの半導体メモリーであってもよいし、レジスターであってもよいし、ハードディスク装置等の磁気記憶装置であってもよいし、光学ディスク装置等の光学式記憶装置であってもよい。例えば、メモリーはコンピュータにより読み取り可能な命令を格納しており、当該命令がプロセッサーにより実行されることで、画像処理装置の各部の機能が実現されることになる。ここでの命令は、プログラムを構成する命令セットの命令でもよいし、プロセッサーのハードウェア回路に対して動作を指示する命令であってもよい。
また、実施の形態および変形例において、画像処理装置の各処理部は、例えば通信ネットワークのようなデジタルデータ通信の任意の型式または媒体によって接続されてもよい。通信ネットワークの例は、例えば、LANと、WANと、インターネットを形成するコンピュータおよびネットワークとを含む。
100 画像処理装置、 110 画像入力部、 112 特徴マップ生成部、 114 第1変換部、 116 第2変換部、 118 第3変換部。
本発明は、画像処理方法および画像処理装置に関する。

Claims (16)

  1. 画像から物体の先端を検出するための画像処理装置であって、
    画像の入力を受け付ける画像入力部と、
    前記画像に畳み込み演算を適用することにより特徴マップを生成する特徴マップ生成部と、
    前記特徴マップに第1の変換を適用することにより第1の出力を生成する第1変換部と、
    前記特徴マップに第2の変換を適用することにより第2の出力を生成する第2変換部と、
    前記特徴マップに第3の変換を適用することにより第3の出力を生成する第3変換部と、
    を備え、
    前記第1の出力は、前記画像上にあらかじめ決められた数の候補領域に関する情報を示し、
    前記第2の出力は、前記候補領域に前記物体の先端が存在するか否かの尤度を示し、
    前記第3の出力は、前記候補領域に存在する前記物体の先端の方向に関する情報を示すことを特徴とする画像処理装置。
  2. 画像から物体の先端を検出するための画像処理装置であって、
    画像の入力を受け付ける画像入力部と、
    前記画像に畳み込み演算を適用することにより特徴マップを生成する特徴マップ生成部と、
    前記特徴マップに第1の変換を適用することにより第1の出力を生成する第1変換部と、
    前記特徴マップに第2の変換を適用することにより第2の出力を生成する第2変換部と、
    前記特徴マップに第3の変換を適用することにより第3の出力を生成する第3変換部と、
    を備え、
    前記第1の出力は、前記画像上にあらかじめ決められた数の候補点に関する情報を示し、
    前記第2の出力は、前記候補点の近傍に前記物体の先端が存在するか否かの尤度を示し、
    前記第3の出力は、前記候補点の近傍に存在する前記物体の先端の方向に関する情報を示すことを特徴とする画像処理装置。
  3. 前記物体は内視鏡の処置具であることを特徴とする請求項1または2に記載の画像処理装置。
  4. 前記物体はロボットアームであることを特徴とする請求項1または2に記載の画像処理装置。
  5. 前記方向に関する情報には、前記物体の先端の方向と、当該方向の信頼度に関する情報が含まれることを特徴とする請求項1から4のいずれかに記載の画像処理装置。
  6. 前記第2の出力が示す尤度と前記方向の信頼度に基づいて、前記候補領域の統合スコアを算出する統合スコア算出部をさらに備えることを特徴とする請求項5に記載の画像処理装置。
  7. 前記方向に関する情報に含まれる方向の信頼度に関する情報は、前記物体の先端の方向を示す方向ベクトルの大きさであり、
    前記統合スコアは、前記尤度と前記方向ベクトルとの重み付け和であることを特徴とする請求項6に記載の画像処理装置。
  8. 前記統合スコアに基づいて、前記物体の先端が存在する候補領域を判別する候補領域判別部をさらに備えることを特徴とする請求項6または7に記載の画像処理装置。
  9. 前記候補領域に関する情報には、対応する初期領域の基準点を前記物体の先端に近づけるための位置変動量が含まれることを特徴とする請求項1に記載の画像処理装置。
  10. 前記候補領域のうちの第1の候補領域と第2の候補領域の類似度を算出し、当該類似度と前記第1の候補領域と前記第2の候補領域に対応する前記方向に関する情報に基づいて、前記第1の候補領域および前記第2の候補領域のいずれか一方を削除するか否かを決定する候補領域削除部をさらに含むことを特徴とする請求項1に記載の画像処理装置。
  11. 前記類似度は、前記第1の候補領域と前記第2の候補領域との距離の逆数であることを特徴とする請求項10に記載の画像処理装置。
  12. 前記類似度は、前記第1の候補領域と前記第2の候補領域との重複度であることを特徴とする請求項10に記載の画像処理装置。
  13. 前記第1変換部、第2変換部および第3変換部はそれぞれ、前記特徴マップに畳み込み演算を適用することを特徴とする請求項1から12のいずれかに記載の画像処理装置。
  14. 前記第1変換部、第2変換部および第3変換部の出力とあらかじめ用意した正解とから処理全体の誤差を算出する全体誤差算出部と、
    前記処理全体の誤差に基づいて、前記特徴マップ生成部、前記第1変換部、前記第2変換部および前記第3変換部の各処理における誤差を算出する誤差伝播と、
    前記各処理における誤差に基づいて、前記各処理における畳み込み演算で用いる重み係数を更新する重み更新部と、をさらに備えることを特徴とする請求項13に記載の画像処理装置。
  15. 画像から物体の先端を検出するための画像処理方法であって、
    画像の入力を受け付ける画像入力ステップと、
    前記画像に畳み込み演算を適用することにより特徴マップを生成する特徴マップ生成ステップと、
    前記特徴マップに第1の変換を適用することにより第1の出力を生成する第1変換ステップと、
    前記特徴マップに第2の変換を適用することにより第2の出力を生成する第2変換ステップと、
    前記特徴マップに第3の変換を適用することにより第3の出力を生成する第3変換ステップと、
    を含み、
    前記第1の出力は、前記画像上にあらかじめ決められた数の候補領域に関する情報を示し、
    前記第2の出力は、前記候補領域に前記物体の先端が存在するか否かの尤度を示し、
    前記第3の出力は、前記候補領域に存在する前記物体の先端の方向に関する情報を示すことを特徴とする画像処理方法。
  16. 画像から物体の先端を検出するための画像処理装置に、
    画像の入力を受け付ける機能と、
    前記画像に畳み込み演算を適用することにより特徴マップを生成する機能と、
    前記特徴マップに第1の変換を適用することにより第1の出力を生成する機能と、
    前記特徴マップに第2の変換を適用することにより第2の出力を生成する機能と、
    前記特徴マップに第3の変換を適用することにより第3の出力を生成する機能と、
    を実行させ、
    前記第1の出力は、前記画像上にあらかじめ決められた数の候補領域に関する情報を示し、
    前記第2の出力は、前記候補領域に前記物体の先端が存在するか否かの尤度を示し、
    前記第3の出力は、前記候補領域に存在する前記物体の先端の方向に関する情報を示すことを特徴とするコンピュータプログラム。
JP2020535471A 2018-08-10 2018-08-10 画像処理方法および画像処理装置 Active JP6986160B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2018/030119 WO2020031380A1 (ja) 2018-08-10 2018-08-10 画像処理方法および画像処理装置

Publications (2)

Publication Number Publication Date
JPWO2020031380A1 JPWO2020031380A1 (ja) 2021-03-18
JP6986160B2 true JP6986160B2 (ja) 2021-12-22

Family

ID=69413435

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020535471A Active JP6986160B2 (ja) 2018-08-10 2018-08-10 画像処理方法および画像処理装置

Country Status (4)

Country Link
US (1) US20210142512A1 (ja)
JP (1) JP6986160B2 (ja)
CN (1) CN112513935A (ja)
WO (1) WO2020031380A1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019123544A1 (ja) 2017-12-19 2019-06-27 オリンパス株式会社 データ処理方法およびデータ処理装置
JP7490359B2 (ja) * 2019-12-24 2024-05-27 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04158482A (ja) * 1990-10-23 1992-06-01 Ricoh Co Ltd 矢印方向検出装置
JP3111433B2 (ja) * 1992-03-31 2000-11-20 オムロン株式会社 画像処理装置
JP2004038530A (ja) * 2002-07-03 2004-02-05 Ricoh Co Ltd 画像処理方法、同方法の実行に用いるプログラム及び画像処理装置
JP5401344B2 (ja) * 2010-01-28 2014-01-29 日立オートモティブシステムズ株式会社 車両用外界認識装置
WO2011102012A1 (ja) * 2010-02-22 2011-08-25 オリンパスメディカルシステムズ株式会社 医療機器
CN106127796B (zh) * 2012-03-07 2019-03-26 奥林巴斯株式会社 图像处理装置和图像处理方法
JP5980555B2 (ja) * 2012-04-23 2016-08-31 オリンパス株式会社 画像処理装置、画像処理装置の作動方法、及び画像処理プログラム
CN104239852B (zh) * 2014-08-25 2017-08-22 中国人民解放军第二炮兵工程大学 一种基于运动平台的红外行人检测方法
JP6509025B2 (ja) * 2015-05-11 2019-05-08 株式会社日立製作所 画像処理装置、及びその方法
JP2017164007A (ja) * 2016-03-14 2017-09-21 ソニー株式会社 医療用画像処理装置、医療用画像処理方法、プログラム
CN106709498A (zh) * 2016-11-15 2017-05-24 成都赫尔墨斯科技有限公司 一种无人机拦截系统
CN108121986B (zh) * 2017-12-29 2019-12-17 深圳云天励飞技术有限公司 目标检测方法及装置、计算机装置和计算机可读存储介质

Also Published As

Publication number Publication date
US20210142512A1 (en) 2021-05-13
JPWO2020031380A1 (ja) 2021-03-18
WO2020031380A1 (ja) 2020-02-13
CN112513935A (zh) 2021-03-16

Similar Documents

Publication Publication Date Title
US11017210B2 (en) Image processing apparatus and method
CN110148157B (zh) 画面目标跟踪方法、装置、存储介质及电子设备
US20210158495A1 (en) Image manipulation using deep learning techniques in a patch matching operation
JP6986160B2 (ja) 画像処理方法および画像処理装置
JP2019046334A (ja) 分類モデル生成装置、画像データ分類装置およびそれらのプログラム
JP2020098588A (ja) ノイズ先行物を用いる曲線オブジェクトセグメンテーション
JP2020047010A (ja) 情報推定装置及び情報推定方法
WO2020202734A1 (ja) ペン状態検出回路、システム及び方法
JP2020098589A (ja) 幾何学的先行物を用いる曲線オブジェクトセグメンテーション
WO2022267387A1 (zh) 图像识别方法、装置、电子设备和存储介质
US11393069B2 (en) Image processing apparatus, image processing method, and computer readable recording medium
WO2022181253A1 (ja) 関節点検出装置、学習モデル生成装置、関節点検出方法、学習モデル生成方法、及びコンピュータ読み取り可能な記録媒体
WO2022181252A1 (ja) 関節点検出装置、学習モデル生成装置、関節点検出方法、学習モデル生成方法、及びコンピュータ読み取り可能な記録媒体
WO2022181251A1 (ja) 関節点検出装置、関節点検出方法、及びコンピュータ読み取り可能な記録媒体
JP6954346B2 (ja) パラメータ推定装置、パラメータ推定方法、及びプログラム
CN111353597A (zh) 一种目标检测神经网络训练方法和装置
CN115439894B (zh) 训练指纹配对模型的方法、电子设备、程序产品及介质
CN112560709B (zh) 一种基于辅助学习的瞳孔检测方法及系统
US20220300818A1 (en) Structure optimization apparatus, structure optimization method, and computer-readable recording medium
KR20190134865A (ko) 학습을 이용한 얼굴 특징점 검출 방법 및 장치
JP7276978B2 (ja) 画像処理装置、画像処理方法、及びプログラム
WO2024047758A1 (ja) 訓練データ分布推定プログラム、装置、及び方法
WO2022190301A1 (ja) 学習装置、学習方法、及びコンピュータ可読媒体
JP7036208B2 (ja) 物体検出方法および物体検出装置
JP2018092273A (ja) 姿勢推定方法、姿勢推定プログラム及び姿勢推定装置

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200928

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200928

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20211109

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20211126

R151 Written notification of patent or utility model registration

Ref document number: 6986160

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151