JP2015156937A - 画像処理装置、画像処理方法、並びにプログラム - Google Patents

画像処理装置、画像処理方法、並びにプログラム Download PDF

Info

Publication number
JP2015156937A
JP2015156937A JP2014032808A JP2014032808A JP2015156937A JP 2015156937 A JP2015156937 A JP 2015156937A JP 2014032808 A JP2014032808 A JP 2014032808A JP 2014032808 A JP2014032808 A JP 2014032808A JP 2015156937 A JP2015156937 A JP 2015156937A
Authority
JP
Japan
Prior art keywords
shape
region
image processing
boundary
boundary point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2014032808A
Other languages
English (en)
Inventor
一木 洋
Hiroshi Ichiki
洋 一木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2014032808A priority Critical patent/JP2015156937A/ja
Priority to CN201510083936.XA priority patent/CN104867127A/zh
Priority to US14/625,090 priority patent/US10058237B2/en
Publication of JP2015156937A publication Critical patent/JP2015156937A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00009Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
    • A61B1/000095Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope for image enhancement
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10068Endoscopic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/03Recognition of patterns in medical or anatomical images

Abstract

【課題】マスク形状を正確に検出できるようにする。
【解決手段】観察対象となる被写体を含む第1の領域と被写体を含まない第2の領域の境界点を検出するエッジ検出部と、境界点に基づいて、第1の領域と第2の領域の境界の形状として第1の形状を推定する第1の推定部と、境界点および推定された第1の形状に基づいて、第1の領域と第2の領域の境界の形状として第2の形状を推定する第2の推定部とを備える。観察対象となる被写体は、内視鏡装置により撮影された生体である。本技術は、内視鏡装置により撮像された画像を処理する画像処理装置に適用できる。
【選択図】図1

Description

本技術は、画像処理装置、画像処理方法、並びにプログラムに関する。詳しくは、内視鏡のマスクを正確に検出することができる画像処理装置、画像処理方法、並びにプログラムに関する。
患者等の被験者の体内に入れ、体内を観察する医療用装置として内視鏡がある。内視鏡の画像は、矩形の画面に対して、円形の枠内に表示される。このような場合、鏡胴が影になって見えている鏡胴部分と画像部分を正確に検出する必要がある。
内視鏡の画像として利用者に提供する部分と、提供しない部分とを分けるためにマスクが用いられることがある。(特許文献1参照)
特開2013−207682号公報
内視鏡のマスクの位置は頻繁に移動する可能性があるため、移動したときなどには、マスクの検出が行われ、補正されることが望まれている。
本技術は、このような状況に鑑みてなされたものであり、マスクの検出を正確に行えるようにすることができるようにするものである。
本技術の一側面の第1の画像処理装置は、観察対象となる被写体を含む第1の領域と前記被写体を含まない第2の領域の境界点を検出するエッジ検出部と、前記境界点に基づいて、前記第1の領域と前記第2の領域の境界の形状として第1の形状を推定する第1の推定部と、前記境界点および推定された前記第1の形状に基づいて、前記第1の領域と前記第2の領域の境界の形状として第2の形状を推定する第2の推定部とを備える。
前記観察対象となる被写体は、内視鏡装置により撮影された生体であるようにすることができる。
前記第1の推定部は、前記第1の形状を円形状として推定し、前記第2の推定部は、前記第2の形状を楕円形状として推定するようにすることができる。
前記境界点のうち、前記第1の形状内に位置する前記境界点を削除するエッジ削除部をさらに備えるようにすることができる。
前記エッジ検出部は、画素の輝度値に基づいて前記境界点を検出するようにすることができる。
前記エッジ検出部は、所定の画素数だけ間隔を有する状態で配置された2つの矩形からなるフィルタを用いて前記境界点の検出を行うようにすることができる。
前記エッジ検出部は、前記輝度値の標準偏差に基づいて、前記境界点を検出するようにすることができる。
予め求められている前記輝度値と前記標準偏差との関係式から、前記標準偏差は算出されるようにすることができる。
前記エッジ検出部を含む第1の演算部と、前記第1の推定部と前記第2の推定部を含む第2の演算部のうちの一方は、CPU(Central Processing Unit)で構成され、他方は、GPU(Graphics Processing Unit)で構成されるようにすることができる。
本技術の一側面の第2の画像処理装置は、観察対象となる被写体を含む第1の領域と前記被写体を含まない第2の領域の境界点を検出するエッジ検出部と、所定の参照形状に基づいて、前記境界点に対して重みを設定する第1の推定部と、前記重みが設定された前記境界点に基づいて、前記第1の領域と前記第2の領域の境界の形状を推定する第2の推定部とを備える。
前記観察対象となる被写体は、内視鏡装置により撮影された生体である。
前記所定の参照形状は、円形状であるようにすることができる。
前記所定の参照形状は、前記内視鏡装置の情報に基づいて設定されるようにすることができる。
前記第2の推定部は、前記第1の領域と前記第2の領域の境界の形状を楕円形状として推定するようにすることができる。
本技術の一側面の第1の画像処理方法は、観察対象となる被写体を含む第1の領域と前記被写体を含まない第2の領域の境界点を検出し、検出された前記境界点に基づいて、前記第1の領域と前記第2の領域の境界の形状として第1の形状を推定し、推定された前記第1の形状および前記境界点に基づいて、前記第1の領域と前記第2の領域の境界の形状として第2の形状を推定する。
本技術の一側面の第2の画像処理方法は、観察対象となる被写体を含む第1の領域と前記被写体を含まない第2の領域の境界点を検出し、所定の参照形状に基づいて、検出された前記境界点に対して重みを設定し、重みが設定された前記境界点に基づいて、前記第1の領域と前記第2の領域の境界の形状を推定する。
本技術の一側面のプログラムは、観察対象となる被写体を含む第1の領域と前記被写体を含まない第2の領域の境界の境界点を検出し、検出された前記境界点に基づいて、前記第1の領域と前記第2の領域の境界の形状として第1の形状を推定し、推定された前記第1の形状および前記境界点に基づいて、前記第1の領域と前記第2の領域の境界の形状として第2の形状を推定する処理をコンピュータに実行させる。
本技術の一側面の第1の画像処理装置、画像処理方法、並びプログラムにおいては、観察対象となる被写体を含む第1の領域と被写体を含まない第2の領域の境界点が検出され、検出された境界点に基づいて、第1の領域と第2の領域の境界の形状として第1の形状が推定され、推定された第1の形状および境界点に基づいて、第1の領域と第2の領域の境界の形状として第2の形状が推定される。
本技術の一側面の第2の画像処理装置、画像処理方法、並びプログラムは、観察対象となる被写体を含む第1の領域と被写体を含まない第2の領域の境界点が検出され、所定の参照形状に基づいて、検出された境界点に対して重みが設定され、重みが設定された境界点に基づいて、第1の領域と第2の領域の境界の形状が推定される。
本技術の一側面の画像処理装置、画像処理方法、並びにプログラムにおいては、撮影された画像を利用者に提供する第1の領域と提供しない第2の領域の境界の境界点が検出され、検出された境界点から、第1の形状が推定され、検出された境界点から、第2の形状が推定される。そして第1の形状の推定と第2の形状の推定の2度の推定により、第1の領域と第2の領域の境界の形状が検出される。
本技術の一側面によれば、マスクの検出を正確に行えるようになる。
なお、ここに記載された効果は必ずしも限定されるものではなく、本開示中に記載されたいずれかの効果であってもよい。
本技術を適用した画像処理装置の一実施の形態の構成を示す図である。 エッジについて説明するための図である。 画像処理装置の動作について説明するためのフローチャートである。 エッジの検出について説明するための図である。 エッジの検出について説明するための図である。 エッジの検出について説明するための図である。 エッジの検出について説明するための図である。 エッジについて説明するための図である。 本技術を適用した画像処理装置の他の実施の形態の構成を示す図である。 画像処理装置の動作について説明するためのフローチャートである。 重み付けについて説明するための図である。 記録媒体について説明するための図である。
以下に、本技術を実施するための形態(以下、実施の形態という)について説明する。なお、説明は、以下の順序で行う。
1.第1の実施の形態における画像処理装置の構成
2.第1の実施の形態における画像処理装置の動作
3.第2の実施の形態における画像処理装置の構成
4.第2の実施の形態における画像処理装置の動作
5.記録媒体について
<第1の実施の形態における画像処理装置の構成>
以下に説明する画像処理装置は、例えば、内視鏡などから得られる画像を処理する画像処理装置である。以下に説明する本技術は、内視鏡から得られる画像を処理する装置に以外にも適用でき、画像を取得し、その画像からマスクを検出する装置に広く適用できる。ここでは、内視鏡から得られる画像を処理する画像処理装置を例に挙げて説明する。
図1は、第1の実施の形態における画像処理装置の構成について説明するための図である。図1に示した画像処理装置100は、図示していない医療機器としての内視鏡装置からの画像データを取得し、処理し、処理した画像をモニタなどの表示部101に出力する。
画像処理装置100は、画像取得部111、第1演算部112、および第2演算部113を備える。第1演算部112は、輝度画像変換部121、エッジ検出部122、および転送部123を備える。第2演算部113は、円推定部131、エッジ削除部132、および楕円推定部133を備える。
画像処理装置100の画像取得部111は、図示していない内視鏡装置からの画像を取得する。内視鏡装置は、体腔内に侵入され、体内を撮像する体内撮像装置を形成する内視鏡、この内視鏡に照明光を供給する光源装置、内視鏡の撮像手段、例えばCCD(Charge Coupled Device)、その撮像手段に対する信号処理を行うカメラコントロールユニットなどから構成され、このカメラコントロールユニットから出力された画像データを、画像取得部111は取得する。
画像取得部111で取得された画像データは、第1演算部112に供給される。第1演算部112の輝度画像変換部121は、取得された画像データを輝度画像の画像データに変換し、エッジ検出部122に供給する。
エッジ検出部122は、供給された画像データに基づく輝度画像を用いて、エッジ部分を検出する。図2を参照し、エッジ(マスク形状)につて説明する。図2は、表示部101に表示される画像例を示している。画面中央部分は、楕円形状の有効領域151とされ、ユーザに内視鏡装置で撮像された画像を提供する領域とされている。
画像の有効領域151の周りは、マスク領域152とされ、例えば、図2に示したように黒く塗られた領域とされる。エッジは、画像の有効領域151とマスク領域152の境目であり、そのような境目をエッジ検出部122は検出する。本技術においては、後述するように、エッジ検出部122でのエッジの検出後に、補正することで正確なエッジ(マスクの検出)が行われる。
内視鏡で得られる画像は、画像の左右上下方向には、生体内映像が映らない領域がある。これは、内視鏡でケラレが発生し、撮像手段に光が入ってこない領域があるからである。この生体内映像が映らない領域がマスク領域152に該当し、生体内映像が映る領域が、有効領域151に該当する。
内視鏡が動くことにより、ケラレの発生状況が変化する可能性があり、ケラレの発生状況が変化することで、マスク領域152も変化する可能性がある。よって、マスク領域152の変化をとらえ、適切に対応する必要がある。換言すれば、マスクを適切に検出する必要があり、以下に説明する本技術では、エッジ検出部122のエッジの検出後に、補正することで正確なエッジ(マスクの検出)が行われる。
図1に示した画像処理装置100の説明に戻り、転送部123は、エッジ検出部122により検出されたエッジ情報を、第2演算部113に転送する。
第2演算部113の円推定部131は、マスクの形状(エッジの形状)を円形状として推定する。エッジ削除部132は、円推定部131で推定された円内に、エッジ検出部122により検出されたエッジがある場合、そのエッジを削除する。
楕円推定部133は、エッジ削除部132で削除されず、残ったエッジ情報を用いて、マスクの形状を楕円形状であるとして推定することで、マスクを検出する。
このように、本技術においては、第2演算部113の円推定部131と楕円推定部133で、2度の推定を行うことで、マスクの検出を行う。楕円推定部133による推定結果は、検出されたマスクの形状として、後段の表示部101に出力される。
なお、ここでは、円推定を行った後、楕円推定を行う実施の形態を例に挙げて説明を続けるが、この推定の順序に本技術の適用範囲が限定されるわけではない。
図2に示したように、表示部101に表示されるマスク領域152(有効領域151)が、楕円形状の場合、円推定が行われた後、楕円推定が行われる。または、楕円推定が行われた後、楕円推定が行われるようにすることも可能である。
また、表示部101に表示されるマスク領域152(有効領域151)が、円形状(不図示)の場合、円推定が行われた後、円推定が行われるように構成することも可能である。または、楕円推定が行われた後、円推定が行われるようにすることも可能である。
図1に示した画像処理装置100において、第1演算部112と第2演算部113は、CPU(Central Processing Unit)やGPU(Graphics Processing Unit)でそれぞれ構成できる。第1演算部112と第2演算部113は、それぞれ異なる演算部として画像処理装置100に備えられていても良いし、1つの演算部として備えられていても良い。
また、第1演算部112と第2演算部113は、同一の画像処理装置100に搭載されていても良いし、異なる装置にそれぞれ搭載され、後述するエッジ情報の授受を接続されているケーブルなどを介して行うようにしても良い。
具体的には、例えば、第1演算部112は、内視鏡装置からの画像を輝度変換し、エッジを検出するため、GPUで構成されるようにし、第2演算部112は、GPUで検出されたエッジを用いてマスクを検出するため、CPUで構成されるようにすることができる。
<第1の実施の形態における画像処理装置の動作>
図3のフローチャートを参照し、図1に示した画像処理装置100の動作について説明する。
ステップS101において、画像処理装置100の画像取得部111は、内視鏡装置(不図示)から、画像データを取得する。
ステップS102において、第1演算部112の輝度画像変換部121は、画像取得部111で取得された画像データに基づく画像を、輝度画像に変換し、その画像データを、エッジ検出部122に供給する。
エッジ検出部122は、図4、図5を参照して説明するように、輝度画像から、有効領域151とマスク領域152(図2)の境界部分となるエッジを検出する。
ここで、エッジ検出部122が行うエッジの検出について、図4と図5を参照して説明する。
図4に、表示部101で表示される画面の一例を示した。図4に示した画面例は、基本的に図2に示した画面例と同様であるが、説明の都合上、マスク領域152を白色で示し、有効領域151を灰色で示している。エッジ検出部122は、輝度画像の左上から右方向にスキャンを行う。また一方で、右上から左方向にスキャンを行う。
すなわち、エッジ検出部122は、左右方向から、それぞれスキャンを行う。左方向からのスキャンと、右方向からのスキャンは、それぞれ同様に行われるため、ここでは、左方向からのスキャンを例に挙げて説明を続ける。
スキャンは、一番上のラインから開始されても良いが、一番上のラインから所定のライン数だけ下側に位置するラインから開始されるようにしても良い。また、スキャンは、一番左に位置する画素から開始されても良いが、一番左に位置する画素から所定の画素数だけ右側に位置する画素から開始されるようにしても良い。ここでは、図4に示した画素Sからスキャンが開始されるとして説明を続ける。
画素Sから右方向にスキャンが開始され、所定の画素数だけスキャンが終わった時点で、次のラインにスキャン対象が移動される。または、画素Sから右方向にスキャンが開始され、エッジが検出された時点で、次のラインにスキャン対象が移動される。
このように、1ラインにつき、所定の範囲内をスキャンした時点で、そのラインのスキャンを終了するようにしても良いし、エッジが検出された時点でそのラインのスキャンを終了するようにしても良い。換言すれば、スキャンする範囲は、固定された範囲でも良いし、可変的な範囲でも良い。
スキャンは、画素Eが位置するラインまで行われる。画素Eは、一番下に位置するラインから、所定のライン数だけ上側に位置するライン上の画素であり、左側からの位置が、画素Sと同じ位置にある画素である。
画素Sからスキャンが開始され、画素Eからのスキャンが終了した時点で、エッジ検出に関わるスキャンは終了されるが、画素Sが位置するラインから、画素Eが位置するラインの間に位置する全てのラインをスキャンの対象としても良いし、所定のライン数の間隔を開けたラインをスキャンの対象としても良い。
スキャンは、所定のフィルタ171を用いて行われる。図5は、フィルタ171について説明するための図であり、図4に示した画面内の領域172を拡大した図である。図5においては、マスク領域152を黒色で表し、有効領域151を灰色で表している。
フィルタ171は、四角形状のフィルタ181−1とフィルタ181−2から構成されている。以下の説明において、フィルタ181−1とフィルタ181−2を、個々に区別する必要がない場合、単に、フィルタ181と記述する。他の部分も同様に記述する。
フィルタ181は、四角形状であり、横方向の長辺の長さが幅W、縦方向の短辺の長さが高さHとなる大きさの四角形状である。フィルタ181内の画素数、換言すれば、幅W×高さHの大きさは、20以上とされる。
フィルタ181−1とフィルタ181−2との間は、所定の画素数分だけ離されている。ここでは、フィルタ181−1とフィルタ181−2との間隔をギャップGとする。
このように、フィルタ181−1とフィルタ181−2とがあり、フィルタ181−1とフィルタ181−2とがギャップGだけ離れた位置に位置するフィルタ171が、左方向から右方向へと移動されることでスキャンが行われる。
またスキャンは、フィルタ181−1内の平均輝度値とフィルタ181−2内の平均輝度値がそれぞれ算出され、その平均輝度値の差分に基づき、エッジが検出される。例えば、フィルタ181−1とフィルタ181−2が共に、マスク領域152内にある場合、フィルタ181−1とフィルタ181−2内の平均輝度値は共に低く、またフィルタ181−1とフィルタ181−2内の平均輝度値の差分も小さいと考えられる。
一方で、フィルタ181−1がマスク領域152内にあり、フィルタ181−2が有効領域151内にある場合、フィルタ181−1内の平均輝度値は低いが、フィルタ181−2内の平均輝度値は高くなり(少なくともフィルタ181−1内の平均輝度値よりは高くなり)、フィルタ181−1とフィルタ181−2内の平均輝度値の差分は大きくなると考えられる。
フィルタ181−1がマスク領域152内にあり、フィルタ181−2が有効領域151内にある場合の輝度値の例を図6に示す。
図6に示したグラフの横軸は、画素の位置を表し、縦軸は、画素の輝度値を表す。また図6に示したグラフは、エッジがある部分の7箇所で測定した結果を示している。画素の位置が43(以下、位置43と記述する)より前の位置にある画素の輝度は低く、10以下であるのに対して、画素の位置が62(以下、位置62と記述する)より後の位置にある画素の輝度は高く、60以上ある。画素の位置が位置43から位置62の間にエッジが存在し、この前後で輝度値が変化している。
フィルタ181−1がマスク領域152内にある場合、画素の位置43より前の位置に位置するため、フィルタ181−1内の輝度値の平均値は小さい値、この場合、10以下の値となる。
一方で、フィルタ181−2が有効領域151内にある場合、画素の位置62より後ろの位置に位置するため、フィルタ181−2内の輝度値の平均値は大きい値、この場合、60以上の値となる。
このように、フィルタ181がマスク領域152内に位置するか否かにより、フィルタ181内の平均輝度値に差が生じる。この差を利用し、エッジが検出される。図6に示したような状況の場合、画素の位置が位置43から位置62内にエッジがあり、この部分にフィルタ171のギャップGが位置すると、エッジが検出される。
図5に示したフィルタ171が、フィルタ181−1とフィルタ181−2から構成され、その間にギャップGが設けられているのは、フィルタ181−1がマスク領域152内にあり、フィルタ181−2が有効領域151内にあるときであり、ギャップG内にエッジがあるときを検出するためである。
このように、フィルタ181−1内とフィルタ181−2内の平均輝度値をそれぞれ算出し、その平均輝度値の差が所定の値以上である場合、ギャップG内にエッジがあると検出される。
このように、平均輝度値の差が所定の値以上である位置を検出することで、エッジの位置を検出するようにしても良いが、さらに、標準偏差を求め、その標準偏差も用いて、エッジの位置が検出されるようにしても良い。
ここでは、分離度が高い点をマスクのエッジとする場合を例に挙げて説明する。分離度は、平均輝度値の差分を標準偏差で除算した値とする。
分離度=(平均輝度値の差分)/標準偏差
この分離度が高い点をマスクのエッジであるとする。具体的には、標準偏差の1.5倍程度を閾値とし、分離度が、その閾値以上である場合に、エッジが検出されたとすることができる。
ところで、標準偏差を用いるようにした場合、実測した輝度値から標準偏差を算出する必要があるが、演算量が増える。そのため、リアルタイム性を重視した場合、実測された輝度値から、その都度標準偏差を算出するのではなく、以下のように、予め算出されている標準偏差を用いて分離度が算出されるようにしても良い。
図7に示したグラフは、平均輝度値と標準偏差との関係を示すグラフであり、横軸が平均輝度値であり、縦軸が標準偏差である。図7に示した点は、実測された値をプロットした点である。四角の点は、有効領域151内に位置する画素から得られた値をプロットした点であり、菱形の点は、マスク領域152内から得られた値をプロットした点である。
これらの点の分布から、例えば、最小二乗法などにより1次式を求められることで、平均輝度値と標準偏差の関係式が求められる。図7に点線で示した直線が、求められた関係式である。図7に示した関係式から、分離度を求めるときの標準偏差が求められる。例えば、平均輝度値が6.0の場合、標準偏差として0.7が用いられ、分離度が算出される。
このような関係式が、エッジ検出部122に記憶され、平均輝度値が算出されたときに、その記憶されている関係式に平均輝度値が代入されることで、標準偏差が求められる。または、平均輝度値と標準偏差を関連付けたテーブルが、エッジ検出部122に記憶され、平均輝度値が算出されたときに、その記憶されているテーブルが参照され、標準偏差が読み出されるようにしても良い。
このような関係式は、画像処理装置100毎に共通して用いられる式としても良いが、内視鏡装置の個体差などを考慮し、内視鏡装置毎に求められるのが好ましい。例えば、内視鏡装置と画像処理装置100が接続されたときに、テストパターンなどを内視鏡装置で撮影し、そのときの画像から、実測値を得て、関係式が求められるように構成しても良い。
また、使用環境などにより、関係式が変わる可能性がある場合、画像処理装置100による処理が開始されるときの初期設定として、関係式を求める処理が実行されるようにしても良い。
このように、平均輝度値と標準偏差の関係を予め設定しておくことで、エッジ検出時に必要とされる演算量を低減させることができ、リアルタイムに処理することが可能となる。
また実測した値を用いて標準偏差を求め、分離度を求める場合に比べて、誤って検出されるエッジの数を減らすことができる。
実測により標準偏差を求めると、図7のグラフにおいて、点で示したように、標準偏差がばらつくことがわかる。このように標準偏差がばらつくことが一因となり、実測により標準偏差を求めると、エッジの誤検出が増える可能性がある。しかしながら、上記したように、平均輝度値と標準偏差の関係を予め設定しておくことで、標準偏差のばらつきを吸収し、エッジの誤検出を低減させることができる。
このように、フィルタ171を用いたスキャンを、輝度画像に対して行うことで、エッジが検出される。以下の説明においては、適宜、所定のライン上から検出されたエッジをエッジ点と記述し、エッジは、エッジ点の集まりであるとする。またエッジ点は、1ラインから検出された点であり、エッジとして検出された点の座標を含む記述であるとする。
またエッジ点は、内視鏡装置からの画像のうち、利用者に提供する画像を表示する領域(図2における有効領域151)と、利用者に画像を提供しない領域(図2におけるマスク領域152)との境界に存在する点であり、境界点と称することもできる点である。
エッジ検出部122(図1)により検出されたエッジ点は、所定の配列に収められ、転送部123により第2演算部113に転送される(図3のステップS104)。
ステップS105において、円推定部131は、マスク形状として円を推定する。マスク形状とは、図8に示した画面例において、有効領域151’とマスク領域152’との境界の形状であるとする。図8に示した画面例では、マスク形状が円である場合を示している。
円の推定は、マスクの形状が、円であるという前提のもと、エッジ検出部122で検出されたエッジ情報から円形状を推定する。換言すれば、エッジ情報から、円の中心点(中心座標)と半径といった、円を特定するためのパラメータが推定される。
図8に示した画面例においては、中心点を点Pとして図示し、半径を半径Rとして図示してある。円推定部131は、この点Pの座標と半径Rを、エッジ情報から算出する。この推定は、例えば、エッジ情報(エッジ点の座標の情報)を用いた最小自乗法により行われる。
ステップS106において、エッジ削除部132は、エッジ検出部122で検出されたエッジ点のうち、円推定部131で推定された円内に位置するエッジ点を削除する。
円推定部131による推定が行われるときに用いられるエッジ情報を、第1のエッジ情報とした場合、エッジ削除部132は、この第1のエッジ情報から、推定された円内に位置するエッジ点の情報を除き、第2のエッジ情報を生成する。
ステップS107において、楕円推定部133は、マスク形状として楕円を推定する。楕円の推定は、マスクの形状が、楕円であるという前提のもと、エッジ削除部132で生成された第2のエッジ情報から楕円形状を推定する。換言すれば、第2のエッジ情報から、楕円の中心点(中心座標)、長軸の長さ(長径)、短軸の長さ(短径)といった楕円を特定するためのパラメータが推定される。
図2に示したように、マスク形状が、楕円形状であるとして、第2のエッジ情報を用いた、例えば、最小自乗法によりマスク形状が推定される。この推定結果は、マスク形状として、表示部101に出力される(ステップS108の処理)。
このように、本実施の形態においては、マスクの形状が、2度の推定により決定される。また2度の推定は、マスク形状を、円や楕円といった異なる形状であると推定して行われる。このような2度の推定を行うことでマスク形状を決定することで、マスク形状の検出精度を向上させることができる。
これは、1度目の推定で、誤検出された可能性の高いエッジ点を除去することで、正しく検出された可能性の高いエッジ点を残し、そのようなエッジ点から、2度目の推定を行うからである。
また、エッジの検出も、図4や図5を参照して説明したように、矩形のフィルタを用いて行ったり、平均輝度値と標準偏差の関係を用いたりすることで、1度目の推定で用いられる第1のエッジ情報の精度自体を向上させることができる。よって、最終的に得られるマスク形状の検出の精度も向上したものとなる。
また、マスクの検出は、従来ではハフ変換を用いて行われることが多いが、ハフ変換は、リアルタイム性に欠け、内視鏡画像などのリアルタイム性を必要とする画像処理には不向きであった。
これに対して、上記した第1の実施の形態においては、比較的演算量が少ない最小自乗法などを用いることで、計算量を低減させることができるため、マスク検出に係る時間を短縮することができる。また、エッジ検出部122でのエッジ検出の際、平均輝度値と標準偏差の関係を予め求めておき、その関係を用いることで、さらなる処理時間の短縮を実現することが可能となる。
このように、本技術によれば、マスクの検出をより精度良く行うことができ、その検出に係る時間を短縮することができる。
なおここでは、円推定部131により円推定が行われた後、楕円推定部133により楕円推定が行われるとして説明したが、円推定と楕円推定の組み合わせに本技術の適用が限定されるわけではない。
表示部101に提供するマスク形状が、楕円形状である場合、2度目の推定は楕円推定になるが、円形状である場合、円推定とするのが好ましい。また、1度目の推定は、円推定であっても、楕円推定であっても、どちらでも本技術を適用することは可能である。
またここでは、円や楕円を例に挙げて説明しているが、四角形状などの他の形状を用いた推定が、1度目の推定や、2度目の推定のどちらか一方、または両方で行われるように構成することも可能である。
またここでは、2度の推定を行うとしたが、2度以上の推定が行われるようにしても良い。ただし、推定回数が増えると、その分、演算回数も増え、マスクの検出に係る時間が長くなる可能性があるため、マスクの検出に係る時間を短縮し、かつ検出精度を向上できる推定回数に設定されるのが好ましい。
<第2の実施の形態における画像処理装置の構成>
図9に第2の実施の形態における画像処理装置の構成を示す。図9に示した画像処理装置200は、図1に示した第1の実施の形態における画像処理装置100と同じく、図示していない医療機器としての内視鏡装置からの画像データを取得し、処理し、処理した画像をモニタなどの表示部101に出力する。
図9に示した画像処理装置200と図1に示した画像処理装置100とで、同一の箇所には同一の符号を付し、適宜その説明は省略する。
画像処理装置200は、画像取得部111、第1演算部112、および第2演算部201を備える。第1演算部112は、輝度画像変換部121、エッジ検出部122、および転送部123を備える。第2演算部201は、重み設定部211、楕円推定部212を備える。
図9に示した画像処理装置200は、図1に示した画像処理装置100と比べて、第2演算部201の構成が異なり、画像処理装置100(図1)の円推定部131とエッジ削除部132の代わりに、重み設定部211が設けられている。
<第2の実施の形態における画像処理装置の動作>
図10のフローチャートを、図9に示した画像処理装置200の動作について説明する。
ステップS201乃至S204の処理は、図3に示したフローチャートのステップS101乃至S104の処理と同様に行われるため、その説明は省略する。すなわち、画像処理装置200の画像取得部111が行う処理と、第1演算部112が行う処理は、画像処理装置100の画像取得部111が行う処理と、第1演算部112(いずれも図1)が行う処理と同様に行われる。
よって、第1の実施の形態と同じく、第2の実施の形態においても、エッジ検出に係る時間が短縮できるなどの効果を得られる。
ステップS205において、重み設定部211により重みが設定される。重み設定部211においては、例えば、図11に示すような重み付けが、エッジ情報に対して行われる。
図11は、重み設定部211で行われる重み付けについて説明するための図であり、表示部101に、仮に、設定される重みを表示した場合の画面例を示している。ここでは、エッジが存在する可能性が高い領域には、重み付けとして、1が設定され、エッジが存在する可能性が低い領域には、重み付けとして0が設定されているとして説明を続ける。
図11中、黒で示した部分は、エッジが存在する可能性が低く、重み付けの値が0に設定されていることを示し、白で示した部分は、エッジが存在する可能性が高く、重み付けの値が1に設定されていることを示す。図11では、黒の領域から白の領域へとグラデーションがかけられている。
すなわち、重み付けの値は、0から1の間の数値も設定されており、0に設定されている領域から1に設定されている領域まで、徐々に値が変化するように、重み付けは設定されている。なおここでは、このような重み付けの値が設定されているとして説明を続けるが、重み付けの値や重み付けの仕方などは、ここに挙げる例に限定されるわけではない。
重み設定部211は、このような重み付けを行うための参照形状を記憶しており、その記憶している参照形状(パターン)に基づいて重み付けを行う。このような参照形状は、内視鏡の種類毎に設けられていても良い。内視鏡は、例えば、系の形が異なる内視鏡があるため、それらの系が異なる内視鏡毎に、参照形状が用意され、内視鏡の情報、例えばIDが取得され、そのIDに関連付けられている参照画像が用いられて重み付けの処理が行われるようにしても良い。
図11に示したように、画面中央部分や、四隅などは、エッジが存在する可能性は低くいため、重み付けの値は、0に設定されている。よって、仮に、このような部分にエッジ点が検出されたとしても、重み付けとして0が設定されるため、そのようなエッジ点は、後段の楕円推定部212による演算では用いられないことになる。
これは、所定の領域内から検出されたエッジ点を削除するという処理は、第1の実施の形態において、円推定部131で円を推定し、その円内にあるエッジ点は、エッジ削除部132で削除するという処理に該当する。
第1の実施の形態における画像処理装置100では、円推定部131と楕円推定部131による2度の推定が行われることで、マスクが検出されたが、第2の実施の形態における画像処理装置200においては、1度目の推定に該当する処理として、エッジ情報に対する重み付けが行われる。
これは、マスクの形状が円形状であり、円形状であった場合にエッジが存在する可能性が高い領域を推定することに該当する。また、エッジが存在する可能性が低い領域を推定し、そのような領域内のエッジ点を除去することに該当する。このような処理を行うため、第2の実施の形態においても、重み設定部211における処理は、第1の実施の形態における円推定部131とエッジ削除部132の処理に該当し、1回目の推定に該当する。
第2の実施の形態においても、ステップS205の後の処理として、楕円推定を行うため、第1の実施の形態と同じく、2度の推定が行われることで、マスクが検出される。
このようにして、重み設定部211により重み付けがされたエッジ情報は、楕円推定部212に供給される。この楕円推定部212に供給されるエッジ情報は、エッジでない可能性が高い情報は除外され、エッジである可能性が高い情報ほど、楕円推定部212による推定に大きく影響を与える情報となっている。
ステップS206において、楕円推定部212は、マスク形状が楕円であるとして、マスク形状を検出する。このステップS206における処理は、画像処理装置100の楕円推定部133が行うステップS107(図3)の処理と同様に行うことが可能であるため、その説明は省略する。また、ステップS207の処理も、ステップS108(図3)の処理と同様に行うことが可能であるため、その説明は省略する。
このように、第2の実施の形態においては、検出されたエッジ点のうち、エッジである可能性が高い点が、マスクの検出に影響を及ぼすように、重み付けを行うことで、マスクの検出の精度を向上させ、かつ演算量を低減させることが可能となる。
第2の実施の形態においても、第1の実施の形態と同じく、マスクの検出をより精度良く行うことができ、その検出に係る時間を短縮することができる。
本技術によれば、内視鏡装置で撮像された画像の露光が適正である場合や、過剰である場合に、マスクの検出を適切に行うことが可能である。露光が適正または過剰である場合、有効領域151内の画像とマスク領域152内の画像との明暗がハッキリとすることで、その境界であるエッジを検出し、マスクを検出することは、比較的容易に行える。
さらに本技術によれば、内視鏡装置で撮像された画像の露光が不足である場合にも、マスクの検出を適切に行うことが可能である。露光が不足している場合、有効領域151内の画像とマスク領域152内の画像との明暗がハッキリとしていない状態であるが、上記したように、エッジを検出し、2段階の推定を行うことで、マスクを適切に検出することが可能となる。
<記録媒体について>
上述した一連の処理は、ハードウエアにより実行することもできるし、ソフトウエアにより実行することもできる。一連の処理をソフトウエアにより実行する場合には、そのソフトウエアを構成するプログラムが、コンピュータにインストールされる。ここで、コンピュータには、専用のハードウエアに組み込まれているコンピュータや、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータなどが含まれる。
図12は、上述した一連の処理をプログラムにより実行するコンピュータのハードウエアの構成例を示すブロック図である。コンピュータにおいて、CPU(Central Processing Unit)1101、ROM(Read Only Memory)1102、RAM(Random Access Memory)1103は、バス1104により相互に接続されている。バス1104には、さらに、入出力インタフェース1105が接続されている。入出力インタフェース1105には、入力部1106、出力部1107、記憶部1108、通信部1109、およびドライブ1110が接続されている。
入力部1106は、キーボード、マウス、マイクロフォンなどよりなる。出力部1107は、ディスプレイ、スピーカなどよりなる。記憶部1108は、ハードディスクや不揮発性のメモリなどよりなる。通信部1109は、ネットワークインタフェースなどよりなる。ドライブ1110は、磁気ディスク、光ディスク、光磁気ディスク、または半導体メモリなどのリムーバブルメディア1111を駆動する。
以上のように構成されるコンピュータでは、CPU1101が、例えば、記憶部1108に記憶されているプログラムを、入出力インタフェース1105およびバス1104を介して、RAM1103にロードして実行することにより、上述した一連の処理が行われる。
コンピュータ(CPU1101)が実行するプログラムは、例えば、パッケージメディア等としてのリムーバブルメディア1111に記録して提供することができる。また、プログラムは、ローカルエリアネットワーク、インターネット、デジタル衛星放送といった、有線または無線の伝送媒体を介して提供することができる。
コンピュータでは、プログラムは、リムーバブルメディア1111をドライブ1110に装着することにより、入出力インタフェース1105を介して、記憶部1108にインストールすることができる。また、プログラムは、有線または無線の伝送媒体を介して、通信部1109で受信し、記憶部1108にインストールすることができる。その他、プログラムは、ROM1102や記憶部1108に、予めインストールしておくことができる。
なお、コンピュータが実行するプログラムは、本明細書で説明する順序に沿って時系列に処理が行われるプログラムであっても良いし、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで処理が行われるプログラムであっても良い。
また、本明細書において、システムとは、複数の装置により構成される装置全体を表すものである。
なお、本明細書に記載された効果はあくまで例示であって限定されるものでは無く、また他の効果があってもよい。
なお、本技術の実施の形態は、上述した実施の形態に限定されるものではなく、本技術の要旨を逸脱しない範囲において種々の変更が可能である。
なお、本技術は以下のような構成も取ることができる。
(1)
観察対象となる被写体を含む第1の領域と前記被写体を含まない第2の領域の境界点を検出するエッジ検出部と、
前記境界点に基づいて、前記第1の領域と前記第2の領域の境界の形状として第1の形状を推定する第1の推定部と、
前記境界点および推定された前記第1の形状に基づいて、前記第1の領域と前記第2の領域の境界の形状として第2の形状を推定する第2の推定部と
を備える
画像処理装置。
(2)
前記観察対象となる被写体は、内視鏡装置により撮影された生体である
前記(1)に記載の画像処理装置。
(3)
前記第1の推定部は、前記第1の形状を円形状として推定し、
前記第2の推定部は、前記第2の形状を楕円形状として推定する
前記(1)または(2)に記載の画像処理装置。
(4)
前記境界点のうち、前記第1の形状内に位置する前記境界点を削除するエッジ削除部を
さらに備える前記(1)乃至(3)のいずれかに記載の画像処理装置。
(5)
前記エッジ検出部は、画素の輝度値に基づいて前記境界点を検出する
前記(1)乃至(4)のいずれかに記載の画像処理装置。
(6)
前記エッジ検出部は、所定の画素数だけ間隔を有する状態で配置された2つの矩形からなるフィルタを用いて前記境界点の検出を行う
前記(5)に記載の画像処理装置。
(7)
前記エッジ検出部は、
前記輝度値の標準偏差に基づいて、前記境界点を検出する
前記(5)に記載の画像処理装置。
(8)
予め求められている前記輝度値と前記標準偏差との関係式から、前記標準偏差は算出される
前記(7)に記載の画像処理装置。
(9)
前記エッジ検出部を含む第1の演算部と、前記第1の推定部と前記第2の推定部を含む第2の演算部のうちの一方は、CPU(Central Processing Unit)で構成され、他方は、GPU(Graphics Processing Unit)で構成される
前記(1)乃至(8)のいずれかに記載の画像処理装置。
(10)
観察対象となる被写体を含む第1の領域と前記被写体を含まない第2の領域の境界点を検出するエッジ検出部と、
所定の参照形状に基づいて、前記境界点に対して重みを設定する第1の推定部と、
前記重みが設定された前記境界点に基づいて、前記第1の領域と前記第2の領域の境界の形状を推定する第2の推定部と
を備える画像処理装置。
(11)
前記観察対象となる被写体は、内視鏡装置により撮影された生体である
前記(10)に記載の画像処理装置。
(12)
前記所定の参照形状は、円形状である
前記(10)または(11)に記載の画像処理装置。
(13)
前記所定の参照形状は、前記内視鏡装置の情報に基づいて設定される
前記(11)または(12)に記載の画像処理装置。
(14)
前記第2の推定部は、前記第1の領域と前記第2の領域の境界の形状を楕円形状として推定する
前記(10)乃至(13)のいずれかに記載の画像処理装置。
(15)
観察対象となる被写体を含む第1の領域と前記被写体を含まない第2の領域の境界点を検出し、
検出された前記境界点に基づいて、前記第1の領域と前記第2の領域の境界の形状として第1の形状を推定し、
推定された前記第1の形状および前記境界点に基づいて、前記第1の領域と前記第2の領域の境界の形状として第2の形状を推定する
画像処理方法。
(16)
観察対象となる被写体を含む第1の領域と前記被写体を含まない第2の領域の境界点を検出し、
所定の参照形状に基づいて、検出された前記境界点に対して重みを設定し、
重みが設定された前記境界点に基づいて、前記第1の領域と前記第2の領域の境界の形状を推定する
画像処理方法。
(17)
観察対象となる被写体を含む第1の領域と前記被写体を含まない第2の領域の境界の境界点を検出し、
検出された前記境界点に基づいて、前記第1の領域と前記第2の領域の境界の形状として第1の形状を推定し、
推定された前記第1の形状および前記境界点に基づいて、前記第1の領域と前記第2の領域の境界の形状として第2の形状を推定する
処理をコンピュータに実行させるためのプログラム。
100 画像処理装置, 101 表示部, 111 画像取得部, 112 第1演算部, 113 第2演算部, 121 輝度画像変換部, 122 エッジ検出部, 123 転送部, 131 円推定部, 132 エッジ削除部, 133 楕円推定部, 200 画像処理装置, 201 第2演算部, 211 重み設定部, 212 楕円推定部

Claims (17)

  1. 観察対象となる被写体を含む第1の領域と前記被写体を含まない第2の領域の境界点を検出するエッジ検出部と、
    前記境界点に基づいて、前記第1の領域と前記第2の領域の境界の形状として第1の形状を推定する第1の推定部と、
    前記境界点および推定された前記第1の形状に基づいて、前記第1の領域と前記第2の領域の境界の形状として第2の形状を推定する第2の推定部と
    を備える
    画像処理装置。
  2. 前記観察対象となる被写体は、内視鏡装置により撮影された生体である
    請求項1に記載の画像処理装置。
  3. 前記第1の推定部は、前記第1の形状を円形状として推定し、
    前記第2の推定部は、前記第2の形状を楕円形状として推定する
    請求項1に記載の画像処理装置。
  4. 前記境界点のうち、前記第1の形状内に位置する前記境界点を削除するエッジ削除部を
    さらに備える請求項1に記載の画像処理装置。
  5. 前記エッジ検出部は、画素の輝度値に基づいて前記境界点を検出する
    請求項1に記載の画像処理装置。
  6. 前記エッジ検出部は、所定の画素数だけ間隔を有する状態で配置された2つの矩形からなるフィルタを用いて前記境界点の検出を行う
    請求項5に記載の画像処理装置。
  7. 前記エッジ検出部は、
    前記輝度値の標準偏差に基づいて、前記境界点を検出する
    請求項5に記載の画像処理装置。
  8. 予め求められている前記輝度値と前記標準偏差との関係式から、前記標準偏差は算出される
    請求項7に記載の画像処理装置。
  9. 前記エッジ検出部を含む第1の演算部と、前記第1の推定部と前記第2の推定部を含む第2の演算部のうちの一方は、CPU(Central Processing Unit)で構成され、他方は、GPU(Graphics Processing Unit)で構成される
    請求項1に記載の画像処理装置。
  10. 観察対象となる被写体を含む第1の領域と前記被写体を含まない第2の領域の境界点を検出するエッジ検出部と、
    所定の参照形状に基づいて、前記境界点に対して重みを設定する第1の推定部と、
    前記重みが設定された前記境界点に基づいて、前記第1の領域と前記第2の領域の境界の形状を推定する第2の推定部と
    を備える画像処理装置。
  11. 前記観察対象となる被写体は、内視鏡装置により撮影された生体である
    請求項10に記載の画像処理装置。
  12. 前記所定の参照形状は、円形状である
    請求項10に記載の画像処理装置。
  13. 前記所定の参照形状は、前記内視鏡装置の情報に基づいて設定される
    請求項11に記載の画像処理装置。
  14. 前記第2の推定部は、前記第1の領域と前記第2の領域の境界の形状を楕円形状として推定する
    請求項10に記載の画像処理装置。
  15. 観察対象となる被写体を含む第1の領域と前記被写体を含まない第2の領域の境界点を検出し、
    検出された前記境界点に基づいて、前記第1の領域と前記第2の領域の境界の形状として第1の形状を推定し、
    推定された前記第1の形状および前記境界点に基づいて、前記第1の領域と前記第2の領域の境界の形状として第2の形状を推定する
    画像処理方法。
  16. 観察対象となる被写体を含む第1の領域と前記被写体を含まない第2の領域の境界点を検出し、
    所定の参照形状に基づいて、検出された前記境界点に対して重みを設定し、
    重みが設定された前記境界点に基づいて、前記第1の領域と前記第2の領域の境界の形状を推定する
    画像処理方法。
  17. 観察対象となる被写体を含む第1の領域と前記被写体を含まない第2の領域の境界の境界点を検出し、
    検出された前記境界点に基づいて、前記第1の領域と前記第2の領域の境界の形状として第1の形状を推定し、
    推定された前記第1の形状および前記境界点に基づいて、前記第1の領域と前記第2の領域の境界の形状として第2の形状を推定する
    処理をコンピュータに実行させるためのプログラム。
JP2014032808A 2014-02-24 2014-02-24 画像処理装置、画像処理方法、並びにプログラム Pending JP2015156937A (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2014032808A JP2015156937A (ja) 2014-02-24 2014-02-24 画像処理装置、画像処理方法、並びにプログラム
CN201510083936.XA CN104867127A (zh) 2014-02-24 2015-02-16 图像处理设备、图像处理方法和程序
US14/625,090 US10058237B2 (en) 2014-02-24 2015-02-18 Image processing device, image processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014032808A JP2015156937A (ja) 2014-02-24 2014-02-24 画像処理装置、画像処理方法、並びにプログラム

Publications (1)

Publication Number Publication Date
JP2015156937A true JP2015156937A (ja) 2015-09-03

Family

ID=53882700

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014032808A Pending JP2015156937A (ja) 2014-02-24 2014-02-24 画像処理装置、画像処理方法、並びにプログラム

Country Status (3)

Country Link
US (1) US10058237B2 (ja)
JP (1) JP2015156937A (ja)
CN (1) CN104867127A (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018143594A (ja) * 2017-03-07 2018-09-20 ソニー・オリンパスメディカルソリューションズ株式会社 内視鏡装置
JP2019162280A (ja) * 2018-03-20 2019-09-26 ソニー株式会社 内視鏡システム、制御方法、情報処理装置、およびプログラム
US11033174B2 (en) 2018-07-06 2021-06-15 Sony Olympus Medical Solutions Inc. Medical image processing device and medical observation device

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10475201B1 (en) * 2016-02-02 2019-11-12 Hunter Engineering Company Method and apparatus for determining wheel rim and tire dimensions on a moving vehicle
JP6873740B2 (ja) * 2017-02-24 2021-05-19 ソニー・オリンパスメディカルソリューションズ株式会社 内視鏡装置及びエッジ検出方法
CN110769731B (zh) * 2017-06-15 2022-02-25 奥林巴斯株式会社 内窥镜系统、内窥镜用处理系统、图像处理方法
US10776916B2 (en) * 2017-11-22 2020-09-15 Express Scripts Strategic Development, Inc. Computer imaging pre-processing for automated medication dispensing analysis
CN110633659B (zh) * 2019-08-30 2022-11-04 北京旷视科技有限公司 活体检测方法、装置、计算机设备和存储介质

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6778690B1 (en) * 1999-08-13 2004-08-17 Hanif M. Ladak Prostate boundary segmentation from 2D and 3D ultrasound images
US7011625B1 (en) * 2003-06-13 2006-03-14 Albert Shar Method and system for accurate visualization and measurement of endoscopic images
JP2006252400A (ja) * 2005-03-14 2006-09-21 Keyence Corp 画像処理装置及び画像処理における登録データ生成方法
JP4664147B2 (ja) * 2005-07-29 2011-04-06 株式会社山武 虹彩認証装置
JP2010033305A (ja) * 2008-07-29 2010-02-12 Hitachi Ltd 画像情報処理方法、及び装置
JP5346938B2 (ja) * 2008-09-01 2013-11-20 株式会社日立メディコ 画像処理装置、及び画像処理装置の作動方法
CN102123651B (zh) * 2009-01-15 2014-02-26 奥林巴斯医疗株式会社 内窥镜系统
US8903144B2 (en) * 2010-12-01 2014-12-02 Olympus Corporation Endoscope apparatus and method of measuring object
JP5663283B2 (ja) * 2010-12-02 2015-02-04 オリンパス株式会社 内視鏡画像処理装置及びプログラム
JP5576782B2 (ja) * 2010-12-16 2014-08-20 オリンパス株式会社 画像処理装置、画像処理方法、及び画像処理プログラム
JP4893862B1 (ja) * 2011-03-11 2012-03-07 オムロン株式会社 画像処理装置、および画像処理方法
JP5888062B2 (ja) 2012-03-29 2016-03-16 株式会社Jvcケンウッド 立体画像処理装置および立体画像処理方法
JP6112879B2 (ja) * 2013-01-28 2017-04-12 オリンパス株式会社 画像処理装置、内視鏡装置、画像処理装置の作動方法及び画像処理プログラム

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018143594A (ja) * 2017-03-07 2018-09-20 ソニー・オリンパスメディカルソリューションズ株式会社 内視鏡装置
JP2019162280A (ja) * 2018-03-20 2019-09-26 ソニー株式会社 内視鏡システム、制御方法、情報処理装置、およびプログラム
CN111867439A (zh) * 2018-03-20 2020-10-30 索尼公司 具有内窥镜和图像传感器的系统以及用于处理医疗图像的方法
US11455722B2 (en) 2018-03-20 2022-09-27 Sony Corporation System with endoscope and image sensor and method for processing medical images
JP7159577B2 (ja) 2018-03-20 2022-10-25 ソニーグループ株式会社 内視鏡システム、制御方法、情報処理装置、およびプログラム
US11033174B2 (en) 2018-07-06 2021-06-15 Sony Olympus Medical Solutions Inc. Medical image processing device and medical observation device

Also Published As

Publication number Publication date
US10058237B2 (en) 2018-08-28
US20150243027A1 (en) 2015-08-27
CN104867127A (zh) 2015-08-26

Similar Documents

Publication Publication Date Title
JP2015156937A (ja) 画像処理装置、画像処理方法、並びにプログラム
JP5576782B2 (ja) 画像処理装置、画像処理方法、及び画像処理プログラム
JP7188527B2 (ja) 魚体長さ測定システム、魚体長さ測定方法および魚体長さ測定プログラム
JP5959168B2 (ja) 画像処理装置、画像処理装置の作動方法、及び画像処理プログラム
JP5757724B2 (ja) 画像処理装置、画像処理方法、及び画像処理プログラム
JP6478136B1 (ja) 内視鏡システム、内視鏡システムの作動方法
JP6115214B2 (ja) パターン処理装置、パターン処理方法、パターン処理プログラム
JP2014188222A (ja) 画像処理装置、内視鏡装置、プログラム及び画像処理方法
US11838674B2 (en) Image processing system, image processing method and storage medium
JP6704933B2 (ja) 画像処理装置、画像処理方法およびプログラム
US20110058718A1 (en) Extracting method and apparatus of blood vessel crossing/branching portion
JP6566768B2 (ja) 情報処理装置、情報処理方法、プログラム
US10540765B2 (en) Image processing device, image processing method, and computer program product thereon
JP2014512900A (ja) 皮膚の炎症値を判定する装置および方法
JP6098304B2 (ja) 脈波検出装置、脈波検出方法及び脈波検出プログラム
JP2013255656A (ja) 画像処理装置、画像処理方法、及び画像処理プログラム
CN105147311A (zh) 用于ct系统中的可视化设备辅助扫描定位方法和系统
JP2015109559A (ja) 画像処理装置、画像処理方法
JP6248780B2 (ja) 脈波検出装置、脈波検出方法及び脈波検出プログラム
US9972095B2 (en) Image measuring apparatus and non-temporary recording medium on which control program of same apparatus is recorded
JPWO2018061927A1 (ja) 情報処理装置、情報処理方法およびプログラム記憶媒体
JP6664486B2 (ja) 画像処理装置、画像処理装置の作動方法及び画像処理装置の作動プログラム
JP2006068373A (ja) 乳頭検出装置およびそのプログラム
CN107529962B (zh) 图像处理装置、图像处理方法和记录介质
JP2015019231A (ja) 撮像装置及び像振れ補正処理方法