JP6432770B2 - 画像処理装置、画像処理方法、並びにプログラム - Google Patents

画像処理装置、画像処理方法、並びにプログラム Download PDF

Info

Publication number
JP6432770B2
JP6432770B2 JP2014229368A JP2014229368A JP6432770B2 JP 6432770 B2 JP6432770 B2 JP 6432770B2 JP 2014229368 A JP2014229368 A JP 2014229368A JP 2014229368 A JP2014229368 A JP 2014229368A JP 6432770 B2 JP6432770 B2 JP 6432770B2
Authority
JP
Japan
Prior art keywords
image
image processing
processing apparatus
information
light
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014229368A
Other languages
English (en)
Other versions
JP2016093210A (ja
JP2016093210A5 (ja
Inventor
幸弘 中村
幸弘 中村
貴美 水倉
貴美 水倉
恒生 林
恒生 林
菊地 大介
大介 菊地
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority to JP2014229368A priority Critical patent/JP6432770B2/ja
Application filed by Sony Corp filed Critical Sony Corp
Priority to EP15794658.3A priority patent/EP3217855B1/en
Priority to PCT/JP2015/005487 priority patent/WO2016075890A2/en
Priority to US15/329,313 priority patent/US10799101B2/en
Priority to CN201580060121.8A priority patent/CN107072485B/zh
Publication of JP2016093210A publication Critical patent/JP2016093210A/ja
Publication of JP2016093210A5 publication Critical patent/JP2016093210A5/ja
Application granted granted Critical
Publication of JP6432770B2 publication Critical patent/JP6432770B2/ja
Priority to US17/066,504 priority patent/US11766167B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00043Operational features of endoscopes provided with output arrangements
    • A61B1/00045Display arrangement
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00009Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
    • A61B1/000094Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope extracting biological structures
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • A61B1/046Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances for infrared imaging
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/06Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements
    • A61B1/0638Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements providing two or more wavelengths
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/02Detecting, measuring or recording pulse, heart rate, blood pressure or blood flow; Combined pulse/heart-rate/blood pressure determination; Evaluating a cardiovascular condition not otherwise provided for, e.g. using combinations of techniques provided for in this group with electrocardiography or electroauscultation; Heart catheters for measuring blood pressure
    • A61B5/02007Evaluating blood vessel condition, e.g. elasticity, compliance
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B21/00Microscopes
    • G02B21/36Microscopes arranged for photographic purposes or projection purposes or digital imaging or video purposes including associated control and data processing arrangements
    • G02B21/365Control or image processing arrangements for digital or video microscopes
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B23/00Telescopes, e.g. binoculars; Periscopes; Instruments for viewing the inside of hollow bodies; Viewfinders; Optical aiming or sighting devices
    • G02B23/24Instruments or systems for viewing the inside of hollow bodies, e.g. fibrescopes
    • G02B23/2476Non-optical details, e.g. housings, mountings, supports
    • G02B23/2484Arrangements in relation to a camera or imaging device
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H40/00ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
    • G16H40/60ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/56Cameras or camera modules comprising electronic image sensors; Control thereof provided with illuminating means
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • A61B1/044Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances for absorption imaging
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • A61B5/0082Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence adapted for particular medical purposes
    • A61B5/0084Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence adapted for particular medical purposes for introduction into the body, e.g. by catheters
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • A61B5/0082Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence adapted for particular medical purposes
    • A61B5/0084Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence adapted for particular medical purposes for introduction into the body, e.g. by catheters
    • A61B5/0086Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence adapted for particular medical purposes for introduction into the body, e.g. by catheters using infrared radiation
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/02Detecting, measuring or recording pulse, heart rate, blood pressure or blood flow; Combined pulse/heart-rate/blood pressure determination; Evaluating a cardiovascular condition not otherwise provided for, e.g. using combinations of techniques provided for in this group with electrocardiography or electroauscultation; Heart catheters for measuring blood pressure
    • A61B5/02042Determining blood loss or bleeding, e.g. during a surgical procedure
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/555Constructional details for picking-up images in sites, inaccessible due to their dimensions or hazardous conditions, e.g. endoscopes or borescopes

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Surgery (AREA)
  • Physics & Mathematics (AREA)
  • Public Health (AREA)
  • Medical Informatics (AREA)
  • Biomedical Technology (AREA)
  • General Health & Medical Sciences (AREA)
  • Pathology (AREA)
  • Veterinary Medicine (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Animal Behavior & Ethology (AREA)
  • Optics & Photonics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Multimedia (AREA)
  • Physiology (AREA)
  • Vascular Medicine (AREA)
  • Cardiology (AREA)
  • Epidemiology (AREA)
  • Primary Health Care (AREA)
  • General Physics & Mathematics (AREA)
  • Signal Processing (AREA)
  • Chemical & Material Sciences (AREA)
  • Astronomy & Astrophysics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Analytical Chemistry (AREA)
  • General Business, Economics & Management (AREA)
  • Business, Economics & Management (AREA)
  • Databases & Information Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Endoscopes (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Description

本技術は、画像処理装置、画像処理方法、並びにプログラムに関する。詳しくは、内視鏡などの被写体の体腔内を撮影し、体腔内の情報を得る装置に適用して好適な画像処理装置、画像処理方法、並びにプログラムに関する。
体腔内の組織に対して回転フィルタを用いてR1,G1,B1の3色の光を順次照射し、それらの反射光画像から作成した画像(通常光画像)を用いて診断を行う面順次式の内視鏡システムが広く使用されている。さらに、体腔内の組織に対して前述の3色の光とは特性が異なる2種類の狭帯域光G2とB2を順次照射し、それらの反射光画像から作成した狭帯域光画像を用いて診断を行う内視鏡システムが提案されている(例えば特許文献1)。
狭帯域光画像を取得する内視鏡システムを用いて診断を行うことで、例えば通常光画像による視認が困難な扁平上皮癌等の病変部が、正常部とは異なる褐色の領域として描出される。そのため、病変部の発見が容易になることが知られている。
また、体腔内の組織に対して狭帯域の励起光を照射し、励起光により組織から発生する自家蛍光もしくは薬剤蛍光を取得して作成した蛍光画像を用いて診断を行う内視鏡システムが提案されている(例えば特許文献2)。
蛍光画像を取得する内視鏡システムを用いて診断を行う場合は、腫瘍等の病変部に特異的に集積する性質を持つ蛍光薬剤を使用することで、腫瘍等の病変部だけが蛍光を発生することになり、発見が容易になる。
しかしながら、これらの狭帯域光画像や蛍光画像(これらを合わせて特殊光画像と呼ぶ)は、一般的に通常光画像と比較してかなり異なる色みを有している。さらに照明光が不足するため非常に暗い画像となるため、特殊光画像のみを用いて診断を行うことは難しい。このような理由から、ユーザの診断精度を向上するために、例えば通常光画像と特殊光画像を同時に取得して表示することが考えられる。しかし、これらの画像を並べて同時に表示すると、ユーザが常時複数の画像に注目しながら診断を行うこととなりユーザの負荷が高くなる。また、一時的に1つの画像のみに注目してしまうことで病変部を見逃すことも考えられる。
そこで、特許文献3では、白色光の波長領域に対応する第1の画像と特定の波長領域に対応する第2の画像を取得して、第2の画像内の被写体像の種類を判別し、種類に基づいて第1の画像に強調処理を施すことで、ユーザの負荷を低減しながら病変部の見逃しを防止することについての提案がなされている。
特開2006−68113号公報 特開2007−229053号公報 特開2011−135983号公報
特許文献1乃至3を含む従来の手法では、2D画像による平面的な画像より得られる特徴量に基づいた特徴検出が行われている。よって、被写体物の立体的な構造や、物体間、例えば血管間の立体的な位置関係の情報は得られづらく、被写体像の種類判別や特徴検出を行うことが困難である場合があった。
本技術は、このような状況に鑑みてなされたものであり、奥行き情報を用いることで、立体的な構造や物体間の位置関係の情報を得られやすくすることができるようにするものである。
本技術の一側面の画像処理装置は、特定の波長帯域における情報を有する特殊光画像を取得する特殊光画像取得部と、白色光の波長帯域における情報を有する通常光画像を取得する通常光画像取得部と、前記特殊光画像に基づいて生成された第1の3次元情報と前記通常光画像に基づいて生成された第2の3次元情報との深さ方向の差分に基づいて、生体内の所定の部位の前記深さ方向の位置情報を検出する検出部とを備える。
内視鏡システムまたは顕微鏡システムの一部を構成するようにすることができる。
前記特定の波長帯域は、赤外光であり、前記検出部は、前記所定の部位として、出血点検出することができる。
前記特殊光画像または前記通常光画像に、前記出血点を表す所定のマーク、またはテキストを重畳した画像を生成する画像生成部をさらに備えるようにすることができる。
前記検出部は、前記第1の3次元情報と前記第2の3次元情報の深さ方向の差分が所定の閾値より大きい場合に、前記所定の部位として前記出血点があると検出するようにすることができる。
前記特定の波長帯域は、偏光であり、前記検出部は、前記所定の部位として、透明膜の膜厚検出することができる。
前記特殊光画像または前記通常光画像に、前記透明膜の膜厚を表す数値、または膜厚に応じたグラデーション画像を重畳した画像を生成する画像生成部をさらに備えるようにすることができる。
前記特定の波長帯域は、赤外光であり、前記検出部は、前記所定の部位として、ミスト検出することができる。
前記特殊光画像または前記通常光画像に、前記ミストがあることを知らせる警告表示、または前記ミストを表す色を重畳した画像を生成する画像生成部をさらに備えるようにすることができる。
前記画像生成部は、画像全体に占める前記ミストが検出された領域の割合が大きい場合、前記特殊光画像を表示する、または、前記ミストを除去する画像処理が施された画像を生成するようにすることができる。
前記検出部は、前記第1の3次元情報と前記第2の3次元情報の深さ方向の差分が所定の閾値より大きい場合に、前記所定の部位として前記ミストがあると検出するようにすることができる。
前記特定の波長帯域は、第1の波長と、前記第1の波長とは異なる第2の波長であり、前記検出部は、前記第1の波長における情報を有する特殊光画像と、前記第2の波長における情報を有する特殊光画像との深さ方向の差分に基づいて、血管の深さ方向における位置情報検出することができる。
前記血管の深さ方向における位置情報を用いて、深い位置にある動脈の反射率を補正した画像を生成する画像生成部をさらに備えるようにすることができる。
前記特定の波長帯域は、インドシアニングリーン(ICG)注射後の励起光観察に用いられる励起光の波長帯域であり、前記検出部は、前記特殊光画像に基づいて生成された第1の3次元情報に基づいて、重なりがある血管同士の位置関係、癌組織とつながりのある血管、または癌の可能性のある領域を検出するようにすることができる。
重なり合う血管ごとに輝度または色を変えた画像、または癌可能性のある領域を強調した画像を生成する画像生成部をさらに備えることができる。
前記特定の波長帯域は、青色光であり、前記検出部は、前記青色光による3次元画像から所定の位置の奥行き情報を生成し前記青色光による2次元画像から、腫瘍の平面方向の大きさを推定し、その推定値と、前記奥行き情報を乗算することで得られる前記腫瘍の体積を検出することができる。
前記体積が大きい前記腫瘍を強調表示した画像を生成する画像生成部をさらに備えるようにすることができる。
前記特殊光画像取得部は、前記通常光画像から、前記特定の波長帯域における情報を有する特殊光画像を生成することができる。
前記特殊光画像及び前記通常光画像は、それぞれステレオ画像であり、前記第1の3次元情報及び前記第2の3次元情報は、それぞれの前記ステレオ画像から生成されるようにすることができる。
本技術の一側面の画像処理方法は、画像処理装置の画像処理方法において、前記画像処理装置が、特定の波長帯域における情報を有する特殊光画像を取得し、白色光の波長帯域における情報を有する通常光画像を取得し、前記特殊光画像に基づいて生成された第1の3次元情報と前記通常光画像に基づいて生成された第2の3次元情報との深さ方向の差分に基づいて、生体内の所定の部位の前記深さ方向の位置情報を検出する。
本技術の一側面のプログラムは、特定の波長帯域における情報を有する特殊光画像を取得し、白色光の波長帯域における情報を有する通常光画像を取得し、前記特殊光画像に基づいて生成された第1の3次元情報と前記通常光画像に基づいて生成された第2の3次元情報との深さ方向の差分に基づいて、生体内の所定の部位の前記深さ方向の位置情報を検出する処理をコンピュータに実行させる。
本技術の一側面の画像処理装置、画像処理方法、およびプログラムにおいては、特定の波長帯域における情報を有する特殊光画像が取得され、白色光の波長帯域における情報を有する通常光画像が取得され、、特殊光画像に基づいて生成された第1の3次元情報と通常光画像に基づいて生成された第2の3次元情報との深さ方向の差分に基づいて、生体内の所定の部位の深さ方向の位置情報が検出される。
本技術の一側面によれば、奥行き情報を用いることで、立体的な構造や物体間の位置関係の情報を得られやすくすることができる。
なお、ここに記載された効果は必ずしも限定されるものではなく、本開示中に記載されたいずれかの効果であってもよい。
本技術を適用した画像処理装置の一実施の形態の構成を示す図である。 本技術を適用した画像処理装置の一実施の形態の他の構成を示す図である。 本技術を適用した画像処理装置の一実施の形態のさらに他の構成を示す図である。 画像処理装置の処理について説明するためフローチャートである。 出血位置を検出する原理について説明するための図である。 出血位置を検出するときの画像処理装置の処理について説明するためのフローチャートである。 透明膜を検出する原理について説明するための図である。 透明膜を検出するときの画像処理装置の処理について説明するためのフローチャートである。 ミストを検出する原理について説明するための図である。 ミストを検出するときの画像処理装置の処理について説明するためのフローチャートである。 2次元画像における動脈と静脈の位置関係について説明するための図である。 ヘモグロビンの反射率について説明するための図である。 動脈、静脈を検出する原理について説明するための図である。 動脈、静脈を検出するときの画像処理装置の処理について説明するためのフローチャートである。 血管の重なりの判断について説明するための図である。 血管の位置関係を考慮した画像例である。 血管の重なりを検出するときの画像処理装置の処理について説明するためのフローチャートである。 腫瘍の体積を検出する原理について説明するための図である。 腫瘍の体積を検出するときの画像処理装置の処理について説明するためのフローチャートである。 記録媒体について説明するための図である。
以下に、本技術を実施するための形態(以下、実施の形態という)について説明する。なお、説明は、以下の順序で行う。
1.画像処理装置の構成
2.画像処理装置の動作
3.出血位置の検出への適用
4.透明膜厚の検出への適用
5.ミストの検出への適用
6.動脈、静脈の検出への適用
7.血管の重なり具合の検出への適用
8.腫瘍の検出への適用
9.記録媒体について
<画像処理装置の構成>
図1は、本技術を適用した画像処理装置を含む画像処理システムの一実施の形態の構成を示す図である。本技術を適用した画像処理装置101は、内視鏡システムや顕微鏡システムなどの一部を構成する装置に適用でき、被写体の体腔内などを撮像した画像を処理する装置に適用できる。
画像処理装置101は、撮像部102で撮像された画像を処理し、処理した画像を表示部103に出力する。表示部103は、ディスプレイを含む構成とされ、画像処理装置101で処理された画像を表示する。
図1には、画像処理装置101、撮像部102、表示部103をそれぞれ別体で示したが、画像処理装置101に、撮像部102の一部または全てが含まれていたり、表示部103の一部または全てが含まれていたりする構成とすることも可能である。
画像処理装置101は、通常光画像取得部121、特殊光画像取得部122、3D画像取得部123、奥行き情報生成部124、注目部位検出部125、および画像生成部126を含む構成とされている。
撮像部102は、通常光画像撮像部141、特殊光画像撮像部142、3D画像撮像部143を含む構成とされている。
図1に示した画像処理システムは、上記したように、内視鏡システムに適用できる。図1に示した画像処理システムを内視鏡システムに適用した場合、撮像部102は、被写体の体腔への挿入が可能な形状とされている。
例えば、撮像部102は、体腔への挿入を可能にするため、細長くかつ湾曲可能に形成されている。また撮像部102は、着脱可能な構造とされており、観察する部位によって異なる撮像部が用いられるように構成されている。一般に内視鏡分野において、撮像部102はスコープと呼ばれており、具体的に用いられるスコープとしては、上部消化器用スコープや下部消化器用スコープ等が挙げられる。
また撮像部102は、暗い部分を撮像することを想定し、図示はしていないが、光源部を有する。光源として、通常光を用い、その通常光の照射を受けた部分を、通常光画像撮像部141は撮影する。光源として、特殊光を用い、その特殊光の照射を受けた部分を、特殊光画像撮像部142は撮影する。または、特殊光画像撮像部142は、通常光を照射し、その通常光の照射を受けた部分からの光のうち、特定色の色フィルタを透過してきた画像を撮像する。
3D画像撮像部143は、通常光および特殊光の少なくとも一方の光が照射された部分を撮像するとともに、その撮像された画像は、立体画像(3D画像)であることを特徴とする。
なお図1に示した特殊光画像撮像部142を設けずに、図2に示し、後述するように、通常光画像撮像部141で撮像された画像から特殊光画像を生成することも可能である。また、特殊光として用いられるのは、赤外光(IR)や、狭帯域波長光である。
図1に示した3D画像撮像部143は、通常光画像撮像部141と特殊光画像撮像部142と別に設けられている例を示したが、図3を参照して後述するように、通常光画像撮像部141と特殊光画像撮像部142のそれぞれが、3D画像を撮像する構成とすることも可能である。
画像処理装置101の通常光画像取得部121は、通常光画像撮像部141で撮像された画像の画像データを取得する。なお、通常光画像取得部121には、図示していないAD変換部(アナログデジタル変換部)が備えられ、アナログの画像信号をデジタルの画像信号に変換することで、画像データを取得する構成とすることも可能であるし、通常光画像撮像部141からデジタルの画像データを取得する構成とすることも可能である。
同様に、画像処理装置101の特殊光画像取得部122は、特殊光画像撮像部142で撮像された画像の画像データを取得する。以下の説明において、特殊光画像取得部122で取得される画像は、特定光画像と記述する。また通常光画像取得部121で取得される画像は、通常光画像と記述し、3D画像取得部123で取得される画像は、3D画像と記述する。
画像処理装置101の奥行き情報生成部124は、3D画像取得部123で取得された3D画像から、奥行き情報を生成する。注目部位検出部125は、奥行き情報生成部124から供給される奥行き情報と、特殊光画像取得部122から供給される特殊光画像を用いて、所定の部位の検出を行う。
例えば、注目部位検出部125は、所定の膜の膜厚、血管の位置関係、例えば、手前にある血管と奥にある血管といった情報を生成する。なお、奥行き情報の用い方、生成される情報等については、具体例を挙げ、後述する。
画像生成部126は、通常光画像取得部121から供給される通常光画像、特殊光画像取得部122から供給される特殊光画像、3D画像取得部123から供給される3D画像、および注目部位検出部125で検出された注目部位に関する情報を用いて、ユーザに提供する画像を生成する。
例えば、通常光画像上に、注目部位に関する情報、例えば、膜厚の数値が重畳された画像が生成される。このように、膜厚の数値といった、視覚的に認識できる情報を、通常光画像、特殊光画像、3D画像といった画像上に表示することで、ユーザは、通常光画像、特殊光画像、3D画像を見ただけでは得られない情報を得られるようになり、使い勝手が向上することは明らかである。
図2は、本技術を適用した画像処理装置を含む画像処理システムの一実施の形態の他の構成を示す図である。図2に示した画像処理システムのうち、図1に示した画像処理システムと同様な構成を有する部分には、同様の符号を付し、その部分の説明は適宜省略し、異なる部分について説明を加える。
図2に示した画像処理システムも、画像処理装置201、撮像部202、および表示部103から構成されている。画像処理装置201は、図1に示した画像処理装置101と同じ構成とされているが、特殊光画像取得部222が、撮像部202の通常光画像撮像部141からの通常光画像を取得する構成とされている点が異なる。
撮像部202は、通常光画像撮像部141と3D画像撮像部143を含む構成とされている。図2に示した撮像部202は、図1に示した撮像部102と異なり、特殊光画像撮像部142を有さない構成とされている。
画像処理装置201の特殊光画像取得部222は、通常光画像撮像部141から通常光画像の供給を受ける。なおここでは、通常光画像撮像部141から通常光画像の供給を受けるとして説明を続けるが、通常光画像取得部121で通常光画像撮像部141から取得された通常光画像の供給を受ける構成とすることも可能である。
特殊光画像取得部222は、通常光画像から特殊光画像を生成する機能を有する。特殊光画像は、所定の帯域の光により撮像された画像、例えば、青色の光が照射されたときに、青色の光に反応した部分を撮像した画像である。特殊光画像取得部222は、通常光画像から青色の成分の画像を抽出し、特殊光画像を生成する。
図2に示した画像処理システムは、このように、通常光画像から特殊光画像を取得する構成とされている。
図3は、本技術を適用した画像処理装置を含む画像処理システムの一実施の形態のさらに他の構成を示す図である。図3に示した画像処理システムのうち、図1に示した画像処理システムと同様な構成を有する部分には、同様の符号を付し、その部分の説明は適宜省略し、異なる部分について説明を加える。
図3に示した画像処理システムの撮像部302は、通常光3D画像撮像部341と特殊光3D画像撮像部342を含む構成とされている。通常光3D画像撮像部341は、通常光下で得られる通常光3D画像を撮像し、特殊光3D画像撮像部342は、特殊光下で得られる特殊光3D画像を撮像する。
画像処理装置301の通常光画像取得部321は、通常光3D画像撮像部341で撮像された通常光3D画像を取得する。通常光画像取得部321は、取得された通常光3D画像から2D画像を生成する構成とし、生成した2Dの通常光画像を、画像生成部126に供給する構成とすることも可能であるし、通常光3D画像を、そのままユーザに通常光3D画像として提示するために、画像生成部126に通常光3D画像を供給する構成とすることも可能である。
画像処理装置301の特殊光画像取得部322は、特殊光3D画像撮像部342で撮像された特殊光3D画像を取得する。特殊光画像取得部322は、取得された特殊光3D画像から2D画像を生成する構成とし、生成した2Dの特殊光画像を、画像生成部126に供給する構成とすることも可能であるし、特殊光3D画像を、そのままユーザに特殊光3D画像として提示するために、画像生成部126に特殊光3D画像を供給する構成とすることも可能である。
3D画像取得部323は、通常光3D画像撮像部341からの通常光3D画像と特殊光3D画像撮像部342からの特殊光3D画像を取得する。奥行き情報生成部124は、注目部位検出部125で何を検出するかにより、取得された通常光3D画像および特殊光3D画像から、奥行き情報を生成する。
なお、図1乃至図3に示した各画像処理装置において、通常光画像、特殊光画像、3D画像のうち、どの画像を、表示部103に表示するかは、ユーザにより選択されるようにしても良い。また、図示はしていないが、画像処理装置には、そのようなユーザからの指示を受け付ける操作部も備えられている。
ここで示した画像処理装置の構成は一例であり、限定を示すものではない。例えば、図3に示した画像処理装置301において、図2に示した画像処理装置201と同じく、通常光画像から特殊光画像を生成する構成とすることも可能である。そのような構成とした場合、撮像部302の通常光3D画像撮像部341から、画像処理装置301の特殊光画像取得部322に通常光3D画像が供給される構成とすることも可能である。
すなわち、上記したように、特定の波長帯域における情報を有する特殊光画像は、特定の波長帯域の光が用いられて撮像された特殊光画像が取得されるように構成しても良いし、通常光(白色光)の波長帯域の光が用いられて撮像された通常光画像から、特定の波長帯域における情報を抽出することで、特殊光画像が取得されるように構成することも可能である。
また、3次元画像も、ステレオ撮影が行われることで、3次元画像が取得されるようにしても良いし、2次元画像を取得し、その2次元画像を3次元画像に変換することで、3次元画像が取得されるように構成することも可能である。
次に、図1乃至図3に示した画像処理装置において実行される処理について説明する。まず図4のフローチャートを参照し、図1乃至図3に示した画像処理装置の処理の概略について説明し、その後、検出する部位の具体例を挙げた説明を行う。
<画像処理装置の動作>
図4のフローチャートを参照し、画像処理装置の処理の概略について説明する。ここでは、図3に示した画像処理装置301を例にあげて説明を行うが、図1に示した画像処理装置101、図2に示した画像処理装置201においても、基本的に同様に処理が行われる。
ステップS101において、3D画像取得部323は、通常光3D画像撮像部341から通常光3D画像を取得し、特殊光3D画像撮像部342から特殊光3D画像を取得する。ステップS102において、奥行き情報生成部124は、3D画像取得部323により取得された3D画像から奥行き情報を生成する。3D画像の所定の位置における座標、特に深さ方向の座標を用いて、奥行き情報が生成される。
ステップS103において、注目部位検出部125は、奥行き情報や、特殊光画像取得部322で取得された特殊光画像を用いて、所定の部位、例えば、血管や腫瘍などを検出する。ステップS104において、画像生成部126は、検出された部位をユーザに明示するような画像を生成し、表示部103に出力する。
このように、本技術を適用した画像処理装置は、検出したい部位を検出するときに、3D画像から得られる奥行き情報も用いることで、より詳細な部位の検出を行うことができる。また、奥行き情報をユーザに提示することも可能となるため、例えば血管の位置情報などをより詳細に提示することが可能となる。
<出血位置の検出への適用>
次に、検出する部位として出血している部位を検出する場合を具体例として上げ、画像処理装置301の処理について説明を加える。まず図5を参照して、出血位置を検出するときの原理について説明する。
図5中、下側に、肉表面501を示す。出血のために、肉表面501上に血溜まりができている。この血溜まりの表面を血液表面502とする。血溜まりのうち、出血している箇所は、他の血溜まりよりも盛り上がっていると考えられる。仮に、肉表面501が平面であるとすると、図5に示すように、出血点P1は、他の部分よりも盛り上がっていると考えられる。
実施には、肉表面501は、平面ではなく、凹凸がある可能性が高いが、肉表面501と血液表面502との差分、換言すれば、血溜まりの厚さは、出血点P1で厚くなっている。そこで、肉表面501の3次元画像と、血液表面502の3次元画像を取得し、各位置における血溜まりの厚さを、肉表面501の3次元画像と血液表面502の3次元画像との差分を算出することで測定し、その厚さが一定の厚さ以上であれば、その位置は出血点であると検出できる。
肉表面501と血液表面502を撮像するとき、IR(infrared:赤外光)を撮影時の光として用いた場合、赤外光は、血液表面502を通過し、肉表面501まで達する。このような特性を利用し、赤外光を用いてステレオ撮影することで、肉表面501の3次元画像が取得される。
一方で、白色光(white light)を撮影時の光として用いた場合、白色は、血液表面502を通過せず、血液表面502で反射されて戻ってくる。このような特性を利用し、白色線を用いてステレオ撮影することで、血液表面502の3次元画像が取得される。
撮像部302(図3)の通常光3D画像撮像部341で、白色光を用いた撮影を行うことで、血液表面502の3次元画像が取得され、特殊光3D画像撮像部342で、赤外光を用いた撮影を行うことで、肉表面501の3次元画像が取得される。この2枚の画像の差分を取ることで、各点における血溜まりの厚み情報が得られる。
図5を参照するに、点P2において、赤外光(IR)を用いて撮像された肉表面501までの深さを深さIR_depthとし、白色光(WL)を用いて撮像された血液表面502までの深さを深さWL_depthとする。このとき、点P2における血溜まりの厚さs_depthは、以下の式(1)で表すことができる。
厚さs_depth=深さIR_depth−深さWL_depth ・・・(1)
このような演算で求められる深さWL_depthが所定の閾値以上のとき血液の厚みが大きいことになるため、出血位置であるとして検出することができる。このように、閾値以上のときに出血位置であるとして判断することで、複数の出血位置があったようなときにも対応することができる。
例えば、測定値が最も大きな位置を出血位置であるとした場合、1箇所しか検出できないが、閾値以上としておけば、複数の出血位置があるような場合でも、それぞれ出血位置であると判断することが可能となる。
このような処理を行う画像処理装置301(図3)の動作について、図6のフローチャートを参照して説明する。
ステップS201において、通常光画像の3D画像が取得される。この場合、撮像部302の通常光3D画像撮像部341により、白色光による撮像が行われることで、通常光画像の3D画像が取得され、3D画像取得部323に供給される。
ステップS202において、特殊光画像の3D画像が取得される。この場合、撮像部302の特殊光3D画像撮像部342により、赤外光による撮像が行われることで、特殊光画像の3D画像が取得され、3D画像取得部323に供給される。
ステップS203において、奥行き情報生成部124により、奥行き差分が算出される。この奥行き差分の算出は、上式(1)による演算が行われることにより行われ、3D画像の深さ方向の座標を用いることで行われる。この演算は、取得された画像内や、血溜まりがあると判断される領域内の全ての点(画素)毎に、演算が実行され、血液の厚み情報が生成されるようにしても良いし、取得された画像を所定の大きさの領域に分割し、領域毎に、演算が実行され、血液の厚み情報が生成されるようにしても良い。
ステップS204において、ステップS203で算出された差分値は、閾値以上であるか否かが判断される。この判断は、奥行き情報生成部124が判断し、その判断結果を、注目部位検出部125に供給するようにしても良いし、注目部位検出部125が、奥行き情報生成部124で生成された奥行き情報(差分値)の供給をうけ、判断するようにしても良い。
ステップS204において、差分値が閾値以上であると判断された場合、ステップS205に処理が進められる。ステップS205において、その時点で処理対象とされている点は、出血点であるとして設定される。出血点として設定された点は、ユーザに提供される画像内で、一意に他の血溜まりの部分とは区別がつくような表示、例えば出血点を所定のマークで表示したり、出血点であることを示すテキスト表示がされたりする。また、そのような表示は、通常光画像や特殊光画像上に重畳されて表示されるようにしても良い。さらに、重畳される画像は、3D画像であっても良い。
一方、ステップS204において、差分値が閾値以上ではないと判断された場合、ステップS206に処理が進められる。ステップS206において、その時点で処理対象とされている点は、出血点以外の血溜まりであるとして設定される。
このようにして、2枚の3次元画像の差分値を求め、その差分値から、出血点を検出することができる。検出された出血点に関する情報は、ユーザに提示されるため、ユーザは、撮像された画像を見ただけではわかりづらい出血点を、情報を閲覧することで認識することができる。
<透明膜厚の検出への適用>
次に、検出する部位として透明膜を検出する場合を具体例として上げ、画像処理装置301の処理について説明を加える。まず図7を参照して、透明膜を検出するときの原理について説明する。
図7中、下側に、肉表面601を示す。肉表面601上に、所定の厚さを有する透明膜603が位置している。この透明膜603の表面を透明膜表面602とする。透明膜は、通常光(白色光)では撮影しづらく、ユーザは、白色光で撮影された画像を見ても、そこに透明膜があるか否かを判断しづらい。
しかしながら、透明膜を切って、肉表面601に達する必要がある場合もある。そのようなとき、ユーザに透明膜の厚さを提示できれば、どの程度切れば良いかわかりやすくなり、内視鏡や顕微鏡などの画像処理装置301を適用した装置の使い勝手を向上させることができる。
透明膜表面602は、偏光撮影により撮影することができる。図7に示すように、偏光Pは、透明膜表面602で反射されるため、その反射光を撮像することで、透明膜表面602を撮像することができる。肉表面601は、白色光(WL)を用いて撮像することで、撮像することができる。
撮像部302(図3)の通常光3D画像撮像部341で、白色光を用いたステレオ撮影を行うことで、肉表面601の3次元画像が取得され、特殊光3D画像撮像部342で、偏光を用いたステレオ撮影を行うことで、透明膜表面602の3次元画像が取得される。この2枚の画像の差分を取ることで、各点における透明膜603の厚み情報が得られる。
図7を参照するに、点P1において、白色光(WL)を用いて撮像された肉表面601までの深さを深さWL_depthとし、偏光(P)を用いて撮像された透明膜表面602までの深さを深さP_depthとする。このとき、点P1における透明膜603の膜厚f_depthは、以下の式(2)で表すことができる。
膜厚f_depth=深さWL_depth−深さP_depth ・・・(2)
このような演算で求められる膜厚f_depth透明膜の厚みとされる。このような処理を行う画像処理装置301(図3)の動作について、図8のフローチャートを参照して説明する。
ステップS301において、通常光画像の3D画像が取得される。この場合、撮像部302の通常光3D画像撮像部341により、白色光によるステレオ撮像が行われることで、通常光画像の3D画像が取得され、3D画像取得部323に供給される。
ステップS302において、特殊光画像の3D画像が取得される。この場合、撮像部302の特殊光3D画像撮像部342により、偏光ステレオ撮像が行われることで、特殊光画像の3D画像が取得され、3D画像取得部323に供給される。
ステップS303において、奥行き情報生成部124により、奥行き差分が算出される。この奥行き差分は、上式(2)による演算が行われることで算出され、3D画像の深さ方向の座標が用いられて算出される。ステップS303で算出された差分値は、透明膜603の膜厚として設定される。
このようにして透明膜の膜厚が検出される。式(2)を演算した結果、差分値が0である場合、または所定の閾値より小さい場合、透明膜はないと判断できる。すなわち、差分値が所定の閾値以上であるか否かの判断を行うようにすれば、透明膜603の有無を検出することもできる。
このようにして検出された透明膜の膜厚は、ユーザに提供される画像内で、数値やグラデーションなどの色情報として表示され、ユーザが一見して透明膜の有無、透明膜の膜厚を認識できる表示とされる。そのような表示は、通常光画像や特殊光画像上に重畳されて表示されるようにしても良い。さらに、重畳される画像は、3D画像であっても良い。
例えば、予め設定されている位置、例えば、画面の中央部分、一定間隔の格子点位置などに、膜厚の数値が表示されるようにしても良い。また、膜厚により色を変化させ、通常光画像に重畳するような表示がなされるようにしても良い。また、ユーザがポインタやマウスなどの操作部を操作して指示した位置に、膜厚の数値が表示されるようにしても良い。
このようにして、2枚の3次元画像からの差分値が求められ、その差分値から、透明膜、および透明膜の膜厚を検出することができる。検出された透明膜に関する情報は、ユーザに提示されるため、ユーザは、撮像された通常光画像を見ただけではわかりづらい透明膜を、情報を閲覧することで認識することができる。透明膜の膜厚が認識できると、メスを入れる感覚をつかみやすくなり、肉組織を誤って傷つけてしまうようなことを防ぐことが可能となる。
<ミストの検出への適用>
次に、検出する部位としてミストを検出する場合を具体例として上げ、画像処理装置301の処理について説明を加える。まず図9を参照して、ミストを検出するときの原理について説明する。
図9中、下側に、肉表面701を示す。肉表面701上に、所定の厚さを有するミスト703が位置している。このミスト703の表面をミスト表面702とする。通常光(白色光)で撮像すると、ミスト成分は、反射され、白い点となって撮像される。また、肉表面701の構造から引き起こされるテカリやギラツキも、白い点となって見えることがある。これらミストやテカリなどは、通常光で撮像された画像からでは判別しづらい。
肉表面701は、赤外光撮影により撮影することができる。図9に示すように、赤外光IRは、ミスト表面702を通過し、肉表面701で反射されるため、その反射光を撮像することで、肉表面701を撮像することができる。ミスト表面702は、白色光(WL)を用いて撮像することで、撮像することができる。
撮像部302(図3)の通常光3D画像撮像部341で、白色光を用いたステレオ撮影を行うことで、ミスト表面702の3次元画像が取得され、特殊光3D画像撮像部342で、赤外光を用いたステレオ撮影を行うことで、肉表面701の3次元画像が取得される。この2枚の画像の差分を取ることで、各点におけるミスト703の厚み情報が得られる。
図9を参照するに、点P1において、白色光(WL)を用いて撮像されたミスト表面702までの深さを深さWL_depthとし、赤外光(IR)を用いて撮像された肉表面01までの深さを深さIR_depthとする。このとき、点P1におけるミスト703の厚さm_depthは、以下の式(3)で表すことができる。
厚さm_depth=深さIR_depth−深さWL_depth ・・・(3)
このような演算で求められる厚さm_depthが、所定の閾値th以上の場合、ミストがあると判断される。このような処理を行う画像処理装置301(図3)の動作について、図10のフローチャートを参照して説明する。
ステップS401において、通常光画像の3D画像が取得される。この場合、撮像部302の通常光3D画像撮像部341により、白色光による撮像が行われることで、通常光画像の3D画像が取得され、3D画像取得部323に供給される。
ステップS402において、特殊光画像の3D画像が取得される。この場合、撮像部302の特殊光3D画像撮像部342により、赤外光による撮像が行われることで、特殊光画像の3D画像が取得され、3D画像取得部323に供給される。
ステップS403において、奥行き情報生成部124により、奥行き差分が算出される。この奥行き差分の算出は、上式(3)による演算が行われることにより行われ、3D画像の深さ方向の座標が用いられて行われる。
ステップS404において、ステップS403で算出された差分値は、閾値以上であるか否かが判断される。この判断は、奥行き情報生成部124が判断し、その判断結果を、注目部位検出部125に供給するようにしても良いし、注目部位検出部125が、奥行き情報生成部124で生成せれた奥行き情報(差分値)の供給をうけ、判断するようにしても良い。
ステップS404において、差分値が閾値以上であると判断された場合、ステップS405に処理が進められる。ステップS405において、その時点で処理対象とされている点は、ミストであるとして設定される。なお、閾値は、肉表面701の凹凸を考慮した値に、所定の値を加算した値とされる。
一方、ステップS404において、差分値が閾値以上ではないと判断された場合、ステップS406に処理が進められる。ステップS406において、その時点で処理対象とされている点は、ミストではないとして設定される。
ミストが検出されたときには、ミストがあることをユーザに知らせるための警告表示が行われたり、ミストが検出された部分にミストを表す色を重畳した表示が行われたりする。そのような表示は、通常光画像や特殊光画像上に重畳されて表示されるようにしても良い。さらに、重畳される画像は、3D画像であっても良い。
また、画像全体に占めるミストが検出された領域の割合が大きい場合、IR光源(赤外光)による白黒表示にすることで、ミストがない状態の肉表面701の画像がユーザに提供されるようにしても良い。また、ミストを除去する画像処理が施されるようにし、ミストが除去された画像がユーザに提供されるようにしても良い。このようにすることで、術野を保証し、手術ミスを予防することが可能となる。
このようにして、2枚の3次元画像からの差分値を求め、その差分値から、ミストやテカリを検出することができる。検出されたミストに関する情報は、ユーザに提示されるため、ユーザは、撮像された画像を見ただけではわかりづらいミストの存在を、情報を閲覧することで認識することができる。
<動脈、静脈の検出への適用>
次に、検出する部位として動脈や静脈を検出する場合を具体例として上げ、画像処理装置301の処理について説明を加える。まず図11を参照して、動脈や静脈を2次元の通常光で撮像した画像について説明する。なおここでは、動脈と静脈を例にあげて説明を行うが、動脈や静脈の組み合わせに限定されるわけではなく、血管に対して本実施の形態は適用できる。
図11Aは、表面801の下側に、静脈802と動脈803が深さ方向で同一の深さに位置している状態を示している。図11中、静脈は、斜線を入れた円で示し、動脈は、斜線を入れない円で示すとする。図11Bは、表面801の下側に、静脈802と動脈803が深さ方向で異なる深さに位置している状態を示している。
図11Aおよび図11Bに示した状況を通常光で2次元画像として表面801側から撮影した場合、図11Cに示すような画像811が撮像される。画像811には、静脈82と動脈83が撮像されている。画像811は、2次元画像であるため、また、静脈82と動脈83との位置関係を表す情報などの表示はされていないため、静脈82と動脈83のどちらが深い位置にあるのかを読み取るのは困難である。
図12は、酸素と結びついたヘモグロビン(HbO2)と、酸素を離したヘモグロビン(Hb)における反射率を表すグラフである。図12に示したグラフにおいて、横軸は、照射する光の波長を表し、縦軸は、反射率を表す。
図12に示したグラフから、酸素と結びついたヘモグロビン(HbO2)と、酸素を離したヘモグロビン(Hb)とでは、波長による反射率の特性が異なることがわかる。動脈は、酸素と結びついたヘモグロビン(HbO2)が流れ、静脈は、酸素を離したヘモグロビン(Hb)が流れる。
動脈、静脈は、同じ深さにあって同じ程度の太さならば、反射率の違いで動脈は静脈より640[nm]付近以降の反射率が高くなり、より鮮明な赤になり、見分けがつく。しかしながら、図11Bに示したように、静脈が表面近くにいて、脈が若干深い位置にあり、2つの血管の太さが同じ程度である場合、表面から通常光で観察すると、脈に届く前に肉組織によって反射される光が多くなるため、脈と同程度の明るさになってしまいがちで、深さが異なる2つの血管の静脈、動脈判別は困難である。
静脈82であるか動脈83であるかは、深さ方向の位置関係からわかることもあるため、血管の深さ方向での位置関係は重要な情報となる。そこで、図13に示すように、異なる波長で撮影を行うことで、異なる深さの血管をそれぞれ撮影する。
波長の異なる2つの光で、それぞれ3D画像の撮像が行われる。ここでは、第1の波長λ1と第2の波長λ2で撮像が行われるとする。波長が異なることで、肉組織内で到達する深さが異なる。第1の波長λ1は、比較的浅い部分まで到達する波長であり、第2の波長λ2は、比較的深い部分まで到達する波長であるとする。
図13に示すように、表面801に近い位置に、静脈802が位置し、深い位置に動脈803が位置しているときに、撮像が行われた場合、第1の波長λ1は、静脈802で反射され、第2の波長λ2は、動脈803で反射される。すなわち、第1の波長λ1でステレオ撮影されることで、静脈802に対する深さ情報である深さλ1_depthが取得され、第2の波長λ2でステレオ撮影されることで、動脈803に対する深さ情報である深さλ2_depthが取得される。
この2つの深さの差分を取ることにより、2つの血管間の距離を得ることができる。
距離dif_depth =深さλ2_depth―深さλ1_depth ・・・(4)
このようにして求められた血管間の距離情報を利用し、深い位置にある動脈の反射率を補正して表示することにより、動脈、静脈の判別ができる画像を得ることができる。
このような処理を行う画像処理装置301(図3)の動作について、図14のフローチャートを参照して説明する。
ステップS501において、第1の波長λ1で撮像された3D画像が取得される。この場合、撮像部302の特殊光3D画像撮像部342により、第1の波長λ1による撮像が行われることで、特殊光画像の3D画像が取得され、3D画像取得部323に供給される。
ステップS502において、第2の波長λ2で撮像された3D画像が取得される。この場合、撮像部302の特殊光3D画像撮像部342により、第2の波長λ2による撮像が行われることで、特殊光画像の3D画像が取得され、3D画像取得部323に供給される。
ステップS503において、奥行き情報生成部124により、奥行き差分が算出される。この奥行き差分の算出は、上式(4)による演算が行われることにより行われ、3D画像の深さ方向の座標が用いられて行われる。この算出された差分値は、血管間の距離とされる。
このようにして算出された血管間の距離を用いて、深い位置にある動脈の反射率を補正して表示することにより、動脈、静脈の判別ができる画像を得ることができる。例えば、浅い位置にある血管を赤で表示し、その浅い位置にある血管よりも深い位置にあると、距離情報から判断できる血管は、少し黒い赤色で表示するなど、深さに応じた色付けがなされ、ユーザに深さに応じた血管の位置関係が一見してわかるような画像が提示される。
このような画像は、通常光画像または特殊光画像上に重畳されることでユーザに提示されるようにしても良い。また、3D画像上に重畳されるようにしても良い。
このようにして、2枚の3次元画像から差分値を求め、その差分値から、血管の位置関係(深さ情報)を検出することができる。検出された位置情報は、ユーザに提示されるため、ユーザは、撮像された画像を見ただけではわかりづらい血管の位置関係を、情報を閲覧することで認識することができる。
<血管の重なり具合の検出への適用>
次に、検出する部位として血管の重なり具合を検出する場合を具体例として上げ、画像処理装置301の処理について説明を加える。まず図15を参照して、血管の重なり具合について説明する。
インシアニングリーン(ICG)注射後の励起光観察により、粘膜深部や混濁した羊水中の胎盤血管等が観察できる。しかしながら、図15の左図のように、血管が複数重なっている部分では、血管の重なり方が判別しづらく、癌組織911につながり転移可能性がある血管の出口を誤って別の血管の出口と判断してしまう可能性がある。
図15の左図では、血管901、血管902、血管903があるが、図中中央部で重なりがあるため、図15の右上図に示すように、血管がつながっているのか、または、図15の右下図に示すように血管がつながっているのか判断しづらい。
図15の右上図では、血管901と血管904がつながり、血管902と血管905がつながり、血管903と血管906がつながっていると判断されたときの状態を示している。このような判断に基づいた場合、癌組織911につながっている血管は、血管903と血管906になる。
図15の右下図では、血管901と血管904がつながり、血管902と血管906がつながり、血管903と血管905がつながっていると判断されたときの状態を示している。このような判断に基づいた場合、癌組織911につながっている血管は、血管903と血管905になる。
このように、重なり具合が正確に判断されないと、血管のつながりが誤って判断されてしまう可能性があるため、血管同士の重なり具合をユーザに提示し、血管のつながりを判断できるようにすることは重要なことである。
そこで、ICG注射後に励起光照射下でステレオ撮影し、距離情報ICG_depthを検出し、その距離情報ICG_depthから、血管のつながり、血管の重なり(=異なる血管の判別)が検出される。また、血管の重なり情報から、血流の方向を判別し、癌組織の転移可能性の高い領域を推定する。
例えば、図16に示すような画像がユーザに提示される。図16に示した画像例では、ICG注射後の励起光照射下でステレオ撮影された結果、距離情報ICG_depthが検出され、その距離情報ICG_depthから、血管のつながり、血管の重なりが検出された結果、血管901と血管904がつながり、血管902と血管905がつながり、血管903と血管906がつながっていると検出され、そのように表示されている。
また、血管901と血管904が一番上に位置し、血管902と血管905が一番下に位置し、その間に、血管903と血管906が位置しているという位置関係も距離情報ICG_depthから検出されるため、そのような位置関係が明確になるような表示がなされる。
例えば、重なり合う血管の表示において、異なる血管は、輝度や色を変えて表示し、ユーザに血管構成を判別しやすくするための表示がなされる。また癌組織911とつながる血管のつながり情報から、癌の転移可能性のある領域を推定し、その領域を強調表示するようにしても良い。
このような表示がなされる(画像が提示される)ことにより、ユーザが血管の重なり方を正しく判別することができ、浸潤した血管・組織の切除を正しく行うことができる。また癌の転移可能性領域を見落としてしまうようなことを減らすことが可能となる。
このような処理を行う画像処理装置301(図3)の動作について、図17のフローチャートを参照して説明する。
ステップS601において、励起光撮影による3D画像が取得される。この場合、ICG注射後に、撮像部302の特殊光3D画像撮像部342により、励起光による撮像が行われることで、特殊光画像の3D画像が取得され、3D画像取得部323に供給される。
ステップS602において、奥行き情報生成部124により、奥行きが算出される。
ステップS603において、血管のつながりや重なりが検出される。励起光撮影による3D画像を解析することで、血管に重なりがある部分の各血管の奥行き情報から、血管の上下の位置関係が検出されたり、奥行き情報から、略同一の奥行きにある血管同士はつながっていると推定されたりすることで、血管のつながりや重なりが検出される。
上記したように、このように検出された結果を用いて、異なる血管は、輝度や色を変えて表示されたり、癌の転移可能性のある領域が強調表示されたりすることが可能となるため、ユーザが血管の重なり方を正しく判別することができるようになる。その結果、浸潤した血管・組織の切除を正しく行うことができ、癌の転移可能性領域を見落としてしまうようなことを減らすことが可能となる。
<腫瘍の検出への適用>
次に、検出する部位として腫瘍を検出する場合を具体例として上げ、画像処理装置301の処理について説明を加える。まず図18を参照して、腫瘍の体積推定について説明する。
光力学診断(PDD)では、患者が、アミノレブリン酸(5-ALA)を内服後、青色光観察により腫瘍が赤色発して見える。この光力学診断では、平面的な画像しか観ることができないため、ユーザは腫瘍の真の大きさを認識しづらい。
例えば、図18に示すように、平面的に広がりがあるが、内面方向には深く浸潤していない腫瘍1001である場合と、平面的に広がりはないが、内面方向に深く浸潤した腫瘍1002である場合とがある。腫瘍1002のような深く浸潤した腫瘍であるか否かの判断は、平面的な画像だけでは判断しづらい。
そこで、PDD下でステレオ撮影し、距離情報PDD_depthを検出し、2次元画像から得られる腫瘍の表面積と距離情報PDD_depthから腫瘍の体積推定を行うように構成する。このような体積推定を行った結果は、推定体積が大きい腫瘍を強調表示するなどして、ユーザに提示される。
また、2次元画像上での表面積が小さく、かつ推定体積が大きい腫瘍については、さらに区別して強調表示が行われるようにしても良い。このような表示が行われることで、表面積の小ささにより経過観察等にされてしまいがちな体積の大きな腫瘍を、ユーザが正しく判別し、適切な処置を下す判断を行うことが可能となる。
このような処理を行う画像処理装置301(図3)の動作について、図19のフローチャートを参照して説明する。
ステップS701において、PDD下での撮像により2D画像が取得される。この場合、アミノレブリン酸を内服後に、撮像部302の特殊光3D画像撮像部342により、青色光の照射によるステレオ撮像が行われることで、患部が赤色に発色した特殊光画像の3D画像が取得される。この取得された3D画像を2D画像に変換することで、2D画像が取得される。
ステップS702において、PDD下での撮像により3D画像が取得される。ステップS701と同じく、アミノレブリン酸を内服後に、撮像部302の特殊光3D画像撮像部342により、青色光の照射によるステレオ撮像が行われることで、患部が赤色に発色した特殊光画像の3D画像が取得される。
ステップS703において、奥行き情報生成部124により、取得された特殊光画像の3D画像を用いて、腫瘍の奥行き(内面方向の深さ)が算出される。
ステップS704において、腫瘍の体積が推定される。取得された特殊光画像の2D画像から、表面積を算出し、3D画像から算出された奥行き情報を乗算することで、腫瘍の体積が推定される。
このようにして推定された体積に応じて、上記したように、推定体積が大きい腫瘍を強調表示するなどして、ユーザに提示される。そのような表示が行われることで、腫瘍の大きさを、ユーザが正しく判別し、適切な処置を下す判断を行うことが可能となる。
このように、本技術によれば、2D画像のみによる検出処理では検出困難な、注目部位やそれに関連する特徴量を検出することができ、提示画像に対して、それらに基づいた強調処理や画像重畳処理を行うことで、ユーザがより多くの情報を視覚的に把握しやすい形で得ることができる。
そのようなことが可能となることで、より術前・術中・術後の正確な診断、手術精度の向上、手術時間の短縮、手術の低侵襲化を図ることが可能となる。
なお上記した具体的な部位の検出は、単独で行われるように構成しても良いし、複数組み合わされて行われるように構成しても良い。例えば、動脈、静脈の検出と、血管の重なり具合の検出は、血管に関する検出であるため、組み合わせて行われるようにし、より適切に、動脈、静脈を検出し、それらの位置関係を明確に検出するようにすることも可能である。
また、部位の検出を切り換えて行うような構成とすることも可能である。例えば、透明膜、ミストを順次検出し、透明膜やミストが存在することをユーザに提示するとともに、腫瘍の検出が行われるように構成することも可能である。
<記録媒体について>
上述した一連の処理は、ハードウエアにより実行することもできるし、ソフトウエアにより実行することもできる。一連の処理をソフトウエアにより実行する場合には、そのソフトウエアを構成するプログラムが、コンピュータにインストールされる。ここで、コンピュータには、専用のハードウエアに組み込まれているコンピュータや、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータなどが含まれる。
図20は、上述した一連の処理をプログラムにより実行するコンピュータのハードウエアの構成例を示すブロック図である。コンピュータにおいて、CPU(Central Processing Unit)2001、ROM(Read Only Memory)2002、RAM(Random Access Memory)2003は、バス2004により相互に接続されている。バス2004には、さらに、入出力インタフェース2005が接続されている。入出力インタフェース2005には、入力部2006、出力部2007、記憶部2008、通信部2009、及びドライブ2010が接続されている。
入力部2006は、キーボード、マウス、マイクロフォンなどよりなる。出力部2007は、ディスプレイ、スピーカなどよりなる。記憶部2008は、ハードディスクや不揮発性のメモリなどよりなる。通信部2009は、ネットワークインタフェースなどよりなる。ドライブ2010は、磁気ディスク、光ディスク、光磁気ディスク、又は半導体メモリなどのリムーバブルメディア2011を駆動する。
以上のように構成されるコンピュータでは、CPU2001が、例えば、記憶部2008に記憶されているプログラムを、入出力インタフェース2005及びバス2004を介して、RAM2003にロードして実行することにより、上述した一連の処理が行われる。
コンピュータ(CPU2001)が実行するプログラムは、例えば、パッケージメディア等としてのリムーバブルメディア211に記録して提供することができる。また、プログラムは、ローカルエリアネットワーク、インターネット、デジタル衛星放送といった、有線または無線の伝送媒体を介して提供することができる。
コンピュータでは、プログラムは、リムーバブルメディア2011をドライブ2010に装着することにより、入出力インタフェース2005を介して、記憶部2008にインストールすることができる。また、プログラムは、有線または無線の伝送媒体を介して、通信部2009で受信し、記憶部2008にインストールすることができる。その他、プログラムは、ROM2002や記憶部2008に、あらかじめインストールしておくことができる。
なお、コンピュータが実行するプログラムは、本明細書で説明する順序に沿って時系列に処理が行われるプログラムであっても良いし、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで処理が行われるプログラムであっても良い。
また、本明細書において、システムとは、複数の装置により構成される装置全体を表すものである。
なお、本明細書に記載された効果はあくまで例示であって限定されるものでは無く、また他の効果があってもよい。
なお、本技術の実施の形態は、上述した実施の形態に限定されるものではなく、本技術の要旨を逸脱しない範囲において種々の変更が可能である。
101 画像処理装置, 102 撮像部, 103 表示部, 121 通常光画像取得部, 122 特殊光画像取得部, 123 3D画像取得部, 124 奥行き情報生成部, 125 注目部位検出部, 126 画像生成部, 141 通常光画像撮像部, 142 特殊光画像撮像部, 143 3D画像撮像部, 222 特殊光画像取得部, 321 通常光画像取得部, 322 特殊光画像取得部, 323 3D画像取得部, 341 通常光3D画像撮像部, 342 特集光3D画像撮像部

Claims (21)

  1. 特定の波長帯域における情報を有する特殊光画像を取得する特殊光画像取得部と、
    白色光の波長帯域における情報を有する通常光画像を取得する通常光画像取得部と、
    前記特殊光画像に基づいて生成された第1の3次元情報と前記通常光画像に基づいて生成された第2の3次元情報との深さ方向の差分に基づいて、生体内の所定の部位の前記深さ方向の位置情報を検出する検出部と
    を備える画像処理装置。
  2. 内視鏡システムまたは顕微鏡システムの一部を構成する
    請求項1に記載の画像処理装置。
  3. 前記特定の波長帯域は、赤外光であり、
    前記検出部は、前記所定の部位として、出血点を検出する
    請求項1または2に記載の画像処理装置。
  4. 前記特殊光画像または前記通常光画像に、前記出血点を表す所定のマーク、またはテキストを重畳した画像を生成する画像生成部をさらに備える
    請求項3に記載の画像処理装置。
  5. 前記検出部は、前記第1の3次元情報と前記第2の3次元情報の深さ方向の差分が所定の閾値より大きい場合に、前記所定の部位として前記出血点があると検出する
    請求項3または4に記載の画像処理装置。
  6. 前記特定の波長帯域は、偏光であり、
    前記検出部は、前記所定の部位として、透明膜の膜厚を検出する
    請求項1または2に記載の画像処理装置。
  7. 前記特殊光画像または前記通常光画像に、前記透明膜の膜厚を表す数値、または膜厚に応じたグラデーション画像を重畳した画像を生成する画像生成部をさらに備える
    請求項に記載の画像処理装置。
  8. 前記特定の波長帯域は、赤外光であり、
    前記検出部は、前記所定の部位として、ミストを検出する
    請求項1または2に記載の画像処理装置。
  9. 前記特殊光画像または前記通常光画像に、前記ミストがあることを知らせる警告表示、または前記ミストを表す色を重畳した画像を生成する画像生成部をさらに備える
    請求項に記載の画像処理装置。
  10. 前記画像生成部は、
    画像全体に占める前記ミストが検出された領域の割合が大きい場合、前記特殊光画像を表示する、または、前記ミストを除去する画像処理が施された画像を生成する
    請求項に記載の画像処理装置。
  11. 前記検出部は、前記第1の3次元情報と前記第2の3次元情報の深さ方向の差分が所定の閾値より大きい場合に、前記所定の部位として前記ミストがあると検出する
    請求項8乃至10のいずれかに記載の画像処理装置。
  12. 前記特定の波長帯域は、第1の波長と、前記第1の波長とは異なる第2の波長であり、
    前記検出部は、前記第1の波長における情報を有する特殊光画像と、前記第2の波長における情報を有する特殊光画像との深さ方向の差分に基づいて、血管の深さ方向における位置情報を検出する
    請求項1または2に記載の画像処理装置。
  13. 前記血管の深さ方向における位置情報を用いて、深い位置にある動脈の反射率を補正した画像を生成する画像生成部をさらに備える
    請求項12に記載の画像処理装置。
  14. 前記特定の波長帯域は、インドシアニングリーン(ICG)注射後の励起光観察に用いられる励起光の波長帯域であり、
    前記検出部は、前記特殊光画像に基づいて生成された第1の3次元情報に基づいて、重なりがある血管同士の位置関係、癌組織とつながりのある血管、または癌の可能性のある領域を検出する
    請求項1または2に記載の画像処理装置。
  15. 重なり合う血管ごとに輝度または色を変えた画像、または癌の可能性のある領域を強調した画像を生成する画像生成部をさらに備える
    請求項14に記載の画像処理装置。
  16. 前記特定の波長帯域は、青色光であり、
    前記検出部は、前記青色光による3次元画像から、所定の位置の奥行き情報を生成し、前記青色光による2次元画像から、腫瘍の平面方向の大きさを推定し、その推定値と、前記奥行き情報を乗算することで得られる前記腫瘍の体積を検出する
    請求項1または2に記載の画像処理装置。
  17. 前記体積が大きい前記腫瘍を強調表示した画像を生成する画像生成部をさらに備える
    請求項16に記載の画像処理装置。
  18. 前記特殊光画像取得部は、前記通常光画像から、前記特定の波長帯域における情報を有する特殊光画像を生成する
    請求項1または2に記載の画像処理装置。
  19. 前記特殊光画像及び前記通常光画像は、それぞれステレオ画像であり、
    前記第1の3次元情報及び前記第2の3次元情報は、それぞれの前記ステレオ画像から生成される
    請求項1に記載の画像処理装置。
  20. 画像処理装置の画像処理方法において、
    前記画像処理装置が、
    特定の波長帯域における情報を有する特殊光画像を取得し、
    白色光の波長帯域における情報を有する通常光画像を取得し、
    前記特殊光画像に基づいて生成された第1の3次元情報と前記通常光画像に基づいて生成された第2の3次元情報との深さ方向の差分に基づいて、生体内の所定の部位の前記深さ方向の位置情報を検出する
    画像処理方法。
  21. 特定の波長帯域における情報を有する特殊光画像を取得し、
    白色光の波長帯域における情報を有する通常光画像を取得し、
    前記特殊光画像に基づいて生成された第1の3次元情報と前記通常光画像に基づいて生成された第2の3次元情報との深さ方向の差分に基づいて、生体内の所定の部位の前記深さ方向の位置情報を検出する
    処理をコンピュータに実行させるためのプログラム。
JP2014229368A 2014-11-12 2014-11-12 画像処理装置、画像処理方法、並びにプログラム Active JP6432770B2 (ja)

Priority Applications (6)

Application Number Priority Date Filing Date Title
JP2014229368A JP6432770B2 (ja) 2014-11-12 2014-11-12 画像処理装置、画像処理方法、並びにプログラム
PCT/JP2015/005487 WO2016075890A2 (en) 2014-11-12 2015-10-30 Image processing apparatus, image processing method, and program
US15/329,313 US10799101B2 (en) 2014-11-12 2015-10-30 Image processing apparatus, image processing method, and program
CN201580060121.8A CN107072485B (zh) 2014-11-12 2015-10-30 图像处理装置、图像处理方法以及程序
EP15794658.3A EP3217855B1 (en) 2014-11-12 2015-10-30 Image processing apparatus, image processing method, and program
US17/066,504 US11766167B2 (en) 2014-11-12 2020-10-09 Image processing apparatus, image processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014229368A JP6432770B2 (ja) 2014-11-12 2014-11-12 画像処理装置、画像処理方法、並びにプログラム

Publications (3)

Publication Number Publication Date
JP2016093210A JP2016093210A (ja) 2016-05-26
JP2016093210A5 JP2016093210A5 (ja) 2017-02-23
JP6432770B2 true JP6432770B2 (ja) 2018-12-05

Family

ID=54542484

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014229368A Active JP6432770B2 (ja) 2014-11-12 2014-11-12 画像処理装置、画像処理方法、並びにプログラム

Country Status (5)

Country Link
US (2) US10799101B2 (ja)
EP (1) EP3217855B1 (ja)
JP (1) JP6432770B2 (ja)
CN (1) CN107072485B (ja)
WO (1) WO2016075890A2 (ja)

Families Citing this family (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6626783B2 (ja) * 2016-06-02 2019-12-25 Hoya株式会社 画像処理装置および電子内視鏡システム
WO2018105020A1 (ja) * 2016-12-05 2018-06-14 オリンパス株式会社 内視鏡装置
JP2018108173A (ja) 2016-12-28 2018-07-12 ソニー株式会社 医療用画像処理装置、医療用画像処理方法、プログラム
WO2018198251A1 (ja) * 2017-04-26 2018-11-01 オリンパス株式会社 画像処理装置、画像処理装置の作動方法及び画像処理装置の作動プログラム
WO2019045144A1 (ko) 2017-08-31 2019-03-07 (주)레벨소프트 의료용 항법 장치를 위한 의료 영상 처리 장치 및 의료 영상 처리 방법
CN107741637A (zh) * 2017-11-24 2018-02-27 南京图思灵智能科技有限责任公司 一种双通道组织样品扫描仪和双通道组织样品数字成像复现系统
EP3505059A1 (en) * 2017-12-28 2019-07-03 Leica Instruments (Singapore) Pte. Ltd. Apparatus and method for measuring blood flow direction using a fluorophore
US11471151B2 (en) * 2018-07-16 2022-10-18 Cilag Gmbh International Safety logic for surgical suturing systems
KR102545980B1 (ko) 2018-07-19 2023-06-21 액티브 서지컬, 인크. 자동화된 수술 로봇을 위한 비전 시스템에서 깊이의 다중 모달 감지를 위한 시스템 및 방법
WO2020039113A1 (en) * 2018-08-21 2020-02-27 Wärtsilä Finland Oy Method and apparatus for plain bearing crush height measurement
JP7286948B2 (ja) * 2018-11-07 2023-06-06 ソニーグループ株式会社 医療用観察システム、信号処理装置及び医療用観察方法
CN113543689A (zh) * 2019-03-19 2021-10-22 奥林巴斯株式会社 内窥镜装置、内窥镜装置的工作方法以及程序
CN110009673B (zh) * 2019-04-01 2020-04-21 四川深瑞视科技有限公司 深度信息检测方法、装置及电子设备
JP2022526626A (ja) 2019-04-08 2022-05-25 アクティブ サージカル, インコーポレイテッド 医療撮像のためのシステムおよび方法
JP7354608B2 (ja) * 2019-06-21 2023-10-03 ソニーグループ株式会社 医療用観察システム、医療用観察方法、および情報処理装置
CN114599263A (zh) 2019-08-21 2022-06-07 艾科缇弗外科公司 用于医疗成像的系统和方法
WO2021044590A1 (ja) * 2019-09-05 2021-03-11 オリンパス株式会社 内視鏡システム、処理システム、内視鏡システムの作動方法及び画像処理プログラム
EP4266693A1 (en) * 2021-07-06 2023-10-25 Samsung Electronics Co., Ltd. Electronic device for image processing and operation method thereof
CN114469008A (zh) * 2022-03-09 2022-05-13 浙江大学 基于血管近红外成像的血管穿刺难易智能分级装置

Family Cites Families (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050065436A1 (en) * 2003-09-23 2005-03-24 Ho Winston Zonh Rapid and non-invasive optical detection of internal bleeding
JP4025764B2 (ja) 2004-08-31 2007-12-26 オリンパス株式会社 内視鏡装置
US8858425B2 (en) * 2004-09-24 2014-10-14 Vivid Medical, Inc. Disposable endoscope and portable display
JP2006198106A (ja) 2005-01-19 2006-08-03 Olympus Corp 電子内視鏡装置
US7530948B2 (en) * 2005-02-28 2009-05-12 University Of Washington Tethered capsule endoscope for Barrett's Esophagus screening
JP4818753B2 (ja) 2006-02-28 2011-11-16 オリンパス株式会社 内視鏡システム
US8090178B2 (en) * 2006-04-06 2012-01-03 Siemens Medical Solutions Usa, Inc. System and method for automatic detection of internal structures in medical images
WO2008035685A1 (fr) * 2006-09-19 2008-03-27 Olympus Medical Systems Corporation Dispositif de mesure de polarisation
JP5025720B2 (ja) * 2007-02-22 2012-09-12 オリンパスメディカルシステムズ株式会社 被検体内導入システム
JP2010537771A (ja) * 2007-09-07 2010-12-09 ユニヴァーシティ オブ ワシントン テザー付きカプセル内視鏡の食道内配置の監視
US9381273B2 (en) * 2008-01-31 2016-07-05 Yissum Research Development Company Of The Hebrew University Of Jerusalem Scaffolds with oxygen carriers, and their use in tissue regeneration
JP2010022464A (ja) * 2008-07-16 2010-02-04 Fujifilm Corp 画像取得方法および装置
EP2335560B1 (en) * 2008-10-17 2014-11-26 Olympus Medical Systems Corp. Endoscope system and endoscopic image processing apparatus
JP5767775B2 (ja) * 2009-07-06 2015-08-19 富士フイルム株式会社 内視鏡装置
JP5385176B2 (ja) * 2009-09-28 2014-01-08 富士フイルム株式会社 画像表示装置の作動方法および画像表示装置
JP5541914B2 (ja) 2009-12-28 2014-07-09 オリンパス株式会社 画像処理装置、電子機器、プログラム及び内視鏡装置の作動方法
US9333036B2 (en) * 2010-01-22 2016-05-10 Board Of Regents, The University Of Texas System Systems, devices and methods for imaging and surgery
JP2011239259A (ja) * 2010-05-12 2011-11-24 Sony Corp 画像処理装置、画像処理方法及びプログラム
JP5065538B2 (ja) * 2010-09-14 2012-11-07 オリンパスメディカルシステムズ株式会社 内視鏡システム及び視界不良判定システムの動作方法
JP5485215B2 (ja) * 2011-04-01 2014-05-07 富士フイルム株式会社 内視鏡装置
JP5855358B2 (ja) * 2011-05-27 2016-02-09 オリンパス株式会社 内視鏡装置及び内視鏡装置の作動方法
WO2013001994A1 (ja) * 2011-06-28 2013-01-03 オリンパス株式会社 分光画像取得装置及び分光画像取得方法
JP5815426B2 (ja) * 2012-01-25 2015-11-17 富士フイルム株式会社 内視鏡システム、内視鏡システムのプロセッサ装置、及び画像処理方法
JP5829568B2 (ja) * 2012-04-11 2015-12-09 富士フイルム株式会社 内視鏡システム、画像処理装置、画像処理装置の作動方法、及び画像処理プログラム
CN104780822B (zh) * 2012-07-19 2017-06-23 独立行政法人国立长寿医疗研究中心 牙菌斑、牙龈和牙槽骨的测量和显示方法及装置
CN105050479B (zh) * 2013-04-12 2017-06-23 奥林巴斯株式会社 内窥镜系统
WO2014209806A1 (en) * 2013-06-24 2014-12-31 Theranova, Llc Devices and methods for determining menstrual blood loss
US9295372B2 (en) * 2013-09-18 2016-03-29 Cerner Innovation, Inc. Marking and tracking an area of interest during endoscopy
US9645074B2 (en) * 2014-02-06 2017-05-09 Panasonic Intellectual Property Management Co., Ltd. Image processing apparatus
US10251714B2 (en) * 2014-07-25 2019-04-09 Covidien Lp Augmented surgical reality environment for a robotic surgical system

Also Published As

Publication number Publication date
US20170209031A1 (en) 2017-07-27
US11766167B2 (en) 2023-09-26
US10799101B2 (en) 2020-10-13
CN107072485A (zh) 2017-08-18
WO2016075890A3 (en) 2016-10-27
JP2016093210A (ja) 2016-05-26
CN107072485B (zh) 2019-08-13
EP3217855A2 (en) 2017-09-20
EP3217855B1 (en) 2021-09-15
WO2016075890A2 (en) 2016-05-19
US20210030264A1 (en) 2021-02-04

Similar Documents

Publication Publication Date Title
JP6432770B2 (ja) 画像処理装置、画像処理方法、並びにプログラム
JP2016093210A5 (ja)
JP6577088B2 (ja) 内視鏡システム
JP6045417B2 (ja) 画像処理装置、電子機器、内視鏡装置、プログラム及び画像処理装置の作動方法
JP6640865B2 (ja) 画像処理装置、内視鏡システム、及び画像処理方法
JP6176978B2 (ja) 内視鏡用画像処理装置、内視鏡装置、内視鏡用画像処理装置の作動方法及び画像処理プログラム
WO2011080996A1 (ja) 画像処理装置、電子機器、プログラム及び画像処理方法
US20150294463A1 (en) Image processing device, endoscope apparatus, image processing method, and information storage device
JP6640866B2 (ja) 画像処理装置、内視鏡システム、及び画像処理方法
JP6234375B2 (ja) 観察装置
JP6210962B2 (ja) 内視鏡システム、プロセッサ装置、内視鏡システムの作動方法、及びプロセッサ装置の作動方法
WO2017057414A1 (ja) 画像処理装置、内視鏡システム、及び画像処理方法
JP2011218090A (ja) 画像処理装置、内視鏡システム及びプログラム
JPWO2012132571A1 (ja) 診断システム
JP2010142547A (ja) 内視鏡画像処理装置および方法ならびにプログラム。
WO2016121811A1 (ja) 画像処理装置及び画像処理方法、並びに内視鏡システム
US11341666B2 (en) Image processing device, endoscope system, operation method of image processing device, and computer-readable recording medium
JPWO2020100630A1 (ja) 医療画像処理システム
JP6184928B2 (ja) 内視鏡システム、プロセッサ装置
JP2009247463A (ja) 画像処理装置、画像処理方法、およびプログラム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170118

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170118

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20171130

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180122

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180607

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180731

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20181011

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20181024

R151 Written notification of patent or utility model registration

Ref document number: 6432770

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151