JP2015228954A - 画像処理装置および画像処理方法 - Google Patents

画像処理装置および画像処理方法 Download PDF

Info

Publication number
JP2015228954A
JP2015228954A JP2014115768A JP2014115768A JP2015228954A JP 2015228954 A JP2015228954 A JP 2015228954A JP 2014115768 A JP2014115768 A JP 2014115768A JP 2014115768 A JP2014115768 A JP 2014115768A JP 2015228954 A JP2015228954 A JP 2015228954A
Authority
JP
Japan
Prior art keywords
image
zoom
image processing
processing apparatus
surgical instrument
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014115768A
Other languages
English (en)
Other versions
JP2015228954A5 (ja
JP6323183B2 (ja
Inventor
山口 健太
Kenta Yamaguchi
健太 山口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2014115768A priority Critical patent/JP6323183B2/ja
Priority to PCT/JP2015/002752 priority patent/WO2015186339A1/en
Priority to US15/306,943 priority patent/US10694933B2/en
Priority to EP15728187.4A priority patent/EP3151720B1/en
Priority to CN201580027803.9A priority patent/CN106413510B/zh
Publication of JP2015228954A publication Critical patent/JP2015228954A/ja
Publication of JP2015228954A5 publication Critical patent/JP2015228954A5/ja
Application granted granted Critical
Publication of JP6323183B2 publication Critical patent/JP6323183B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00009Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00009Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
    • A61B1/000095Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope for image enhancement
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00043Operational features of endoscopes provided with output arrangements
    • A61B1/00045Display arrangement
    • A61B1/0005Display arrangement combining images e.g. side-by-side, superimposed or tiled
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/313Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor for introducing through surgical openings, e.g. laparoscopes
    • A61B1/3132Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor for introducing through surgical openings, e.g. laparoscopes for laparoscopy
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/20Surgical microscopes characterised by non-optical aspects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2055Optical tracking systems
    • A61B2034/2057Details of tracking cameras
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2065Tracking using image or pattern recognition
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/373Surgical systems with images on a monitor during operation using light, e.g. by using optical scanners
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10056Microscopic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10068Endoscopic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Surgery (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Pathology (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Molecular Biology (AREA)
  • Animal Behavior & Ethology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Biophysics (AREA)
  • Optics & Photonics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Signal Processing (AREA)
  • Quality & Reliability (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Endoscopes (AREA)
  • Instruments For Viewing The Inside Of Hollow Bodies (AREA)
  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Exposure Control For Cameras (AREA)
  • Cameras In General (AREA)
  • Indication In Cameras, And Counting Of Exposures (AREA)

Abstract

【課題】術者の手間をかけずに、術者の所望する術部を映し出すことができるようにする。
【解決手段】ズーム画像生成部は、手術対象の部位を含む術野を撮像することにより得られた画像から、術者の注目する注目領域の画像を拡大したズーム画像を生成する。画像重畳部は、得られた画像にズーム画像を重畳して画面に表示させる。本開示は、例えば、画像処理装置等に適用できる。
【選択図】図1

Description

本開示は、画像処理装置および画像処理方法に関し、特に、術者の手間をかけずに、術者の所望する術部を映し出すことができるようにする画像処理装置および画像処理方法に関する。
内視鏡を体内に挿入し、内視鏡により、手術対象となる体内の部位(術部)を被観察部として撮像して画面に映し出し、画面を見ながら術部に処置を施す内視鏡下手術が利用されている。内視鏡下手術では、光源装置からの照明光が被観察部へ照射され、内視鏡で得られた被観察部の光学像の画像信号に、所望の信号処理が施され、被観察部の光学像の画像が画面に映し出される。
このような内視鏡下手術においては、手術を行う術者にとって最適な術部の視野(術野)を確保するために、状況に応じて、画面に映し出される被観察部の範囲や位置を適宜調整する必要がある。
しかし、通常、術者は、手術を行うための手術器具を両手に保持しているため、上記のような画面調整の作業を自ら迅速に行うことができない。また、術者が画面調整を目的として直接調整機器等を操作することは、術部、医療機器、および、手術室等の清浄度を確保する観点から好ましくない。
そこで、一般的には、術者がスコピスト等と呼ばれる補助者に対して指示を与えることにより、補助者が、術者からの指示に応じて調整機器を操作して、上記のような画面調整を行っている。
しかしながら、補助者を介した方法では、術者の指示が正確に伝わらず、術者が希望する画面調整を迅速に行うことが難しい場合がある。
そこで、補助者を介さずに画面調整を行う方法として、例えば、特許文献1では、鉗子を認識することにより、術者がカメラの拡大や明るさを調整する手術支援作業システムが提案されている。
特開2012−65698号公報
しかしながら、特許文献1の手術支援作業システムでは、術者がカメラの操作を行う必要があり、カメラの操作のために、施術を中断する必要があった。
本開示は、このような状況に鑑みてなされたものであり、術者の手間をかけずに、術者の所望する術部を映し出すことができるようにするものである。
本開示の一側面の画像処理装置は、手術対象の部位を含む術野を撮像することにより得られた画像から、術者の注目する注目領域の画像を拡大したズーム画像を生成するズーム画像生成部と、前記画像に前記ズーム画像を重畳して画面に表示させる画像重畳部とを備える。
本開示の一側面の画像処理方法は、画像処理装置が、手術対象の部位を含む術野を撮像することにより得られた画像から、術者の注目する注目領域の画像を拡大したズーム画像を生成し、前記画像に前記ズーム画像を重畳して画面に表示させる。
本開示の一側面においては、手術対象の部位を含む術野を撮像することにより得られた画像から、術者の注目する注目領域の画像を拡大したズーム画像が生成され、前記画像に前記ズーム画像が重畳されて画面に表示される。
画像処理装置は、独立した装置であっても良いし、1つの装置を構成している内部ブロックであっても良い。
本開示の一側面によれば、術者の手間をかけずに、術者の所望する術部を映し出すことができる。
なお、ここに記載された効果は必ずしも限定されるものではなく、本開示中に記載されたいずれかの効果であってもよい。
本開示に係る内視鏡システムの一実施の形態の構成例を示すブロック図である。 内視鏡システムの使用状態を説明する図である。 奥行き位置の算出方法を説明する図である。 奥行き位置の算出方法を説明する図である。 鉗子の位置検出を説明する図である。 注目点の位置検出を説明する図である。 ディスプレイに表示される重畳画像の例を示す図である。 重畳表示処理を説明するフローチャートである。 鉗子位置検出処理の詳細を説明するフローチャートである。 注目点推定処理の詳細を説明するフローチャートである。 ズーム倍率による注目領域のサイズの違いを説明する図である。 重畳位置決定処理を説明する図である。 重畳位置決定処理を説明する図である。 重畳位置決定処理の詳細を説明するフローチャートである。 2D/3D表示切替処理を説明するフローチャートである。 本開示に係るコンピュータの一実施の形態の構成例を示すブロック図である。
<1.内視鏡システムの構成例>
図1は、本開示に係る内視鏡システムの一実施の形態の構成例を示すブロック図である。
図1の内視鏡システムは、内視鏡カメラヘッド11、CCU(カメラコントロールユニット)12、操作部13、及びディスプレイ14により構成される。
この内視鏡システムは、手術対象となる体内の部位(術部)を被観察部として撮像してディスプレイ14に映し出し、ディスプレイ14を見ながら被観察部に処置を施す内視鏡下手術で用いられる。
内視鏡下手術では、例えば、図2に示されるように、内視鏡カメラヘッド11の挿入部25と、手術器具である2本の鉗子81(81A及び81B)が、患者の体内に挿入される。内視鏡カメラヘッド11は、挿入部25の先端から光を照射して患者の術部82を照明して、2本の鉗子81及び術部82の状態を撮像する。
内視鏡カメラヘッド11は、図1に示されるように、撮像部21、光源22、及び、フォーカスレンズ23を含んで構成される。
撮像部21は、第1撮像センサ24aと第2撮像センサ24bの2つの撮像センサ24を少なくとも有する。撮像センサ24は、例えば、CCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)センサなどで構成され、被写体を撮像して、その結果得られる画像を生成する。撮像センサ24には、いわゆる4Kカメラと呼ばれる、水平方向×垂直方向の画素数が約4000×約2000の画素数を有する高解像度のセンサを採用することができる。2つの撮像センサ24は、左右方向に所定の間隔離れて配置されており、視点方向の異なる画像を生成し、CCU12に出力する。
本実施の形態では、2つの撮像センサ24で撮像されて得られる画像を術部画像と称する。また、本実施の形態では、第1撮像センサ24aが右側、第2撮像センサ24bが左側に配置されているものとして、第1撮像センサ24aが生成する術部画像をR画像、第2撮像センサ24bが生成する術部画像をL画像ともいう。
光源22は、例えば、ハロゲンランプ、キセノンランプ、LED (Light Emitting Diode)光源などで構成され、術部を照明するための光を出射する。
フォーカスレンズ23は、1または複数のレンズで構成されており、CCU12のフォーカス制御部47(後述する)によって駆動され、被写体からの入射光(像光)を撮像センサ24の撮像面上に結像する。
CCU12は、内視鏡カメラヘッド11の撮像部21で撮像されて得られた術部画像を処理する画像処理装置であり、奥行き情報生成部41、鉗子位置検出部42、注目点推定部43、ズーム画像生成部44、画像重畳部45、操作制御部46、及び、フォーカス制御部47により構成されている。
撮像部21で生成され、出力されたR画像及びL画像は、CCU12の奥行き情報生成部41、ズーム画像生成部44、及び、画像重畳部45に供給される。また、R画像及びL画像の一方(例えば、L画像)は、フォーカス制御部47にも供給される。
奥行き情報生成部41は、供給されたR画像及びL画像から、術部画像の奥行き情報を生成する。より具体的には、奥行き情報生成部41は、供給されたR画像及びL画像を用いて、三角測量の原理により、術部画像内の各画素の奥行き方向の位置を算出する。
図3及び図4を参照して、三角測量の原理を用いた、術部画像内の各画素の奥行き位置の算出方法について説明する。
いま、第1撮像センサ24aと第2撮像センサ24bが、図3に示されるように、距離Tの間隔を開けて、横方向に並んで配置されており、第1撮像センサ24aと第2撮像センサ24bのそれぞれが、実世界上の物体Pを撮像しているものとする。
第1撮像センサ24aと第2撮像センサ24bの垂直方向の位置は同一であり、水平方向の位置だけが異なるので、第1撮像センサ24aと第2撮像センサ24bにより得られるR画像とL画像の画像内における物体Pの位置は、x座標位置のみが異なることとなる。
そこで、例えば、第1撮像センサ24aにより得られるR画像では、R画像内に映る物体Pのx座標がxであり、第2撮像センサ24bにより得られるL画像では、L画像内に映る物体Pのx座標がxであるとする。
三角測量の原理を用いると、図4に示されるように、R画像中の物体Pのx座標=xは、第1撮像センサ24aの光学中心Oと物体Pとを結んだ直線上の位置に相当する。また、L画像中の物体Pのx座標=xは、第2撮像センサ24bの光学中心Oと物体Pとを結んだ直線上の位置に相当する。
ここで、光学中心OまたはOから、R画像またはL画像の撮像平面までの距離をf、実世界の物体Pまでの距離(奥行き)をZとすると、視差dは、d=(x−x)で表される。
また、T,Z,d,fには、
Figure 2015228954
の関係が成り立つ。
従って、物体Pまでの距離Zは、式(1)を変形して、次式(2)により求めることができる。
Figure 2015228954
図1の奥行き情報生成部41は、上述した三角測量の原理を用いて、術部画像内の各画素の奥行きZを算出する。奥行き情報生成部41で算出された各画素の奥行きZは、奥行き情報として、注目点推定部43と鉗子位置検出部42のそれぞれに供給される。
鉗子位置検出部42は、奥行き情報生成部41から供給された術部画像の奥行き情報を用いて、術部画像内に映された鉗子81の位置を検出する。なお、上述したように、術部画像内には、2本の鉗子81が被写体として撮像される場合があるが、いずれか一方の鉗子81の位置が検出されればよい。どちらの鉗子81の位置を検出するかは、予め決めてもよいし、術部画像内でより検出しやすい方を検出するのでもよい。また、2本の鉗子81の位置を検出しても勿論よい。
図5を参照して、鉗子位置検出部42による鉗子81の位置検出について説明する。
初めに、鉗子位置検出部42は、奥行き情報生成部41から供給された術部画像の奥行き情報から、視差画像を生成する。視差画像とは、奥行き情報である各画素の奥行きZをグレースケールで表した画像である。
図5Aは、視差画像の例を示しており、輝度値が大きい値ほど奥行きZは小さく、術部画像中の被写体がより手前にあることを表している。
次に、鉗子位置検出部42は、生成した視差画像から、輝度値の境界となるエッジを検出する。例えば、視差画像のなかで、隣接する画素の画素値の差分が所定の値以上である画素が、エッジとして検出される。
図5Bは、図5Aの視差画像に対して検出されたエッジの例を示している。
なお、上述した例では、生成した視差画像の輝度値に基づいて、エッジを検出することとしたが、これ以外の方法を用いて、エッジを検出してもよい。例えば、術部画像内の術部の主な色成分は赤色であるのに対して、鉗子81等の手術器具の色成分は金属系の銀色、白、または、黒であることが多い。そこで、鉗子位置検出部42は、術部画像の色情報を用いて、特定の色の領域(境界)を検出することにより、エッジを検出してもよい。
次に、鉗子位置検出部42は、検出されたエッジのなかから、曲線的なエッジを除去し、一定以上の長さを有する直線的なエッジのみを検出する。
鉗子81は棒状の形状を有しているため、鉗子81のエッジとして、所定の長さ以上の直線的なエッジが存在する。そこで、鉗子位置検出部42は、検出されたエッジのなかから、鉗子81のエッジとして、一定以上の長さを有する直線的なエッジのみを検出する。
なお、鉗子位置検出部42は、鉗子81のエッジを特定する際、上記の一定以上の長さを有する直線的なエッジであるか否かの他に、検出された直線的なエッジが、術部画像の外縁部から続く直線であるか否かを判定してもよい。内視鏡カメラヘッド11の挿入部25と鉗子81が、図2に示したような位置関係にある場合、一般に、術部画像内において、鉗子81は、術部画像の外縁部から中心部へ延びるような位置で撮像されている。そのため、検出された直線的なエッジが術部画像の外縁部から続く直線であるか否かを判定することにより、鉗子81の検出精度をさらに上げることができる。
次に、鉗子位置検出部42は、検出された直線的なエッジから、撮像画像内における3次元空間上の鉗子81の位置、即ち、鉗子81の姿勢を推定する。
具体的には、鉗子位置検出部42は、図5Dに示されるように、検出された直線的なエッジから、鉗子81に対応する線分(直線)101を算出する。線分101は、例えば、検出された2本の直線的なエッジの中間線などで求めることができる。
そして、鉗子位置検出部42は、算出された線分101上の所定の2点(x,y)及び(x,y)を検出し、検出された2点の位置(x,y)及び(x,y)の奥行き位置z及びzを、供給された奥行き情報から取得する。これにより、術部画像内における鉗子81の3次元空間上の位置(x,y,z)及び(x,y,z)が特定される。
なお、術部画像内の2本の鉗子81に対応して2つの線分が検出された場合には、より手前にある方を選択するなどして、検出された2つの線分のいずれか一方を選択することができる。
図1に戻り、鉗子位置検出部42は、以上のようにして検出された鉗子81の3次元空間上の位置(x,y,z)及び(x,y,z)を、注目点推定部43に供給する。
注目点推定部43には、奥行き情報生成部41から、術部画像の奥行き情報が供給されるとともに、鉗子位置検出部42から、鉗子81の姿勢を表す3次元空間上の2点の座標(x,y,z)及び(x,y,z)が供給される。
注目点推定部43は、図6に示されるように、検出された鉗子81の位置を延長した先に、術部82の注目点Qが存在すると仮定して、3次元空間上の術部82の注目点Qの位置を推定する。術部82の注目点Qは、検出された鉗子81の姿勢を延長した延長線と、術部82の表面の交点に相当する。推定された3次元空間上の術部82の注目点Qの位置座標は、ズーム画像生成部44に供給される。
ズーム画像生成部44は、撮像部21から供給される術部画像に対して、注目点推定部43から供給される注目点Qを中心とする所定の領域を、注目領域として決定する。したがって、注目領域には、少なくとも注目点Qが含まれる。そして、ズーム画像生成部44は、決定した注目領域の画像を、操作制御部46から供給されるズーム倍率に基づいて拡大したズーム画像を生成し、画像重畳部45に供給する。
画像重畳部45には、操作制御部46から、重畳モードのオンまたはオフを指定する制御情報である重畳モード情報が供給される。画像重畳部45は、重畳モード情報により重畳モードのオンが指定されている場合、撮像部21から供給される術部画像の所定の位置に、ズーム画像生成部44から供給されたズーム画像を重畳した重畳画像を生成し、ディスプレイ14に表示させる。
一方、重畳モード情報により重畳モードのオフが指定されている場合、画像重畳部45は、ズーム画像を重畳せずに、撮像部21から供給される術部画像のみをディスプレイ14に表示させる。
また、画像重畳部45には、操作制御部46から、3D表示のオンまたはオフを指定する制御情報である表示モード情報も供給される。画像重畳部45は、表示モード情報により3D表示のオフが指定されている場合、R画像及びL画像のいずれか一方をディスプレイ14に供給し、術部画像を2D表示させる。一方、表示モード情報により3D表示のオンが指定されている場合、画像重畳部45は、R画像及びL画像の両方をディスプレイ14に供給し、術部画像を3D表示させる。ここで、3D表示とは、R画像とL画像を交互にディスプレイ14に表示させ、R画像を術者の右眼で視認させ、L画像を術者の左眼で視認させることにより、術者が術部画像を立体的に知覚する画像表示をいう。
操作制御部46は、操作部13から供給される操作信号に基づいて、各種の制御信号を所要の各部へ供給する。例えば、操作制御部46は、操作部13で行われたズーム倍率の設定操作に応じて、所定のズーム倍率を指定するズーム倍率情報をズーム画像生成部44に供給する。また、操作制御部46は、上述した重畳モード情報と表示モード情報を、画像重畳部45に供給する。
フォーカス制御部47は、撮像部21から供給されるL画像に基づいて、コントラスト法によるフォーカス制御を行う。具体的には、フォーカス制御部47は、内視鏡カメラヘッド11のフォーカスレンズ23を駆動し、撮像部21から供給されるL画像のコントラストを比較して、フォーカス位置を検出する。フォーカス制御部47は、注目点推定部43から、注目点Qの位置座標を取得して、注目点Qを中心とする所定の範囲内の領域をフォーカス制御対象領域としてフォーカス制御を行うことができる。
操作部13は、少なくともフットペダル61を備え、術者(操作者)からの操作を受け付け、術者が行った操作に対応する操作信号を操作制御部46に供給する。術者は、操作部13を操作することにより、例えば、ディスプレイ14に表示される術部画像の2D表示と3D表示の切替え、重畳表示のオン・オフの切替え、内視鏡のズーム倍率の設定、などを行うことができる。本実施の形態においては、重畳表示のオン・オフの切替えは、フットペダル61の押下により行われる。
ディスプレイ14は、例えばLCD(Liquid Crystal Display)などで構成され、画像重畳部45から供給される画像信号に基づいて、内視鏡カメラヘッド11の撮像部21で撮像された術部画像を表示する。また、重畳モードがオンに設定されている場合、ディスプレイ14は、撮像部21で撮像された術部画像に、ズーム画像生成部44から供給されるズーム画像を重畳した重畳画像を表示する。
図7は、重畳モードがオンである場合にディスプレイ14に表示される重畳画像の例を示している。
図7の重畳画像100では、撮像部21から供給された術部画像110に、注目点Qに基づいて決定された注目領域QAの画像を拡大したズーム画像QBが重畳されている。
術部画像110には、2本の鉗子81A及び81Bが撮像されており、注目点Qは、左側の鉗子81Aの位置に基づいて推定されている。そして、重畳画像100には、推定された注目点Qと、注目点Qに基づいて決定された注目領域QA、及び、注目点Qの推定で計算された延長線に対応するガイド線111が表示されている。ガイド線111の表示により、腹腔内の3次元距離をより直感的に認識することが可能となり、平面視においても3次元的な距離情報を術者に提示することができる。
図7の重畳画像100の例では、注目領域QAには、2本の鉗子81A及び81Bが含まれていないが、2本の鉗子81A及び81Bの少なくとも一方の先端部分が含まれるように、注目領域QAが決定されるようにしてもよい。
また、図7の術部画像110には、2本の鉗子81A及び81Bの先端部分が含まれているが、少なくとも1本の鉗子81の先端部分と、鉗子81の姿勢から推定した注目点Qが含まれるように、術部画像110を得る際のズーム倍率が決定されるようにすることができる。
なお、図7の例は、画面の右下にズーム画像QBが重畳されている例であるが、後述するように、ズーム画像QBは、鉗子81や注目領域QAの位置に応じて、術者の施術を妨害しない位置に適切に配置される。
<2.重畳表示処理の処理フロー>
次に、図1の内視鏡システムにおいて重畳モードがオンに設定されている場合に実行される、重畳表示処理について説明する。なお、術者は、重畳モードのオン及びオフの切替えを、例えば、フットペダル61により行うことができる。
図8は、重畳表示処理のフローチャートを示している。図8の重畳表示処理が実行される状態では、内視鏡システムの各機器の電源が入っており、内視鏡カメラヘッド11の挿入部25や鉗子81が患者の体内に挿入され、患者の術部82が光源22により照明されている。
初めに、ステップS1において、奥行き情報生成部41は、内視鏡カメラヘッド11の撮像部21から供給されたR画像及びL画像から、術部画像の奥行き情報を生成する。より具体的には、奥行き情報生成部41は、図4を参照して説明した三角測量の原理を用いた式(2)により、術部画像内の各位置(画素)の奥行きZを算出する。奥行き情報生成部41で算出された奥行き情報は、注目点推定部43と鉗子位置検出部42のそれぞれに供給される。
ステップS2において、鉗子位置検出部42は、奥行き情報生成部41から供給された術部画像の奥行き情報を用いて術部画像内の鉗子81の位置を検出する鉗子位置検出処理を実行する。
<鉗子位置検出処理の詳細フロー>
図9は、ステップS2で実行される鉗子位置検出処理の詳細なフローチャートを示している。
鉗子位置検出処理では、初めに、ステップS21において、鉗子位置検出部42が、奥行き情報生成部41から供給された術部画像の奥行き情報から、視差画像を生成する。
ステップS22において、鉗子位置検出部42は、生成した視差画像から、輝度値の境界となるエッジを検出する。
ステップS23において、鉗子位置検出部42は、検出されたエッジのなかから、曲線的なエッジを除去し、一定以上の長さを有する直線的なエッジのみを検出する。
ステップS24において、鉗子位置検出部42は、検出された直線的なエッジから、術部画像内における3次元空間上の鉗子81の位置を推定する。これにより、図5Dを参照して説明したように、術部画像内における鉗子81の3次元空間上の位置を示す2点の座標(x,y,z)及び(x,y,z)が決定される。
以上のようにして検出された術部画像内の鉗子81の位置(x,y,z)及び(x,y,z)は、注目点推定部43に供給され、処理は図8のステップS3に進む。
ステップS3において、注目点推定部43は、検出された鉗子81の位置を延長した先に、術部82の注目点Qが存在すると仮定して、3次元空間上の術部82の注目点Qの位置を検出する注目点推定処理を実行する。
<注目点推定処理の詳細フロー>
図10のフローチャートを参照して、図8のステップS3で実行される注目点推定処理の詳細について説明する。
初めに、ステップS41において、注目点推定部43は、鉗子位置検出部42から供給された、術部画像内における3次元空間上の鉗子81の位置(x,y,z)及び(x,y,z)を取得する。
ステップS42において、注目点推定部43は、XY平面における2点の鉗子座標(X,Y)及び(X,Y)を結ぶ線分Aの傾きaを計算する。傾きaは、以下の式で算出することができる。
=(Y−Y)/(X−X
ステップS43において、注目点推定部43は、XZ平面における2点の鉗子座標(X,Z)及び(X,Z)を結ぶ線分Bの傾きaを計算する。傾きaは、以下の式で算出することができる。
=(Z−Z)/(X−X
ステップS44において、注目点推定部43は、XY平面における線分Aを、画面中心方向に所定の長さWだけ延長したときのX座標値である座標Xを決定する。所定の長さWは、例えば、線分Aの1/N(Nは正の整数)で定義することができる。
ステップS45において、注目点推定部43は、Y=a*Xを計算し、XY平面における線分Aの延長点(X,Y)を計算する。ここで、“*”は乗算を表す。
ステップS46において、注目点推定部43は、線分Aの延長点(X,Y)のXZ平面上の奥行きZを、Z=a*Xにより計算する。ここで計算された延長点(X,Y)の奥行きZは、延長点(X,Y)の理論値に相当する。
ステップS47において、注目点推定部43は、奥行き情報生成部41から供給された奥行き情報から、線分Aの延長点(X,Y)の奥行きZを取得する。ここで、取得される延長点(X,Y)の奥行きZは、延長点(X,Y)の実値に相当する。
ステップS48において、注目点推定部43は、延長点(X,Y)の理論値である奥行きZが、実値の奥行きZよりも大きいか否かを判定する。
鉗子81に対応する線分Aを画面中心方向に所定の長さWだけ延長した延長点(X,Y)に術部82が存在しない場合とは、術部82がもっと奥の方に存在している場合である。この場合、奥行き情報から得られた延長点(X,Y)の実値の奥行きZは、理論値の奥行きZよりも大きくなる。
一方、延長点(X,Y)に実際に術部82が存在する場合には、延長点(X,Y)の理論値(奥行きZ)よりも、奥行き情報から得られた実値(奥行きZ)が手前に存在する状態となるため、延長点(X,Y)の実値の奥行きZは、理論値の奥行きZよりも小さくなる。
したがって、ステップS48では、注目点推定部43は、線分Aを所定の長さWだけ延長した延長点(X,Y)の理論値(奥行きZ)が、奥行き情報から得られた実値(奥行きZ)よりも手前に存在する状態となっているか否かを判定している。
ステップS48で、延長点(X,Y)の理論値である奥行きZが実値の奥行きZ以下である、即ち、延長点(X,Y)の理論値の奥行きZが実値の奥行きZよりも手前であると判定された場合、処理はステップS44に戻される。
処理が戻されたステップS44では、XY平面における線分Aを、現在の延長点(X,Y)よりもさらに画面中心方向に所定の長さWだけ延長した座標Xが、新たな座標Xとして決定される。そして、決定された新たな座標Xに対して、上述したステップS45乃至S48が再度実行される。
一方、ステップS48で、延長点(X,Y)の理論値である奥行きZが実値の奥行きZより大きい、即ち、延長点(X,Y)の実値の奥行きZが理論値の奥行きZよりも手前であると判定された場合、処理はステップS49に進む。
ステップS49において、注目点推定部43は、実値の奥行きZをZ座標値とする延長点(X,Y,Z)を注目点Qに決定する。
以上により図8のステップS3が終了し、処理がステップS4に進められる。
ステップS4において、ズーム画像生成部44は、撮像部21から供給された術部画像に対して注目領域QAを決定する。ステップS4では、例えば、注目点Qを中心として、操作制御部46から供給されたズーム倍率に応じたサイズで、注目領域QAが決定される。
図11は、操作制御部46から供給されたズーム倍率による注目領域QAのサイズの違いを説明する図である。
図11Aは、ズーム倍率が高い場合の注目領域QAの例を示しており、図11Bは、ズーム倍率が低い場合の注目領域QAの例を示している。
このように、ディスプレイ14に表示されている術部画像のズーム倍率が低いほど、注目点Qを中心として広いサイズの注目領域QAを設定することができる。
なお、注目領域QAのサイズは、ズーム倍率ではなく、例えば、認識された鉗子81の位置(例えば、(x,y,z))から、注目点Qまでの距離に応じて決定するようにしてもよい。この場合、鉗子81から注目点Qまでの距離が遠いほど、注目点Qを中心とする広い注目領域QAが設定される。
ステップS4の処理が終了すると、処理はステップS5に進み、ズーム画像生成部44は、決定した注目領域QAの画像をズーム倍率に応じて拡大したズーム画像QBを生成し、画像重畳部45に供給する。ズーム画像QBを生成する倍率(=(ズーム画像QB)/(注目領域QAの画像))は、例えば、注目領域QAのサイズに応じて予め決定しておくことができる。あるいは、生成後のズーム画像QBのサイズが所定のサイズとなるように倍率を決定してもよい。
ステップS6において、画像重畳部45は、撮像部21から供給された術部画像のどの位置に、ズーム画像生成部44から供給されたズーム画像QBを重畳するかを決定する重畳位置決定処理を実行する。
図12及び図13を参照して、ステップS6における重畳位置決定処理について説明する。
例えば、図12Aに示されるように、重畳したズーム画像QBが注目領域QAまたは鉗子81と重なってしまうと、注目領域QAまたは鉗子81が、ズーム画像QBで隠れるため、施術の妨げになる可能性がある。そのため、注目領域QAまたは鉗子81のいずれかと重なるような位置には、ズーム画像QBを配置することはできない。
換言すれば、ズーム画像QBは、例えば、図12Bに示されるように、注目領域QA及び鉗子81のいずれとも重ならない位置に配置する必要がある。
従って、ステップS6の重畳位置決定処理では、ズーム画像QBを重畳したとき、ズーム画像QBが注目領域QA及び鉗子81のいずれとも重ならないかを確認して、ズーム画像QBの重畳位置が決定される。
具体的には、画像重畳部45は、まず、図13に示されるように、ディスプレイ14の表示領域のうちの右下隅の領域を、重畳位置の候補位置QB’として設定し、候補位置QB’が注目領域QA及び鉗子81のいずれとも重ならないかどうかを判定する。
そして、右下隅の候補位置QB’が注目領域QAまたは鉗子81のいずれかと重なる場合には、画像重畳部45は、候補位置QB’を上に移動させ、ディスプレイ14の表示領域のうちの右上隅の領域を、次の候補位置QB’に決定する。
右上隅の候補位置QB’が、注目領域QAまたは鉗子81のいずれかと重なる場合には、次に、画像重畳部45は、ディスプレイ14の表示領域の左上隅の領域を次の候補位置QB’に決定する。そして、左上隅の候補位置QB’でも注目領域QAまたは鉗子81のいずれかと重なる場合には、次に、左下隅の領域が次の候補位置QB’に決定される。
重畳位置決定処理では、以上のようにして、注目領域QA及び鉗子814と干渉しないズーム画像QBの重畳位置が探索される。注目領域QA及び鉗子814と干渉しない重畳位置がない場合には、画像重畳部45は、重畳を行わない。
なお、候補位置QB’乃至QB’の探索する順番は、上記の例に限られない。また、注目領域QA及び鉗子814と干渉しない位置であれば、術部画像の四隅以外の場所にズーム画像QBを配置してもよい。
<重畳位置決定処理の詳細フロー>
図14のフローチャートを参照して、図8のステップS6で実行される重畳位置決定処理の詳細について説明する。
初めに、ステップS61において、画像重畳部45は、ズーム画像生成部44から供給されたズーム画像QBのサイズを取得する。
ステップS62において、画像重畳部45は、ズーム画像QBを重畳する重畳位置の候補位置QB’を決定する。本実施の形態では、上述したように、ディスプレイ14の表示領域のうちの右下隅の領域が、最初の候補位置QB’として決定される。
ステップS63において、画像重畳部45は、決定した右下隅の候補位置QB’が、撮像部21で撮像された術部画像内の注目領域QA及び鉗子81と重なっていないかを判定する。なお、術部画像内の鉗子81の位置は、ステップS3の鉗子位置検出処理で検出された鉗子の位置情報を用いてもよいし、その他の方法で認識してもよい。例えば、鉗子81は、金属製が一般的であり、銀色系の色(メタル色)で内臓の色(赤色)と区別しやすいため、色を識別するなどして鉗子81を検出してもよい。
ステップS63で、決定した右下隅の候補位置QB’が注目領域QA及び鉗子81と重なっていないと判定された場合、処理はステップS71に進む。
一方、ステップS63で、決定した右下隅の候補位置QB’が注目領域QA及び鉗子81と重なっていると判定された場合、処理はステップS64に進み、画像重畳部45は、候補位置QB’を上に移動させ、ディスプレイ14の表示領域のうちの右上隅の領域を候補位置QB’として決定する。
そして、ステップS65において、画像重畳部45は、決定した右上隅の候補位置QB’が、撮像部21で撮像された術部画像内の注目領域QA及び鉗子81と重なっていないかを判定する。
ステップS65で、決定した右上隅の候補位置QB’が注目領域QA及び鉗子81と重なっていないと判定された場合、処理はステップS71に進む。
一方、ステップS65で、右上隅の候補位置QB’が注目領域QA及び鉗子81と重なっていると判定された場合、処理はステップS66に進み、画像重畳部45は、候補位置QB’を左に移動させ、ディスプレイ14の表示領域のうちの左上隅の領域を候補位置QB’として決定する。
そして、ステップS67において、画像重畳部45は、決定した左上隅の候補位置QB’が、撮像部21で撮像された術部画像内の注目領域QA及び鉗子81と重なっていないかを判定する。
ステップS67で、決定した左上隅の候補位置QB’が注目領域QA及び鉗子81と重なっていないと判定された場合、処理はステップS71に進む。
一方、ステップS67で、左上隅の候補位置QB’が注目領域QA及び鉗子81と重なっていると判定された場合、処理はステップS68に進み、画像重畳部45は、候補位置QB’を下に移動させ、ディスプレイ14の表示領域のうちの左下隅の領域を候補位置QB’として決定する。
そして、ステップS69において、画像重畳部45は、決定した左下隅の候補位置QB’が、撮像部21で撮像された術部画像内の注目領域QA及び鉗子81と重なっていないかを判定する。
ステップS69で、決定した左下隅の候補位置QB’が注目領域QA及び鉗子81と重なっていないと判定された場合、処理はステップS71に進む。
一方、ステップS69で、左下隅の候補位置QB’が注目領域QA及び鉗子81と重なっていると判定された場合、処理はステップS70に進み、画像重畳部45は、重畳なしを決定する。
ステップS71において、画像重畳部45は、上述したステップS63,S65,S67、またはS69で注目領域QA及び鉗子81と重なっていないと判定された候補位置QB’(候補位置QB’乃至QB’のいずれか)を、ズーム画像QBの重畳位置に決定する。
以上のように、図8のステップS6の重畳位置決定処理では、ズーム画像QBの重畳位置として、注目領域QA及び鉗子814と干渉しない位置が決定される。
そして、ステップS6の重畳位置決定処理の終了後、処理はステップS7に進み、画像重畳部45は、重畳位置決定処理により、重畳位置が決定されたかを判定する。
ステップS7で、重畳位置が決定されたと判定された場合、処理はステップS8に進み、画像重畳部45は、撮像部21から供給された術部画像に対して、決定された重畳位置にズーム画像QBを重畳して、ディスプレイ14に表示させる。
一方、ステップS7で、重畳位置が決定されなかったと判定された場合、即ち、図14の重畳位置決定処理で、重畳なしと決定された場合、処理はステップS9に進み、画像重畳部45は、ズーム画像QBを重畳せずに、撮像部21から供給された術部画像のみをディスプレイ14に表示させる。
以上により、重畳表示処理が終了する。
図8の重畳表示処理は、重畳モードがオンに設定されている間、繰り返し実行することができる。
なお、図8の重畳表示処理では、鉗子位置検出処理や注目点推定処理が、撮像センサ24から術部画像が供給される毎に実行されることになる。しかし、鉗子位置検出処理や注目点推定処理は、毎フレームではなく、数十フレームに1回など、一定期間ごとに行うようにしてもよい。
また、図8の重畳表示処理が繰り返し実行された場合、鉗子81の位置の変化などに対応して、ズーム画像QBの重畳位置が変更される場合がある。ズーム画像QBの重畳位置が変更される場合、それまでの重畳位置から次の重畳位置へ一瞬で移動させるのではなく、ズーム画像QBを視認可能な速度でゆっくりと移動させるようにすることができる。このようにすることにより、術者によるズーム画像QBの確認が容易になる。
ズーム画像QBは、注目領域QAの画像を所定の倍率で拡大するだけではなく、例えば、ガンマ補正処理や、施術部位が視認しやすくなるような注目領域QAの色彩に合わせた特定色の強調処理、コントラスト調整処理など、所定の色変換処理を施したものとしてもよい。また、ズーム画像QBだけでなく、術部画像全体に対して所定の色変換処理を行ってもよい。
上述した重畳表示処理によれば、撮像部21で撮像されて得られた術部画像から鉗子81が検出され、検出された鉗子81から術者が注目する注目点Qが推定される。そして、注目点Qに基づいて注目領域QAが決定され、注目領域QAの画像を所定の倍率で拡大したズーム画像QBが、術部画像内の注目領域QA及び鉗子814と干渉しない位置に配置され、重畳される。
従って、術者が特段の操作を行わなくても、(CCU12が自動で)施術の注目領域QAを拡大したズーム画像QBをディスプレイ14に表示するので、術者は施術を中断する必要はない。すなわち、重畳表示処理によれば、術者の手間をかけずに、術者の所望する術部を映し出すことができる。
なお、注目領域QAを拡大したズーム画像QBを重畳する機能が不要な場合もあり得る。そのような場合には、フットペダル61により重畳モードのオンまたはオフを切替えることができるので、術者は、施術を中断することなく、必要な場合のみ重畳機能(重畳モード)を利用することができる。
図1の内視鏡システムは、撮像センサ24として4Kカメラなどの高解像度の撮像センサを用いることができるので、注目領域QAを拡大したズーム画像QBであっても高画質で表示することができる。
また、上述した鉗子位置検出処理では、術部画像の奥行き情報から視差画像を生成し、直線的なエッジを検出することにより、鉗子81を検出する例について説明したが、その他の検出方法を採用することもできる。
例えば、鉗子81の所定の2か所にマーカを付しておき、術部画像内の鉗子81の位置(x,y,z)及び(x,y,z)として、鉗子81に付された2か所のマーカを検出することができる。鉗子81の形状及び色や、鉗子81に付されているマーカの形状及び色など、施術で使用される複数種類の鉗子81の特徴を予めデータベースとして鉗子位置検出部42内のメモリに記憶させておき、指定された鉗子81の情報に基づいて、マーカの検出を行うようにすることができる。
<2D/3D表示切替処理の処理フロー>
図1の内視鏡システムは、術部を2つの撮像センサ24で撮像しているため、R画像とL画像を用いた3D表示と、R画像またはL画像のいずれか一方を用いた2D表示の両方が可能である。術者は、必要に応じて、3D表示と2D表示を切り替えて、ディスプレイ14に表示させることができる。
図15は、3D表示と2D表示を切り替えて表示する2D/3D表示切替処理のフローチャートを示している。この処理は、例えば、CCU12の電源投入とともに開始することができる。
初めに、ステップS91において、操作制御部46は、操作部13から供給される操作信号に基づいて、2D表示が選択されたか否かを判定する。術者は、2D表示と3D表示の切替えを、例えば、フットペダル61により行うことができる。
ステップS91で、2D表示が選択されたと判定された場合、処理はステップS92に進み、操作制御部46は、2Dで表示を行う旨の表示モード情報を画像重畳部45に供給する。そして、その表示モード情報を取得した画像重畳部45は、撮像部21から供給されたR画像及びL画像のいずれか一方のみをディスプレイ14に供給し、術部画像を2Dで表示させる。
一方、ステップS91で、3D表示が選択されたと判定された場合、処理はステップS93に進み、操作制御部46は、3Dで表示を行う旨の表示モード情報を画像重畳部45に供給する。そして、その表示モード情報を取得した画像重畳部45は、撮像部21から供給されたR画像及びL画像を交互にディスプレイ14に供給し、術部画像を3Dで表示させる。
ステップS92またはS93の後、処理は再びステップS91に戻り、それ以降の処理が繰り返される。これにより、CCU12の電源がオフされるまで、ディスプレイ14において、術者の指定に応じた2D表示または3D表示が行われる。
以上の2D/3D表示切替処理により、術者は、所望の3D表示または2D表示を選択して、術部画像をディスプレイ14に表示させることができる。
本開示は、上述した内視鏡システムの他、顕微鏡システムについても同様に適用することができる。その場合、図1の内視鏡カメラヘッド11に代えて、顕微鏡カメラヘッドが設けられ、CCU12は、顕微鏡カメラヘッドで撮像された術部画像の重畳表示処理を行うことができる。
CCU12が実行する画像処理は、ハードウエアにより実行することもできるし、ソフトウエアにより実行することもできる。一連の処理をソフトウエアにより実行する場合には、そのソフトウエアを構成するプログラムが、コンピュータにインストールされる。ここで、コンピュータには、専用のハードウエアに組み込まれているコンピュータや、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータなどが含まれる。
図16は、CCU12が実行する画像処理をプログラムにより実行するコンピュータのハードウエアの構成例を示すブロック図である。
コンピュータにおいて、CPU(Central Processing Unit)201,ROM(Read Only Memory)202,RAM(Random Access Memory)203は、バス204により相互に接続されている。
バス204には、さらに、入出力インタフェース205が接続されている。入出力インタフェース205には、入力部206、出力部207、記憶部208、通信部209、及びドライブ210が接続されている。
入力部206は、キーボード、マウス、マイクロホンなどよりなる。出力部207は、ディスプレイ、スピーカなどよりなる。記憶部208は、ハードディスクや不揮発性のメモリなどよりなる。通信部209は、ネットワークインタフェースなどよりなる。ドライブ210は、磁気ディスク、光ディスク、光磁気ディスク、或いは半導体メモリなどのリムーバブル記録媒体211を駆動する。
以上のように構成されるコンピュータでは、CPU201が、例えば、記憶部208に記憶されているプログラムを、入出力インタフェース205及びバス204を介して、RAM203にロードして実行することにより、上述した一連の処理が行われる。
コンピュータでは、プログラムは、リムーバブル記録媒体211をドライブ210に装着することにより、入出力インタフェース205を介して、記憶部208にインストールすることができる。また、プログラムは、ローカルエリアネットワーク、インターネット、デジタル衛星放送といった、有線または無線の伝送媒体を介して、通信部209で受信し、記憶部208にインストールすることができる。その他、プログラムは、ROM202や記憶部208に、あらかじめインストールしておくことができる。
なお、本明細書において、フローチャートに記述されたステップは、記載された順序に沿って時系列的に行われる場合はもちろん、必ずしも時系列的に処理されなくとも、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで実行されてもよい。
なお、本明細書において、システムとは、複数の構成要素(装置、モジュール(部品)等)の集合を意味し、すべての構成要素が同一筐体中にあるか否かは問わない。したがって、別個の筐体に収納され、ネットワークを介して接続されている複数の装置、及び、1つの筐体の中に複数のモジュールが収納されている1つの装置は、いずれも、システムである。
本開示は、内視鏡システムの撮像部21により得られた画像と、その一部領域の拡大画像の重畳表示に関する処理であるが、内視鏡システム等の医療用システム以外の一般的な撮像画像の重畳表示にも適用することができる。すなわち、本開示は、撮像画像内に映る指示具や操作器具、デバイス等(上述の手術器具に相当)の3次元位置に基づいて、操作者が注目する注目点及び注目領域を決定し、注目領域の画像を拡大した画像を、撮像画像に重畳して画面に表示させる場合に適用することができる。
本開示の実施の形態は、上述した実施の形態に限定されるものではなく、本開示の要旨を逸脱しない範囲において種々の変更が可能である。
例えば、上述した複数の実施の形態の全てまたは一部を組み合わせた形態を採用することができる。
例えば、本開示は、1つの機能をネットワークを介して複数の装置で分担、共同して処理するクラウドコンピューティングの構成をとることができる。
また、上述のフローチャートで説明した各ステップは、1つの装置で実行する他、複数の装置で分担して実行することができる。
さらに、1つのステップに複数の処理が含まれる場合には、その1つのステップに含まれる複数の処理は、1つの装置で実行する他、複数の装置で分担して実行することができる。
なお、本明細書に記載された効果はあくまで例示であって限定されるものではなく、本明細書に記載されたもの以外の効果があってもよい。
なお、本開示は以下のような構成も取ることができる。
(1)
手術対象の部位を含む術野を撮像することにより得られた画像から、術者の注目する注目領域の画像を拡大したズーム画像を生成するズーム画像生成部と、
前記画像に前記ズーム画像を重畳して画面に表示させる画像重畳部と
を備える画像処理装置。
(2)
前記注目領域は、前記画像内の手術器具の3次元位置に基づいて決定される
前記(1)に記載の画像処理装置。
(3)
前記注目領域は、前記手術器具の先端部分を含むように決定される
前記(2)に記載の画像処理装置。
(4)
前記注目領域は、前記手術器具の3次元位置に対応する線分を延長した延長線と前記部位との交点を含むように決定される
前記(2)に記載の画像処理装置。
(5)
前記注目領域は、前記手術器具の先端部分、及び、前記手術器具の3次元位置に対応する線分を延長した延長線と前記部位との交点を含むように決定される
前記(2)に記載の画像処理装置。
(6)
前記画像を得る際のズーム倍率は、前記手術器具の先端部分、及び、前記手術器具の3次元位置に対応する線分を延長した延長線と前記部位との交点を含むように設定される
前記(3)乃至(5)のいずれかに記載の画像処理装置。
(7)
前記手術器具の3次元位置は、前記画像内の直線的なエッジの情報に基づいて検出される
前記(2)に記載の画像処理装置。
(8)
前記画像内の直線的なエッジの情報は、前記画像内の輝度情報に基づいて検出される
前記(7)に記載の画像処理装置。
(9)
前記画像内の直線的なエッジの情報は、前記画像内の色情報に基づいて検出される
前記(7)に記載の画像処理装置。
(10)
前記手術器具の3次元位置は、前記画像から、前記手術器具に付されたマーカを検出することで検出される
前記(2)乃至(6)のいずれかに記載の画像処理装置。
(11)
前記画像重畳部は、前記手術器具の3次元位置に基づいて決定された、前記術者が注目する注目点も前記画面に表示させる
前記(2)乃至(10)のいずれかに記載の画像処理装置。
(12)
前記画像重畳部は、前記手術器具の3次元位置に対応する線分を、前記手術器具から前記注目点まで延長した延長線も前記画面に表示させる
前記(11)に記載の画像処理装置。
(13)
前記画像重畳部は、前記注目領域を示す枠も前記画面に表示させる
前記(1)乃至(12)のいずれかに記載の画像処理装置。
(14)
前記画像重畳部は、前記画像の四隅のいずれかに、前記ズーム画像を配置する
前記(1)乃至(13)のいずれかに記載の画像処理装置。
(15)
前記画像重畳部は、前記画像内の手術器具及び前記注目領域と重ならない位置に、前記ズーム画像を配置する
前記(1)乃至(14)のいずれかに記載の画像処理装置。
(16)
前記ズーム画像生成部は、前記画像内の手術器具から、前記注目領域内の注目点までの距離に応じて決定した倍率で、前記注目領域の画像を拡大したズーム画像を生成する
前記(1)乃至(15)のいずれかに記載の画像処理装置。
(17)
前記画像重畳部は、前記画像または前記ズーム画像に対して所定の色変換処理を施し、色変換処理後の前記画像または前記ズーム画像を重畳する
前記(1)乃至(16)のいずれかに記載の画像処理装置。
(18)
前記画像重畳部は、重畳モードがオンである場合に、前記ズーム画像を前記画像に重畳する
前記(1)乃至(17)のいずれかに記載の画像処理装置。
(19)
画像処理装置が、
手術対象の部位を含む術野を撮像することにより得られた画像から、術者の注目する注目領域の画像を拡大したズーム画像を生成し、前記画像に前記ズーム画像を重畳して画面に表示させる
画像処理方法。
(B1)
手術対象の部位である術部を複数の撮像部で撮像することにより得られた複数の画像から算出された前記画像の奥行き情報を取得し、取得された前記画像の奥行き情報を用いて、前記画像内の手術器具の3次元位置を検出する位置検出部と
を備える画像処理装置。
(B2)
検出された前記手術器具の3次元位置に基づいて、前記手術器具の操作を行う術者の注目点を推定する注目点推定部をさらに備える
前記(B1)に記載の画像処理装置。
(B3)
前記注目点推定部は、前記手術器具の3次元位置に対応する線分を延長した延長線と前記術部との交点を、前記注目点と推定する
前記(B2)に記載の画像処理装置。
(B4)
推定された前記注目点に基づいて、前記術者の注目する注目領域を決定し、前記注目領域の画像を拡大したズーム画像を生成するズーム画像生成部をさらに備える
前記(B2)または(B3)に記載の画像処理装置。
(B5)
前記ズーム画像生成部は、前記手術器具から前記注目点までの距離に応じて決定した倍率で、前記注目領域の画像を拡大したズーム画像を生成する
前記(B4)に記載の画像処理装置。
(B6)
生成された前記ズーム画像を、前記撮像部により得られた画像に重畳する画像重畳部をさらに備える
前記(B4)に記載の画像処理装置。
(B7)
前記画像重畳部は、前記注目領域及び前記手術器具と重ならない位置に、前記ズーム画像を配置する
前記(B6)に記載の画像処理装置。
(B8)
前記画像重畳部は、前記撮像部により得られた画像の四隅のいずれかに、前記ズーム画像を配置する
前記(B6)または(B7)に記載の画像処理装置。
(B9)
前記画像重畳部は、推定された前記注目点も表示させる
前記(B6)乃至(B8)のいずれかに記載の画像処理装置。
(B10)
前記画像重畳部は、前記注目点をとともに、前記手術器具の3次元位置に対応する線分を延長した延長線も表示させる
前記(B9)に記載の画像処理装置。
(B11)
前記画像重畳部は、前記注目領域を示す枠も表示させる
前記(B6)乃至(B10)のいずれかに記載の画像処理装置。
(B12)
前記画像重畳部は、前記画像または前記ズーム画像に対して所定の色変換処理を施し、色変換処理後の前記画像または前記ズーム画像を重畳する
前記(B6)乃至(B11)のいずれかに記載の画像処理装置。
(B13)
前記画像重畳部は、重畳モードがオンである場合に、前記ズーム画像を前記画像に重畳する
前記(B6)乃至(B12)のいずれかに記載の画像処理装置。
(B14)
前記位置検出部は、前記複数の画像から視差画像を生成し、前記視差画像内の直線的なエッジを検出することで、前記手術器具の3次元位置を検出する
前記(B1)乃至(B13)のいずれかに記載の画像処理装置。
(B15)
前記位置検出部は、前記画像から、前記手術器具に付されたマーカを検出することで、前記手術器具の3次元位置を検出する
前記(B1)乃至(B13)のいずれかに記載の画像処理装置。
(B16)
前記複数の画像から算出された前記画像の奥行き情報を生成する奥行き情報生成部をさらに備え、
前記位置検出部は、前記奥行き情報生成部で生成された前記画像の奥行き情報を取得する
前記(B1)乃至(B15)のいずれかに記載の画像処理装置。
(B17)
画像処理装置が、
手術対象の部位である術部を複数の撮像部で撮像することにより得られた複数の画像から算出された前記画像の奥行き情報を取得し、
取得された前記画像の奥行き情報を用いて、前記画像内の手術器具の3次元位置を検出する
画像処理方法。
11 カメラヘッド, 12 CCU, 13 操作部, 14 ディスプレイ, 21 撮像部, 24a 第1撮像センサ, 24b 第2撮像センサ, 41 奥行き情報生成部, 42 鉗子位置検出部, 43 注目点推定部, 44 ズーム画像生成部, 45 画像重畳部, 46 操作制御部, 61 フットペダル, Q 注目点, QA 注目領域, 111 ガイド線, QB ズーム画像, 201 CPU, 202 ROM, 203 RAM, 206 入力部, 207 出力部, 208 記憶部, 209 通信部, 210 ドライブ

Claims (19)

  1. 手術対象の部位を含む術野を撮像することにより得られた画像から、術者の注目する注目領域の画像を拡大したズーム画像を生成するズーム画像生成部と、
    前記画像に前記ズーム画像を重畳して画面に表示させる画像重畳部と
    を備える画像処理装置。
  2. 前記注目領域は、前記画像内の手術器具の3次元位置に基づいて決定される
    請求項1に記載の画像処理装置。
  3. 前記注目領域は、前記手術器具の先端部分を含むように決定される
    請求項2に記載の画像処理装置。
  4. 前記注目領域は、前記手術器具の3次元位置に対応する線分を延長した延長線と前記部位との交点を含むように決定される
    請求項2に記載の画像処理装置。
  5. 前記注目領域は、前記手術器具の先端部分、及び、前記手術器具の3次元位置に対応する線分を延長した延長線と前記部位との交点を含むように決定される
    請求項2に記載の画像処理装置。
  6. 前記画像を得る際のズーム倍率は、前記手術器具の先端部分、及び、前記手術器具の3次元位置に対応する線分を延長した延長線と前記部位との交点を含むように設定される
    請求項5に記載の画像処理装置。
  7. 前記手術器具の3次元位置は、前記画像内の直線的なエッジの情報に基づいて検出される
    請求項2に記載の画像処理装置。
  8. 前記画像内の直線的なエッジの情報は、前記画像内の輝度情報に基づいて検出される
    請求項7に記載の画像処理装置。
  9. 前記画像内の直線的なエッジの情報は、前記画像内の色情報に基づいて検出される
    請求項7に記載の画像処理装置。
  10. 前記手術器具の3次元位置は、前記画像から、前記手術器具に付されたマーカを検出することで検出される
    請求項2に記載の画像処理装置。
  11. 前記画像重畳部は、前記手術器具の3次元位置に基づいて決定された、前記術者が注目する注目点も前記画面に表示させる
    請求項2に記載の画像処理装置。
  12. 前記画像重畳部は、前記手術器具の3次元位置に対応する線分を、前記手術器具から前記注目点まで延長した延長線も前記画面に表示させる
    請求項11に記載の画像処理装置。
  13. 前記画像重畳部は、前記注目領域を示す枠も前記画面に表示させる
    請求項1に記載の画像処理装置。
  14. 前記画像重畳部は、前記画像の四隅のいずれかに、前記ズーム画像を配置する
    請求項1に記載の画像処理装置。
  15. 前記画像重畳部は、前記画像内の手術器具及び前記注目領域と重ならない位置に、前記ズーム画像を配置する
    請求項1に記載の画像処理装置。
  16. 前記ズーム画像生成部は、前記画像内の手術器具から、前記注目領域内の注目点までの距離に応じて決定した倍率で、前記注目領域の画像を拡大したズーム画像を生成する
    請求項1に記載の画像処理装置。
  17. 前記画像重畳部は、前記画像または前記ズーム画像に対して所定の色変換処理を施し、色変換処理後の前記画像または前記ズーム画像を重畳する
    請求項1に記載の画像処理装置。
  18. 前記画像重畳部は、重畳モードがオンである場合に、前記ズーム画像を前記画像に重畳する
    請求項1に記載の画像処理装置。
  19. 画像処理装置が、
    手術対象の部位を含む術野を撮像することにより得られた画像から、術者の注目する注目領域の画像を拡大したズーム画像を生成し、前記画像に前記ズーム画像を重畳して画面に表示させる
    画像処理方法。
JP2014115768A 2014-06-04 2014-06-04 画像処理装置および画像処理方法 Active JP6323183B2 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2014115768A JP6323183B2 (ja) 2014-06-04 2014-06-04 画像処理装置および画像処理方法
PCT/JP2015/002752 WO2015186339A1 (en) 2014-06-04 2015-06-01 Image processing apparatus and image processing method
US15/306,943 US10694933B2 (en) 2014-06-04 2015-06-01 Image processing apparatus and image processing method for image display including determining position of superimposed zoomed image
EP15728187.4A EP3151720B1 (en) 2014-06-04 2015-06-01 Image processing apparatus and image processing method
CN201580027803.9A CN106413510B (zh) 2014-06-04 2015-06-01 图像处理装置和图像处理方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014115768A JP6323183B2 (ja) 2014-06-04 2014-06-04 画像処理装置および画像処理方法

Publications (3)

Publication Number Publication Date
JP2015228954A true JP2015228954A (ja) 2015-12-21
JP2015228954A5 JP2015228954A5 (ja) 2017-02-23
JP6323183B2 JP6323183B2 (ja) 2018-05-16

Family

ID=53373517

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014115768A Active JP6323183B2 (ja) 2014-06-04 2014-06-04 画像処理装置および画像処理方法

Country Status (5)

Country Link
US (1) US10694933B2 (ja)
EP (1) EP3151720B1 (ja)
JP (1) JP6323183B2 (ja)
CN (1) CN106413510B (ja)
WO (1) WO2015186339A1 (ja)

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105898158A (zh) * 2016-04-27 2016-08-24 努比亚技术有限公司 一种数据处理方法及电子设备
WO2017145531A1 (ja) * 2016-02-24 2017-08-31 ソニー株式会社 医療用画像処理装置、システム、方法及びプログラム
WO2017154557A1 (en) 2016-03-09 2017-09-14 Sony Corporation Image processing device, endoscopic surgery system, and image processing method
WO2017216922A1 (ja) * 2016-06-16 2017-12-21 オリンパス株式会社 画像処理装置及び画像処理方法
WO2018047478A1 (ja) * 2016-09-06 2018-03-15 ソニー株式会社 医療用画像処理装置、画像処理方法、及びプログラム
JP2019029876A (ja) * 2017-07-31 2019-02-21 パナソニックIpマネジメント株式会社 画像処理装置、カメラ装置及び出力制御方法
WO2019203006A1 (ja) * 2018-04-17 2019-10-24 富士フイルム株式会社 内視鏡装置、内視鏡プロセッサ装置及び内視鏡画像表示方法
WO2019230115A1 (ja) * 2018-05-30 2019-12-05 ソニー・オリンパスメディカルソリューションズ株式会社 医療用画像処理装置
WO2020054566A1 (ja) * 2018-09-11 2020-03-19 ソニー株式会社 医療用観察システム、医療用観察装置及び医療用観察方法
WO2020080209A1 (ja) * 2018-10-18 2020-04-23 ソニー株式会社 医療用観察システム、医療用観察装置及び医療用観察方法
JP2020512089A (ja) * 2017-03-24 2020-04-23 シーメンス ヘルスケア ゲゼルシヤフト ミツト ベシユレンクテル ハフツング 奥行き知覚を高める仮想陰影
CN113366414A (zh) * 2019-02-12 2021-09-07 直观外科手术操作公司 用于在计算机辅助操作系统的操作会话期间促进成像装置视点的优化的系统和方法
JP7494196B2 (ja) 2019-02-12 2024-06-03 インテュイティブ サージカル オペレーションズ, インコーポレイテッド コンピュータ支援手術システムの手術セッション中の撮像デバイス視点の最適化を容易にするシステム及び方法

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016035401A1 (ja) * 2014-09-03 2016-03-10 オリンパス株式会社 内視鏡装置
CN108135453B (zh) * 2015-09-28 2021-03-23 奥林巴斯株式会社 内窥镜系统和图像处理方法
EP3342365B1 (en) * 2015-10-02 2023-10-11 Sony Group Corporation Medical control device, control method, program and medical control system
JP6296365B2 (ja) * 2016-02-29 2018-03-20 パナソニックIpマネジメント株式会社 手術内視鏡用カメラコントロールユニット
WO2017197217A1 (en) 2016-05-12 2017-11-16 Life Technologies Corporation Systems, methods, and apparatuses for image capture and display
JP6903991B2 (ja) 2017-03-27 2021-07-14 ソニーグループ株式会社 手術用システム、手術用システムの作動方法及び手術用システムの制御装置
JP7039179B2 (ja) * 2017-04-13 2022-03-22 キヤノン株式会社 情報処理装置、情報処理システム、情報処理方法及びプログラム
WO2018225132A1 (ja) * 2017-06-05 2018-12-13 オリンパス株式会社 医療システムおよび医療システムの作動方法
CN110769731B (zh) * 2017-06-15 2022-02-25 奥林巴斯株式会社 内窥镜系统、内窥镜用处理系统、图像处理方法
EP3649918B1 (en) * 2017-07-03 2023-08-02 FUJIFILM Corporation Medical image processing device, endoscope device, diagnostic support device, medical service support device and report generation support device
JP2019029875A (ja) * 2017-07-31 2019-02-21 パナソニックIpマネジメント株式会社 画像処理装置、カメラ装置及び画像処理方法
JP6912313B2 (ja) * 2017-07-31 2021-08-04 パナソニックi−PROセンシングソリューションズ株式会社 画像処理装置、カメラ装置及び画像処理方法
US11166774B2 (en) * 2019-04-17 2021-11-09 Cilag Gmbh International Robotic procedure trocar placement visualization
EP3804630A1 (en) * 2019-10-10 2021-04-14 Koninklijke Philips N.V. Ultrasound object zoom tracking
EP3862804A1 (en) 2020-02-05 2021-08-11 Leica Instruments (Singapore) Pte. Ltd. Apparatuses, methods and computer programs for a microscope system
DE102021101694A1 (de) * 2021-01-26 2022-07-28 Carl Zeiss Meditec Ag Tool-Typ-Agnostische Assistenzfunktionalität bei chirurgischen Eingriffen

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05115432A (ja) * 1991-10-24 1993-05-14 Olympus Optical Co Ltd 内視鏡装置
JPH06319695A (ja) * 1993-03-19 1994-11-22 Olympus Optical Co Ltd 画像処理装置
JPH07154687A (ja) * 1993-11-29 1995-06-16 Olympus Optical Co Ltd 画像合成装置
JPH0928663A (ja) * 1995-05-15 1997-02-04 Olympus Optical Co Ltd 内視鏡装置
JP2001299742A (ja) * 2000-04-27 2001-10-30 Toshiba Corp 放射線診断装置
JP2010154957A (ja) * 2008-12-26 2010-07-15 Fujifilm Corp 内視鏡
JP2012075508A (ja) * 2010-09-30 2012-04-19 Panasonic Corp 手術用カメラ
JP2012245157A (ja) * 2011-05-27 2012-12-13 Olympus Corp 内視鏡装置

Family Cites Families (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08164148A (ja) * 1994-12-13 1996-06-25 Olympus Optical Co Ltd 内視鏡下手術装置
US5836869A (en) * 1994-12-13 1998-11-17 Olympus Optical Co., Ltd. Image tracking endoscope system
JP4832679B2 (ja) * 2001-09-11 2011-12-07 オリンパス株式会社 顕微鏡システム
US9289267B2 (en) * 2005-06-14 2016-03-22 Siemens Medical Solutions Usa, Inc. Method and apparatus for minimally invasive surgery using endoscopes
US9718190B2 (en) * 2006-06-29 2017-08-01 Intuitive Surgical Operations, Inc. Tool position and identification indicator displayed in a boundary area of a computer display screen
KR100834765B1 (ko) * 2006-12-07 2008-06-05 삼성전자주식회사 선호색을 재현하는 장치 및 방법
IL188262A (en) * 2007-01-10 2011-10-31 Mediguide Ltd System and method for superimposing a representation of the tip of a catheter on an image acquired by a moving imager
EP2241922B1 (en) * 2007-10-30 2012-02-22 Olympus Corporation Endoscope apparatus
EP2355526A3 (en) * 2010-01-14 2012-10-31 Nintendo Co., Ltd. Computer-readable storage medium having stored therein display control program, display control apparatus, display control system, and display control method
JP5380348B2 (ja) * 2010-03-31 2014-01-08 富士フイルム株式会社 内視鏡観察を支援するシステムおよび方法、並びに、装置およびプログラム
JP2012065698A (ja) 2010-09-21 2012-04-05 Fujifilm Corp 手術支援システムおよびそれを用いた手術支援方法
KR101878362B1 (ko) * 2010-11-26 2018-08-07 엘지디스플레이 주식회사 영상표시장치 및 그 구동방법
US10631712B2 (en) * 2011-02-10 2020-04-28 Karl Storz Imaging, Inc. Surgeon's aid for medical display
JP5657467B2 (ja) * 2011-05-13 2015-01-21 オリンパスメディカルシステムズ株式会社 医療用画像表示システム
US9081488B2 (en) * 2011-10-19 2015-07-14 Boston Scientific Neuromodulation Corporation Stimulation leadwire and volume of activation control and display interface
JP5297541B2 (ja) 2012-01-26 2013-09-25 キヤノン株式会社 眼科装置、眼科装置の制御方法、およびプログラム
JP6103827B2 (ja) * 2012-06-14 2017-03-29 オリンパス株式会社 画像処理装置および立体画像観察システム
CN104540439B (zh) 2012-08-14 2016-10-26 直观外科手术操作公司 用于多个视觉系统的配准的系统和方法
US9332242B2 (en) * 2012-11-26 2016-05-03 Gyrus Acmi, Inc. Dual sensor imaging system
RU2621488C2 (ru) * 2013-02-14 2017-06-06 Сейко Эпсон Корпорейшн Укрепляемый на голове дисплей и способ управления для укрепляемого на голове дисплея
WO2015029318A1 (ja) * 2013-08-26 2015-03-05 パナソニックIpマネジメント株式会社 3次元表示装置および3次元表示方法
DE102014207274A1 (de) * 2014-04-15 2015-10-15 Fiagon Gmbh Navigationsunterstützungssystem für medizinische Instrumente

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05115432A (ja) * 1991-10-24 1993-05-14 Olympus Optical Co Ltd 内視鏡装置
JPH06319695A (ja) * 1993-03-19 1994-11-22 Olympus Optical Co Ltd 画像処理装置
JPH07154687A (ja) * 1993-11-29 1995-06-16 Olympus Optical Co Ltd 画像合成装置
JPH0928663A (ja) * 1995-05-15 1997-02-04 Olympus Optical Co Ltd 内視鏡装置
JP2001299742A (ja) * 2000-04-27 2001-10-30 Toshiba Corp 放射線診断装置
JP2010154957A (ja) * 2008-12-26 2010-07-15 Fujifilm Corp 内視鏡
JP2012075508A (ja) * 2010-09-30 2012-04-19 Panasonic Corp 手術用カメラ
JP2012245157A (ja) * 2011-05-27 2012-12-13 Olympus Corp 内視鏡装置

Cited By (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017145531A1 (ja) * 2016-02-24 2017-08-31 ソニー株式会社 医療用画像処理装置、システム、方法及びプログラム
WO2017154557A1 (en) 2016-03-09 2017-09-14 Sony Corporation Image processing device, endoscopic surgery system, and image processing method
CN105898158A (zh) * 2016-04-27 2016-08-24 努比亚技术有限公司 一种数据处理方法及电子设备
JPWO2017216922A1 (ja) * 2016-06-16 2019-04-11 オリンパス株式会社 画像処理装置及び画像処理方法
WO2017216922A1 (ja) * 2016-06-16 2017-12-21 オリンパス株式会社 画像処理装置及び画像処理方法
US10952596B2 (en) 2016-09-06 2021-03-23 Sony Corporation Medical image processing device and image processing method
WO2018047478A1 (ja) * 2016-09-06 2018-03-15 ソニー株式会社 医療用画像処理装置、画像処理方法、及びプログラム
JP2020512089A (ja) * 2017-03-24 2020-04-23 シーメンス ヘルスケア ゲゼルシヤフト ミツト ベシユレンクテル ハフツング 奥行き知覚を高める仮想陰影
JP2019029876A (ja) * 2017-07-31 2019-02-21 パナソニックIpマネジメント株式会社 画像処理装置、カメラ装置及び出力制御方法
WO2019203006A1 (ja) * 2018-04-17 2019-10-24 富士フイルム株式会社 内視鏡装置、内視鏡プロセッサ装置及び内視鏡画像表示方法
WO2019230115A1 (ja) * 2018-05-30 2019-12-05 ソニー・オリンパスメディカルソリューションズ株式会社 医療用画像処理装置
WO2020054566A1 (ja) * 2018-09-11 2020-03-19 ソニー株式会社 医療用観察システム、医療用観察装置及び医療用観察方法
JP7444065B2 (ja) 2018-09-11 2024-03-06 ソニーグループ株式会社 医療用観察システム、医療用観察装置及び医療用観察方法
CN112654280A (zh) * 2018-09-11 2021-04-13 索尼公司 医学观察系统、医学观察装置和医学观察方法
JPWO2020054566A1 (ja) * 2018-09-11 2021-08-30 ソニーグループ株式会社 医療用観察システム、医療用観察装置及び医療用観察方法
US11969144B2 (en) 2018-09-11 2024-04-30 Sony Corporation Medical observation system, medical observation apparatus and medical observation method
WO2020080209A1 (ja) * 2018-10-18 2020-04-23 ソニー株式会社 医療用観察システム、医療用観察装置及び医療用観察方法
JP7392654B2 (ja) 2018-10-18 2023-12-06 ソニーグループ株式会社 医療用観察システム、医療用観察装置及び医療用観察方法
CN113366414A (zh) * 2019-02-12 2021-09-07 直观外科手术操作公司 用于在计算机辅助操作系统的操作会话期间促进成像装置视点的优化的系统和方法
JP7494196B2 (ja) 2019-02-12 2024-06-03 インテュイティブ サージカル オペレーションズ, インコーポレイテッド コンピュータ支援手術システムの手術セッション中の撮像デバイス視点の最適化を容易にするシステム及び方法

Also Published As

Publication number Publication date
US10694933B2 (en) 2020-06-30
US20170046842A1 (en) 2017-02-16
WO2015186339A1 (en) 2015-12-10
EP3151720B1 (en) 2020-04-15
CN106413510B (zh) 2018-07-27
CN106413510A (zh) 2017-02-15
EP3151720A1 (en) 2017-04-12
JP6323183B2 (ja) 2018-05-16

Similar Documents

Publication Publication Date Title
JP6323183B2 (ja) 画像処理装置および画像処理方法
JP6323184B2 (ja) 画像処理装置、画像処理方法、並びにプログラム
US20190302442A1 (en) Medical image processing apparatus, medical image processing method, and medical observation system
US20170366773A1 (en) Projection in endoscopic medical imaging
JPWO2016043063A1 (ja) 画像処理装置および画像処理方法
JP2011158549A (ja) 内視鏡装置およびプログラム
US8708890B2 (en) Endoscope apparatus and method of measuring subject
US11426052B2 (en) Endoscopic system
US11822089B2 (en) Head wearable virtual image module for superimposing virtual image on real-time image
KR101818005B1 (ko) 얼굴 데이터 관리 시스템 및 그 방법
WO2017199285A1 (ja) 画像処理装置及び画像処理方法
JP2006329684A (ja) 画像計測装置及び方法
JP2017205343A (ja) 内視鏡装置、内視鏡装置の作動方法
EP3805834A1 (en) Optical imaging system and corresponding apparatus, method and computer program
JP2006017632A (ja) 3次元画像処理装置、光軸調整方法、光軸調整支援方法
JP2015002529A (ja) 画像処理装置および画像処理方法
JP6789899B2 (ja) 計測装置および計測装置の作動方法
JP6529345B2 (ja) 画像合成装置及び画像合成方法
US20230032791A1 (en) Measuring method and a measuring device
US20220142454A1 (en) Image processing system, image processing device, and image processing method
JP2011161019A (ja) 内視鏡装置およびプログラム
JP2018037766A (ja) 映像編集装置、映像編集方法及び映像編集用コンピュータプログラム
JP2017097229A (ja) 顕微鏡システムとその制御方法
JP2006050383A (ja) 立体画像表示装置およびその表示制御方法

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170118

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170118

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20171130

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180129

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180313

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180326

R151 Written notification of patent or utility model registration

Ref document number: 6323183

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151