JP2016000065A - 画像処理装置、画像処理方法、プログラム、および内視鏡システム - Google Patents

画像処理装置、画像処理方法、プログラム、および内視鏡システム Download PDF

Info

Publication number
JP2016000065A
JP2016000065A JP2014120206A JP2014120206A JP2016000065A JP 2016000065 A JP2016000065 A JP 2016000065A JP 2014120206 A JP2014120206 A JP 2014120206A JP 2014120206 A JP2014120206 A JP 2014120206A JP 2016000065 A JP2016000065 A JP 2016000065A
Authority
JP
Japan
Prior art keywords
frame
image processing
marker
unit
shake
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2014120206A
Other languages
English (en)
Inventor
一木 洋
Hiroshi Ichiki
洋 一木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2014120206A priority Critical patent/JP2016000065A/ja
Priority to US15/312,798 priority patent/US10229480B2/en
Priority to PCT/JP2015/065535 priority patent/WO2015190319A1/ja
Priority to EP15806801.5A priority patent/EP3155951A4/en
Publication of JP2016000065A publication Critical patent/JP2016000065A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00009Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
    • A61B1/000095Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope for image enhancement
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00131Accessories for endoscopes
    • A61B1/00135Oversleeves mounted on the endoscope prior to insertion
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00147Holding or positioning arrangements
    • A61B1/00154Holding or positioning arrangements using guiding arrangements for insertion
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/06Devices, other than using radiation, for detecting or locating foreign bodies ; determining position of probes within or on the body of the patient
    • A61B5/061Determining position of a probe within the body employing means separate from the probe, e.g. sensing internal probe position employing impedance electrodes on the surface of the body
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B23/00Telescopes, e.g. binoculars; Periscopes; Instruments for viewing the inside of hollow bodies; Viewfinders; Optical aiming or sighting devices
    • G02B23/24Instruments or systems for viewing the inside of hollow bodies, e.g. fibrescopes
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B5/00Adjustment of optical system relative to image or object surface other than for focusing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/73Deblurring; Sharpening
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • G06T7/248Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/06Devices, other than using radiation, for detecting or locating foreign bodies ; determining position of probes within or on the body of the patient
    • A61B5/061Determining position of a probe within the body employing means separate from the probe, e.g. sensing internal probe position employing impedance electrodes on the surface of the body
    • A61B5/064Determining position of a probe within the body employing means separate from the probe, e.g. sensing internal probe position employing impedance electrodes on the surface of the body using markers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10068Endoscopic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30204Marker

Landscapes

  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Surgery (AREA)
  • Optics & Photonics (AREA)
  • Biophysics (AREA)
  • Public Health (AREA)
  • Animal Behavior & Ethology (AREA)
  • Pathology (AREA)
  • General Health & Medical Sciences (AREA)
  • Veterinary Medicine (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • General Physics & Mathematics (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Astronomy & Astrophysics (AREA)
  • Human Computer Interaction (AREA)
  • Endoscopes (AREA)
  • Instruments For Viewing The Inside Of Hollow Bodies (AREA)
  • Adjustment Of Camera Lenses (AREA)

Abstract

【課題】 リトラクタに対して内視鏡を固定せず自由度を持たせた状態で配置し、かつ、その場合に発生し得るぶれなどの画像劣化を補正する。
【解決手段】 本開示の一側面である画像処理装置は、所定のフレームレートの動画像をフレーム毎に補正する画像処理装置において、処理対象の前記フレームに写し込まれている、術具に設けられたマーカを検出するマーカ検出部と、検出された前記マーカの位置に基づいてぶれ補正量を算出する算出部と、前記ぶれ補正量に従い、処理対象の前記フレームのぶれ補正を行うぶれ補正部とを備える。本開示は、内視鏡システムに適用できる。
【選択図】 図8

Description

本開示は、画像処理装置、画像処理方法、プログラム、および内視鏡システムに関し、特に、例えば、内視鏡や手術顕微鏡により患部(手術部位)を見ながら手術を行う場合に用いて好適な画像処理装置、画像処理方法、プログラム、および内視鏡システムに関する。
脊椎の手術を行なう疾病には、ヘルニア、骨粗鬆症、変形性関節症などある。従来、ヘルニアや軽微な骨粗鬆症に対しては、細い針を用いた非常に低侵襲な術式が採用されている。重度の骨粗鬆症や変形性関節症に対しては、患者の背中を大きく切開する術式が採用されている(例えば、特許文献1参照)。
近年、従来では大きく切開する必要があった疾病に対しても、必要最小限の箇所だけを切開する術式が広まってきている。該術式の場合、小さく切開した個所に、金属から成る円筒型のリトラクタ(一般的には、スリーブとも称される)を挿し込み、リトラクタ内に手術部位を観察するための内視鏡(または手術顕微鏡)と、手術部位を処置するための鉗子等が入れられて手術が行われる。
図1は、小さく切開した個所に挿し込まれたリトラクタと、そこに入れられた内視鏡の上面図、図2は、その断面図、図3は、リトラクタの中に鉗子が入れられた状態の断面図を示している。
図示するように、従来において、内視鏡2は、リトラクタ1の内壁に固定される。この場合、リトラクタ1の先端の正面に存在する手術部位を撮像できるように、内視鏡2には長手方向の正面から可視範囲3が側方にずらされた斜視鏡が採用される。
特表2011−502550
上述したように、リトラクタ1の内壁に内視鏡2を固定した場合、手術部位のごく近くまで内視鏡を接近させることができるので、鉗子4が視界に入りにくく、手術部位を間近で観察できる。
しかしながら、リトラクタ1に内視鏡2が固定されているために、図3に示されるように、内視鏡2が鉗子4の可動範囲を狭めてしまうことがある。また、内視鏡2の可視範囲(撮像範囲)3を調整するには、人体に挿し込まれた状態のリトラクタ1を回転させることになるので、人体に対するリトラクタ1の回転の影響を最も少なくするためにも、リトラクタ1の形状を円筒型に限定する必要があった。
本開示はこのような状況に鑑みてなされたものであり、リトラクタに対して内視鏡を固定せず自由度を持たせた状態で配置し、かつ、その場合に発生し得るぶれなどの画像劣化を補正できるようにするものである。
本開示の第1の側面である画像処理装置は、所定のフレームレートの動画像をフレーム毎に補正する画像処理装置において、処理対象の前記フレームに写し込まれている、術具に設けられたマーカを検出するマーカ検出部と、検出された前記マーカの位置に基づいてぶれ補正量を算出する算出部と、前記ぶれ補正量に従い、処理対象の前記フレームのぶれ補正を行うぶれ補正部とを備える。
前記動画像は、筒型のリトラクタの内側に自由度を持って保持されている撮像装置によって撮像されたものとすることができ、前記マーカは、前記術具としての前記リトラクタの内壁に設けられているようにすることができる。
前記マーカは、前記リトラクタの内壁の端側に帯状に設けられているようにすることができる。
前記撮像装置は、内視鏡とすることができる。
本開示の第1の側面である画像処理装置は、処理対象の前記フレームよりも前のぶれ補正済みのフレームと、前記処理対象の前記フレームとの間の動きベクトルを検出する動きベクトル検出部をさらに備えることができ、前記算出部は、前記検出された前記マーカの位置に基づいてぶれ補正量を算出し、算出した前記ぶれ補正量を、検出された前記動きベクトルを用いて微調整することができる。
前記動きベクトル検出部は、処理対象の前記フレームよりも前のぶれ補正済みのフレームと、前記処理対象の前記フレームとの間の画素マッチングにより、前記動きベクトルを検出することができる。
本開示の第1の側面である画像処理装置は、前記撮像装置の動き情報を取得する動き情報取得部をさらに備えることができ、前記動きベクトル検出部は、取得された前記動き情報を用いて、前記画素マッチングの探索範囲を制限することができる。
本開示の第1の側面である画像処理装置は、処理対象の前記フレーム上に存在し得る所定の物体が写し込まれている領域を検出する物体領域検出部と、処理対象のぶれ補正済みの前記フレームにおける前記物体領域の画素値を、処理対象の前記フレームよりも前のぶれ補正済みのフレームの対応する領域の画素値を用いて置換する置換部とをさらに備えることができる。
本開示の第1の側面である画像処理方法は、所定のフレームレートの動画像をフレーム毎に補正する画像処理装置の画像処理方法において、前記画像処理装置による、処理対象の前記フレームに写し込まれている、術具に設けられたマーカを検出するマーカ検出ステップと、検出された前記マーカの位置に基づいてぶれ補正量を算出する算出ステップと、前記ぶれ補正量に従い、処理対象の前記フレームのぶれ補正を行うぶれ補正ステップとを含む。
本開示の第1の側面であるプログラムは、所定のフレームレートの動画像をフレーム毎に補正するコンピュータを、処理対象の前記フレームに写し込まれている、術具に設けられたマーカを検出するマーカ検出部と、前記検出された前記マーカの位置に基づいてぶれ補正量を算出する算出部と、前記ぶれ補正量に従い、処理対象の前記フレームのぶれ補正を行うぶれ補正部として機能させる。
本開示の第1の側面である内視鏡システムは、内視鏡と画像処理装置を有する内視鏡システムにおいて、前記内視鏡が、筒型のリトラクタの内側に自由度を持って保持された状態で、所定のフレームレートの動画像を撮像してフレーム毎に前記画像処理装置に供給し、前記画像処理装置が、処理対象の前記フレームに写し込まれている、前記リトラクタの内壁に設けられたマーカを検出するマーカ検出部と、検出された前記マーカの位置に基づいてぶれ補正量を算出する算出部と、前記ぶれ補正量に従い、処理対象の前記フレームのぶれ補正を行うぶれ補正部とを備える。
本開示の第1の側面においては、処理対象のフレームに写し込まれているマーカが検出され、検出された前記マーカの位置に基づいてぶれ補正量が算出され、前記ぶれ補正量に従い、処理対象の前記フレームのぶれ補正が行われる。
本開示の第2の側面である画像処理装置は、所定のフレームレートの動画像をフレーム毎に補正する画像処理装置において、処理対象のフレーム上に存在し得る所定の物体が写し込まれている領域を検出する物体領域検出部と、処理対象の前記フレームのぶれ補正を行うぶれ補正部と、前記ぶれ補正済みのフレームにおける前記物体領域の画素値を、前記ぶれ補正済みの前記フレームよりも前のぶれ補正済みのフレームの対応する領域の画素値を用いて置換する置換部とを備える。
前記動画像は、筒型のリトラクタの内側に自由度を持って保持されている撮像装置によって撮像されたものとすることができる。
前記撮像装置は、内視鏡とすることができ、前記所定の物体は、鉗子とすることができる。
本開示の第2の側面である画像処理装置は、処理対象の前記フレームに写し込まれている、前記リトラクタの内壁に設けられたマーカを検出するマーカ検出部と、検出された前記マーカの位置に基づいてぶれ補正量を算出する算出部とをさらに備えることができ、前記ぶれ補正部は、前記ぶれ補正量に従い、処理対象の前記フレームのぶれ補正を行うことができる。
本開示の第2の側面である画像処理装置は、前記動画像を撮像する撮像装置の動き情報を取得する動き情報取得部をさらに備えることができ、前記ぶれ補正部は、前記動き情報に基づき、処理対象の前記フレームのぶれ補正を行うことができる。
本開示の第2の側面である画像処理方法は、所定のフレームレートの動画像をフレーム毎に補正する画像処理装置の画像処理方法において、前記画像処理装置による、処理対象のフレーム上に存在し得る所定の物体が写し込まれている領域を検出する物体領域検出ステップと、処理対象の前記フレームのぶれ補正を行うぶれ補正ステップと、前記ぶれ補正済みの前記フレームにおける前記物体領域の画素値を、前記ぶれ補正済みのフレームよりも前のぶれ補正済みのフレームの対応する領域の画素値を用いて置換する置換ステップとを含む。
本開示の第2の側面であるプログラムは、所定のフレームレートの動画像をフレーム毎に補正するコンピュータを、処理対象のフレーム上に存在し得る所定の物体が写し込まれている領域を検出する物体領域検出部と、処理対象の前記フレームのぶれ補正を行うぶれ補正部と、前記ぶれ補正済みのフレームにおける前記物体領域の画素値を、前記ぶれ補正済みの前記フレームよりも前のぶれ補正済みのフレームの対応する領域の画素値を用いて置換する置換部として機能させる。
本開示の第2の側面である内視鏡システムは、内視鏡と画像処理装置を有する内視鏡システムにおいて、前記内視鏡が、筒型のリトラクタの内側に自由度を持って保持された状態で、所定のフレームレートの動画像を撮像してフレーム毎に前記画像処理装置に供給し、前記画像処理装置が、処理対象のフレーム上に存在し得る所定の物体が写し込まれている領域を検出する物体領域検出部と、処理対象の前記フレームのぶれ補正を行うぶれ補正部と、前記ぶれ補正済みの前記フレームにおける前記物体領域の画素値を、前記ぶれ補正済みのフレームよりも前のぶれ補正済みのフレームの対応する領域の画素値を用いて置換する置換部とを備える。
本開示の第2の側面においては、処理対象のフレーム上に存在し得る所定の物体が写し込まれている領域が検出されて、処理対象の前記フレームのぶれ補正が行われ、ぶれ補正済みのフレームにおける前記物体領域の画素値が、前記ぶれ補正済みの前記フレームよりも前のぶれ補正済みのフレームの対応する領域の画素値を用いて置換される。
本開示の第1の側面によれば、リトラクタに対して固定せず自由度を持たせた状態で配置された撮像装置などによって撮像された動画像のぶれを補正できる。
本開示の第2の側面によれば、リトラクタに対して固定せず自由度を持たせた状態で配置された撮像装置などによって撮像された動画像に写り込み得る鉗子などを目立たなくなるように補正できる。
従来のリトラクタに内視鏡を固定した場合の上面図である。 従来のリトラクタに内視鏡を固定した場合の断面図である。 従来のリトラクタに内視鏡を固定した場合の鉗子の可動範囲を示す断面図である。 本開示に採用するトラクタと内視鏡の上面図である。 本開示に採用するリトラクタと内視鏡の断面図である。 本開示に採用するリトラクタに鉗子を入れた状態の断面図である。 本開示を適用した内視鏡システムの構成例を示すブロック図である。 図7の画像処理装置の詳細な構成例を示すブロック図である。 動画像データの1フレームの表示例を示す図である。 マーカ中心点、患部画像中心点などの位置関係を示す図である。 補正処理を説明するフローチャートである。 他の補正処理を説明するフローチャートである。 さらに他の補正処理を説明するフローチャートである。 コンピュータの構成例を示すブロック図である。
以下、本開示を実施するための最良の形態(以下、実施の形態と称する)について、図面を参照しながら詳細に説明する。
<リトラクタに対する内視鏡の配置>
初めに、本開示に採用するリトラクタ(術具)と内視鏡の配置について、図4乃至図6を参照して説明する。
図4は、本開示に採用するリトラクタと内視鏡の上面図、図5は、その断面図、図6は、リトラクタの中に鉗子が入れられた状態の断面図を示している。
図4に示すように、内視鏡11は、伸縮可能な素材から成る支持部12を介してリトラクタ10の内側に自由度を持った状態で保持されている。これにより、ユーザ(手術を行う医師等)は、内視鏡11をリトラクタ10の内側で任意の位置に平行移動させることができる。ただし、内視鏡11が平行移動されることにより、その可視範囲(撮像範囲)13が移動することになるので、撮像される動画像に対して補正が必要となる。
図5に示されるように、リトラクタ10の下端側の内壁には幅L0の帯状のマーカ20が設けられている。マーカ20は、リトラクタ10の内壁が、印刷または蒸着などにより、例えば黒色で彩色されたものであり、内壁のマーカ20以外の部分は無彩色、またはマーカ20と区別できる色で彩色されている。特に、マーカ20の上端をマーカエッジ21と称する。なお、マーカエッジ21のみを設けるようにしてもよい。
内視鏡11については、リトラクタ10の内側に保持された状態でその下端が、マーカエッジ21よりも上側に位置する長さのものを採用する。これにより、内視鏡11の下端に配置されているレンズと手術部位との距離が離れるので、該レンズの画角を狭くすることができ、これにより光量と画質の両面で有利な内視鏡11を採用することができる。
なお、マーカエッジ21の位置を表すマーカ情報、具体的には、リトラクタ10の下端からマーカエッジ21までの距離L0と、内視鏡11の下端からマーカエッジ21までの距離L1は予め計測されており、後述する画像処理装置51のマーカ情報保持部67(図7)に保持されているものとする。
また、図6に示すように、リトラクタ10の中に鉗子4を入れた場合、鉗子4を移動させるに際して、リトラクタ10の内側で内視鏡11をずらすことができる。よって、鉗子4の可動範囲が内視鏡11の存在によって狭められることを抑止できる。また、比較的径の狭いリトラクタ10を採用することができる。
さらに、内視鏡11の可視範囲13を調整するに際し、従来のように人体に挿し込まれている状態のリトラクタ10自体を回転させることなく、内視鏡11を移動させることができるので、リトラクタ10の形状を円筒型に限定する必要がない。すなわち、リトラクタ10の形状は筒状であればよく、例えば、楕円筒型、角筒型等であってもよい。
<本開示を適用した内視鏡システム50の構成例>
次に、図7は、本開示を適用した内視鏡システム50の構成例を示している。この内視鏡システム50は、内視鏡11、画像処理装置51、および画像表示装置52から構成される。
内視鏡11は、図4乃至図6に示されたように、リトラクタ10の内側に自由度を持った状態で保持される。
内視鏡11は、撮像部41および位置センサ42を有する。撮像部41は、撮像の結果得られる所定のフレームレート(例えば、30乃至120fps)の動画像をフレーム単位で画像処理装置51に出力する。位置センサ42は、内視鏡11の動きを検知し、内視鏡11の動きを表す位置センサ情報を画像処理装置51に出力する。
画像処理装置51は、内視鏡11から入力された動画像の各フレームに対してぶれ補正などを行い、補正済みのフレームを画像表示装置52に出力する。画像表示装置52は、液晶ディスプレイなどから成り、画像処理装置51から順次入力されるフレームの画面をユーザに提示する。
<本開示の実施の形態である画像処理装置51の構成例>
次に、図8は、本開示の実施の形態である画像処理装置51の構成例を示している。
画像処理装置51は、鉗子領域検出部61、鉗子領域保持部62、マーカエッジ検出部63、中心推定部64、位置センサ情報取得部65、トラッキング処理部66、マーカ情報保持部67、ぶれ補正部68、画像保持部69、および置換部70から構成される。
画像処理装置51においては、内視鏡11の撮像部41から入力される動画像の各フレームが、鉗子領域検出部61、マーカエッジ検出部63、およびトラッキング処理部66に供給される。
鉗子領域検出部61は、図9に示されるような前段から供給されるフレームから、鉗子4が写り込んでいる鉗子領域31を検出し、その座標情報を鉗子領域保持部62に通知する。鉗子領域31の検出には、既存の任意の技術を適用できる。例えば、人体の手術部位ともリトラクタ10の内壁とも異なる色相(例えば、青色)で鉗子31を表面加工し、その色相に基づいて鉗子領域31を検出するクロマキ技術を適用することができる。なお、鉗子領域31は、全てのフレームから検出してもよいし、数フレーム間隔で検出するようにしてもよい。
鉗子領域保持部62は、鉗子領域31の座標情報を一時的に保持し、後段からの要求に応じてそれを供給する。
マーカエッジ検出部63は、図9に示されるような前段から供給されるフレームから、マーカエッジ21を検出し、その座標情報を中心推定部64に通知する。なお、マーカエッジ21は、リトラクタ10の内壁におけるマーカ20と、その他の領域の色や輝度の急激な変化に基づいて検出できる。
中心推定部64は、検出されたマーカエッジ21の座標を補間、連結することによりフレーム上に、マーカエッジ21に対応する円(または楕円)を検出する。円等の検出には、最小二乗法、ハフ変換などを用いることができる。このとき、検出されたマーカエッジ21の座標のうち、鉗子領域に含まれるものを除外してもよい。また、中心推定部64は、検出した円等の中心座標(以下、マーカ中心点71と称する)を推定し、フレームの中心座標(以下、画像中心点72)とともに、ぶれ補正部68に通知する。
ところで、内視鏡11がリトラクタ10の中心に位置している場合、マーカ中心点71と画像中心点72は一致するが、内視鏡11がリトラクタ10の中心から変位している場合、マーカ中心点71と画像中心点72にはズレが生じる。したがって、マーカ中心点71と画像中心点72とのズレ量に基づいて、フレームにおける手術部位の位置を一定に保つためのぶれ補正を行えば、内視鏡11をリトラクタ10の中心に固定した状態で撮像された状態のフレームを得ることができる。このぶれ補正は、後述するぶれ補正部68にて行われる。
位置センサ情報取得部65は、内視鏡11に内蔵されている位置センサ42から位置センサ情報を取得し、位置センサ情報に基づいて内視鏡11の位置を推定してトラッキング処理部66に出力する。トラッキング処理部66は、内視鏡11の撮像部41から入力される現在のフレームと、画像保持部69に保持されている過去のぶれ補正済みのフレームとの画像中心点72付近の画素マッチングを行う。この画素マッチングに際しては、鉗子領域31を除外することができる。また、画素マッチングの探索範囲は、内視鏡11の位置に基づいて制限することができる。位置センサ情報を用いて画素マッチングを行うことにより、画素マッチングを速やかに実行することができる。トラッキング処理部66は、画素マッチングの結果得られる動きベクトルと現在のフレームをぶれ補正部68に出力する。なお、位置センサ情報を用いずに画素マッチングを行うようにしてもよい。反対に、画素マッチングを行わず、位置センサ情報のみに基づいて動きベクトルを推定してもよい。
マーカ情報保持部67は、リトラクタ10におけるマーカ20の位置を表すマーカ情報(具体的には、図10に示す距離L0,L1)を保持しており、ぶれ補正部68からの要求に応じてそれを供給する。なお、リトラクタ10と内視鏡11の種類が複数存在する場合、マーカ情報保持部67には、それらの組み合わせに応じた複数のマーカ情報が保持されており、使用されるリトラクタ10と内視鏡11の組み合わせに応じたマーカ情報を中心推定部64に供給することができる。
ぶれ補正部68は、中心推定部64から通知されるマーカ中心点71、および画像中心点72、並びにマーカ情報保持部67から取得するマーカ情報に基づいて、ぶれ補正量を算出する。ぶれ補正量の算出について図10を参照して説明する。
図10は、マーカ中心点71、画像中心点72、距離L0,L1、および、ぶれ補正量の関係を示している。
同図に示されるように、
ぶれ補正量:(マーカ中心点71と画像中心点72のずれ量)=L1:(L1+L0)
の関係があるので、ぶれ補正量は次式(1)により算出される。
ぶれ補正量=(マーカ中心点71と画像中心点72のずれ量)×L1/(L1+L0)
・・・(1)
さらに、ぶれ補正部68は、トラッキング処理部66から入力される動きベクトルに基づき、ぶれ補正量を微調整する。動きベクトルに基づくぶれ補正量の微調整は、マーカ中心点71などに基づいて算出したぶれ補正量に動きベクトルを加算してもよいし、動きベクトルに0乃至1.0の係数を乗算する重み付けを行ってから加算するようにしてもよい。ぶれ補正部68は、決定したぶれ補正量に従い、現在のフレームをシフトすることによってぶれ補正を行い、ぶれ補正後のフレームを画像保持部69および置換部70に出力する。なお、ぶれ補正部68において、位置センサ情報のみに基づいてぶれ補正を行うようにしてもよい。
画像保持部69は、ぶれ補正後のフレームを一時的に保持し、保持するフレームをトラッキング処理部66および置換部70からの要求に応じて供給する。
置換部70は、ぶれ補正後の現在のフレームにおける鉗子領域31の座標情報を鉗子領域保持部62から取得し、鉗子領域31の画素値を、対応する領域が鉗子領域31ではなかった過去のフレームの画素値を用いて置換する。具体的には、現在のぶれ補正後のフレームにおける鉗子領域31の画素値を、該画素値と、画像保持部69に保持されている過去のフレームのうち、対応する領域が鉗子領域31ではないものの画素値との加重平均値で置換することにより、後段に出力するフレームを生成する。なお、加重平均に際しては、加重平均するフレーム間の間隔に応じて係数を変更する。
例えば、1フレーム前の画素値と加重平均する場合、
加重平均値=0.1×現在のフレームの画素値+0.9×1フレーム前の画素値
例えば、2フレーム前の画素値と加重平均する場合、
加重平均値=0.2×現在のフレームの画素値+0.8×2フレーム前の画素値
例えば、3フレーム前の画素値と加重平均する場合、
加重平均値=0.3×現在のフレームの画素値+0.7×3フレーム前の画素値
等とする。これにより、鉗子領域31が目立たず、手術部位に溶け込んでいるようなフレームを得ることができる。
ただし、現在のぶれ補正後のフレームにおける鉗子領域31に対応する領域が鉗子領域ではない過去のフレームが画像保持部69に保持されていない場合、鉗子領域31の置換は行わない。
<画像処理装置51による補正処理>
図11は、画像処理装置51による補正処理(以下、第1の補正処理と称する)を説明するフローチャートである。
この第1の補正処理は、画像処理装置51に対して、内視鏡11の撮像部41から入力される動画像の各フレームに対して実行される。
ステップS1において、鉗子領域検出部61は、前段から入力された現在のフレームにおける鉗子領域31を検出し、その座標情報を鉗子領域保持部62に保持させる。ステップS2において、位置センサ情報取得部65は、内視鏡11の位置センサ42から位置センサ情報を取得し、位置センサ情報に基づいて内視鏡11の位置を推定してトラッキング処理部66に出力する。ステップS3において、トラッキング処理部66は、内視鏡11の撮像部41から入力される現在のフレームと、画像保持部69に保持されている過去(例えば、1フレーム前)のぶれ補正済みのフレームとの画像中心点72付近の画素マッチングを行って、過去のフレームに対する現在のフレームの動きベクトルを検出し、動きベクトルと現在のフレームをぶれ補正部68に出力する。
ステップS4において、マーカエッジ検出部63は、前段から入力されたフレームにおけるマーカエッジ21を検出し、その座標情報を中心推定部64に通知する。中心推定部64は、検出されたマーカエッジ21の座標を補間、連結することによりフレーム上に、マーカエッジ21に対応する円(または楕円)を検出し、その中心座標を表すマーカ中心点71を推定する。ステップS5において、マーカエッジ検出部63は、マーカ中心点71とフレームの中心座標を表す画像中心点72をぶれ補正部68に通知する。
なお、上述したステップS1乃至S3の処理と、ステップS4およびS5の処理とは、実際には、平行して実行される。
ステップS6において、ぶれ補正部68は、マーカ情報保持部67からマーカ情報を取得し、取得したマーカ情報、並びに、中心推定部64から通知されたマーカ中心点71、および画像中心点72を式(1)に適用してぶれ補正量を算出する。また、ぶれ補正部68は、トラッキング処理部66から入力された動きベクトルに基づき、ぶれ補正量を微調整してから、現在のフレームのぶれ補正を行い、ぶれ補正後のフレームを画像保持部69および置換部70に出力する。
ステップS7において、置換部70は、ぶれ補正後の現在のフレームにおける鉗子領域31の画素値を、対応する領域が鉗子領域31ではなかった過去のフレームの画素値を用いて置換して後段に出力する。以上で、順次入力される動画像の1フレームに対する第1の補正処理の説明を終了する。
以上に説明した第1の補正処理によれば、検出したマーカエッジ21に基づいて算出したぶれ補正量を、時間的に前後するフレーム間の動きベクトルを用いて微調整してから補正するので、高い精度でぶれ補正を行うことができる。
次に、図12は、画像処理装置51による他の補正処理(以下、第2の補正処理と称する)を説明するフローチャートである。
この第2の補正処理は、図11を参照して上述した第1の補正処理から、ステップS4,S5およびS7の処理を省略したものである。すなわち、第2の補正処理では、マーカエッジ21の検出とそれに基づくぶれ補正量の算出、および、ぶれ補正済みのフレームにおける鉗子領域31の置換が省略される。
第2の補正処理によれば、トラッキング処理部66が出力する、時間的に前後するフレーム間の動きベクトルのみに基づいて、簡易なぶれ補正を行うことができる。
次に、図13は、画像処理装置51によるさらに他の補正処理(以下、第3の補正処理と称する)を説明するフローチャートである。
この第3の補正処理は、図11を参照して上述した第1の補正処理から、ステップS2乃至S6の処理を省略したものである。すなわち、第3の補正処理によれば、現在のフレームにおける鉗子領域31の置換が行われる。
なお、上述した画像処理装置51が処理対象とする動画像は、内視鏡11が出力するものに限らず、例えば、手術顕微鏡が出力するものであってもよい。
上述した一連の処理は、ハードウェアにより実行することもできるし、ソフトウェアにより実行することもできる。一連の処理をソフトウェアにより実行する場合には、そのソフトウェアを構成するプログラムが、コンピュータにインストールされる。ここで、コンピュータには、専用のハードウェアに組み込まれているコンピュータや、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータなどが含まれる。
図12は、上述した一連の処理をプログラムにより実行するコンピュータのハードウェアの構成例を示すブロック図である。
このコンピュータ100は、内視鏡11および画像表示装置52が配置されている手術室などに配置してもよいし、内視鏡11および画像表示装置52と、インターネットに代表されるネットワークを介して接続可能な遠隔地に配置してもよい。
コンピュータ100において、CPU(Central Processing Unit)101,ROM(Read Only Memory)102,RAM(Random Access Memory)103は、バス104により相互に接続されている。
バス104には、さらに、入出力インタフェース105が接続されている。入出力インタフェース105には、入力部106、出力部107、記憶部108、通信部109、およびドライブ110が接続されている。
入力部106は、キーボード、マウス、マイクロフォンなどよりなる。出力部107は、ディスプレイ、スピーカなどよりなる。記憶部108は、ハードディスクや不揮発性のメモリなどよりなる。通信部109は、ネットワークインタフェースなどよりなる。ドライブ110は、磁気ディスク、光ディスク、光磁気ディスク、又は半導体メモリなどのリムーバブルメディア111を駆動する。
以上のように構成されるコンピュータ100では、CPU101が、例えば、記憶部108に記憶されているプログラムを、入出力インタフェース105およびバス104を介して、RAM103にロードして実行することにより、上述した一連の処理が行われる。
なお、コンピュータ100が実行するプログラムは、本明細書で説明する順序に沿って時系列に処理が行われるプログラムであってもよいし、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで処理が行われるプログラムであってもよい。
本開示の実施の形態は、上述した実施の形態に限定されるものではなく、本開示の要旨を逸脱しない範囲において種々の変更が可能である。
本開示は以下のような構成も取ることができる。
(1)
所定のフレームレートの動画像をフレーム毎に補正する画像処理装置において、
処理対象の前記フレームに写し込まれている、術具に設けられたマーカを検出するマーカ検出部と、
検出された前記マーカの位置に基づいてぶれ補正量を算出する算出部と、
前記ぶれ補正量に従い、処理対象の前記フレームのぶれ補正を行うぶれ補正部と
を備える画像処理装置。
(2)
前記動画像は、筒型のリトラクタの内側に自由度を持って保持されている撮像装置によって撮像されたものであり、
前記マーカは、前記術具としての前記リトラクタの内壁に設けられている
前記(1)に記載の画像処理装置。
(3)
前記マーカは、前記リトラクタの内壁の端側に帯状に設けられている
前記(2)に記載の画像処理装置。
(4)
前記撮像装置は、内視鏡である
前記(2)または(3)に記載の画像処理装置。
(5)
処理対象の前記フレームよりも前のぶれ補正済みのフレームと、前記処理対象の前記フレームとの間の動きベクトルを検出する動きベクトル検出部をさらに備え、
前記算出部は、前記検出された前記マーカの位置に基づいてぶれ補正量を算出し、算出した前記ぶれ補正量を、検出された前記動きベクトルを用いて微調整する
前記(1)から(4)のいずれかに記載の画像処理装置。
(6)
前記動きベクトル検出部は、処理対象の前記フレームよりも前のぶれ補正済みのフレームと、前記処理対象の前記フレームとの間の画素マッチングにより、前記動きベクトルを検出する
前記(5)に記載の画像処理装置。
(7)
前記撮像装置の動き情報を取得する動き情報取得部をさらに備え、
前記動きベクトル検出部は、取得された前記動き情報を用いて、前記画素マッチングの探索範囲を制限する
前記(6)に記載の画像処理装置。
(8)
処理対象の前記フレーム上に存在し得る所定の物体が写し込まれている領域を検出する物体領域検出部と、
処理対象のぶれ補正済みの前記フレームにおける前記物体領域の画素値を、処理対象の前記フレームよりも前のぶれ補正済みのフレームの対応する領域の画素値を用いて置換する置換部と
をさらに備える前記(1)から(7)のいずれかに記載の画像処理装置。
(9)
所定のフレームレートの動画像をフレーム毎に補正する画像処理装置の画像処理方法において、
前記画像処理装置による、
処理対象の前記フレームに写し込まれている、術具に設けられたマーカを検出するマーカ検出ステップと、
検出された前記マーカの位置に基づいてぶれ補正量を算出する算出ステップと、
前記ぶれ補正量に従い、処理対象の前記フレームのぶれ補正を行うぶれ補正ステップと
を含む画像処理方法。
(10)
所定のフレームレートの動画像をフレーム毎に補正するコンピュータを、
処理対象の前記フレームに写し込まれている、術具に設けられたマーカを検出するマーカ検出部と、
検出された前記マーカの位置に基づいてぶれ補正量を算出する算出部と、
前記ぶれ補正量に従い、処理対象の前記フレームのぶれ補正を行うぶれ補正部と
して機能させるプログラム。
(11)
内視鏡と画像処理装置を有する内視鏡システムにおいて、
前記内視鏡は、
筒型のリトラクタの内側に自由度を持って保持された状態で、所定のフレームレートの動画像を撮像してフレーム毎に前記画像処理装置に供給し、
前記画像処理装置は、
処理対象の前記フレームに写し込まれている、前記リトラクタの内壁に設けられたマーカを検出するマーカ検出部と、
検出された前記マーカの位置に基づいてぶれ補正量を算出する算出部と、
前記ぶれ補正量に従い、処理対象の前記フレームのぶれ補正を行うぶれ補正部と
を備える
内視鏡システム。
(12)
所定のフレームレートの動画像をフレーム毎に補正する画像処理装置において、
処理対象のフレーム上に存在し得る所定の物体が写し込まれている領域を検出する物体領域検出部と、
処理対象の前記フレームのぶれ補正を行うぶれ補正部と、
前記ぶれ補正済みのフレームにおける前記物体領域の画素値を、前記ぶれ補正済みの前記フレームよりも前のぶれ補正済みのフレームの対応する領域の画素値を用いて置換する置換部と
を備える画像処理装置。
(13)
前記動画像は、筒型のリトラクタの内側に自由度を持って保持されている撮像装置によって撮像されたものである
前記(12)に記載の画像処理装置。
(14)
前記撮像装置は、内視鏡であり、
前記所定の物体は、鉗子である
前記(13)に記載の画像処理装置。
(15)
処理対象の前記フレームに写し込まれている、前記リトラクタの内壁に設けられたマーカを検出するマーカ検出部と、
検出された前記マーカの位置に基づいてぶれ補正量を算出する算出部と
をさらに備え、
前記ぶれ補正部は、前記ぶれ補正量に従い、処理対象の前記フレームのぶれ補正を行う
前記(12)から(14)のいずれかに記載の画像処理装置。
(16)
前記動画像を撮像する撮像装置の動き情報を取得する動き情報取得部をさらに備え、
前記ぶれ補正部は、前記動き情報に基づき、処理対象の前記フレームのぶれ補正を行う
前記(12)から(14)のいずれかに記載の画像処理装置。
(17)
所定のフレームレートの動画像をフレーム毎に補正する画像処理装置の画像処理方法において、
前記画像処理装置による、
処理対象のフレーム上に存在し得る所定の物体が写し込まれている領域を検出する物体領域検出ステップと、
処理対象の前記フレームのぶれ補正を行うぶれ補正ステップと、
前記ぶれ補正済みのフレームにおける前記物体領域の画素値を、前記ぶれ補正済みの前記フレームよりも前のぶれ補正済みのフレームの対応する領域の画素値を用いて置換する置換ステップと
を含む画像処理方法。
(18)
所定のフレームレートの動画像をフレーム毎に補正するコンピュータを、
処理対象のフレーム上に存在し得る所定の物体が写し込まれている領域を検出する物体領域検出部と、
処理対象の前記フレームのぶれ補正を行うぶれ補正部と、
前記ぶれ補正済みのフレームにおける前記物体領域の画素値を、前記ぶれ補正済みの前記フレームよりも前のぶれ補正済みのフレームの対応する領域の画素値を用いて置換する置換部と
して機能させるプログラム。
(19)
内視鏡と画像処理装置を有する内視鏡システムにおいて、
前記内視鏡は、
筒型のリトラクタの内側に自由度を持って保持された状態で、所定のフレームレートの動画像を撮像してフレーム毎に前記画像処理装置に供給し、
前記画像処理装置は、
処理対象の前記フレームのぶれ補正を行うぶれ補正部と、
前記ぶれ補正済みのフレームにおける前記物体領域の画素値を、前記ぶれ補正済みの前記フレームよりも前のぶれ補正済みのフレームの対応する領域の画素値を用いて置換する置換部と
を備える
内視鏡システム。
10 リトラクタ, 11 内視鏡, 12 保持部, 20 マーカ, 21 マーカエッジ, 41 撮像部, 42 位置センサ, 50 内視鏡システム, 51 画像処理装置, 52 画像表示装置, 61 鉗子領域検出部, 62 鉗子領域保持部, 63 マーカエッジ検出部, 64 中心推定部, 65 位置センサ情報取得部, 66 トラッキング処理部, 67 マーカ情報保持部, 68 ぶれ補正部, 69 G像保持部, 70 置換部, 100 コンピュータ, 101 CPU

Claims (19)

  1. 所定のフレームレートの動画像をフレーム毎に補正する画像処理装置において、
    処理対象の前記フレームに写し込まれている、術具に設けられたマーカを検出するマーカ検出部と、
    検出された前記マーカの位置に基づいてぶれ補正量を算出する算出部と、
    前記ぶれ補正量に従い、処理対象の前記フレームのぶれ補正を行うぶれ補正部と
    を備える画像処理装置。
  2. 前記動画像は、筒型のリトラクタの内側に自由度を持って保持されている撮像装置によって撮像されたものであり、
    前記マーカは、前記術具としての前記リトラクタの内壁に設けられている
    請求項1に記載の画像処理装置。
  3. 前記マーカは、前記リトラクタの内壁の端側に帯状に設けられている
    請求項2に記載の画像処理装置。
  4. 前記撮像装置は、内視鏡である
    請求項2に記載の画像処理装置。
  5. 処理対象の前記フレームよりも前のぶれ補正済みのフレームと、前記処理対象の前記フレームとの間の動きベクトルを検出する動きベクトル検出部をさらに備え、
    前記算出部は、前記検出された前記マーカの位置に基づいてぶれ補正量を算出し、算出した前記ぶれ補正量を、検出された前記動きベクトルを用いて微調整する
    請求項2に記載の画像処理装置。
  6. 前記動きベクトル検出部は、処理対象の前記フレームよりも前のぶれ補正済みのフレームと、前記処理対象の前記フレームとの間の画素マッチングにより、前記動きベクトルを検出する
    請求項5に記載の画像処理装置。
  7. 前記撮像装置の動き情報を取得する動き情報取得部をさらに備え、
    前記動きベクトル検出部は、取得された前記動き情報を用いて、前記画素マッチングの探索範囲を制限する
    請求項6に記載の画像処理装置。
  8. 処理対象の前記フレーム上に存在し得る所定の物体が写し込まれている領域を検出する物体領域検出部と、
    処理対象のぶれ補正済みの前記フレームにおける前記物体領域の画素値を、処理対象の前記フレームよりも前のぶれ補正済みのフレームの対応する領域の画素値を用いて置換する置換部と
    をさらに備える請求項2に記載の画像処理装置。
  9. 所定のフレームレートの動画像をフレーム毎に補正する画像処理装置の画像処理方法において、
    前記画像処理装置による、
    処理対象の前記フレームに写し込まれている、術具に設けられたマーカを検出するマーカ検出ステップと、
    検出された前記マーカの位置に基づいてぶれ補正量を算出する算出ステップと、
    前記ぶれ補正量に従い、処理対象の前記フレームのぶれ補正を行うぶれ補正ステップと
    を含む画像処理方法。
  10. 所定のフレームレートの動画像をフレーム毎に補正するコンピュータを、
    処理対象の前記フレームに写し込まれている、術具に設けられたマーカを検出するマーカ検出部と、
    検出された前記マーカの位置に基づいてぶれ補正量を算出する算出部と、
    前記ぶれ補正量に従い、処理対象の前記フレームのぶれ補正を行うぶれ補正部と
    して機能させるプログラム。
  11. 内視鏡と画像処理装置を有する内視鏡システムにおいて、
    前記内視鏡は、
    筒型のリトラクタの内側に自由度を持って保持された状態で、所定のフレームレートの動画像を撮像してフレーム毎に前記画像処理装置に供給し、
    前記画像処理装置は、
    処理対象の前記フレームに写し込まれている、前記リトラクタの内壁に設けられたマーカを検出するマーカ検出部と、
    検出された前記マーカの位置に基づいてぶれ補正量を算出する算出部と、
    前記ぶれ補正量に従い、処理対象の前記フレームのぶれ補正を行うぶれ補正部と
    を備える
    内視鏡システム。
  12. 所定のフレームレートの動画像をフレーム毎に補正する画像処理装置において、
    処理対象のフレーム上に存在し得る所定の物体が写し込まれている領域を検出する物体領域検出部と、
    処理対象の前記フレームのぶれ補正を行うぶれ補正部と、
    前記ぶれ補正済みのフレームにおける前記物体領域の画素値を、前記ぶれ補正済みの前記フレームよりも前のぶれ補正済みのフレームの対応する領域の画素値を用いて置換する置換部と
    を備える画像処理装置。
  13. 前記動画像は、筒型のリトラクタの内側に自由度を持って保持されている撮像装置によって撮像されたものである
    請求項12に記載の画像処理装置。
  14. 前記撮像装置は、内視鏡であり、
    前記所定の物体は、鉗子である
    請求項13に記載の画像処理装置。
  15. 処理対象の前記フレームに写し込まれている、前記リトラクタの内壁に設けられたマーカを検出するマーカ検出部と、
    検出された前記マーカの位置に基づいてぶれ補正量を算出する算出部と
    をさらに備え、
    前記ぶれ補正部は、前記ぶれ補正量に従い、処理対象の前記フレームのぶれ補正を行う
    請求項12に記載の画像処理装置。
  16. 前記動画像を撮像する撮像装置の動き情報を取得する動き情報取得部をさらに備え、
    前記ぶれ補正部は、前記動き情報に基づき、処理対象の前記フレームのぶれ補正を行う
    請求項12に記載の画像処理装置。
  17. 所定のフレームレートの動画像をフレーム毎に補正する画像処理装置の画像処理方法において、
    前記画像処理装置による、
    処理対象のフレーム上に存在し得る所定の物体が写し込まれている領域を検出する物体領域検出ステップと、
    処理対象の前記フレームのぶれ補正を行うぶれ補正ステップと、
    前記ぶれ補正済みのフレームにおける前記物体領域の画素値を、前記ぶれ補正済みの前記フレームよりも前のぶれ補正済みのフレームの対応する領域の画素値を用いて置換する置換ステップと
    を含む画像処理方法。
  18. 所定のフレームレートの動画像をフレーム毎に補正するコンピュータを、
    処理対象のフレーム上に存在し得る所定の物体が写し込まれている領域を検出する物体領域検出部と、
    処理対象の前記フレームのぶれ補正を行うぶれ補正部と、
    前記ぶれ補正済みのフレームにおける前記物体領域の画素値を、前記ぶれ補正済みの前記フレームよりも前のぶれ補正済みのフレームの対応する領域の画素値を用いて置換する置換部と
    して機能させるプログラム。
  19. 内視鏡と画像処理装置を有する内視鏡システムにおいて、
    前記内視鏡は、
    筒型のリトラクタの内側に自由度を持って保持された状態で、所定のフレームレートの動画像を撮像してフレーム毎に前記画像処理装置に供給し、
    前記画像処理装置は、
    処理対象のフレーム上に存在し得る所定の物体が写し込まれている領域を検出する物体領域検出部と、
    処理対象の前記フレームのぶれ補正を行うぶれ補正部と、
    前記ぶれ補正済みのフレームにおける前記物体領域の画素値を、前記ぶれ補正済みの前記フレームよりも前のぶれ補正済みのフレームの対応する領域の画素値を用いて置換する置換部と
    を備える
    内視鏡システム。
JP2014120206A 2014-06-11 2014-06-11 画像処理装置、画像処理方法、プログラム、および内視鏡システム Pending JP2016000065A (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2014120206A JP2016000065A (ja) 2014-06-11 2014-06-11 画像処理装置、画像処理方法、プログラム、および内視鏡システム
US15/312,798 US10229480B2 (en) 2014-06-11 2015-05-29 Image processing device, image processing method, program, and endoscope system
PCT/JP2015/065535 WO2015190319A1 (ja) 2014-06-11 2015-05-29 画像処理装置、画像処理方法、プログラム、および内視鏡システム
EP15806801.5A EP3155951A4 (en) 2014-06-11 2015-05-29 Image processing device, image processing method, program, and endoscope system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014120206A JP2016000065A (ja) 2014-06-11 2014-06-11 画像処理装置、画像処理方法、プログラム、および内視鏡システム

Publications (1)

Publication Number Publication Date
JP2016000065A true JP2016000065A (ja) 2016-01-07

Family

ID=54833420

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014120206A Pending JP2016000065A (ja) 2014-06-11 2014-06-11 画像処理装置、画像処理方法、プログラム、および内視鏡システム

Country Status (4)

Country Link
US (1) US10229480B2 (ja)
EP (1) EP3155951A4 (ja)
JP (1) JP2016000065A (ja)
WO (1) WO2015190319A1 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017169139A1 (ja) * 2016-03-29 2017-10-05 ソニー株式会社 画像処理装置、画像処理方法及び医療システム
JPWO2017183353A1 (ja) * 2016-04-19 2018-07-05 オリンパス株式会社 内視鏡システム
CN109310306A (zh) * 2016-06-28 2019-02-05 索尼公司 图像处理装置、图像处理方法和医疗成像系统
WO2020009127A1 (ja) * 2018-07-06 2020-01-09 ソニー株式会社 医療用観察システム、医療用観察装置、及び医療用観察装置の駆動方法

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111798387A (zh) * 2020-06-24 2020-10-20 海南大学 一种用于共聚焦内窥镜的图像处理方法及系统

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0549599A (ja) 1991-08-23 1993-03-02 Olympus Optical Co Ltd 電子内視鏡装置
JPH11168717A (ja) * 1997-12-04 1999-06-22 Matsushita Electric Ind Co Ltd ビデオスコープ
US20060074307A1 (en) * 2004-05-10 2006-04-06 Tatsuo Igarashi Body cavity diagnostic system
JP2005323681A (ja) 2004-05-12 2005-11-24 Fujinon Corp 体腔内観察装置
JP5154572B2 (ja) 2006-12-15 2013-02-27 ザ エーデルマン リサーチ リミテッド 椎弓截骨術及び椎弓形成術の方法及びデバイス
JP2007289720A (ja) * 2007-06-11 2007-11-08 Olympus Corp 超音波画像診断装置
JP2012239644A (ja) * 2011-05-19 2012-12-10 Olympus Corp 画像処理装置、内視鏡装置、画像処理方法
JP2015020012A (ja) * 2013-07-23 2015-02-02 Mediaedge株式会社 術部撮像装置

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017169139A1 (ja) * 2016-03-29 2017-10-05 ソニー株式会社 画像処理装置、画像処理方法及び医療システム
JPWO2017169139A1 (ja) * 2016-03-29 2019-02-07 ソニー株式会社 画像処理装置、画像処理方法及び医療システム
US11301964B2 (en) 2016-03-29 2022-04-12 Sony Corporation Image processing apparatus, image processing method, and medical system to correct blurring without removing a screen motion caused by a biological body motion
JP7127538B2 (ja) 2016-03-29 2022-08-30 ソニーグループ株式会社 画像処理装置、医療機器の作動方法及び医療システム
US11849913B2 (en) 2016-03-29 2023-12-26 Sony Group Corporation Image processing apparatus, image processing method, and medical system to correct image blurrings
JPWO2017183353A1 (ja) * 2016-04-19 2018-07-05 オリンパス株式会社 内視鏡システム
CN109310306A (zh) * 2016-06-28 2019-02-05 索尼公司 图像处理装置、图像处理方法和医疗成像系统
WO2020009127A1 (ja) * 2018-07-06 2020-01-09 ソニー株式会社 医療用観察システム、医療用観察装置、及び医療用観察装置の駆動方法

Also Published As

Publication number Publication date
US10229480B2 (en) 2019-03-12
US20170206640A1 (en) 2017-07-20
EP3155951A1 (en) 2017-04-19
EP3155951A4 (en) 2018-03-14
WO2015190319A1 (ja) 2015-12-17

Similar Documents

Publication Publication Date Title
WO2015190319A1 (ja) 画像処理装置、画像処理方法、プログラム、および内視鏡システム
US10694933B2 (en) Image processing apparatus and image processing method for image display including determining position of superimposed zoomed image
JP4585048B2 (ja) 内視鏡システム
US20170366773A1 (en) Projection in endoscopic medical imaging
US20160022236A1 (en) Medical image processing apparatus, x-ray diagnostic apparatus, medical image processing method and x-ray diagnostic method
US10561300B2 (en) Image processing apparatus, image processing method, and image processing program
JP5689850B2 (ja) 映像解析装置、映像解析方法、および注視点表示システム
US10820787B2 (en) Endoscope device and focus control method for endoscope device
JP5911296B2 (ja) 画像処理装置、撮像装置、顕微鏡システム、画像処理方法、及び画像処理プログラム
EP3179897A1 (en) Endoscope system, image processing device, image processing method, and program
US8052598B2 (en) Systems and methods for calibrating an endoscope
JP2022550913A (ja) リアルタイム画像処理を使用するビデオガイド付き臨床手技中に視界の方向を変更するためのシステムおよび方法
US20180342079A1 (en) Image processing apparatus, image processing method, and computer readable recording medium
JP6324119B2 (ja) 回転角度算出方法、注視点検出方法、情報入力方法、回転角度算出装置、注視点検出装置、情報入力装置、回転角度算出プログラム、注視点検出プログラム及び情報入力プログラム
JP2015171450A (ja) 画像処理装置、画像処理方法、プログラム、および内視鏡装置
JP2023113689A (ja) 外科用内視鏡ビデオストリームの画像補正
JP6677734B2 (ja) 少なくとも1つの医療機器を伴う外科的処置中に執刀者にイメージ化支援を提供する為の支援デバイス
AU2014280958B2 (en) Registration across frame boundaries in AO-SLO capture
JP6653386B2 (ja) 画像処理装置、内視鏡システム、プログラム及び画像処理装置の作動方法
JP7245773B2 (ja) 画像処理装置、画像処理プログラム及び画像処理方法
US11451698B2 (en) Medical system and control unit
JPWO2018159288A1 (ja) 画像処理装置、および画像処理方法、並びにプログラム
JP2021142175A (ja) 術野監視システム
KR20210137307A (ko) 오브젝트 크기 측정 방법 및 장치
JPWO2016056408A1 (ja) 画像処理装置、画像処理方法、及び画像処理プログラム