JPWO2015111263A1 - 立体内視鏡画像処理装置 - Google Patents
立体内視鏡画像処理装置 Download PDFInfo
- Publication number
- JPWO2015111263A1 JPWO2015111263A1 JP2015538792A JP2015538792A JPWO2015111263A1 JP WO2015111263 A1 JPWO2015111263 A1 JP WO2015111263A1 JP 2015538792 A JP2015538792 A JP 2015538792A JP 2015538792 A JP2015538792 A JP 2015538792A JP WO2015111263 A1 JPWO2015111263 A1 JP WO2015111263A1
- Authority
- JP
- Japan
- Prior art keywords
- image
- blur
- region
- unit
- area
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/167—Synchronising or controlling image signals
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/00002—Operational features of endoscopes
- A61B1/00004—Operational features of endoscopes characterised by electronic signal processing
- A61B1/00009—Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
- A61B1/000094—Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope extracting biological structures
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/00002—Operational features of endoscopes
- A61B1/00004—Operational features of endoscopes characterised by electronic signal processing
- A61B1/00009—Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
- A61B1/000095—Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope for image enhancement
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/00002—Operational features of endoscopes
- A61B1/0002—Operational features of endoscopes provided with data storages
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/00163—Optical arrangements
- A61B1/00193—Optical arrangements adapted for stereoscopic vision
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/00163—Optical arrangements
- A61B1/00194—Optical arrangements adapted for three-dimensional imaging
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B23/00—Telescopes, e.g. binoculars; Periscopes; Instruments for viewing the inside of hollow bodies; Viewfinders; Optical aiming or sighting devices
- G02B23/24—Instruments or systems for viewing the inside of hollow bodies, e.g. fibrescopes
- G02B23/2407—Optical details
- G02B23/2415—Stereoscopic endoscopes
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B23/00—Telescopes, e.g. binoculars; Periscopes; Instruments for viewing the inside of hollow bodies; Viewfinders; Optical aiming or sighting devices
- G02B23/24—Instruments or systems for viewing the inside of hollow bodies, e.g. fibrescopes
- G02B23/2476—Non-optical details, e.g. housings, mountings, supports
- G02B23/2484—Arrangements in relation to a camera or imaging device
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T1/00—General purpose image data processing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/13—Edge detection
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/15—Processing image signals for colour aspects of image signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/156—Mixing image signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
- H04N13/239—Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
- G06T2207/10012—Stereo images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10068—Endoscopic image
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/18—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Physics & Mathematics (AREA)
- Surgery (AREA)
- Optics & Photonics (AREA)
- Radiology & Medical Imaging (AREA)
- General Health & Medical Sciences (AREA)
- Signal Processing (AREA)
- Biomedical Technology (AREA)
- Public Health (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Biophysics (AREA)
- Heart & Thoracic Surgery (AREA)
- Medical Informatics (AREA)
- Molecular Biology (AREA)
- Animal Behavior & Ethology (AREA)
- Veterinary Medicine (AREA)
- Pathology (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Astronomy & Astrophysics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Endoscopes (AREA)
- Closed-Circuit Television Systems (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
Abstract
Description
立体内視鏡を用いた場合には、左右の撮像素子により得られる左右の画像信号に対する画像処理を行い、生成した立体画像信号を表示部又は表示装置に出力する画像処理装置が用いられる。
また、画像処理装置の従来例として、日本国特開2011−82829号公報においては、右目用画像又は左目用画像における中央領域よりも、周辺領域に対してより大きいぼかし処理を行う内容を開示している。また、右目用画像及び左目用画像のずれ量が大きい程、より大きいぼかし強度に設定する内容を開示している。このようなぼかし処理を施すことにより、観察者が右目用画像及び左目用画像を融合して立体画像として認識し易いようにしている。
術者は、体腔内における病変部を表示画面の中央領域に設定して手術等を行っている状況においては、術者は表示画面の中央領域部分の画像に没入(集中)している状態となり、その状態において、周辺領域側から処置具が病変部に向かって中央領域側に入ってくると、術者は観察している内視鏡画像(立体画像)の端側から突然、大きな処置具が飛び出してくるイメージを受け、手術に集中している状態を途切れさせるような要因となる。
このように処置具が原因で立体観察の知覚特性が低下してしまうため、従来例における右目用画像及び左目用画像のずれ量に応じてぼかし量を調整しても、上記のような立体観察の知覚特性の低下を適切に改善できない。
本発明は上述した点に鑑みてなされたもので、立体観察の知覚特性を維持しつつ、処置具による立体観察の知覚特性の低下を抑制または軽減する画像処理を行う立体内視鏡画像処理装置を提供することを目的とする。
(第1の実施形態)
図1に示すように本発明の立体内視鏡画像処理装置を備えた立体内視鏡装置1は、手術室内の手術台2に横たわる患者3に対して、立体観察のために使用される立体内視鏡(3D内視鏡と略記)4と、トロリー5に搭載された複数の医療機器とを備える。
トロリー5には、複数の医療機器として、照明光を発生する光源装置6と、左目用の画像信号を生成する第1のプロセッサ7Aと、右目用の画像信号を生成する第2のプロセッサ7Bと、両プロセッサ7A、7Bからの第1及び第2の画像信号から立体(3D)観察用の3次元(3D)の画像信号を生成する画像生成装置としての3次元ミキサ(3Dミキサと略記)8と、3Dミキサ8により生成された3Dの画像信号を表示する3Dモニタ9と、3Dモニタ9に表示される立体観察用(3D用)画像を立体視するために例えば術者Dがかける3Dメガネ10を備える。
また、本実施形態においては、本発明の立体内視鏡画像処理装置を構成する画像処理部(又は画像処理回路)11を3Dモニタ9内に設けている(図2参照)。第1のプロセッサ7A、第2のプロセッサ7Aを、左目用プロセッサ、右目用プロセッサとも言う。図2においては、プロセッサ(左目用)、プロセッサ(右目用)として示している。なお、立体内視鏡画像処理装置を画像処理部11(又は後述する11B)の場合に限定されるものでなく、立体内視鏡装置1(又は後述する1B)により形成しても良い。
また、トロリー5には、電気メス電源装置又は電気メス装置14が搭載され、処置具として、例えば電気メス16を用いる場合には、電気メスケーブル15を介して電気メス16に高周波信号を供給する。
また、患者3の腹部3aには、図示しない助手により操作される処置具17が刺入され、術者Dが行う手術を円滑に行えるように助手は処置具17を操作する。なお、図1においては処置具として電気メス16と符号17で示す処置具とを区別して示しているが、図6B等において示すように複数の処置具17a,17b,17cであっても良い。図2は、図1における主要な医療機器の内部構成を示す。
光源装置6は、白色の照明光を発生するランプ23と、照明光を集光してライトガイドケーブル12の端部に入射(供給)する集光レンズ24とを有する。ライトガイドケーブル12に入射された照明光は、挿入部21内を挿通されたライトガイド25の基端側端部に入射される。このライトガイド25は、基端側端部に入射された照明光をこのライトガイド25の先端側の端部に伝送し、ライトガイド25の先端面が配置された照明窓から照明光を出射し、体内の病変部等の被写体を照明する。
挿入部21の先端部には、左右方向に距離dだけ離間して、被写体の光学像を結ぶための左目用対物レンズ26aと右目用対物レンズ26bとが配置され、それぞれの結像位置には左目用撮像素子としての左目用電荷結合素子(CCDと略記)27aの撮像面と、右目用撮像素子としての右目用CCD27bの撮像面とが配置されている。
左右のCCD27a、27bは、結像された光学像を光電変換した出力信号としての撮像信号を出力する。左目用対物レンズ26aと左目用CCD27aとにより左目用撮像部又は左撮像部(左撮像デバイス)28aが形成され、右目用対物レンズ26bと右目用CCD27bとにより右目用撮像部又は右撮像部(右撮像デバイス)28bが形成される。上記距離dを有し同じ被写体を、視線方向が異なる両撮像部28a,28bにより撮像して、表示装置としての3Dモニタ9に3D観察用画像を表示することにより、3D観察用画像を観察する(観察者としての)術者Dは、被写体における各部を立体感又は奥行き感を知覚して観察することができる。
第1のプロセッサ7Aは、CCD27aにより生成された左目用の撮像信号から左目用の2次元(2D)の画像信号を生成する画像生成部(又は画像生成回路)32aと、画像生成部32aにより生成した2Dの画像信号を出力する画像出力インタフェース(図2では出力IFと略記)33aと、2Dの画像信号を生成する際の同期信号の通信を行う同期信号通信部(又は同期信号通信回路)34aとを有する。画像生成部32aにより生成された左目用の2Dの画像信号は、画像出力インタフェース33aを介して3Dミキサ8に出力される。
同期信号通信部34a,34bは、一方から他方に同期信号を送信し、送信された他方の同期信号通信部は、送信された同期信号と同期した同期信号を生成する。換言すると、両同期信号通信部34a,34bは、通信を行った後、同じ同期信号を生成する状態となり、両画像生成部32a,32bは同じ同期信号に同期してそれぞれ左目用と右目用の2Dの画像信号をそれぞれ生成する状態となる。
3Dミキサ8は、両画像生成部32a,32bによりそれぞれ生成された左目用の2Dの画像信号と右目用の2Dの画像信号とが入力される画像入力インタフェース(図2では入力I/Fと略記)36a,36bと、両画像入力インタフェース36a,36bから入力された左目用の2Dの画像信号と右目用の2Dの画像信号とから3Dの画像信号(又は映像信号)を生成する3D画像生成部(又は3D画像生成回路)37と、生成した3Dの画像信号を外部の3Dモニタ9に出力する画像出力インタフェース(図2では出力I/F)38と、を有する。
3D画像生成部37は、例えば入力された両2Dの画像信号の周期を1/2倍に圧縮して表示レートを倍速にする。そして、2Dの画像信号における1フレーム期間の半分の第1フィールド(奇数フィールド)には、左目用の2Dの画像信号、第2フィールド(偶数フィールド)には、右目用の2Dの画像信号を有する3Dの画像信号を生成する。換言すると、3D画像生成部37は、左右の2Dの画像信号を3Dの画像信号に変換する2D/3D変換部((又は2D/3D変換回路))と言うこともできる。
また、3Dモニタ9の表示部43の表示画面に表示される3Dの画像を観察する術者Dは、左右の目の直前に互いに直交する方向の光を通す左右の偏光板47a,47bを有する3Dメガネ10を用いる。
切替スイッチ51の接点aから例えば奇数フィールド毎に出力される左の画像信号は、画像解析部52に入力され、画像解析部52を構成するキャプチャー回路52a内のメモリコントローラ52bは、メモリ52cに1フレーム分の左の画像信号を格納する。
また、切替スイッチ51の接点bから例えば偶数フィールド毎に出力される右の画像信号は、同期調整部53に入力され、同期調整部53内のメモリコントローラ53cは、メモリ53dに1フレーム分の右の画像信号を格納する。
画像解析部52は、上記メモリ52cに格納された左の画像信号の画像に対して、当該画像上における中央領域の周囲の周辺領域上において、処置具17が占める領域を解析する画像解析処理を行う画像解析処理部を形成する画像解析処理回路52dを有する。
この画像解析処理回路52dのより詳細な構成及び動作は、図5を参照して後述する。また、上記中央領域及び周辺領域は、図6Aを用いて後述する。
画像合成部55は、ぼかしデータによりぼかしフィルタ処理を行うぼかし処理部を形成するぼかしフィルタ回路55aと、メモリ52c、53dから読み出されて入力された画像信号に対してぼかしフィルタ回路55aによりぼかし処理された2つの画像信号を奇数フィールドと偶数フィールドに分けて重畳(加算)して合成する重畳回路(又は合成回路)55bとを有する。また、重畳回路55bは、ぼかしフィルタ回路55aによりぼかしフィルタ処理がされた画像信号を一時的に記憶するメモリ55cを有する。なお、メモリ55cをぼかしフィルタ回路55aに設けるようにしても良い。
画像解析部52(のメモリコントローラ52b)は、ぼかしフィルタ回路55aがぼかしデータの入力によって、ぼかしフィルタ処理が可能な状態に設定されると、メモリ52cから左の画像信号を読み出して画像合成部55のぼかしフィルタ回路55aに入力させる。また、画像解析部52(のメモリコントローラ52b)は、メモリ52cから左の画像信号を読み出しが終了すると、読み出し終了を同期調整部53(のメモリコントローラ53c)に送り、同期調整部53(のメモリコントローラ53c)は、メモリ53dから右の画像信号を読み出して画像合成部55のぼかしフィルタ回路55aに入力させる。
中央領域Rcのサイズは、ユーザがキーボードやマウスなどを用いて、例えば画像解析処理回路52dに設けた領域設定部(又は領域設定デバイス)65から設定することができる。つまり、領域設定部65は、キーボードやマウス等による構成される。なお、領域設定部65を画像解析処理回路52dの外部に設けるようにしても良い。
中央領域Rcが設定されるとその外側の領域が周辺領域Rnとなる。また、術者D等のユーザは、領域設定部65から周辺領域Rnを複数の領域Rbを設定する場合、その個数又はサイズを自由に設定することができる。
このため、本実施形態においては、周辺領域Rnにおいて、処置具17の画像の存在を画像解析し、画像解析の結果に基づいて周辺領域Rnに存在する、少なくとも処置具17の画像部分をぼかすことにより、中央領域Rcでの立体観察の視覚特性を維持しつつ、周辺領域Rnに処置具17(の画像)が存在した場合における処置具17(の画像)に起因して立体観察の視覚特性を低下させる要因を抑制又は軽減する。
周辺領域Rnに存在する処置具17の画像の大きさを評価するために、図6Bに示すように色成分分析回路62は色分析を行い、画像エッジ成分抽出回路63は、エッジ成分Ea,Eb,Ecの抽出を行う(後述)。
より具体的には、制御部56は、最内ブロック領域演算回路64aの演算結果により最内領域Rni(その領域数Ni)内におけるに処置具17の画像が存在する最内ブロック領域Rnitを形成する領域数Miの占める割合Mi/Niに応じてぼかし領域を設定するように制御し、最外ブロック領域演算回路64bの演算結果により最外領域Rno(その領域数No)内におけるにまた処置具17の画像が存在する最外ブロック領域Rnotを形成する領域数Moの占める割合Mo/Niに応じてぼかし強度を設定して、画像合成部55が3D画像を合成した3D合成信号を生成するように制御する。
なお、制御部56が上述したように画像解析処理回路52d内の処置具領域評価回路64の動作を外部から制御する代わりに、例えば処置具領域評価回路64内に制御部56による制御機能を含め、処置具領域評価回路64の外部の制御部56を介することなく、ぼかし領域の設定と、ぼかし強度の設定を行う構成にしても良い。また、リファレンスDB54も、外部の制御部56を介することなく、画像解析部52による解析結果データから、解析結果データに対応するぼかしデータを画像合成部55に出力するようにしても良い。換言すると、図3又は図4に示すように制御部56を画像解析部52、リファレンスDB54、画像合成部55の外部に設ける構成に限らず、その制御機能の一部を画像解析部52内、リファレンスDB54内、画像合成部55内に設けるようにしても良い。以下の動作説明においては、主に後者に近い構成の場合で説明する。
本実施形態を用いた立体内視鏡装置1の電源が投入されて動作開始となった場合、最初のステップS1において術者等のユーザは、初期設定として、一方の画像としての例えば左の画像を中央領域Rcと周辺領域Rnの設定を行うと共に、周辺領域Rnを小さな領域Rb(図6A参照)に分割する場合の分割数(又は所定数)Nの設定を行う。なお、前回等の以前の使用の際において、すでに中央領域Rc、周辺領域Rn、分割数Nが設定されている場合には、それらの設定データを採用しても良い。また、右の画像に対しては、中央領域Rc、周辺領域Rn、領域Rb等を設定する必要はないが、ぼかし処理する場合、左の画像に対して設定した中央領域Rc、周辺領域Rn、領域Rbが適用される。
次のステップS2において術者は、3D内視鏡4を用いて立体観察を行う。3D内視鏡4の左右の撮像素子により撮像された左右の撮像画像の信号は、プロセッサ7A,7Bによって左右の2D画像信号に変換され、3Dミキサ8において左右の2D画像信号は3D画像信号に変換されて、3Dモニタ9の画像処理部11に入力される。画像処理部11に入力された3D画像信号は、切替信号生成回路53bの切替信号により切替スイッチ51が1フィールド期間毎に切り替えられる。
ステップS3に示すように画像解析処理回路52dの画像分割回路61は、左の画像信号の画像に対して、図6Aに示すように中央領域Rcの周囲の周辺領域Rnを上記分割数Nで分割する。以下の処理は、周辺領域Rnが分割された各領域Rbに対して行われる。
次のステップS4において画像解析処理回路52dの色成分分析回路62は、周辺領域Rnにおける各領域Rbの画像信号の画像に対して、色成分に色分析する処理を行う。図6Bでは斜線で示す1つの領域Rbに対して色分析を行っている様子を示す。
次のステップS5において画像解析処理回路52dの画像エッジ成分抽出回路63は、周辺領域Rnにおける各領域Rbの画像信号の画像に対して、直進性(又は直線状)のエッジ成分を抽出する処理を行う。処置具17等の処置具は、直線形状のロッド部分が占める割合が大きいために、画像エッジ成分抽出回路63は、直線的に延びるエッジ成分を抽出する。図6Bにおいて、直線的に延びるロッド部分のエッジ成分Ea,Eb,Ecが抽出された様子を示す。画像エッジ成分抽出回路63は、直線的に延びるエッジ成分を重点的に抽出するが、曲線的なエッジ成分も抽出するようにしても良い。
次のステップS6において最内ブロック領域演算回路64aは、図6Cに示すように最内領域Rniにおいて処置具17(の画像)が存在する処置具領域のブロックを最内ブロック領域Rnitとして検知する。また、最内ブロック領域演算回路64aは、最内領域Rniにおいて最内ブロック領域Rnit(を形成する領域数)が占める割合Mi/Niを算出する。図6Cの例では、最内領域Rniは、領域Rbの総数が20であり、最内ブロック領域Rnitの総数が7であるため、最内ブロック領域Rnitが占める割合は7/20となる。
そして、処置具領域評価回路64は、最内ブロック領域演算回路64aの演算結果としての最内ブロック領域Rnitが占める割合Mi/Niの結果と、最外ブロック領域演算回路64bの演算結果としての最外ブロック領域Rnotが占める割合Mo/Noの結果との解析結果データをリファレンスDB54に送る。
次のステップS8においてリファレンスDB54は、最内ブロック領域Rnitが占める割合の結果のデータに応じてぼかし領域の情報を生成し、画像合成部55に出力する。ぼかし領域を設定する処理は、図8A,図8Bを参照して後述する。
次のステップS10において画像合成部55は、リファレンスDB54からのぼかし領域とぼかし強度の情報とのぼかしデータを、ぼかし処理を行うパラメータとして、ぼかしフィルタ回路55aはメモリ52cとメモリ53dから読み出された同じフレームを構成する奇数、偶数フィールドの左右の画像に対してそれぞれぼかし処理を行い、重畳回路55bにおいて合成して3D合成画像を生成する。
生成された3D合成画像の画像信号としての3D合成画像信号は、表示部43に出力され、表示部43の表示画面に偏光方向が直交する状態で左右の画像が表示され、術者Dは3Dメガネ10をかけて観察することにより、立体視することができる。なお、ステップS10の処理の後、ステップS4の処理に戻り、動画における各フレームに対して、同様の処理が繰り返される。
図10における右側に示すように中央領域Rcにおいては、ぼかし処理が施されない状態で鮮明に表示され、中央領域Rcの外側においては、処置具17の画像が占める割合に応じて、ぼかし処理が施された画像となる。ぼかし処理により周辺領域Rn内の処置具17のロッド部分が不鮮明となるため、周辺領域Rnにおける処置具17の画像が立体観察において、立体観察の視覚特性を低下させる要因、具体的には、処置具が手前側に飛び出すような違和感を与える視覚特性を抑制ないしは軽減できる。従って、術者は違和感を感じる要因が抑制又は軽減された状態で、立体視しながら処置を行うことが可能となる。
図8Aは、最内ブロック領域演算回路64aの演算結果としての最内ブロック領域Rnitが占める割合に応じてリフアレンスDB54がぼかし領域を生成(設定)する処理を示す。
例えば割合がA以下の場合には、ステップS13aに示すように周辺領域Rnの内、外側からV%の範囲をぼかし領域に設定し、
割合がA〜Bの場合には、ステップS13bに示すように全周辺領域Rnの内、外側からW%の範囲をぼかし領域に設定し、
割合がB〜Cの場合には、ステップS13cに示すように全周辺領域Rnの内、外側からX%の範囲をぼかし領域に設定し、
割合がC〜Dの場合には、ステップS13dに示すように全周辺領域Rnの内、外側からY%の範囲をぼかし領域に設定し、
割合がD以上の場合には、ステップS13eに示すように全周辺領域Rnの内、外側からZ%の範囲をぼかし領域に設定する。
図9Aは、最外ブロック領域演算回路64bの演算結果としての最外ブロック領域Rnotが占める割合に応じてリフアレンスDB54がぼかし強度を生成(設定)する処理を示す。
ステップS21に示すようにリフアレンスDB54は、最外領域Rnoにおける処置具17の画像の最外ブロック領域Rnot、より具体的には処置具17の画像のロッド部分のロッドブロック領域、が占める割合を参照する。そして、ステップS22に示すようにリフアレンスDB54は、制御部56の制御下で、参照した結果に応じて以下のケース分けの処理を行う。なお、制御部56が以下の処理を行うようにしても良い。
割合がH〜Iの場合には、ステップS13bに示すように全周辺領域Rnの内、設定されたぼかし領域をPの強度でぼかす。
割合がI〜Jの場合には、ステップS13cに示すように全周辺領域Rnの内、設定されたぼかし領域をQの強度でぼかす。
割合がJ〜Kの場合には、ステップS13dに示すように全周辺領域Rnの内、設定されたぼかし領域をRの強度でぼかす。
割合がK以上の場合には、ステップS13eに示すように全周辺領域Rnの内、設定されたぼかし領域をSの強度でぼかす。
図9Bは、図9Aに対応した最外ブロック領域Rnotの割合と、ぼかし強度の例を示す。最外ブロック領域Rnotの割合が増加するに従って、ぼかし強度がステップ状に増大する。なお、最外ブロック領域Rnotの割合が0の場合には、ぼかし強度も0となる。
具体例で説明すると、図11Bに示すようにぼかし処理を行う前のぼかし対象画素Rgiの色情報の重み(画素値)が100、その周囲の画素の重み(画素値)が0とした場合、ブラー処理によりぼかし対象画素Rgiの色情報の重み(重み係数)を36、ぼかし対象画素Rgiの周囲の最近接の第1周囲画素としての8画素の色情報の重みを4、さらにその周囲の第2周囲画素としての16画素の色情報の重みを2に設定する。このようにしてぼかし対象画素Rgiの色情報の重み(100)を、ぼかし処理後において、ぼかし処理前と同じ値を維持して、周囲の画素に色情報の重みを滲ませるようなぼかし処理を行う。
図12は、本実施形態における3D合成画像を生成する場合の概略のタイミングチャートを示す。
画像処理部11に入力される3D画像信号の3D画像は、(1フレーム分の3D画像を表示する場合における)1フィールド期間毎に切り替えられる切替スイッチ51を経て、メモリ52cとメモリ53dとに、それぞれ最初(1番目)の1フレーム画像を構成する左の画像Il1と右の画像Ir1が書き込まれる。ここで、Il1又はIr1における1は、1番目のフレームの画像であることを表す。メモリ53dに右の画像Ir1が書き込まれる1フィールド期間内において、画像解析処理回路52dは、メモリ52cに書き込まれた左の画像Il1に対して、画像解析を行い、解析結果データを生成し、解析結果データをリファレンスDB54に出力する。リファレンスDB54は、解析結果データに対応するぼかしデータを画像合成部55のぼかしフィルタ回路55aに出力する。
また、周辺領域Rn内において処置具の画像が存在するか否かの検知を行う検知領域において処置具が検知される領域の割合に応じて、ぼかす処理を行うぼかし領域と、ぼかし強度とを設定するようにしているので、周辺領域Rnにおける処置具の画像の占有割合を考慮した妥当な周辺領域Rnの画像を提供できる。
なお、第1の実施形態においては、立体内視鏡画像処理装置を構成する画像処理部11を3Dモニタ9内に設けた例を説明したが、図13に示す変形例のように例えば3Dミキサ8内に立体内視鏡画像処理装置を構成する画像処理部11Bを設けるようにしても良い。
3Dモニタ9Bは、図1の画像処理部11の代わりに、入力された3D画像信号を表示部43に表示する画像処理を行う画像処理部42を有する。この場合の3Dモニタ8Bは公知の3Dモニタと同様の構成となる。
図13の3Dミキサ8Bは、図1の3Dミキサ8において、画像入力インタフェース36a,36bと3D画像合成部37との間に、ぼかし処理を行う画像処理部11Bを設けた構成となる。
この画像処理部11Bは、基本的には、上述した画像処理部11とほぼ同様の機能を有するが、上述した例では画像処理部11に3D画像信号が入力されるのに対して、図13の場合には左右の2Dの画像信号が同時に並列的に入力される。
このため、図13に示す画像処理部11Bは、画像処理部11の構成で必要であった切替スイッチ51及びその切替を行う回路が不要となる。従って、画像処理部11Bは、画像解析部52,同期調整部53,リファレンスDB54,画像合成部55及び制御部56を有する。
3D画像合成部37は、ぼかし処理がされた左右の画像信号を合成してぼかし処理がされた3Dの画像信号を生成し、3Dモニタ9Bに出力する。3Dモニタ9Bは、入力されたぼかし処理がされた3Dの画像信号を表示部43に表示し、術者Dは、3Dメガネ10をかけて立体視することができる。本変形例は、上述した第1の実施形態と、画像処理のタイミングが若干異なるが、第1の実施形態と殆ど同じ効果を有する。
また、上述した説明においては画像解析部52は、解析結果データによってリファレンスDB54がぼかしデータを画像合成部55(のぼかしフィルタ回路55a)に出力し、ぼかし処理が可能な状態になると、メモリ52cから読み出した左の画像信号を画像合成部55(のぼかしフィルタ回路55a)に出力し、読み出し終了と同じタイミングとなるぼかし処理が終了した時、同期調整部53(のメモリコントローラ53c)に対して左の画像信号に対するぼかし処理の終了を知らせる。そして、引き続いて、ぼかしフィルタ回路55aは、同じフレームに属するに右の画像信号に対してぼかし処理を行うが、このような手順に限定されるものでない。
又、図4に示すぼかしフィルタ回路55aとして、2つのぼかしフィルタ回路を備えた構成にして、左右の画像を同じタイミングでぼかし処理を行うようにしても良い。この場合には、メモリコントローラ52bと53cとが同期してそれぞれメモリ52cと53dから左右の画像信号を読み出し、2つのぼかしフィルタ回路によりぼかし処理を並行して行うようにしても良い。この場合には、同期調整部53は、一方の画像信号となる一方の画像と、他方の画像信号となる他方の画像とが同期したタイミングで画像合成部55に出力するように調整する。
例えば、図6Bに示すように周辺領域Rnにおいて、色成分の分析結果とエッジ成分の抽出結果とにより、周辺領域Rnにおける処置具17a,17b,17cの画像が存在する領域をぼかし処理を行う候補領域とし、最内領域Rniにおける最内ブロック領域Rnit(図6C参照)の割合に応じて候補領域における最外周側からぼかし領域を設定し、最外領域Rnoにおける最外ブロック領域Rnot(図6D参照)の割合に応じてぼかし領域におけるぼかし強度を設定するようにしても良い。
また、上述した画像解析部52,同期調整部53、画像合成部55を電子回路素子を用いて構成しても良いし、中央演算装置(CPU)を用いてソフトウェア的に構成しても良い。
Claims (14)
- 立体内視鏡に設けられた左右の撮像素子の出力信号に基づく、左目用の画像を表す左目用画像信号と右目用の画像を表す右目用画像信号との同期調整を行うよう構成された同期調整部と、
前記左目用画像信号及び前記右目用画像信号の少なくとも一方の画像信号の画像における中央領域の周囲の周辺領域上において、処置具の画像が占める領域を解析するよう構成された画像解析部と、を備え、
前記画像解析部は、
入力された前記画像信号により得られる前記画像における前記中央領域の周囲の前記周辺領域を細分化し、所定数の領域に分割するよう構成された画像分割部と、
前記所定数の各領域内の色成分を分析するよう構成された色成分分析部と、
前記各領域内の直進性成分のエッジ成分を抽出するよう構成された画像エッジ成分抽出部と、
前記色成分分析部の分析結果と前記画像エッジ成分抽出部の抽出結果とから前記周辺領域上における前記処置具の画像が占める領域の大きさを評価するよう構成された処置具領域評価部と、
前記処置具領域評価部の評価結果から前記処置具の画像が前記周辺領域上において最も内側の領域としての最内領域に存在する領域のブロックを最内ブロック領域として検知するよう、前記最内ブロック領域を検知するための演算を行うよう構成された最内ブロック領域演算部と、
前記処置具領域評価部の評価結果から前記処置具の画像が前記周辺領域上において最も外側の領域としての最外領域に存在する領域のブロックを最外ブロック領域として検知するよう、前記最外ブロック領域を検知するための演算を行うよう構成された最外ブロック領域演算部と、
を有し、
前記画像解析部の解析結果に応じて前記周辺領域における前記画像にぼかし処理を施す領域としてのぼかし領域と、前記周辺領域における前記画像にぼかし処理を施す際のぼかし強度との情報を生成するよう構成されたぼかし情報生成部と、
前記同期調整部の同期調整結果と、前記ぼかし情報生成部の生成結果に応じて前記左目用の画像と前記右目用の画像に対してそれぞれぼかし処理を施した3D画像を合成して出力するよう構成された画像合成部と、
を備えることを特徴とする立体内視鏡画像処理装置。 - 更に、前記画像合成部に設けられ、前記左目用の画像と前記右目用の画像に対して、前記ぼかし情報生成部により生成されたぼかし領域において、前記ぼかし強度でそれぞれぼかし処理を施すよう構成されたぼかし処理部と、
前記画像合成部に設けられ、前記ぼかし処理部によりそれぞれぼかし処理された前記左目用の画像と前記右目用の画像を合成するよう構成された合成部と、
を備えることを特徴とする請求項1に記載の立体内視鏡画像処理装置。 - 更に、前記最内ブロック領域演算部の演算結果により前記最内領域の全領域数に対する前記最内ブロック領域を形成する領域数が占める割合に応じて前記ぼかし情報生成部が前記ぼかし領域を設定するよう制御し、前記最外ブロック領域演算部の演算結果により前記最外領域の全領域数に対する前記最外ブロック領域を形成する領域数が占める割合に応じて前記ぼかし情報生成部が前記ぼかし強度を設定するよう制御し、前記ぼかし処理部が前記左目用の画像と前記右目用の画像に対して、前記ぼかし情報生成部により設定された前記ぼかし領域において、前記ぼかし強度でぼかし処理をそれぞれ行うよう制御するよう構成された制御部と、
を有することを特徴とする請求項2に記載の立体内視鏡画像処理装置。 - 前記制御部は、前記最内ブロック領域演算部の演算結果により前記最内ブロック領域を形成する領域数が大きくなるに従って、前記ぼかし領域を前記最外領域から前記最内領域側に広げるように設定する制御を行い、
更に、前記最外ブロック領域演算部の演算結果により前記最外ブロック領域を形成する領域数が大きくなるに従って、前記ぼかし領域における前記ぼかし強度を段階的に大きく設定するように制御することを特徴とする請求項3に記載の立体内視鏡画像処理装置。 - 前記制御部は、前記前記左目用画像信号及び前記右目用画像信号における一方の画像信号の画像における第1の周辺領域のみを前記周辺領域として、前記第1の周辺領域における前記ぼかし領域と前記ぼかし強度を設定するよう制御し、
前記制御部は、更に前記前記左目用画像信号及び前記右目用画像信号における他方の画像信号の画像における第2の周辺領域に対しては、前記第1の周辺領域に対して設定した前記ぼかし領域及び前記ぼかし強度を適用するように制御することを特徴とする請求項3に記載の立体内視鏡画像処理装置。 - 前記制御部は、前記前記左目用画像信号及び前記右目用画像信号における一方の画像信号の画像における第1の周辺領域のみを前記周辺領域として、前記第1の周辺領域における前記ぼかし領域と前記ぼかし強度を設定するよう制御し、
前記制御部は、更に前記前記左目用画像信号及び前記右目用画像信号における他方の画像信号の画像における第2の周辺領域に対しては、前記第1の周辺領域に対して設定した前記ぼかし領域及び前記ぼかし強度を適用するように制御することを特徴とする請求項4に記載の立体内視鏡画像処理装置。 - 前記同期調整部は、前記画像解析部により処置具の画像が占める領域の解析が行われる一方の画像信号の画像と同じフレームに属する他方の画像信号の画像を一時的に記憶するメモリを有し、前記一方の画像信号が入力されるフレームから前記一方の画像信号の画像及び前記他方の画像信号の画像に対して前記ぼかし処理部によりぼかし処理された3Dの画像信号を1フレーム期間後に出力するように同期調整することを特徴とする請求項2に記載の立体内視鏡画像処理装置。
- 前記立体内視鏡画像処理装置を、立体視用の3Dメガネを用いて観察者が観察する3D画像を表示する表示画面を備えた3Dモニタに設けることを特徴とする請求項2に記載の立体内視鏡画像処理装置。
- 前記立体内視鏡画像処理装置を、前記立体内視鏡に設けられた左右の撮像素子の出力信号からそれぞれ生成された前記左目用画像信号と前記右目用画像信号とが入力され、3D画像を表示する3Dモニタに対して3D画像信号を出力する3Dミキサに設けることを特徴とする請求項2に記載の立体内視鏡画像処理装置。
- 前記ぼかし情報生成部は、前記最内ブロック領域演算部により演算される前記最内ブロック領域の割合の情報と、前記最外ブロック領域演算部により演算される前記最外ブロック領域の割合の情報とに応じて、それぞれ前記ぼかし処理部がぼかし処理を施す前記ぼかし領域と前記ぼかし強度、又は前記ぼかし強度と前記ぼかし領域の情報に対応付けたルックアップテーブルとして格納する情報格納部を有することを特徴とする請求項2に記載の立体内視鏡画像処理装置。
- 更に、前記最外ブロック領域演算部の演算結果により前記最外領域の全領域数に対する前記最外ブロック領域を形成する領域数が占める割合に応じて前記ぼかし情報生成部が前記ぼかし領域を設定するよう制御し、前記最内ブロック領域演算部の演算結果により前記最内領域の全領域数に対する前記最外ブロック領域を形成する領域数が占める割合に応じて前記ぼかし情報生成部が前記ぼかし強度を設定するよう制御し、前記ぼかし処理部が前記左目用の画像と前記右目用の画像に対して、前記ぼかし情報生成部により設定される前記ぼかし領域において、前記ぼかし強度でぼかし処理をそれぞれ行うよう制御するよう構成された制御部を有することを特徴とする請求項2に記載の立体内視鏡画像処理装置。
- 前記制御部は、前記最外ブロック領域演算部の演算結果により前記最外ブロック領域を形成する領域数が大きくなるに従って、前記ぼかし領域を前記最外領域から前記最内領域側に広げるように設定する制御を行い、
更に、前記最内ブロック領域演算部の演算結果により前記最内ブロック領域を形成する領域数が大きくなるに従って、前記ぼかし領域における前記ぼかし強度を段階的に大きく設定するように制御することを特徴とする請求項11に記載の立体内視鏡画像処理装置。 - 前記画像分割部は、前記周辺領域を、前記中央領域の外側に隣接して囲むように設けられた前記最内領域に属する複数の領域と、前記最内領域の外側に囲むようにして前記画像における最も外側に設けられた前記最外領域に属する複数の領域と、を含むように分割することを特徴とする請求項2に記載の立体内視鏡画像処理装置。
- 更に、前記左右の撮像素子を備えた前記立体内視鏡と、
前記左右の撮像素子に対する画像処理を行い、前記左目用画像信号と前記右目用画像信号を生成する画像処理装置と、
前記画像処理装置により生成される前記左目用画像信号と前記右目用画像信号から3Dの画像信号を生成する3Dミキサと、
前記3Dミキサから出力される前記3Dの画像信号が入力されることにより3Dの画像を表示する3Dモニタと、を備え、
前記3Dミキサ又は前記3Dモニタが前記同期調整部と、前記画像解析部とを備えることを特徴とする請求項2に記載の立体内視鏡画像処理装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015538792A JP5893808B2 (ja) | 2014-01-24 | 2014-10-21 | 立体内視鏡画像処理装置 |
Applications Claiming Priority (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014011746 | 2014-01-24 | ||
JP2014011746 | 2014-01-24 | ||
JP2015538792A JP5893808B2 (ja) | 2014-01-24 | 2014-10-21 | 立体内視鏡画像処理装置 |
PCT/JP2014/077917 WO2015111263A1 (ja) | 2014-01-24 | 2014-10-21 | 立体内視鏡画像処理装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP5893808B2 JP5893808B2 (ja) | 2016-03-23 |
JPWO2015111263A1 true JPWO2015111263A1 (ja) | 2017-03-23 |
Family
ID=53681086
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015538792A Expired - Fee Related JP5893808B2 (ja) | 2014-01-24 | 2014-10-21 | 立体内視鏡画像処理装置 |
Country Status (5)
Country | Link |
---|---|
US (1) | US9635343B2 (ja) |
EP (1) | EP3070941A4 (ja) |
JP (1) | JP5893808B2 (ja) |
CN (1) | CN105850120B (ja) |
WO (1) | WO2015111263A1 (ja) |
Families Citing this family (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018088215A1 (ja) | 2016-11-08 | 2018-05-17 | オリンパス株式会社 | 内視鏡システムおよび処理装置 |
JPWO2018168261A1 (ja) | 2017-03-16 | 2020-01-16 | ソニー株式会社 | 制御装置、制御方法、及びプログラム |
JP6729798B2 (ja) * | 2017-04-13 | 2020-07-22 | 株式会社島津製作所 | X線撮影装置 |
WO2018211854A1 (ja) * | 2017-05-19 | 2018-11-22 | オリンパス株式会社 | 3d内視鏡装置、及び、3d映像処理装置 |
JP2019162371A (ja) * | 2018-03-20 | 2019-09-26 | ソニー・オリンパスメディカルソリューションズ株式会社 | 医療用撮像装置及び内視鏡装置 |
JP7094742B2 (ja) * | 2018-03-20 | 2022-07-04 | ソニー・オリンパスメディカルソリューションズ株式会社 | 三次元内視鏡システム |
JP6988001B2 (ja) * | 2018-08-30 | 2022-01-05 | オリンパス株式会社 | 記録装置、画像観察装置、観察システム、観察システムの制御方法、及び観察システムの作動プログラム |
EP3669748A1 (en) * | 2018-12-19 | 2020-06-24 | Koninklijke Philips N.V. | A mirror assembly |
CN112188181B (zh) * | 2019-07-02 | 2023-07-04 | 中强光电股份有限公司 | 图像显示设备、立体图像处理电路及其同步信号校正方法 |
Family Cites Families (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4170042B2 (ja) * | 2002-08-09 | 2008-10-22 | フジノン株式会社 | 立体電子内視鏡装置 |
JP2011070450A (ja) * | 2009-09-25 | 2011-04-07 | Panasonic Corp | 三次元画像処理装置およびその制御方法 |
JP5476910B2 (ja) * | 2009-10-07 | 2014-04-23 | 株式会社ニコン | 画像生成装置、画像生成方法、および、プログラム |
WO2011118287A1 (ja) * | 2010-03-24 | 2011-09-29 | オリンパス株式会社 | 内視鏡装置 |
JP4875762B2 (ja) | 2010-05-26 | 2012-02-15 | シャープ株式会社 | 画像処理装置、画像表示装置および画像撮像装置 |
JP5701140B2 (ja) * | 2011-04-21 | 2015-04-15 | キヤノン株式会社 | 立体内視鏡装置 |
JP2013042301A (ja) * | 2011-08-12 | 2013-02-28 | Casio Comput Co Ltd | 画像処理装置、画像処理方法及びプログラム |
KR20130033125A (ko) * | 2011-09-26 | 2013-04-03 | 삼성전자주식회사 | 컨텐츠변환장치 및 컨텐츠변환방법 |
JP6069854B2 (ja) * | 2012-03-02 | 2017-02-01 | セイコーエプソン株式会社 | 映像表示装置および映像表示方法 |
JP6103827B2 (ja) | 2012-06-14 | 2017-03-29 | オリンパス株式会社 | 画像処理装置および立体画像観察システム |
KR20140058744A (ko) * | 2012-11-05 | 2014-05-15 | 한국전자통신연구원 | 영상 이동 영역의 메움 처리 기능을 구비한 입체 영상 제작 시스템 및 그 방법 |
JP5730339B2 (ja) * | 2013-01-25 | 2015-06-10 | 富士フイルム株式会社 | 立体内視鏡装置 |
JP6402366B2 (ja) * | 2013-08-26 | 2018-10-10 | パナソニックIpマネジメント株式会社 | 3次元表示装置および3次元表示方法 |
-
2014
- 2014-10-21 EP EP14879713.7A patent/EP3070941A4/en not_active Withdrawn
- 2014-10-21 WO PCT/JP2014/077917 patent/WO2015111263A1/ja active Application Filing
- 2014-10-21 JP JP2015538792A patent/JP5893808B2/ja not_active Expired - Fee Related
- 2014-10-21 CN CN201480069989.XA patent/CN105850120B/zh active Active
-
2016
- 2016-05-24 US US15/162,713 patent/US9635343B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
WO2015111263A1 (ja) | 2015-07-30 |
JP5893808B2 (ja) | 2016-03-23 |
EP3070941A4 (en) | 2017-03-08 |
CN105850120B (zh) | 2017-11-10 |
CN105850120A (zh) | 2016-08-10 |
US9635343B2 (en) | 2017-04-25 |
EP3070941A1 (en) | 2016-09-21 |
US20160269713A1 (en) | 2016-09-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5893808B2 (ja) | 立体内視鏡画像処理装置 | |
US20150215614A1 (en) | Imaging system and method | |
JP6655756B2 (ja) | 3d内視鏡装置、及び、3d映像処理装置 | |
JP6908039B2 (ja) | 画像処理装置、画像処理方法、プログラム、及び画像処理システム | |
WO2017145788A1 (ja) | 画像処理装置、画像処理方法、プログラム、及び、手術システム | |
JP6912313B2 (ja) | 画像処理装置、カメラ装置及び画像処理方法 | |
JP2011206425A (ja) | 画像処理装置、画像処理方法、画像処理プログラム、及び立体内視鏡装置 | |
WO2013179855A1 (ja) | 立体視内視鏡システム | |
US10993603B2 (en) | Image processing device, image processing method, and endoscope system | |
US10609354B2 (en) | Medical image processing device, system, method, and program | |
WO2018211590A1 (ja) | 内視鏡のための画像処理装置及び内視鏡システム | |
JP2019029876A (ja) | 画像処理装置、カメラ装置及び出力制御方法 | |
WO2014155815A1 (ja) | 立体内視鏡システム | |
JP5851656B2 (ja) | 画像信号出力装置及び画像信号送受信システム | |
WO2016194446A1 (ja) | 情報処理装置、情報処理方法、及び生体内撮像システム | |
CN116172493A (zh) | 用于内窥镜系统的成像及显示方法和内窥镜系统 | |
CN116158718A (zh) | 用于内窥镜系统的成像及显示方法和内窥镜系统 | |
US10855980B2 (en) | Medical-image display control device, medical image display device, medical-information processing system, and medical-image display control method | |
JP2003334160A (ja) | 立体視内視鏡システム | |
JP2019029875A (ja) | 画像処理装置、カメラ装置及び画像処理方法 | |
JP7456385B2 (ja) | 画像処理装置、および画像処理方法、並びにプログラム | |
US20220182538A1 (en) | Image-processing method, control device, and endoscope system | |
JP2004233480A (ja) | 立体内視鏡システム | |
JP2018529404A (ja) | 陰影からの形状復元法を使用する内視鏡立体視システムおよびその方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20160112 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20160209 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20160224 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 5893808 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
S531 | Written request for registration of change of domicile |
Free format text: JAPANESE INTERMEDIATE CODE: R313531 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |