JPH067289A - 内視鏡画像処理装置 - Google Patents
内視鏡画像処理装置Info
- Publication number
- JPH067289A JPH067289A JP5045563A JP4556393A JPH067289A JP H067289 A JPH067289 A JP H067289A JP 5045563 A JP5045563 A JP 5045563A JP 4556393 A JP4556393 A JP 4556393A JP H067289 A JPH067289 A JP H067289A
- Authority
- JP
- Japan
- Prior art keywords
- image
- dimensional
- shape
- endoscope
- image data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/18—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
- H04N7/183—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/00002—Operational features of endoscopes
- A61B1/00043—Operational features of endoscopes provided with output arrangements
- A61B1/00045—Display arrangement
- A61B1/0005—Display arrangement combining images e.g. side-by-side, superimposed or tiled
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/00147—Holding or positioning arrangements
- A61B1/00149—Holding or positioning arrangements using articulated arms
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/04—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
- A61B1/05—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances characterised by the image sensor, e.g. camera, being in the distal end portion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
- G06T7/579—Depth or shape recovery from multiple images from motion
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/50—Constructional details
- H04N23/555—Constructional details for picking-up images in sites, inaccessible due to their dimensions or hazardous conditions, e.g. endoscopes or borescopes
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/103—Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
- A61B5/107—Measuring physical dimensions, e.g. size of the entire body or parts thereof
- A61B5/1077—Measuring of profiles
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
- G06T2207/10012—Stereo images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10068—Endoscopic image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N2013/0074—Stereoscopic image analysis
- H04N2013/0081—Depth or disparity estimation from stereoscopic image signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N2013/0074—Stereoscopic image analysis
- H04N2013/0092—Image segmentation from stereoscopic image signals
Abstract
数の画像から対象物の立体形状を推定可能な内視鏡画像
処理装置を提供すること。 【構成】 同一対象物に関して撮像手段を移動しなが
ら、撮像された複数の画像を取り込み、一時メモリ61
に格納し、位置検出手段62、位置推定手段63、形状
推定手段64、及び反復処理手段60により、対象物の
立体形状を算出し、メモリ65に記憶し、このメモリ6
5に記憶された画像データはモニタ5に入力され、対象
物の立体形状が表示される。
Description
数の位置から撮像された画像から、画像間の相関性を利
用する事により対象物の立体形状を推定する内視鏡画像
処理装置に関する。
段の、相対的配置が既知の場合に、撮像された画像から
対象物の形状を推定する問題に対しては、いわゆるステ
レオ画像からの形状推定問題として種々の方法が提案さ
れている。
出について幾つかの提案が成されている。これは複数の
画像から撮像手段の相対的な移動をも推定しようとする
手法である。これらの手法はいずれも、複数の画像間で
対象物上の同一の点の各画像上における位置が関連付け
られることを原情報として用いる。
置の検出に対しても種々の方法が提案されている。人工
的な対象物の場合、角、輪郭成分が明瞭である事が多い
為、線分抽出等の構造抽出による手法は有効であるが、
一般的な自然画像に対しては適用は難しい。時系列画像
に対してしばしば用いられる濃度勾配法は、画像間での
対象物の見かけの移動が非常に小さく、画像品質が良い
場合には良好な結果が得られるが、撮像条件の制約が大
きい。
周囲領域を参照領域として抽出し、探索対象物の画像上
から抽出した領域との間で相関演算を行ない最大相関値
を与える位置を対応点とする手法(ブロックマッチン
グ)がしばしば用いられる。ブロックマッチング法は画
像上のテクスチャが明瞭であれば比較的安定した結果を
もたらすが、テクスチャが不明瞭な場合には誤った対応
点を検出してしまう事がある。
でありブロック内に例えば背景との境界を含む場合には
検出結果は信頼できない。また、対象物面が撮像手段に
対して傾いている、あるいは距離の差がある等、複数の
撮像手段の画像間での像の変形が大きい、または像の大
きさの差異が大きい場合も信頼できない。
クルージョン及び推定結果の整合の問題が上げられる。
特に、ステレオからの推定においては対象物の背後に隠
され、撮像されない部分、あるいは一方の撮像手段のみ
に撮像される部分とが存在しこれらの領域の扱いが問題
となる。
る領域が多くなり、隠される領域は少なくなるが、特に
撮像手段の位置が既知でない場合、あるいは推定が正確
でない場合には、これらの画像間の整合は容易でない。
物を撮像した画像を対象物としている、または、自然画
像を対象物とした場合に当然発生するこれらの問題に対
し、何等かの仮定をおく事により、影響を除外あるいは
軽減した条件において考察されており、実用上十分な能
力を持っているとは言えない。
困難であり、かつ、機能が実現された場合に実用的な価
値の大きい画像の種類に生体用内視鏡から得られる画像
がある。
て、切開を必要とする事無く、体腔内の患部等を観察し
たり、必要に応じ処置具を用いて治療処置のできる内視
鏡においては、先端部の大きさは機能上最小限に抑える
必要がある為、医師が観察、あるいは処置を行なう為に
必要な部材以外は組込む事が出来ない。
関して既に幾つかの提案が成されている。例えば観察対
象物に対しパターン光等を投影する方式(特開昭64−
64525)、先端部に複眼を持つ方式(特開昭63−
244011)であるが、いずれも内視鏡先端部あるい
は光源部に特殊な構造が要求される為、装置の大型化、
複雑化を招き一般的に用いる事が難しい。
1には内視鏡先端を手元操作により移動させて得た複数
の画像から対象物形状を推定する手法及び、操作にとも
なう先端の移動量を計測する計測機構が開示されてい
る。この方法によれば現内視鏡の機能を損なう事無く、
対象物形状の推定を行なう事ができる。
法によった場合、特に生体内で使用する内視鏡において
は、撮像した時相の違いによる、対象物の内視鏡先端に
対する相対的移動が無視できなくなる。また、上記計測
機構の与え得る精度は撮像手段の分解能等を考えあわせ
ると不十分ではないまでも十分であるとは言い難い。
テクスチャを伴なわない粘膜画像を主に観察する為、前
述した対応点検出にかかわる問題は特に顕著であり、推
定に利用する対応点検出結果に対しても何等かの対策を
必要とする。
けるような、明瞭な特徴点に欠ける自然画像に対して用
いた場合にも、安定して良好な撮像手段の位置と対象物
形状の推定結果を与え得る事が出来、しかも本来の観察
機能に影響を与えるような(装置の大型化等)装置の変
更を必要としない形状推定手法及び装置は存在しなかっ
た。
たもので、同一対象物を撮像することにより得られる複
数の画像から、付加的な計測機構を必要としないで、対
象物の形状を推定できる内視鏡画像処理装置を提供する
ことを目的とする。
た内視鏡と、同一対象物に関して複数の位置から前記撮
像手段により撮像された複数の画像に対し、各画像上に
おける対象物上の同一の点の位置を検出する位置検出手
段と、前記各画像上における対象物上の同一の点の位置
から前記撮像手段の各撮像位置を推定する位置推定手段
と、前記位置推定手段で推定された同一の位置及び前記
撮像位置から対象物の立体形状を推定する形状推定手段
と、推定された立体形状を表示する表示手段とを備える
ことによって、同一対象物に対して撮像手段側を少しづ
つ位置を移動するなどして撮像した複数の画像から同一
の点の位置を検出し、それに基づいて撮像手段側の相対
的な位置を推定し、必要に応じて反復処理して精度を向
上し、対象物の形状を推定する。
する。図1ないし図16は本発明の第1実施例に係り、
図1は第1実施例を備えた電子内視鏡システムの全体構
成図、図2は電子内視鏡装置のブロック構成を示すブロ
ック図、図3は画像処理装置の構成を示すブロック図、
図4はCPUで構成した画像処理装置のブロック図、図
5はハードウェアで構成した画像処理装置のブロック
図、図6は記録装置の構成を示すブロック図、図7は画
像処理装置によって2次元画像データが3次元データに
変換されるまでの処理内容を示すフローチャート図、図
8は歪曲収差の補正の説明図、図9はテンプレート画像
と参照画像とのシフト量を求める様子を示す説明図、図
10は2次元の画像データ列からシフトマップを算出す
る様子を示す説明図、図11はシフトマップを算出して
運動ベクトルの反復処理の具体的な処理の様子を示すフ
ローチャート図、図12は中心射影の座標系を示す説明
図、図13は回転軸と回転ベクトルを示す説明図、図1
4は3つのベクトルが同一平面上にあることを示す説明
図、図15は内視鏡の先端の動きを示す説明図、図16
は反復推定の様子を示すフローチャート図である。
手段を備えた電子内視鏡装置2と、撮像された画像に基
づいて患部等の立体形状を推定する画像処理を行う第1
実施例の画像処理装置3と、画像を記録する記録装置4
と、画像処理された画像を表示するモニタ5とから構成
される。
電子内視鏡6に照明光を供給する光源部7A(図2参
照)及び撮像手段に対する信号処理を行う信号処理部7
Bを内蔵した観察装置7と、この観察装置7から出力さ
れる画像信号を表示する観察用モニタ8とから構成され
る。
細長の挿入部11と、この挿入部11の後端に形成され
た操作部12と、この操作部12から延出されたユニバ
ーサルケーブル13とから構成され、このユニバーサル
ケーブル13の先端に設けたコネクタ14を観察装置7
に接続することができる。
挿通され、コネクタ14を観察装置7に接続することに
より、図2に示すように光源部7Aから照明光が入射端
面に供給される。このライトガイド15によって伝送さ
れ、先端部16側の端面から前方に出射され、生体9内
の対象部位を照明する。この照明された対象部位は先端
部16に設けた対物レンズ17によってその結像位置に
配置されたCCD18に結像され、光電変換される。こ
の対物レンズ17とCCD18とで撮像手段としての撮
像部19を形成する。
は観察装置7内の信号処理部7Bにより、信号処理され
て画像信号が生成され、この画像信号は観察用モニタ8
に出力されると共に、画像処理装置3に出力される。
部7Bの構成を図2に示す。光源部7Aは、紫外光から
赤外光に至る広帯域の光を発光するランプ21を備えて
いる。このランプ21としては、一般的なキセノンラン
プやストロボランプ等を用いることができる。上記キセ
ノンランプやストロボランプは、可視光のみならず紫外
光及び赤外光を大量に発光する。
が供給されるようになっている。上記ランプ21の前方
には、モータ23によって回転駆動される回転フィルタ
50が配設されている。この回転フィルタ50には通常
観察用の赤(R),緑(G),青(B)の各波長領域の
光を透過するフィルタが周方向に沿って配列されてい
る。
って回転が制御されて駆動されるようになっている。上
記回転フィルタ50を透過し、R,G,Bの各波長領域
の光に時系列的に分離された光は、更にライトガイド1
5の入射端に入射され、このライトガイド15を介して
先端部16側の出射端面に導かれ、この出射端面から前
方に出射されて、観察部位等を照明するようになってい
る。
写体)からの戻り光は、対物レンズ17によって、CC
D18上に結像され、光電変換されるようになってい
る。このCCD18には、信号線26を介して、信号処
理部7B内のドライバ31からの駆動パルスが印加さ
れ、この駆動パルスによって光電変換された被検体の画
像に対応した電気信号(映像信号)のみ読出しが行われ
るようになっている。
は、信号線27を介して、電子内視鏡6内又は観察装置
7内に設けられたプリアンプ32に入力されるようにな
っている。このプリアンプ32で増幅された映像信号
は、プロセス回路33に入力され、γ補正及びホワイト
バランス等の信号処理を施され、A/Dコンバータ34
によって、デジタル信号に変換されるようになってい
る。
35によって、例えば赤(R),緑(G),青(B)の
各色に対応する3つのメモリ(1)36a,メモリ
(2)36b,メモリ(3)36cに選択的に記憶され
るようになっている。上記メモリ(1)36a,メモリ
(2)36b,メモリ(3)36cに記憶されたR,
G,B色信号は、同時に読み出され、D/Aコンバータ
37によって、アナログ信号に変換され、入出力インタ
フェース38を介してR,G,B色信号としてカラーモ
ニタ8に出力され、このカラーモニタ8によって、観察
部位がカラ―表示されるようになっている。
タイミングを作るタイミングジェネレータ42が設けら
れ、このタイミングジェネレータ42によって、モータ
ドライバ25,ドライバ31,セレクト回路35等の各
回路間の同期が取られている。
リ(2)36b,メモリ(3)36cの出力端及びタイ
ミングジェネレータ42の同期信号出力端は画像処理装
置3と接続されている。また、画像処理装置3はカラー
モニタ5と接続され、このカラーモニタ5には画像処理
装置3による演算結果が表示されるようになっている。
CPU40、情報入力装置41、RAMで構成される主
記憶装置42、画像入力インタフェース43、表示イン
タフェース44、ROM45及び記録装置インタフェー
ス46を備え、これらはバスによって互いに接続されて
いる。
5に記憶されたプログラムにより動作する画像処理手段
47を有し、この画像処理手段47は例えば同一対象物
に関して複数の位置から撮像手段により撮像された複数
の画像に対し、各画像上における同一の位置を検出する
位置検出手段50と、前記各画像上における同一の点の
位置から各撮像手段の位置を推定する位置推定手段51
と、この位置推定手段51で推定された同一の位置及び
前記撮像手段の位置から対象物の立体形状を推定する形
状推定手段52と、前記複数の画像間における撮像対象
物上の同一の点の各画像上における位置の検出、前記撮
像手段の位置の推定、対象物の立体形状を反復推定する
反復処理手段53等からなる。
成され、電子内視鏡6の種別等のデータを入力できるよ
うになっている。画像入力インタフェース43は、メモ
リ(1)36a,メモリ(2)36b,メモリ(3)3
6cに接続され、これらの画像データの受信を行うよう
になっている。また、表示インタフェース44は、モニ
タ5に入力する画像データを送るようになっている。ま
た、画像処理装置3の演算処理をハードウェアで構成し
た場合のブロック構成を図5に示す。
(3)36cに記録された時系列画像データは一旦メモ
リ61に記憶される。記憶された画像データを用いて、
位置検出手段62、位置推定手段63、形状推定手段6
4、反復処理手段60により対象物の立体形状を算出
し、3次元画像データ又は2次元画像データをメモリ6
5に記憶する。
又は2次元画像データは読み出され、D/Aコンバータ
66によってアナログ信号に変換され、入出力インタフ
ェース67を介してモニタ5に対象部位の3次元又は2
次元の画像が表示されるようになている。
62、位置推定手段63、形状推定手段64、反復処理
手段60の演算を制御するための演算処理用コントロー
ラ68と、メモリ61、65のデータの読み書きを制御
するためのメモリコントローラ69が設けられている。
セレクタ70はメモリコントローラ69の制御信号によ
ってメモリ61、メモリ65の一方が記録装置4に選択
的に接続され、記録装置4とメモリ61又はメモリ65
とデータの転送ができるようになっている。この実施例
では電子内視鏡6で得た対象物部位の画像に対し、画像
処理装置3で処理を行い、モニタ5に処理結果を出力す
る。
理装置3で画像処理される画像データを記録したり、画
像処理装置3で処理され、モニタ5で表示される画像デ
ータ等を記録する記録装置4のより具体的な構成例を示
す。
光磁気ディスク装置等のアナログ方式の画像記録装置で
あり、その出力はA/Dコンバータ81により、A/D
変換された後、デジタル画像として画像処理装置3に入
力される。また、画像処理装置3による処理結果画像が
D/Aコンバータ84を介して画像記録装置80に記録
することが可能である。
ハードディスク、デジタル光磁気ディスク装置等で構成
されるデジタル方式の動画像ファイル装置であり、その
出力はデジタル画像として画像処理装置3に入力され
る。また、静止画像ファイル装置83は動画像ファイル
装置82と同様に半導体メモリ、ハードディスク、デジ
タル光磁気ディスク装置等で構成されるデジタル方式の
静止画像ファイル装置であり、その出力はデジタル画像
として画像処理装置3に入力される。
は動画像ファイル装置82及び静止画像ファイル装置8
3に記録することも可能である。図2において、CCD
18で光電変換された画像信号は観察装置7内の信号処
理部7(b)で信号処理された画像信号となり、観察用
モニタ8に出力されると共に、画像処理装置3に出力さ
れる。
画像データは一旦記録装置4に送られ、画像信号が記録
される。また、記録された画像信号は画像処理装置3に
再び送られ、被写体の3次元形状の推定の処理が行わ
れ、記録装置4及びモニタ5に送り出され、それぞれ推
定された3次元形状の記録及び表示が行われる。
像から3次元画像を求める処理を行う。電子内視鏡6に
よって得られる内視鏡画像は観察装置7により画像信号
として画像処理装置3に順次送り出される。画像処理装
置3では順次送られてくる内視鏡画像の任意の期間の画
像信号を記録装置4に送り記録させる。
(2次元の画像データ)の複数フレームの画像データを
画像処理装置3へ送り、送られてきた複数フレームの画
像データから同一の点に対する位置を検出した後、検出
された位置の移動を表すシフトマップを算出する。
動ベクトル(電子内視鏡6先端の運動ベクトル)を推定
する。また、推定された撮像手段の運動ベクトルと各画
像間のシフトマップを用いて各々の形状の推定を行う。
各推定形状に対して信頼度に応じて重み付け加算等を行
って1つの立体形状を求める。
撮像手段の方向から見たときの2次元画像または3次元
画像で表示する(ワイヤーフレーム等)画像データを作
成する。画像処理装置3によって作成された3次元画像
データ又は2次元画像データをモニタ5に表示すると同
時に記録装置4に記録する。
3によって2次元画像データが3次元データに変換され
るまでの流れ図を示す。以下、3次元画像データが算出
されるまでの過程を示す。
撮影された画像が画像処理装置3に入力されることを示
す。つまり、同一対象物に対して撮像手段(電子内視鏡
6の先端)を移動しながら、少しづつ位置が異なる2次
元画像データの入力を行う。次にステップS2では、ス
テップS1で得られた複数の画像に対して歪曲収差補正
処理を適用し、画像の歪を補正する。この歪曲収差補正
処理を補足説明する。
ータに広角レンズによる歪が発生しているため、各画像
に対して歪曲収差補正処理を適用し画像の歪を補正す
る。電子内視鏡6を用いて例えば図8(a)に示す正方
のます目を撮像した場合、得られる画像は図8(b)に
示されるようなものになる。この歪画像が正方ます目画
像になるように、各画像における補正値をあらかじめ決
定しておき、実際の撮像画像に対しての補正を行うこと
により歪曲収差補正処理を実現することが可能となる。
より具体的な処理手法は、USP4,895,431に
おいて開示されている。
いて、対応点の追跡、つまり対象物を表す1つの画像
(テンプレート画像)を選び、その画像上の複数の点を
選択してそれぞれの点が他の参照画像(リファレンス画
像)上でどのように移動しているかの追跡を行う。この
対応点追跡を補足説明する。
出しようとする対象物のテンプレート画像にある点を中
心とした矩形領域(ウィンドウ)をt(x)とし、図9
(b)に示すように参照画像にある大きさのサーチエリ
アSを設定し、サーチエリアS内の対応領域f(x)と
前記テンプレート画像の矩形領域t(x)とのブロック
マッチング処理を相互相関演算によって相関値が最大と
なる領域を求める演算で行い、その場合におけるテンプ
レート画像に対する参照画像の移動方向及び移動量を求
める。
D(u,v); を用いて相関値を求め、それが最大となる領域を求め、
その場合における移動方向及び移動量を求める。ここ
で、2重積分記号はサーチエリアS内での積分を表し、
<f>、<t>はそれぞれf(x+u,y+v) 、t(x,y) のS
内での平均を表す。なお、ブロックマッチング処理は、
相互相関演算に限定されるものでなく、同一出願人によ
るUSP4,962,540に開示されているカラーマ
ッチング手法を適用してもよい。(参照文献:コンピュ
ータ画像処理入門 総研出版( 株)田村秀行監修:p.148
〜p.150 )上述のようにして、テンプレート画像上で
選択された点の移動方向及び移動量の値を記述したシフ
トマップを求める。
て、次にステップS3では最急降下法等の反復処理によ
り、撮像手段の運動ベクトルを求め、被写体と撮像手段
の位置との相対的な位置関係を求める。
被写体と撮像手段の位置関係が同一の座標空間になるよ
うに変換し、それぞれの同一点での被写体と撮像手段の
位置を平均して1つの被写体形状を求める。その後、ス
テップS6で推定された3次元画像データを表示装置側
などに出力する。
過程を順次説明する。 (1)入力画像からのシフトマップの作成(位置の検
出) まず、内視鏡装置2で生体9等の内部の診断などを行う
ことを望む対象部位に対して撮像を行い、この対象部位
に対する複数の画像を記録装置4に記録する。この場
合、電子内視鏡6の先端側を少しずつ移動するなどして
同一の対象部位に対して撮像された複数の画像が記録装
置4に記録されるようにする。この結果、図1の左側に
示す電子内視鏡6の先端部16(に内蔵された撮像手
段)の移動と共に撮像された(図10の右側に示す)画
像列f0 〜fm の内視鏡画像データが得られる。
てくる内視鏡画像データに対して歪曲収差補正処理を適
用し、補正された内視鏡画像データ(2次元の画像デー
タ)のm+1フレーム(画像列f0 〜fm )をN組に分
割し、分割されたi+1フレームの画像データをもつP
0 ないしPN で示す撮像手段の移動軌跡に対応する対応
点追跡を行いそれぞれのシフトマップを算出する。
像列f0 〜fi のi+1フレームの画像データを用いて
次の2つの対応点の追跡を行いながら各フレーム間の移
動量を順次求め算出する。
行い、次に画像データf1 とf2 、さらに画像データf
2 とf3 の順で対応点追跡を行い、得られた移動量デー
タを総て加算して画像データf0 とfi との対応関係を
求める。
行い、この対応付けにより得られる移動量データを基に
画像データf0 とf2 、さらにそのデータを基に画像デ
ータf0 とf3 の順に対応点追跡を行い、最終的に画像
データf0 とfi との対応関係を求める。
の方法によりそれぞれの対応点追跡を行い、ある時点で
の(2)の方法における画像データf0 とfk 、画像デ
ータf0 とfk+1 の視差量の増加と、(1)の方法での
画像データfk とfk+1 との間での視差量とを比較し、
これらの差がある一定量(実験的には3ピクセル)を越
えた場合には、その点ではミスマッチングを起こしたと
判定し、周辺部のデータから補間関数を用いてその点の
移動量を再度推定し直す。この処理内容は図11のフロ
ーチャートのようになる。
り込みを行い、その後のステップS12で歪曲収差の補
正処理を行う。次のステップS13で m+1 の画像デー
タfm+1 をN 組に分割する。次のステップS14以降
で、N 組に分割された各画像エリアに対して(1)と
(2)の方法によりそれぞれの対応点追跡を行い視差量
の変化量が閾値を越えたか否かを判断する。
し、次のステップS15a及びS15bで(1)と
(2)の方法により画像データfm と(画像データfm+
1 の)n=0の画像エリアとの対応点追跡をそれぞれ行
い、ステップS16で(1)と(2)の処理の視差量の
変化量を算出する。
閾値(上記一定量)を越えたか否かを判断し、この閾値
を越えた場合にはステップS18で補間処理を行う。閾
値を越えていない場合にはステップS19で、n=N か否
かの判断を行う。n=N でない場合にはステップS20で
n=n+1としてステップS15a及びS15bに戻り、次
の画像エリアに対して同様な処理を行う。このようにし
てn=N までの分割された全ての画像エリアに対して同様
な処理を行う。
間のシフト量を求め、最終的に(画像データf0 とfi
つまり)P0 とP1 間のシフト量を求めシフトマップ1
を算出する。
プN(PN-1 とPN 間のシフト量)まで求める。このシ
フトマップNの算出によりP0 ないしPN で示す撮像手
段で撮像された画像上における対応点の移動量が相互の
画像で関連付けられて算出され、ある画像までの位置が
決定されると、他の各画像上で同一の点の位置が算出さ
れることになる。
いて撮像手段の運動(内視鏡先端16の動き)を推定す
る。しかし、画像間の対応付けに誤差が含まれると前記
8点アルゴリズムでは正しい解が得られなくなる。そこ
で8点アルゴリズムに最小2乗法を導入し、解を求める
のに最急降下法を適用して各シフトマップの運動ベクト
ルを求める。
(参考文献:画像理解 森北出版株式会社 金谷健一
著)。
点Oから距離fだけ離れたところにZ軸に垂直に画像面
をとる。この時、空間中の点(X,Y,Z)は、この点
(X,Y,Z)と原点Oとを結ぶ直線の画像面との交点
に投影されるものとする。その点の画像座標を(x,
y)とすると幾何学的な関係からx、yは x=Xf/Z y=Yf/Z (1) となる。
(X,Y,Z)がX′=(X′,Y′,Z′)に移動し
たとき、そのとき撮像手段の運動は、原点を通る視軸回
りの回転を表す直行行列Rと、並進ベクトルh=(hx ,
hy,hz)Tを用いて次式で表される 。 X=RX′+h (2) ここで、図13で示すよにn=(nx ,ny,nz) を回転軸
の向きとし、θをその回転角とするとRは次のように表
される。
ベクトル)、m′を用いて表すとそれぞれ次のようにな
る。
m′、hは空間中の同一平面上に存在するため、それら
のスカラ3重積が0となる。つまり、 |mhRm′|=(m,h×Rm′)=0 (7) となる。式(7)においてhとRの外積をGとおくと、 (m,Gm′)=0 (8) となる。
第3列ベクトルである。式(6)の両辺とhとのベクト
ル積をとると rh×m=r′h×Rm′(=r′Gm) (10) となる。
(8)はGの9つの要素に関する連立方程式である。し
たがって8組の対応対から得られる8個の1次方程式か
らGの要素の比を定めることができる。
ベクトルhを単位ベクトルに正規化することにあたる。
hはGの全ての列ベクトルに直交する。そこでG^の列
ベクトルをg^1,g^2,g^3として (g^i h)=0、i=1,2,3 (14) となる単位ベクトルh^を計算する。符号は式(12)
より |h^mαG^m′α|≧0,α=1,…,8 (15) となるように定める。
(r^1,r^2,r^3)を求め、これをその順に列
とする行列をR=(r^1,r^2,r^3)とする。
るとそれぞれ r^α=r′^α(mα,R^m′α)+(h^,m′^α) r^α(mα,R^m′α)=r′^α+(h^,R^m′^α) (17) となる。これを解けば各点までの距離が次のように得ら
れる。
応付けに誤差を含んでいる場合、正しい解が得られな
い。そこで必要な条件は厳密に満たし、その他の条件は
平均的に満たすような最適化を行う必要がある。
たとし、最小二乗法を用いて となる行列Gを求め、これを単位ベクトルhと直交行列
Rに近似的に分解する(最小二乗アルゴリズム)。
条件を適用して、撮像手段の運動パラメータh0 、R0
を推定し、これを初期値として式(19)を最小とする
h、Rを推定する。これによりあらかじめ解の存在空間
を制限し、推定誤差を最小限に抑えることが可能にな
る。
R0 を求める。図15(a)に示すように、(外部の操
作によって動く撮像手段を内蔵した)電子内視鏡6の先
端の動きはある方向への運動とみることができる。
による撮像手段の視軸方向(Z方向)への動きは小さ
く、動きを表す並進ベクトルhはZ軸に垂直な平面内
で、回転軸Uはhに垂直、回転角θはhの方向に+であ
ると仮定して初期値を求めることができる。
めそれらを平均して並進ベクトルh0 を決定する。そし
てこのh0 に垂直に回転軸U0 を決めると、式(8)よ
り未知数r、r′、θ0 の3個を含む3個の方程式が得
られ、これを解くことでθ0が得られる。
θ0 より平均値を求め、初期値を決定する。このように
して得られた値を初期値として式(19)より最急降下
法を用いて最適解を決定する。
を求める。複数のシフトマップの内のj番目のシフトマ
ップM(j)の並進ベクトルhと回転マトリクスRの各
要素を次のように表す。
ップS21のように運動ベクトルの初期値である並進ベ
クトルh0 と回転マトリクスR0 を求める。このときそ
れぞれの値を次のように表す。
パラメータを選択し、そのパラメータに対してΔd (≧
0)を次のように与えると、全部で14通りのパラメー
タの値の組が求まる。
O(i ,j )の値を求める(ステップS23)。
あれば(m,Gm′)は0に近い値を示す。(m、m′
に誤差が含まれるため0にならない)そこで、求められ
た14個の評価関数O(i ,j )の内、最も小さな値、
つまり最小値をとるパラメータの組を選択する(ステッ
プS24)。ステップS25でこの最小値が閾値を越え
ていない場合には、ステップS22に戻り、このパラメ
ータの組を新たなパラメータとする。例えば第1番目の
パラメータの組が評価関数を最小にした場合、新たなパ
ラメータの値は次のように求めることができる。
Δd (≧0)を次のように与える。
関数が最小となるパラメータの組を選ぶ。以上の手順を
繰り返し行うことにより、評価関数O(i ,j)を最小
にする並進ベクトルhと回転マトリクスRのそれぞれの
要素が求められる。
つの運動ベクトル(並進ベクトルhと回転マトリクス
R)を推定することができる。
トルのパラメータから式(18)を用いて各シフトマッ
プで選択された各点の視点から被写体での相対的な位置
を算出できる。
各シフトマップで選択された各点の被写体から撮像手段
の位置までの相対的な位置関係を用いて、各シフトマッ
プでの被写体から撮像手段の位置までの相対的な位置関
係を所定の1つの撮像手段の位置を原点とした視線方向
をZ軸とする同一の座標空間に変換する。
ルに誤差が含まれるために、各撮像手段から被写体まで
の相対的な位置関係は同じにならない。
像手段から被写体までの相対的な位置関係を単純平均し
て1つの値として求め、それを推定形状とする。
の撮像手段の方向からの2次元画像データまたは3次元
的に表示する画像データ(ワイヤーフレーム等)を算出
してモニタに表示する。また3次元データ及び前記算出
された画像データを記録装置4に記録する。
撮像手段側を移動して得られる複数の画像の同一点を検
出し、検出された同一点の情報から被写体に対する撮像
手段の相対的な位置関係を推定し、この推定された位置
から被写体の形状を推定している。
出(決定)し、その情報に基づいて被写体に対する撮像
手段の相対的な位置関係を推定するようにしているの
で、撮像手段の移動と共に、被写体が移動した場合にお
いても、この被写体の移動に殆ど影響されることなく、
被写体に対する撮像手段の相対的な位置関係を決定でき
るという利点を有する。
の形状を推定しているので、撮像手段を形成する電子内
視鏡としてはパターンを投影する手段等の付加的な計測
機構が必要でないので、(先端部を太くなってしまうこ
となどなく)通常の電子内視鏡を用いることができる。
電子内視鏡でなく、通常の電子内視鏡を用いることがで
きると共に、計測が必要な場合には観察装置7に画像処
理装置3を付加することにより、被写体の形状を表示で
きるようになり、拡張性に富むシステム構築を可能にす
る。
視鏡検査に適用すると、患部など注目する部分を立体的
に表示できるので、患部の腫れの程度を従来より的確に
認識でき、診断する場合に有効となる。
クトルを8点アルゴリズムを用いて反復的に推定するよ
うにしているので、精度の高い形状推定を行うことがで
きる。
状を推定する場合、被写体表面において特定の視点から
は見えない領域が存在する可能性がある。前記第1実施
例では各推定形状を単純平均して求めるため、立体形状
を推定するのに大きな誤差が含まれる可能性が生じる。
そこでこの実施例は第1実施例において推定された立体
形状と各視点との関係を用いて決定される重み関数を導
入して反復的に立体形状を再推定する。
像データが3次元画像データに変換されるまでの流れ図
を示す。図17のステップS4までは第1実施例のステ
ップS4と同一で、ステップS4で求められた1つの立
体形状をもとにステップS5では形状の反復推定を行
う。その後、ステップS6で推定された3次元画像デー
タを表示装置側などに出力する。
て、各シフトマップより求められた立体形状を合成した
1つの形状を推定し、その形状を初期値として反復推定
を行い、より精度のよい立体形状を算出する。以下に反
復推定の計算方法について示す。図18は反復処理の具
体的な流れ図を示す。ステップS31では図19に示す
ように立体形状のx、y平面上を間隔Dでサンプリング
を行い、各格子点上における視点からの奥行きz0(x,y)
を算出する。
行きzk(x,y)に対して+Δzk(x,y)、−Δzk(x,y)をそ
れぞれ加えてその値をそれぞれzk(x,y)とし、ステップ
S33、S35でそれぞれの評価関数E(zk(x,y))を
求める。ステップS36ではそれぞれの各格子点で求め
た2つの評価関数値の内、小さい評価関数値のzk(x,y)
を選び、新たなzk(x,y)とする。
を越えていないか判定し、しきい値を越えていない場合
はステップS38に移り、間隔Dを1/2にし、k=k
+1にして再度奥行きzを求め、越えた場合はこの処理
を終了する。なお、ステップS38で、q=q/2につ
いては以下で説明する。次に上記評価関数について補足
説明する。
寄与する比率を制御するように評価関数を次のように定
義する。
り(λ≧0)、S(z)は推定した表面形状の滑らかさ
を表す項で、zの2次偏微分を用いて次のように表され
る。
を簡略的に表している。
求める。いま画像対Ii −Ij に注目すると、物体上の
注目する点P(x,y,z(x,y))が、各々の画像上の点Xi
とXj に投影されるとする。
決定される。ここで幅qの窓関数Wq を用いて画像Ii
、Ij における点P周辺のある領域Wq の画像濃度値
の2乗差Lijxy(z)を次のように定義する。
位置の差による歪を受けず、画像値も変化しないなら
ば、正しいzの値で式(23)の値は最小となる。N個
の画像対を利用する場合には、式(23)を各画像対に
ついて加算すればよいが、視点が大きく離れた場合、物
体上の同じ点の画像濃度値も変化することが考えられ
る。
する視点の画像対のみに注目することにする。さらに、
点Pが見えないような視点位置の画像対の影響を抑制す
るため、各画像対に対する重みを用いて式(23)を加
算することでLxy(z)を次のように求める。
る。
ら被写体までの位置関係が近いほど推定精度がよいこと
や、式(23)のようにある領域の画像値の差を評価関
数に用いる場合、画像間の歪が大きいほどその精度が低
下することを考慮して、各視点Vi と推定点Pまでの距
離ri と、推定点周辺領域の歪み度diを用いて次の式
で表す。
中心とする物体表面上の直線を画像Ii 及びIi+1 に投
影した場合の長さΔXi 、ΔXi+1 の比を用いて次のよ
うに表す。
はなく、di は最小値1を取ることになる。また、面の
法線ベクトルと、視線方向のベクトルとの成す角度θi
、θ i+1のどちらかが90度を越える場合には、その
点は画像内に現れないはずである。このため、適当なし
きい値(実験では80度)を設定し、この角度の一方で
もしきい値を越えた場合にはωi の値を0とする。
きzで表すx−y平面上を間隔Dでサンプリングしなが
ら、その点のzの値を式(21)のE(z)を減少させ
る方向へ変化させることにより行う。
ればならないが、評価関数E(z)は一般に多数の局所
最小点を持つため、そのような局所点への集束を避ける
ためD及び窓関数Wの幅qを徐々に減少させながら(例
えばステップS38に示すようにD=D/2及びq=q
/2)のようにして)反復的に形状更新を行う。
た立体形状を初期値として反復推定を行うようにしてい
るので、より精度の高い立体形状の推定を行うことがで
きる。
いては、第2実施例での反復処理の中にオクリュージョ
ンの可能性の高い部分、すなわちωi の値が低い部分の
シフトマップを除外して運動を再推定することを加える
ことにより、運動の推定精度の向上を図る。
す。第2実施例で説明したように評価関数E(z)を導
入し、ステップS36の小さい方の評価関数E(z)を
選択して各格子点上の奥行きzの値を求めるまでは同一
であり図18におけるステップS36とS37との間に
以下のステップS41ないしS43の処理を行うように
している。
た奥行きzを用い、次のステップS41で各画像上での
位置を計算し、以前の(それまでの)位置の値からの移
動量を求め、その量を以前のシフトマップに加えること
で新しいシフトマップを算出する。
値に応じて前記算出されたシフトマップを運動ベクトル
の推定に寄与する比率を変えながら運動ベクトルの推定
を行い、ステップ43で再度立体形状を求める。
を越えていないか判定し、しきい値を越えていない場合
はステップS38に移り、間隔Dと幅qを1/2にして
再度奥行きzを求め、越えた場合はこの処理を終了す
る。
ある場合にも、その影響を受けることなく高い精度で立
体形状の推定が可能になる。
いては第1〜3実施例の方法により推定された立体形状
と、再度撮像手段を移動することによって得られた2次
元の画像データから新たに立体形状を推定する方法につ
いて説明する。
て2次元画像データが3次元画像データに変換されるま
での流れ図及び処理過程図をそれぞれ示す。以下3次元
データが算出されるまでの過程を示す。
を用いることによりステップS1の撮像手段の移動で得
られた画像データから3次元の立体形状を推定すること
を示している。
プS46では、再度、同一対象物に対して撮像手段(電
子内視鏡6の先端)を移動しながら、少しずつ位置が異
なる新たな2次元画像データの入力を行う。
で新たに得られた複数の画像に対して歪曲収差補正処理
を適用し、画像の歪を補正する。また、ステップS1で
得られた最新の2次元画像データと補正された複数画像
(画像対)より、対応点の追跡、つまり対応する同一の
点がどのようにシフトしているかの追跡を行い、シフト
マップの算出を行う。
たシフトマップを用いて、ステップ3で用いられた方法
等よって撮像手段の1つの運動ベクトルを求める。次の
ステップS49では、画像中の各点までの距離を求め、
各シフトマップに対する被写体形状を求め、その立体形
状と既にステップS4で得られた立体形状の合成等によ
り新たな立体形状を推定する。
いてステップ50では反復的に立体形状の再推定を行
う。その後、ステップS51で推定された3次元画像デ
ータを表示装置側などに出力する。
元の画像データが入力した場合の処理方法について説明
する。
法により、第n番目までの2次元画像データを用いて立
体形状を推定する。次に同一対象物に対して撮像手段
(電子内視鏡6の先端)を移動しながら、第n+1番目
の2次元画像データの入力を行う。第n+1番目に得ら
れた2次元画像データに対して歪曲収差補正処理を適用
し、画像の歪を補正する。また、第n番目と第n+1番
目の画像対より、対応点の追跡を行い、シフトマップの
算出を行う。
番目の画像間で移動した撮像手段の運動ベクトルを求め
る。求められた運動ベクトルから被写体と撮像手段の位
置までの位置関係を求める。
での位置関係が既にステップS4で得られた立体形状
(被写体と撮像手段の位置)の座標空間と同じになるよ
うに変換し、変換された被写体と撮像手段の位置との位
置関係と、ステップS4で得られた立体形状の同一点と
の平均を求めて新たな立体形状を推定する。また、平均
以外にも立体形状と撮像手段の位置との関係より決定さ
れる重み付け加算により新たな形状を推定することもで
きる。
形状の再推定を行い推定された3次元画像データを表示
装置側などに出力する。
される画像データに対して、入力された順に3次元の画
像データを演算し表示できるので、第1実施例のように
全ての画像データを記録装置に記録する必要がなくなる
ので、記憶容量とか計算時間を削減できるメリットがあ
る。
れる対応点探索に十分な精度を求めることは難しい。そ
のため解を安定に求めるために何らかの拘束条件を導入
することが考えられ、正則化が1つの方法となる。
第2項にzの2次偏微分を導入して推定された表面形状
が滑らかに変化しているという拘束条件を用いて立体形
状の推定を行っている。
た場合、求められる3次元構造は一般に滑らかな曲面を
構成していると考えられ、これを拘束条件にして正則化
を行う。形状の反復推定における更新量を決定する際
に、周囲の形状との差を小さくする方向へ修正量を導入
するという手法を用いることができる。
も、前記反復推定より導出した奥行きの修正量Δz1
、周囲の奥行き情報から補間することで求めた奥行き
と、現在の奥行きとの差として導出した修正量Δz2を
次の式にしたがって重み付け加算して実際の更新量を決
定する方法もある。
タイプの撮像手段の内視鏡で求めた形状推定よりも精度
の高い形状推定が行える。
定を行う画像データを多くする等して立体形状の推定を
行うようにしているので、より精度の高い立体形状の推
定を行うことができる。
形状データは相対値で算出される。形状データを絶対値
で算出するためには内視鏡の先端(撮像手段)の動きに
関するパラメータのうち、1つのパラメータの絶対値
(基準の長さ、或いは角度値)を求め、上記相対値の算
出時にその1つのパラメータを基準値でスケーリングす
れば、形状の大きさを絶対値に求めることができる。
基準となる大きさを取得する大きさ取得手段が必要にな
る。例えば、日本国特公昭63−246716で開示さ
れているように内視鏡操作部内のアングルノブの回転を
検出して湾曲量を求めて1つのパラメータとする。図1
で示すならば、電子内視鏡6の操作部12内で検出され
た湾曲量を観察装置7を通して画像処理装置3に送り、
画像処理装置3内で前記相対値算出時に検出した湾曲量
の絶対値を用いて形状の絶対値を算出するようにすれば
よい。
の回転から湾曲角度を得る方法或いは手段を説明する。
内視鏡6)では、挿入部80の先端側に設けられた湾曲
部81を湾曲させるためのアングルワイヤ82が内視鏡
79の操作部83内に配設された回転ドラム84に巻き
つけられている。回転ドラム84は、操作部83内に配
設されるパターン円板85及び操作部83から突出して
配設されるアングルノブ86と同軸的に固定されてい
る。
等間隔のパターンが形成されており、反射型フォトセン
サ等で構成されるセンサ87によって読み取れるように
なっている。センサ87の出力はアンプ88に入力さ
れ、アンプ88の出力はカウンタ89へ入力されるよう
になっている。
び第2ラッチ91に入力され、これらの出力は角度検出
装置92へ入力されるようになっている。角度検出装置
92で求められた湾曲部の角度情報は画像処理装置3に
送られる。操作スイッチ、タイミング回路等で構成され
る取込み指示手段93の出力は第1及び第2ラッチ9
0、91、画像処理装置3に入力されるようになってい
る。
在に連結して構成され、アングルワイヤ82が牽引され
た側に湾曲する。この湾曲部81の前部には先端部94
が形成され、図1で説明したように先端部94には照明
光を出射する照明窓と、観察(撮像)のための観察窓が
設けられている。
いて取込み指示手段93からの指示により、カウンタ8
9の値が第1ラッチ90に記録される。次に、アングル
ノブ86を少し回し、内視鏡79の湾曲部81を動か
す。この時アングルノブ86の回転にともないパターン
円板85も回転し、センサ87は白黒の変化を検出す
る。即ち、回転エンコーダを構成し、パターン円板85
の回転量と同時に、回転方向の情報もアンプ88を介し
てカウンタ89に伝えられる。動かされた湾曲状態の位
置でのカウンタ89の値が第2ラッチ91に記録され
る。
された値は、角度検出装置92へ供給され、角度情報θ
に変換されるようになっている。この角度情報θを画像
処理装置3に送り、被写体と撮像手段の相対的な位置関
係を絶対的な値(距離)に変換する。
手段の角度情報θを得るようにしているが、これに限定
されるものでなく、例えば内視鏡の先端のチャンネルよ
り基準となる大きさのもの(例えばメジャ等)を出して
被写体と一緒にその基準物を撮像し、画素内の基準値と
して絶対値を求めるようにしても良い。
タから位置情報を得るようにしても良い。
る撮像手段に電子内視鏡6を用いているが、本発明はこ
れに限定されるものでなく、次に説明するようなシステ
ム構成でも良い。
ースコープ106とこのファイバースコープ106に装
着されるTVカメラ107を用いている。図25に示す
内視鏡システム101は、画像信号を発生する内視鏡装
置102と、内視鏡装置102からの画像信号に対して
立体形状を推定する画像処理を行う画像処理装置103
と、記録装置104と、モニタ105とから構成され
る。
の光学像を伝送するファイバースコープ106と、その
光学像を電気信号に変換するTVカメラ107と、この
ファイバースコープ106に照明光を供給する光源装置
108Aと、TVカメラ107からの電気信号を信号処
理する信号処理装置108Bと、この信号処理装置10
8Bから出力される画像信号を表示する観察用モニタ1
10とから構成される。
性を有する挿入部111と、この挿入部111の後端に
形成された操作部112と、この操作部112から延出
されたライトガイドケーブル113と、操作部112の
頂部に形成された接眼部114とから構成され、ライト
ガイドケーブル113の末端のコネクタ115を光源装
置108Bに接続できる。
7は内部にCCD等の撮像素子を有し、信号ケーブル1
16の末端に設けたコネクタ117を信号処理装置10
8Aに接続できる。
とで観察装置108が構成される。光源装置108Aと
信号処理装置108Bは第1実施例の光源装置7Aと信
号処理部7Bを使用することができる。また、第1実施
例では面順次の照明方式でカラー撮像を行っているが、
白色照明のもとでカラー撮像を行うものでも良い。画像
処理装置103及び記録装置104は例えば第1実施例
の各装置3、4で構成できる。このシステム101の作
用及び効果は、電子内視鏡6を用いた場合、例えば第1
実施例等と同様である。
鏡206と、この硬性内視鏡206に装着されるTVカ
メラ207を用いている。図26に示す内視鏡システム
201は、画像信号を発生する内視鏡装置202と、内
視鏡装置202からの画像信号に対して立体形状を推定
する画像処理を行う画像処理装置203と、記録装置2
04と、モニタ205とから構成される。
の光学像を伝送する硬性内視鏡206と、その光学像を
電気信号に変換するTVカメラ207と、この硬性内視
鏡206に照明光を供給する光源装置208Aと、TV
カメラ207からの電気信号を信号処理する信号処理装
置208Bと、この信号処理装置208Bから出力され
る画像信号を表示する観察用モニタ210とから構成さ
れる。
入部211と、この挿入部211の後端に形成された把
持部212と、この把持部212に接続されたライトガ
イドケーブル213と、把持部212の頂部に形成され
た接眼部214とから構成され、ライトガイドケーブル
213の末端のコネクタ215を光源装置108Bに接
続できる。
7は内部にCCD等の撮像素子を有し、信号ケーブル2
16の末端に設けたコネクタ217を信号処理装置10
8Aに接続できる。
とで観察装置208が構成される。光源装置208Aと
信号処理装置208Bは第1実施例の光源装置7Aと信
号処理部7Bを使用することができる。また、第1実施
例では面順次の照明方式でカラー撮像を行っているが、
白色照明のもとでカラー撮像を行うものでも良い。
例えば第1実施例の各装置3、4で構成できる。このシ
ステム201の作用及び効果は、電子内視鏡6を用いた
場合、例えば第1実施例等と同様である。
27に示すように3次元マニピュレータ401から位置
情報を得るようにしても良い。
着された硬性内視鏡206をマニピュレータ401に取
り付け、硬性内視鏡206の位置をマニピュレータ40
1から検出しながら生体403内の患部等を観察するシ
ステムを構成している。
の先端のアームに取り付けられ、マニピュレータ401
の各アームの角度を変えることにより硬性内視鏡206
を所定の位置に移動できるようになっている。
動回路404からの制御信号によりマニピュレータ40
1の各アームを動かし、所定の位置に硬性内視鏡206
を移動させる。CPU405はアクチュエータ駆動回路
404を制御しマニピュレータ401の各アームの位置
情報の入出力を行い、その位置情報を画像処理装置20
3へ送る。
性内視鏡206の位置情報を取得し、その位置情報より
被写体と撮像手段の相対的な位置関係を絶対的な値(距
離)に変換する。
ステムを説明する。図28に示す内視鏡システム301
は体腔内の映像を撮像する電子内視鏡装置302と、画
像処理装置303と、記録装置304と、モニタ305
とから構成される。
306と、この電子内視鏡306に照明光を供給する光
源装置307と、電子内視鏡306から得られる左画像
を信号処理する左画像用信号処理装置308Aと、電子
内視鏡306から得られる右画像を信号処理する右画像
用信号処理装置308Bと、それぞれの信号処理装置3
08A、308Bから出力される画像信号を表示する観
察用モニタ309A、309Bとから構成される。
入できるように細長で可撓性を有する挿入部311と、
この挿入部311の後端に設けられた操作部312と、
この操作部312から延出されたライトガイドケーブル
313とユニバーサルケーブル314とを備えている。
クタ315は光源装置307に接続され、ユニバーサル
ケーブル314は末端側で分岐され末端部のコネクタ3
16A、316Bはそれぞれ左画像用信号処理装置30
8Aと、右画像用信号処理装置308Bに接続される。
の、例えば2つの観察窓と、照明窓とが設けられてい
る。前記各観察窓の内側には、互いに視差を有する位置
に、右眼用対物レンズ系320、左眼用対物レンズ系3
21が設けられている。各対物レンズ系320、321
の結像位置には、撮像手段を構成する固体撮像素子32
2、323がそれぞれ配置されている。
324が設けられ、この配光レンズ324の後端には、
ファイババンドよりなるライトガイド325が配置され
ている。このライトガイド325は、前記挿入部311
内を挿通され、その入射端面には光源装置307から照
明光が供給される。
伝送され、その先端面及び配光レンズ324を介して被
写体に照射される。この被写体からの反射光は、前記対
物レンズ系320、321によって、それぞれの右画
像、左画像として、固体撮像素子322、323に結像
されるようになっている。
端面から指定された点にいたる距離を計算する測長原理
について以下に説明する。
の対象物体328の着目点、点P、点Qは左画像用撮像
手段322、右画像用撮像手段323に結像された点に
対応する対物レンズ320、321の焦点画上の点であ
る。また点Oは対物レンズ320、321の光軸の中線
と内視鏡先端面326との交点である。
d、対物レンズ320、321の光軸の中線に対する横
方向のずれをxとする。
0、321の焦点面との距離をfとし、対物レンズ32
0、321の光軸間の距離を2sとする。また、対物レ
ンズ320の光軸と点Pとの距離をa、対物レンズ32
1の光軸と点Qとの距離をbとする。
ら f(s+x)=ad f(s−x)=bd が成立する。以上の2式よりx、dについて解くと x=s(a−b)/(a+d) d=2fs/(a+b) となる。よってa、b、f、sは既知の量であるから、
未知のx、dを求めることができる。
装置303によって2次元画像データが3次元画像デー
タに変換されるまでの流れ図及び処理過程図を示す。以
下3次元データが算出されるまでの過程を示す。
像された左画像、右画像が画像処理装置303に入力さ
れることを示す。つまり、同一対象物に対して撮像手段
(電子内視鏡311の先端)を移動しながら、少しずつ
位置が異なる2次元の左右の画像データの入力を行う。
得られた複数の左右の画像に対して歪曲収差補正処理を
適用し画像の歪を補正する。補正された例えば右の複数
画像(画像対)(または左の複数画像でもよい)より、
対応点の追跡、つまり対象物を表す1つの画像(テンプ
レート画像)を撰び、その画像上の複数の点を選択して
それぞれの点が他の画像(リファレンス画像)上でどの
ように移動しているかの追跡を行う。そして、テンプレ
ート画像上で選択された点の移動方向及び移動量の値を
記述したシフトマップを求める(図30(b)では複数
の左画像に対して第1実施例と同様な方法で左画像のシ
フトマップを求めることを示す)。
ップを用いて、次にステップS3aでは最急降下法等の
反復処理により例えば左眼用の撮像手段の運動ベクトル
を求め、左眼用の撮像手段と被写体までの相対的な位置
を求める。
られた各々の撮像手段の右の画像と左の画像のシフトマ
ップを前記対応点追跡により求める。このとき作成され
る左右画像からのシフトマップの対象となる点はステッ
プS2aで求めた左画像のシフトマップの対象の点と同
一である。ステップS3bではステップS2bで求めた
シフトマップと前記複眼での測長原理を用いて各々の撮
像手段から被写体までの距離を算出する。
求めた撮像手段と被写体の相対的な位置と各撮像手段の
右画像と左画像より求めた被写体までの距離が同一の座
標系となるように座標変換し、座標変換された各同一点
の距離を平均して1つの被写体形状を求める。その後、
ステップS5で推定された3次元画像データを表示装置
側などに出力する。
み合わせて異なる実施例を構成することもでき、それら
も本発明に属する。また、最初の出願の図8及び図9の
ような実施例を採用しても良い。
像手段を備えた内視鏡と、同一の対象物に対して前記撮
像手段により複数の位置から撮像された複数の画像に対
し、各画像上における対象物上の同一の点の位置を検出
する位置検出手段と、前記各画像上における対象物上の
同一の点の位置から前記撮像手段の各位置を推定する位
置推定手段と、前記位置推定手段で推定された前記撮像
手段の位置情報を用いて前記対象物の立体形状を推定す
る形状推定手段と、前記形状推定手段を経て推定された
立体形状を表示する表示手段とを設けてあるので、同一
の対象物をすこしづつ撮像手段の位置を移動する等して
撮像された複数の画像から同一の点の位置等を検出し、
それに基づいて撮像手段の位置の推定を行う処理等を行
い、対象物の立体形状を推定するので、対象物が移動す
る場合でも、精度よく立体形状の推定ができる。
構成図。
図。
ク図。
元データに変換されるまでの処理内容を示すフローチャ
ート図。
める様子を示す説明図。
出する様子を示す説明図。
処理の具体的な処理の様子を示すフローチャート図。
す説明図。
が3次元データに変換されるまでの処理内容を示すフロ
ーチャート図。
ャート図。
ングする様子を示す説明図。
係を示す説明図。
推定する処理を示すフローチャート図。
が3次元データに変換されるまでの処理内容を示すフロ
ーチャート図。
る構成を示す説明図。
Vカメラ外付けスコープを用いた内視鏡システムの全体
構成図。
ラ外付けスコープを用いた内視鏡システムの全体構成
図。
る内視鏡システムの主要部を示す説明図。
テムの全体構成図。
ート図。
第3列ベクトルである。式(6)の両辺とhとのベクト
ル積をとると rh×m=r′h×Rm′(=r′Gm′) (10) となる。
hはGの全ての列ベクトルに直交する。そこでG^の列
ベクトルをg^1,g^2,g^3として (g^i, h)=0、i=1,2,3 (14) となる単位ベクトルh^を計算する。符号は式(12)
より |h^mαG^m′α|≧0,α=1,…,8 (15) となるように定める。
るとそれぞれ r^α=r′^α(mα,R^m′α)+(h^,m′^α) r^α(mα,R^m′α)=r′^α+(h^,m′^α) (17) となる。これを解けば各点までの距離が次のように得ら
れる。
応付けに誤差を含んでいる場合、正しい解が得られな
い。そこで必要な条件は厳密に満たし、その他の条件は
平均的に満たすような最適化を行う必要がある。
Claims (1)
- 【請求項1】 撮像手段を備えた内視鏡と、 同一の対象物に対して前記撮像手段により複数の位置か
ら撮像された複数の画像に対し、各画像上における対象
物上の同一の点の位置を検出する位置検出手段と、 前記各画像上における対象物上の同一の点の位置から前
記撮像手段の各位置を推定する位置推定手段と、 前記位置推定手段で推定された前記撮像手段の位置情報
を用いて前記対象物の立体形状を推定する形状推定手段
と、 前記形状推定手段を経て推定された立体形状を表示する
表示手段と、を備えた内視鏡画像処理装置。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP04556393A JP3347385B2 (ja) | 1992-03-27 | 1993-03-05 | 内視鏡画像処理装置 |
US08/037,004 US5432543A (en) | 1992-03-05 | 1993-03-25 | Endoscopic image processing device for estimating three-dimensional shape of object based on detection of same point on a plurality of different images |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP4-71299 | 1992-03-27 | ||
JP7129992 | 1992-03-27 | ||
JP04556393A JP3347385B2 (ja) | 1992-03-27 | 1993-03-05 | 内視鏡画像処理装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JPH067289A true JPH067289A (ja) | 1994-01-18 |
JP3347385B2 JP3347385B2 (ja) | 2002-11-20 |
Family
ID=26385578
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP04556393A Expired - Fee Related JP3347385B2 (ja) | 1992-03-05 | 1993-03-05 | 内視鏡画像処理装置 |
Country Status (2)
Country | Link |
---|---|
US (1) | US5432543A (ja) |
JP (1) | JP3347385B2 (ja) |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH11295618A (ja) * | 1998-04-10 | 1999-10-29 | Olympus Optical Co Ltd | 内視鏡画像処理装置 |
JP2006187386A (ja) * | 2005-01-04 | 2006-07-20 | Olympus Corp | 内視鏡装置、動体検出方法、及びそのプログラム |
JP2008093287A (ja) * | 2006-10-13 | 2008-04-24 | Olympus Medical Systems Corp | 医療用画像処理装置及び医療用画像処理方法 |
US7857752B2 (en) | 2004-12-27 | 2010-12-28 | Olympus Corporation | Medical image processing apparatus and medical image processing method |
JP2014071257A (ja) * | 2012-09-28 | 2014-04-21 | Fujifilm Corp | 立体内視鏡装置及びその画像取込方法 |
WO2015098353A1 (ja) * | 2013-12-26 | 2015-07-02 | オリンパス株式会社 | 内視鏡による距離測定方法及び内視鏡システム |
WO2019198128A1 (ja) * | 2018-04-09 | 2019-10-17 | オリンパス株式会社 | 内視鏡業務支援システムおよび内視鏡業務支援方法 |
JP2020034743A (ja) * | 2018-08-30 | 2020-03-05 | オリンパス株式会社 | 画像取得装置および画像取得装置の作動方法 |
CN112584735A (zh) * | 2018-08-24 | 2021-03-30 | Cmr外科有限公司 | 手术内窥镜视频流的图像校正 |
Families Citing this family (93)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP0888017A2 (en) * | 1993-08-26 | 1998-12-30 | Matsushita Electric Industrial Co., Ltd. | Stereoscopic image display apparatus and related system |
US5764871A (en) * | 1993-10-21 | 1998-06-09 | Eastman Kodak Company | Method and apparatus for constructing intermediate images for a depth image from stereo images using velocity vector fields |
US5739844A (en) * | 1994-02-04 | 1998-04-14 | Sanyo Electric Co. Ltd. | Method of converting two-dimensional image into three-dimensional image |
JP3192875B2 (ja) * | 1994-06-30 | 2001-07-30 | キヤノン株式会社 | 画像合成方法および画像合成装置 |
EP0703716B1 (en) * | 1994-09-22 | 2002-11-27 | Sanyo Electric Co. Ltd | Method of converting two-dimensional images into three-dimensional images |
DE19542308A1 (de) * | 1994-11-25 | 1996-05-30 | Zeiss Carl Fa | Verfahren und Vorrichtung zur Darstellung dreidimensionaler Videobilder |
KR100414629B1 (ko) * | 1995-03-29 | 2004-05-03 | 산요덴키가부시키가이샤 | 3차원표시화상생성방법,깊이정보를이용한화상처리방법,깊이정보생성방법 |
US5777666A (en) * | 1995-04-17 | 1998-07-07 | Sanyo Electric Co., Ltd. | Method of converting two-dimensional images into three-dimensional images |
KR100194923B1 (ko) * | 1996-06-21 | 1999-06-15 | 윤종용 | 동영상 정보 검색장치 및 방법 |
DE19632188A1 (de) * | 1996-08-09 | 1998-02-12 | Thomson Brandt Gmbh | Verfahren und Vorrichtung zur Gewinnung von Korrekturwerten für Videozeilen eines Videobildes |
JPH1062140A (ja) * | 1996-08-14 | 1998-03-06 | Oki Electric Ind Co Ltd | 形状の再構成方法および形状の再構成装置 |
US6009189A (en) * | 1996-08-16 | 1999-12-28 | Schaack; David F. | Apparatus and method for making accurate three-dimensional size measurements of inaccessible objects |
JP3771988B2 (ja) * | 1997-03-12 | 2006-05-10 | オリンパス株式会社 | 計測内視鏡装置 |
US6335950B1 (en) * | 1997-10-14 | 2002-01-01 | Lsi Logic Corporation | Motion estimation engine |
US6295377B1 (en) * | 1998-07-13 | 2001-09-25 | Compaq Computer Corporation | Combined spline and block based motion estimation for coding a sequence of video images |
US6459481B1 (en) | 1999-05-06 | 2002-10-01 | David F. Schaack | Simple system for endoscopic non-contact three-dimentional measurement |
IL135571A0 (en) * | 2000-04-10 | 2001-05-20 | Doron Adler | Minimal invasive surgery imaging system |
US6692430B2 (en) * | 2000-04-10 | 2004-02-17 | C2Cure Inc. | Intra vascular imaging apparatus |
US7625335B2 (en) * | 2000-08-25 | 2009-12-01 | 3Shape Aps | Method and apparatus for three-dimensional optical scanning of interior surfaces |
US6781691B2 (en) * | 2001-02-02 | 2004-08-24 | Tidal Photonics, Inc. | Apparatus and methods relating to wavelength conditioning of illumination |
DK1368986T3 (da) * | 2001-03-02 | 2012-02-27 | 3Shape As | Fremgangsmåde til modellering af specialfremstillede ørestykker |
JP3884321B2 (ja) * | 2001-06-26 | 2007-02-21 | オリンパス株式会社 | 3次元情報取得装置、3次元情報取得における投影パターン、及び、3次元情報取得方法 |
IL160736A0 (en) * | 2001-09-05 | 2004-08-31 | Given Imaging Ltd | System and method for three dimensional display of body lumens |
US8428685B2 (en) * | 2001-09-05 | 2013-04-23 | Given Imaging Ltd. | System and method for magnetically maneuvering an in vivo device |
US7101334B2 (en) * | 2001-10-31 | 2006-09-05 | Olympus Corporation | Optical observation device and 3-D image input optical system therefor |
EP1463441A4 (en) * | 2001-12-11 | 2009-01-21 | C2Cure Inc | APPARATUS, METHOD AND SYSTEM FOR INTRAVASCULAR PHOTOGRAPHIC IMAGING |
AU2003224415A1 (en) * | 2002-05-16 | 2003-12-02 | Cbyond Inc. | Miniature camera head |
JP4553141B2 (ja) * | 2003-08-29 | 2010-09-29 | 日本電気株式会社 | 重み情報を用いた物体姿勢推定・照合システム |
US7349583B2 (en) * | 2003-09-05 | 2008-03-25 | The Regents Of The University Of California | Global motion estimation image coding and processing |
EP2316328B1 (en) * | 2003-09-15 | 2012-05-09 | Super Dimension Ltd. | Wrap-around holding device for use with bronchoscopes |
WO2005031436A1 (en) * | 2003-09-26 | 2005-04-07 | Tidal Photonics, Inc. | Apparatus and methods relating to expanded dynamic range imaging endoscope systems |
AU2004212605A1 (en) * | 2003-09-26 | 2005-04-14 | Nec Australia Pty Ltd | Computation of soft bits for a turbo decoder in a communication receiver |
EP1709405A1 (en) * | 2003-09-26 | 2006-10-11 | Tidal Photonics, Inc. | Apparatus and methods relating to enhanced spectral measurement systems |
US20050234302A1 (en) * | 2003-09-26 | 2005-10-20 | Mackinnon Nicholas B | Apparatus and methods relating to color imaging endoscope systems |
US10251532B2 (en) * | 2004-03-20 | 2019-04-09 | Karl Storz Imaging, Inc. | Method and system for using a variable direction of view endoscope with a robotic endoscope holder |
US7300397B2 (en) * | 2004-07-29 | 2007-11-27 | C2C Cure, Inc. | Endoscope electronics assembly |
EP1842481B1 (en) * | 2004-12-10 | 2017-02-08 | Olympus Corporation | Medical image processing method |
US20060221218A1 (en) * | 2005-04-05 | 2006-10-05 | Doron Adler | Image sensor with improved color filter |
US20070161854A1 (en) * | 2005-10-26 | 2007-07-12 | Moshe Alamaro | System and method for endoscopic measurement and mapping of internal organs, tumors and other objects |
US9176276B2 (en) * | 2006-05-09 | 2015-11-03 | Koninklijke Philips N.V. | Imaging system for three-dimensional imaging of the interior of an object |
US20080260242A1 (en) * | 2006-06-22 | 2008-10-23 | Tidal Photonics Inc. | Apparatus and methods for measuring and controlling illumination for imaging objects, performances and the like |
US7440121B2 (en) * | 2006-09-20 | 2008-10-21 | Lawrence Livermore National Security, Llc | Optically measuring interior cavities |
IL186567A (en) * | 2006-10-10 | 2014-02-27 | Visionsense Ltd | A method and system for navigating the colon |
JP4914735B2 (ja) | 2007-02-14 | 2012-04-11 | オリンパスメディカルシステムズ株式会社 | 処置具の位置制御を行う内視鏡システム |
JP5030639B2 (ja) | 2007-03-29 | 2012-09-19 | オリンパスメディカルシステムズ株式会社 | 内視鏡装置の処置具位置制御装置 |
US20090046171A1 (en) * | 2007-08-16 | 2009-02-19 | C2Cure, Inc. | Non-linear color correction |
US8337397B2 (en) | 2009-03-26 | 2012-12-25 | Intuitive Surgical Operations, Inc. | Method and system for providing visual guidance to an operator for steering a tip of an endoscopic device toward one or more landmarks in a patient |
US10004387B2 (en) * | 2009-03-26 | 2018-06-26 | Intuitive Surgical Operations, Inc. | Method and system for assisting an operator in endoscopic navigation |
US9642513B2 (en) | 2009-06-18 | 2017-05-09 | Endochoice Inc. | Compact multi-viewing element endoscope system |
US11864734B2 (en) | 2009-06-18 | 2024-01-09 | Endochoice, Inc. | Multi-camera endoscope |
US9706903B2 (en) | 2009-06-18 | 2017-07-18 | Endochoice, Inc. | Multiple viewing elements endoscope system with modular imaging units |
EP2865322B1 (en) | 2009-06-18 | 2020-07-22 | EndoChoice, Inc. | Multi-camera endoscope |
US8926502B2 (en) | 2011-03-07 | 2015-01-06 | Endochoice, Inc. | Multi camera endoscope having a side service channel |
US9872609B2 (en) | 2009-06-18 | 2018-01-23 | Endochoice Innovation Center Ltd. | Multi-camera endoscope |
US9901244B2 (en) | 2009-06-18 | 2018-02-27 | Endochoice, Inc. | Circuit board assembly of a multiple viewing elements endoscope |
US11547275B2 (en) | 2009-06-18 | 2023-01-10 | Endochoice, Inc. | Compact multi-viewing element endoscope system |
US9492063B2 (en) | 2009-06-18 | 2016-11-15 | Endochoice Innovation Center Ltd. | Multi-viewing element endoscope |
US9101268B2 (en) | 2009-06-18 | 2015-08-11 | Endochoice Innovation Center Ltd. | Multi-camera endoscope |
US9101287B2 (en) | 2011-03-07 | 2015-08-11 | Endochoice Innovation Center Ltd. | Multi camera endoscope assembly having multiple working channels |
US9402533B2 (en) | 2011-03-07 | 2016-08-02 | Endochoice Innovation Center Ltd. | Endoscope circuit board assembly |
US11278190B2 (en) | 2009-06-18 | 2022-03-22 | Endochoice, Inc. | Multi-viewing element endoscope |
US9713417B2 (en) | 2009-06-18 | 2017-07-25 | Endochoice, Inc. | Image capture assembly for use in a multi-viewing elements endoscope |
US10165929B2 (en) | 2009-06-18 | 2019-01-01 | Endochoice, Inc. | Compact multi-viewing element endoscope system |
JP2011069965A (ja) * | 2009-09-25 | 2011-04-07 | Japan Atomic Energy Agency | 撮像装置、画像表示方法、及び画像表示プログラムが記録された記録媒体 |
JP5598033B2 (ja) * | 2010-03-15 | 2014-10-01 | ソニー株式会社 | 情報処理装置、情報処理方法、およびプログラム |
US10080486B2 (en) | 2010-09-20 | 2018-09-25 | Endochoice Innovation Center Ltd. | Multi-camera endoscope having fluid channels |
US9560953B2 (en) | 2010-09-20 | 2017-02-07 | Endochoice, Inc. | Operational interface in a multi-viewing element endoscope |
FR2965443B1 (fr) * | 2010-09-29 | 2012-10-19 | Tokendo | Videoendoscope a vision stereo |
JP5704878B2 (ja) * | 2010-09-30 | 2015-04-22 | オリンパス株式会社 | 光電気変換コネクタ、光伝送モジュール、撮像装置および内視鏡 |
CN103403605A (zh) | 2010-10-28 | 2013-11-20 | 恩多巧爱思创新中心有限公司 | 用于多传感器内窥镜的光学系统 |
EP3522215A1 (en) | 2010-12-09 | 2019-08-07 | EndoChoice Innovation Center Ltd. | Flexible electronic circuit board for a multi-camera endoscope |
US11889986B2 (en) | 2010-12-09 | 2024-02-06 | Endochoice, Inc. | Flexible electronic circuit board for a multi-camera endoscope |
EP3747343A1 (en) | 2010-12-09 | 2020-12-09 | EndoChoice, Inc. | Flexible electronic circuit board multi-camera endoscope |
EP2672878B1 (en) | 2011-02-07 | 2017-11-22 | Endochoice Innovation Center Ltd. | Multi-element cover for a multi-camera endoscope |
US8900126B2 (en) | 2011-03-23 | 2014-12-02 | United Sciences, Llc | Optical scanning device |
US20120300034A1 (en) * | 2011-05-23 | 2012-11-29 | Qualcomm Incorporated | Interactive user interface for stereoscopic effect adjustment |
GB2496903B (en) | 2011-11-28 | 2015-04-15 | Rolls Royce Plc | An apparatus and a method of inspecting a turbomachine |
EP3659491A1 (en) | 2011-12-13 | 2020-06-03 | EndoChoice Innovation Center Ltd. | Removable tip endoscope |
EP2604172B1 (en) | 2011-12-13 | 2015-08-12 | EndoChoice Innovation Center Ltd. | Rotatable connector for an endoscope |
US8900125B2 (en) * | 2012-03-12 | 2014-12-02 | United Sciences, Llc | Otoscanning with 3D modeling |
US9560954B2 (en) | 2012-07-24 | 2017-02-07 | Endochoice, Inc. | Connector for use with endoscope |
US9986899B2 (en) | 2013-03-28 | 2018-06-05 | Endochoice, Inc. | Manifold for a multiple viewing elements endoscope |
US9993142B2 (en) | 2013-03-28 | 2018-06-12 | Endochoice, Inc. | Fluid distribution device for a multiple viewing elements endoscope |
US10499794B2 (en) | 2013-05-09 | 2019-12-10 | Endochoice, Inc. | Operational interface in a multi-viewing element endoscope |
US9257763B2 (en) | 2013-07-02 | 2016-02-09 | Gyrus Acmi, Inc. | Hybrid interconnect |
US9510739B2 (en) | 2013-07-12 | 2016-12-06 | Gyrus Acmi, Inc. | Endoscope small imaging system |
CN105451631B (zh) | 2013-08-29 | 2018-05-18 | 基文影像公司 | 用于操纵线圈功率优化的系统和方法 |
WO2015122354A1 (ja) * | 2014-02-14 | 2015-08-20 | オリンパス株式会社 | 内視鏡システム |
JP7179633B2 (ja) | 2019-02-01 | 2022-11-29 | 株式会社エビデント | 計測方法、計測装置、およびプログラム |
JP2020134242A (ja) | 2019-02-15 | 2020-08-31 | オリンパス株式会社 | 計測方法、計測装置、およびプログラム |
CN111161852B (zh) * | 2019-12-30 | 2023-08-15 | 北京双翼麒电子有限公司 | 一种内窥镜图像处理方法、电子设备及内窥镜系统 |
US11786106B2 (en) | 2020-05-26 | 2023-10-17 | Canon U.S.A., Inc. | Robotic endoscope probe having orientation reference markers |
WO2022104648A1 (zh) * | 2020-11-19 | 2022-05-27 | 深圳先进技术研究院 | 一种超分辨成像方法及系统 |
Family Cites Families (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS59182688A (ja) * | 1983-03-31 | 1984-10-17 | Toshiba Corp | ステレオ視処理装置 |
JPS63276676A (ja) * | 1986-09-26 | 1988-11-14 | Olympus Optical Co Ltd | 画像間の対応領域の検出方式 |
US4895431A (en) * | 1986-11-13 | 1990-01-23 | Olympus Optical Co., Ltd. | Method of processing endoscopic images |
JP2911894B2 (ja) * | 1986-11-13 | 1999-06-23 | オリンパス光学工業株式会社 | 内視鏡画像取込み方法および内視鏡装置 |
JPS6464625A (en) * | 1987-09-07 | 1989-03-10 | Toshiba Corp | Endoscopic apparatus |
US4903204A (en) * | 1987-12-01 | 1990-02-20 | Duke University | Matrix inversion tomosynthesis improvements in longitudinal X-ray slice imaging |
US4935810A (en) * | 1988-10-26 | 1990-06-19 | Olympus Optical Co., Ltd. | Three-dimensional measuring apparatus |
JPH02287311A (ja) * | 1989-04-28 | 1990-11-27 | Toshiba Corp | 計測機構付内視鏡装置 |
US4980762A (en) * | 1989-10-13 | 1990-12-25 | Massachusetts Institute Of Technology | Method and apparatus for image processing to obtain three dimensional motion and depth |
US5153721A (en) * | 1990-06-04 | 1992-10-06 | Olympus Optical Co., Ltd. | Method and apparatus for measuring an object by correlating displaced and simulated object images |
DE69125146T2 (de) * | 1990-11-19 | 1997-10-09 | Olympus Optical Co | Vorrichtung und verfahren zur verarbeitung von endoskopischen bildsignalen |
-
1993
- 1993-03-05 JP JP04556393A patent/JP3347385B2/ja not_active Expired - Fee Related
- 1993-03-25 US US08/037,004 patent/US5432543A/en not_active Expired - Lifetime
Cited By (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH11295618A (ja) * | 1998-04-10 | 1999-10-29 | Olympus Optical Co Ltd | 内視鏡画像処理装置 |
US6295368B1 (en) | 1998-04-10 | 2001-09-25 | Olympus Optical Co., Ltd. | Endoscopic image processing system capable of estimating absolute shape of object entity |
US7857752B2 (en) | 2004-12-27 | 2010-12-28 | Olympus Corporation | Medical image processing apparatus and medical image processing method |
JP2006187386A (ja) * | 2005-01-04 | 2006-07-20 | Olympus Corp | 内視鏡装置、動体検出方法、及びそのプログラム |
JP4624802B2 (ja) * | 2005-01-04 | 2011-02-02 | オリンパス株式会社 | 内視鏡装置、及びそのプログラム |
JP2008093287A (ja) * | 2006-10-13 | 2008-04-24 | Olympus Medical Systems Corp | 医療用画像処理装置及び医療用画像処理方法 |
JP2014071257A (ja) * | 2012-09-28 | 2014-04-21 | Fujifilm Corp | 立体内視鏡装置及びその画像取込方法 |
WO2015098353A1 (ja) * | 2013-12-26 | 2015-07-02 | オリンパス株式会社 | 内視鏡による距離測定方法及び内視鏡システム |
US10441146B2 (en) | 2013-12-26 | 2019-10-15 | Olympus Corporation | Method of measuring distance by an endoscope, and endoscope system |
WO2019198128A1 (ja) * | 2018-04-09 | 2019-10-17 | オリンパス株式会社 | 内視鏡業務支援システムおよび内視鏡業務支援方法 |
JPWO2019198128A1 (ja) * | 2018-04-09 | 2021-05-20 | オリンパス株式会社 | 内視鏡業務支援システムおよび内視鏡業務支援方法 |
US11910993B2 (en) | 2018-04-09 | 2024-02-27 | Olympus Corporation | Endoscopic task supporting system and endoscopic task supporting method for extracting endoscopic images from a plurality of endoscopic images based on an amount of manipulation of a tip of an endoscope |
CN112584735A (zh) * | 2018-08-24 | 2021-03-30 | Cmr外科有限公司 | 手术内窥镜视频流的图像校正 |
JP2022503556A (ja) * | 2018-08-24 | 2022-01-12 | シーエムアール・サージカル・リミテッド | 外科用内視鏡ビデオストリームの画像補正 |
JP2020034743A (ja) * | 2018-08-30 | 2020-03-05 | オリンパス株式会社 | 画像取得装置および画像取得装置の作動方法 |
Also Published As
Publication number | Publication date |
---|---|
JP3347385B2 (ja) | 2002-11-20 |
US5432543A (en) | 1995-07-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP3347385B2 (ja) | 内視鏡画像処理装置 | |
JP3078085B2 (ja) | 画像処理装置および画像処理方法 | |
US8675935B2 (en) | Fast 3D-2D image registration method with application to continuously guided endoscopy | |
US10127629B2 (en) | System and method of providing real-time dynamic imagery of a medical procedure site using multiple modalities | |
JP5715311B2 (ja) | 内視鏡システム | |
US10068334B2 (en) | Reconstruction of images from an in vivo multi-camera capsule | |
JP4054104B2 (ja) | 内視鏡画像処理装置 | |
US6914623B2 (en) | Image processing measuring apparatus and measuring endoscope apparatus | |
US20060268257A1 (en) | Endoscope apparatus, method of operating the endoscope apparatus, and program to be executed to implement the method | |
JP3438937B2 (ja) | 画像処理装置 | |
JPH0595900A (ja) | 内視鏡画像処理装置 | |
CN111035351B (zh) | 用于胃肠道中的胶囊相机的行进距离测量的方法及装置 | |
WO2015046152A1 (ja) | 内視鏡システム | |
JPH0919441A (ja) | 術式支援用画像表示装置 | |
JP7179837B2 (ja) | 内視鏡装置、内視鏡画像表示方法及び内視鏡装置の作動方法 | |
JP4487077B2 (ja) | 単一の撮像装置で連続取得したビデオ映像による立体表示方法 | |
JP2002238839A (ja) | 内視鏡システム | |
US20240062471A1 (en) | Image processing apparatus, endoscope apparatus, and image processing method | |
US20230032791A1 (en) | Measuring method and a measuring device | |
JP6906342B2 (ja) | 内視鏡システム | |
KR20240065115A (ko) | 다중 이미지 재구성 및 정합 방법 | |
CN115279250A (zh) | 内窥镜系统 | |
JP2002027500A (ja) | 3次元画像入力装置 | |
CN114862935A (zh) | 一种用于神经外科内窥镜中的深度估计方法及系统 | |
JPH1023469A (ja) | 三次元情報処理装置及び三次元情報処理方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20020826 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20080906 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20080906 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20090906 Year of fee payment: 7 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20090906 Year of fee payment: 7 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100906 Year of fee payment: 8 |
|
LAPS | Cancellation because of no payment of annual fees |