JPH067289A - 内視鏡画像処理装置 - Google Patents

内視鏡画像処理装置

Info

Publication number
JPH067289A
JPH067289A JP5045563A JP4556393A JPH067289A JP H067289 A JPH067289 A JP H067289A JP 5045563 A JP5045563 A JP 5045563A JP 4556393 A JP4556393 A JP 4556393A JP H067289 A JPH067289 A JP H067289A
Authority
JP
Japan
Prior art keywords
image
dimensional
shape
endoscope
image data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP5045563A
Other languages
English (en)
Other versions
JP3347385B2 (ja
Inventor
Jun Hasegawa
潤 長谷川
Nagaaki Ooyama
永昭 大山
Masahiro Yamaguchi
雅浩 山口
Tetsuo Nonami
徹緒 野波
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Optical Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Optical Co Ltd filed Critical Olympus Optical Co Ltd
Priority to JP04556393A priority Critical patent/JP3347385B2/ja
Priority to US08/037,004 priority patent/US5432543A/en
Publication of JPH067289A publication Critical patent/JPH067289A/ja
Application granted granted Critical
Publication of JP3347385B2 publication Critical patent/JP3347385B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/183Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00043Operational features of endoscopes provided with output arrangements
    • A61B1/00045Display arrangement
    • A61B1/0005Display arrangement combining images e.g. side-by-side, superimposed or tiled
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00147Holding or positioning arrangements
    • A61B1/00149Holding or positioning arrangements using articulated arms
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • A61B1/05Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances characterised by the image sensor, e.g. camera, being in the distal end portion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/579Depth or shape recovery from multiple images from motion
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/555Constructional details for picking-up images in sites, inaccessible due to their dimensions or hazardous conditions, e.g. endoscopes or borescopes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/107Measuring physical dimensions, e.g. size of the entire body or parts thereof
    • A61B5/1077Measuring of profiles
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10068Endoscopic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0081Depth or disparity estimation from stereoscopic image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0092Image segmentation from stereoscopic image signals

Abstract

(57)【要約】 【目的】 同一対象物を撮像することにより得られる複
数の画像から対象物の立体形状を推定可能な内視鏡画像
処理装置を提供すること。 【構成】 同一対象物に関して撮像手段を移動しなが
ら、撮像された複数の画像を取り込み、一時メモリ61
に格納し、位置検出手段62、位置推定手段63、形状
推定手段64、及び反復処理手段60により、対象物の
立体形状を算出し、メモリ65に記憶し、このメモリ6
5に記憶された画像データはモニタ5に入力され、対象
物の立体形状が表示される。

Description

【発明の詳細な説明】
【0001】
【産業上の利用分野】本発明は、同一対象物に関して複
数の位置から撮像された画像から、画像間の相関性を利
用する事により対象物の立体形状を推定する内視鏡画像
処理装置に関する。
【0002】
【従来の技術】視野に重なりを持って配置された撮像手
段の、相対的配置が既知の場合に、撮像された画像から
対象物の形状を推定する問題に対しては、いわゆるステ
レオ画像からの形状推定問題として種々の方法が提案さ
れている。
【0003】さらに近年では、動きからの3次元構造抽
出について幾つかの提案が成されている。これは複数の
画像から撮像手段の相対的な移動をも推定しようとする
手法である。これらの手法はいずれも、複数の画像間で
対象物上の同一の点の各画像上における位置が関連付け
られることを原情報として用いる。
【0004】対象物上の同一の点の各画像上における位
置の検出に対しても種々の方法が提案されている。人工
的な対象物の場合、角、輪郭成分が明瞭である事が多い
為、線分抽出等の構造抽出による手法は有効であるが、
一般的な自然画像に対しては適用は難しい。時系列画像
に対してしばしば用いられる濃度勾配法は、画像間での
対象物の見かけの移動が非常に小さく、画像品質が良い
場合には良好な結果が得られるが、撮像条件の制約が大
きい。
【0005】そこで一般的には、画像上の着目点とその
周囲領域を参照領域として抽出し、探索対象物の画像上
から抽出した領域との間で相関演算を行ない最大相関値
を与える位置を対応点とする手法(ブロックマッチン
グ)がしばしば用いられる。ブロックマッチング法は画
像上のテクスチャが明瞭であれば比較的安定した結果を
もたらすが、テクスチャが不明瞭な場合には誤った対応
点を検出してしまう事がある。
【0006】さらに本質的な欠点として、対象物が立体
でありブロック内に例えば背景との境界を含む場合には
検出結果は信頼できない。また、対象物面が撮像手段に
対して傾いている、あるいは距離の差がある等、複数の
撮像手段の画像間での像の変形が大きい、または像の大
きさの差異が大きい場合も信頼できない。
【0007】立体形状の推定にかかわる問題としてはオ
クルージョン及び推定結果の整合の問題が上げられる。
特に、ステレオからの推定においては対象物の背後に隠
され、撮像されない部分、あるいは一方の撮像手段のみ
に撮像される部分とが存在しこれらの領域の扱いが問題
となる。
【0008】撮像手段の数が多ければ必然的に撮像され
る領域が多くなり、隠される領域は少なくなるが、特に
撮像手段の位置が既知でない場合、あるいは推定が正確
でない場合には、これらの画像間の整合は容易でない。
【0009】従来提案されてきた手法の殆んどは、人工
物を撮像した画像を対象物としている、または、自然画
像を対象物とした場合に当然発生するこれらの問題に対
し、何等かの仮定をおく事により、影響を除外あるいは
軽減した条件において考察されており、実用上十分な能
力を持っているとは言えない。
【0010】例えば、従来提案されている手法の適用が
困難であり、かつ、機能が実現された場合に実用的な価
値の大きい画像の種類に生体用内視鏡から得られる画像
がある。
【0011】細長の挿入部を体腔内に挿入する事によっ
て、切開を必要とする事無く、体腔内の患部等を観察し
たり、必要に応じ処置具を用いて治療処置のできる内視
鏡においては、先端部の大きさは機能上最小限に抑える
必要がある為、医師が観察、あるいは処置を行なう為に
必要な部材以外は組込む事が出来ない。
【0012】経内視鏡的に対象物の形状を把握する事に
関して既に幾つかの提案が成されている。例えば観察対
象物に対しパターン光等を投影する方式(特開昭64−
64525)、先端部に複眼を持つ方式(特開昭63−
244011)であるが、いずれも内視鏡先端部あるい
は光源部に特殊な構造が要求される為、装置の大型化、
複雑化を招き一般的に用いる事が難しい。
【0013】同一出願人による特願昭62−16879
1には内視鏡先端を手元操作により移動させて得た複数
の画像から対象物形状を推定する手法及び、操作にとも
なう先端の移動量を計測する計測機構が開示されてい
る。この方法によれば現内視鏡の機能を損なう事無く、
対象物形状の推定を行なう事ができる。
【0014】
【発明が解決しようとする課題】しかしながら、この方
法によった場合、特に生体内で使用する内視鏡において
は、撮像した時相の違いによる、対象物の内視鏡先端に
対する相対的移動が無視できなくなる。また、上記計測
機構の与え得る精度は撮像手段の分解能等を考えあわせ
ると不十分ではないまでも十分であるとは言い難い。
【0015】さらに生体用内視鏡は、明瞭な角、輪郭、
テクスチャを伴なわない粘膜画像を主に観察する為、前
述した対応点検出にかかわる問題は特に顕著であり、推
定に利用する対応点検出結果に対しても何等かの対策を
必要とする。
【0016】以上述べたように、例えば内視鏡画像にお
けるような、明瞭な特徴点に欠ける自然画像に対して用
いた場合にも、安定して良好な撮像手段の位置と対象物
形状の推定結果を与え得る事が出来、しかも本来の観察
機能に影響を与えるような(装置の大型化等)装置の変
更を必要としない形状推定手法及び装置は存在しなかっ
た。
【0017】本発明は、上述した点にかんがみてなされ
たもので、同一対象物を撮像することにより得られる複
数の画像から、付加的な計測機構を必要としないで、対
象物の形状を推定できる内視鏡画像処理装置を提供する
ことを目的とする。
【0018】
【課題を解決するための手段及び作用】撮像手段を備え
た内視鏡と、同一対象物に関して複数の位置から前記撮
像手段により撮像された複数の画像に対し、各画像上に
おける対象物上の同一の点の位置を検出する位置検出手
段と、前記各画像上における対象物上の同一の点の位置
から前記撮像手段の各撮像位置を推定する位置推定手段
と、前記位置推定手段で推定された同一の位置及び前記
撮像位置から対象物の立体形状を推定する形状推定手段
と、推定された立体形状を表示する表示手段とを備える
ことによって、同一対象物に対して撮像手段側を少しづ
つ位置を移動するなどして撮像した複数の画像から同一
の点の位置を検出し、それに基づいて撮像手段側の相対
的な位置を推定し、必要に応じて反復処理して精度を向
上し、対象物の形状を推定する。
【0019】
【実施例】以下、図面を参照して本発明の実施例を説明
する。図1ないし図16は本発明の第1実施例に係り、
図1は第1実施例を備えた電子内視鏡システムの全体構
成図、図2は電子内視鏡装置のブロック構成を示すブロ
ック図、図3は画像処理装置の構成を示すブロック図、
図4はCPUで構成した画像処理装置のブロック図、図
5はハードウェアで構成した画像処理装置のブロック
図、図6は記録装置の構成を示すブロック図、図7は画
像処理装置によって2次元画像データが3次元データに
変換されるまでの処理内容を示すフローチャート図、図
8は歪曲収差の補正の説明図、図9はテンプレート画像
と参照画像とのシフト量を求める様子を示す説明図、図
10は2次元の画像データ列からシフトマップを算出す
る様子を示す説明図、図11はシフトマップを算出して
運動ベクトルの反復処理の具体的な処理の様子を示すフ
ローチャート図、図12は中心射影の座標系を示す説明
図、図13は回転軸と回転ベクトルを示す説明図、図1
4は3つのベクトルが同一平面上にあることを示す説明
図、図15は内視鏡の先端の動きを示す説明図、図16
は反復推定の様子を示すフローチャート図である。
【0020】図1に示すように内視鏡システム1は撮像
手段を備えた電子内視鏡装置2と、撮像された画像に基
づいて患部等の立体形状を推定する画像処理を行う第1
実施例の画像処理装置3と、画像を記録する記録装置4
と、画像処理された画像を表示するモニタ5とから構成
される。
【0021】電子内視鏡装置2は電子内視鏡6と、この
電子内視鏡6に照明光を供給する光源部7A(図2参
照)及び撮像手段に対する信号処理を行う信号処理部7
Bを内蔵した観察装置7と、この観察装置7から出力さ
れる画像信号を表示する観察用モニタ8とから構成され
る。
【0022】上記電子内視鏡6は生体9内に挿入される
細長の挿入部11と、この挿入部11の後端に形成され
た操作部12と、この操作部12から延出されたユニバ
ーサルケーブル13とから構成され、このユニバーサル
ケーブル13の先端に設けたコネクタ14を観察装置7
に接続することができる。
【0023】上記挿入部11内にはライトガイド15が
挿通され、コネクタ14を観察装置7に接続することに
より、図2に示すように光源部7Aから照明光が入射端
面に供給される。このライトガイド15によって伝送さ
れ、先端部16側の端面から前方に出射され、生体9内
の対象部位を照明する。この照明された対象部位は先端
部16に設けた対物レンズ17によってその結像位置に
配置されたCCD18に結像され、光電変換される。こ
の対物レンズ17とCCD18とで撮像手段としての撮
像部19を形成する。
【0024】上記CCD18で光電変換された画像信号
は観察装置7内の信号処理部7Bにより、信号処理され
て画像信号が生成され、この画像信号は観察用モニタ8
に出力されると共に、画像処理装置3に出力される。
【0025】観察装置7における光源部7Aと信号処理
部7Bの構成を図2に示す。光源部7Aは、紫外光から
赤外光に至る広帯域の光を発光するランプ21を備えて
いる。このランプ21としては、一般的なキセノンラン
プやストロボランプ等を用いることができる。上記キセ
ノンランプやストロボランプは、可視光のみならず紫外
光及び赤外光を大量に発光する。
【0026】このランプ21は、電源22によって電力
が供給されるようになっている。上記ランプ21の前方
には、モータ23によって回転駆動される回転フィルタ
50が配設されている。この回転フィルタ50には通常
観察用の赤(R),緑(G),青(B)の各波長領域の
光を透過するフィルタが周方向に沿って配列されてい
る。
【0027】又、モータ23はモータドライバ25によ
って回転が制御されて駆動されるようになっている。上
記回転フィルタ50を透過し、R,G,Bの各波長領域
の光に時系列的に分離された光は、更にライトガイド1
5の入射端に入射され、このライトガイド15を介して
先端部16側の出射端面に導かれ、この出射端面から前
方に出射されて、観察部位等を照明するようになってい
る。
【0028】この照明光による観察部位等の被検体(被
写体)からの戻り光は、対物レンズ17によって、CC
D18上に結像され、光電変換されるようになってい
る。このCCD18には、信号線26を介して、信号処
理部7B内のドライバ31からの駆動パルスが印加さ
れ、この駆動パルスによって光電変換された被検体の画
像に対応した電気信号(映像信号)のみ読出しが行われ
るようになっている。
【0029】このCCD18から読み出された電気信号
は、信号線27を介して、電子内視鏡6内又は観察装置
7内に設けられたプリアンプ32に入力されるようにな
っている。このプリアンプ32で増幅された映像信号
は、プロセス回路33に入力され、γ補正及びホワイト
バランス等の信号処理を施され、A/Dコンバータ34
によって、デジタル信号に変換されるようになってい
る。
【0030】このデジタルの映像信号は、セレクト回路
35によって、例えば赤(R),緑(G),青(B)の
各色に対応する3つのメモリ(1)36a,メモリ
(2)36b,メモリ(3)36cに選択的に記憶され
るようになっている。上記メモリ(1)36a,メモリ
(2)36b,メモリ(3)36cに記憶されたR,
G,B色信号は、同時に読み出され、D/Aコンバータ
37によって、アナログ信号に変換され、入出力インタ
フェース38を介してR,G,B色信号としてカラーモ
ニタ8に出力され、このカラーモニタ8によって、観察
部位がカラ―表示されるようになっている。
【0031】また、観察装置7内には、システム全体の
タイミングを作るタイミングジェネレータ42が設けら
れ、このタイミングジェネレータ42によって、モータ
ドライバ25,ドライバ31,セレクト回路35等の各
回路間の同期が取られている。
【0032】この実施例ではメモリ(1)36a,メモ
リ(2)36b,メモリ(3)36cの出力端及びタイ
ミングジェネレータ42の同期信号出力端は画像処理装
置3と接続されている。また、画像処理装置3はカラー
モニタ5と接続され、このカラーモニタ5には画像処理
装置3による演算結果が表示されるようになっている。
【0033】図3はこの画像処理装置3の構成を示す。
CPU40、情報入力装置41、RAMで構成される主
記憶装置42、画像入力インタフェース43、表示イン
タフェース44、ROM45及び記録装置インタフェー
ス46を備え、これらはバスによって互いに接続されて
いる。
【0034】図4に示すようにCPU40は、ROM4
5に記憶されたプログラムにより動作する画像処理手段
47を有し、この画像処理手段47は例えば同一対象物
に関して複数の位置から撮像手段により撮像された複数
の画像に対し、各画像上における同一の位置を検出する
位置検出手段50と、前記各画像上における同一の点の
位置から各撮像手段の位置を推定する位置推定手段51
と、この位置推定手段51で推定された同一の位置及び
前記撮像手段の位置から対象物の立体形状を推定する形
状推定手段52と、前記複数の画像間における撮像対象
物上の同一の点の各画像上における位置の検出、前記撮
像手段の位置の推定、対象物の立体形状を反復推定する
反復処理手段53等からなる。
【0035】上記情報入力手段41はキーボード等で構
成され、電子内視鏡6の種別等のデータを入力できるよ
うになっている。画像入力インタフェース43は、メモ
リ(1)36a,メモリ(2)36b,メモリ(3)3
6cに接続され、これらの画像データの受信を行うよう
になっている。また、表示インタフェース44は、モニ
タ5に入力する画像データを送るようになっている。ま
た、画像処理装置3の演算処理をハードウェアで構成し
た場合のブロック構成を図5に示す。
【0036】メモリ(1)36a,(2)36b,
(3)36cに記録された時系列画像データは一旦メモ
リ61に記憶される。記憶された画像データを用いて、
位置検出手段62、位置推定手段63、形状推定手段6
4、反復処理手段60により対象物の立体形状を算出
し、3次元画像データ又は2次元画像データをメモリ6
5に記憶する。
【0037】メモリ65に記憶された3次元画像データ
又は2次元画像データは読み出され、D/Aコンバータ
66によってアナログ信号に変換され、入出力インタフ
ェース67を介してモニタ5に対象部位の3次元又は2
次元の画像が表示されるようになている。
【0038】また、画像処理装置3には、位置検出手段
62、位置推定手段63、形状推定手段64、反復処理
手段60の演算を制御するための演算処理用コントロー
ラ68と、メモリ61、65のデータの読み書きを制御
するためのメモリコントローラ69が設けられている。
セレクタ70はメモリコントローラ69の制御信号によ
ってメモリ61、メモリ65の一方が記録装置4に選択
的に接続され、記録装置4とメモリ61又はメモリ65
とデータの転送ができるようになっている。この実施例
では電子内視鏡6で得た対象物部位の画像に対し、画像
処理装置3で処理を行い、モニタ5に処理結果を出力す
る。
【0039】図6は画像処理装置3と接続され、画像処
理装置3で画像処理される画像データを記録したり、画
像処理装置3で処理され、モニタ5で表示される画像デ
ータ等を記録する記録装置4のより具体的な構成例を示
す。
【0040】画像記録装置80はVTR或いはアナログ
光磁気ディスク装置等のアナログ方式の画像記録装置で
あり、その出力はA/Dコンバータ81により、A/D
変換された後、デジタル画像として画像処理装置3に入
力される。また、画像処理装置3による処理結果画像が
D/Aコンバータ84を介して画像記録装置80に記録
することが可能である。
【0041】動画像ファイル装置82は半導体メモリ、
ハードディスク、デジタル光磁気ディスク装置等で構成
されるデジタル方式の動画像ファイル装置であり、その
出力はデジタル画像として画像処理装置3に入力され
る。また、静止画像ファイル装置83は動画像ファイル
装置82と同様に半導体メモリ、ハードディスク、デジ
タル光磁気ディスク装置等で構成されるデジタル方式の
静止画像ファイル装置であり、その出力はデジタル画像
として画像処理装置3に入力される。
【0042】また、画像処理装置3による処理結果画像
は動画像ファイル装置82及び静止画像ファイル装置8
3に記録することも可能である。図2において、CCD
18で光電変換された画像信号は観察装置7内の信号処
理部7(b)で信号処理された画像信号となり、観察用
モニタ8に出力されると共に、画像処理装置3に出力さ
れる。
【0043】この画像処理装置3に入力される2次元の
画像データは一旦記録装置4に送られ、画像信号が記録
される。また、記録された画像信号は画像処理装置3に
再び送られ、被写体の3次元形状の推定の処理が行わ
れ、記録装置4及びモニタ5に送り出され、それぞれ推
定された3次元形状の記録及び表示が行われる。
【0044】第1実施例では以下のようにして2次元画
像から3次元画像を求める処理を行う。電子内視鏡6に
よって得られる内視鏡画像は観察装置7により画像信号
として画像処理装置3に順次送り出される。画像処理装
置3では順次送られてくる内視鏡画像の任意の期間の画
像信号を記録装置4に送り記録させる。
【0045】記録装置4に記録された内視鏡画像データ
(2次元の画像データ)の複数フレームの画像データを
画像処理装置3へ送り、送られてきた複数フレームの画
像データから同一の点に対する位置を検出した後、検出
された位置の移動を表すシフトマップを算出する。
【0046】求められたシフトマップより撮像手段の運
動ベクトル(電子内視鏡6先端の運動ベクトル)を推定
する。また、推定された撮像手段の運動ベクトルと各画
像間のシフトマップを用いて各々の形状の推定を行う。
各推定形状に対して信頼度に応じて重み付け加算等を行
って1つの立体形状を求める。
【0047】求められた3次元データに対して、任意の
撮像手段の方向から見たときの2次元画像または3次元
画像で表示する(ワイヤーフレーム等)画像データを作
成する。画像処理装置3によって作成された3次元画像
データ又は2次元画像データをモニタ5に表示すると同
時に記録装置4に記録する。
【0048】図7(a)及び図7(b)は画像処理装置
3によって2次元画像データが3次元データに変換され
るまでの流れ図を示す。以下、3次元画像データが算出
されるまでの過程を示す。
【0049】ステップS1は撮像手段が移動されながら
撮影された画像が画像処理装置3に入力されることを示
す。つまり、同一対象物に対して撮像手段(電子内視鏡
6の先端)を移動しながら、少しづつ位置が異なる2次
元画像データの入力を行う。次にステップS2では、ス
テップS1で得られた複数の画像に対して歪曲収差補正
処理を適用し、画像の歪を補正する。この歪曲収差補正
処理を補足説明する。
【0050】記録装置4から送られてくる内視鏡画像デ
ータに広角レンズによる歪が発生しているため、各画像
に対して歪曲収差補正処理を適用し画像の歪を補正す
る。電子内視鏡6を用いて例えば図8(a)に示す正方
のます目を撮像した場合、得られる画像は図8(b)に
示されるようなものになる。この歪画像が正方ます目画
像になるように、各画像における補正値をあらかじめ決
定しておき、実際の撮像画像に対しての補正を行うこと
により歪曲収差補正処理を実現することが可能となる。
より具体的な処理手法は、USP4,895,431に
おいて開示されている。
【0051】次に補正された複数の画像(画像対)を用
いて、対応点の追跡、つまり対象物を表す1つの画像
(テンプレート画像)を選び、その画像上の複数の点を
選択してそれぞれの点が他の参照画像(リファレンス画
像)上でどのように移動しているかの追跡を行う。この
対応点追跡を補足説明する。
【0052】対応点追跡は図9(a)に示すように、検
出しようとする対象物のテンプレート画像にある点を中
心とした矩形領域(ウィンドウ)をt(x)とし、図9
(b)に示すように参照画像にある大きさのサーチエリ
アSを設定し、サーチエリアS内の対応領域f(x)と
前記テンプレート画像の矩形領域t(x)とのブロック
マッチング処理を相互相関演算によって相関値が最大と
なる領域を求める演算で行い、その場合におけるテンプ
レート画像に対する参照画像の移動方向及び移動量を求
める。
【0053】例えば、次のような正規化された相互相関
D(u,v); を用いて相関値を求め、それが最大となる領域を求め、
その場合における移動方向及び移動量を求める。ここ
で、2重積分記号はサーチエリアS内での積分を表し、
<f>、<t>はそれぞれf(x+u,y+v) 、t(x,y) のS
内での平均を表す。なお、ブロックマッチング処理は、
相互相関演算に限定されるものでなく、同一出願人によ
るUSP4,962,540に開示されているカラーマ
ッチング手法を適用してもよい。(参照文献:コンピュ
ータ画像処理入門 総研出版( 株)田村秀行監修:p.148
〜p.150 )上述のようにして、テンプレート画像上で
選択された点の移動方向及び移動量の値を記述したシフ
トマップを求める。
【0054】ステップS2で求めたシフトマップを用い
て、次にステップS3では最急降下法等の反復処理によ
り、撮像手段の運動ベクトルを求め、被写体と撮像手段
の位置との相対的な位置関係を求める。
【0055】ステップS4では各シフトマップで求めた
被写体と撮像手段の位置関係が同一の座標空間になるよ
うに変換し、それぞれの同一点での被写体と撮像手段の
位置を平均して1つの被写体形状を求める。その後、ス
テップS6で推定された3次元画像データを表示装置側
などに出力する。
【0056】次に3次元画像データを算出するための各
過程を順次説明する。 (1)入力画像からのシフトマップの作成(位置の検
出) まず、内視鏡装置2で生体9等の内部の診断などを行う
ことを望む対象部位に対して撮像を行い、この対象部位
に対する複数の画像を記録装置4に記録する。この場
合、電子内視鏡6の先端側を少しずつ移動するなどして
同一の対象部位に対して撮像された複数の画像が記録装
置4に記録されるようにする。この結果、図1の左側に
示す電子内視鏡6の先端部16(に内蔵された撮像手
段)の移動と共に撮像された(図10の右側に示す)画
像列f0 〜fm の内視鏡画像データが得られる。
【0057】画像処理装置3では記録装置4から送られ
てくる内視鏡画像データに対して歪曲収差補正処理を適
用し、補正された内視鏡画像データ(2次元の画像デー
タ)のm+1フレーム(画像列f0 〜fm )をN組に分
割し、分割されたi+1フレームの画像データをもつP
0 ないしPN で示す撮像手段の移動軌跡に対応する対応
点追跡を行いそれぞれのシフトマップを算出する。
【0058】図10に示すようにシフトマップ1は、画
像列f0 〜fi のi+1フレームの画像データを用いて
次の2つの対応点の追跡を行いながら各フレーム間の移
動量を順次求め算出する。
【0059】(1)画像データf0 とf1 で対応付けを
行い、次に画像データf1 とf2 、さらに画像データf
2 とf3 の順で対応点追跡を行い、得られた移動量デー
タを総て加算して画像データf0 とfi との対応関係を
求める。
【0060】(2)画像データf0 とf1 の対応付けを
行い、この対応付けにより得られる移動量データを基に
画像データf0 とf2 、さらにそのデータを基に画像デ
ータf0 とf3 の順に対応点追跡を行い、最終的に画像
データf0 とfi との対応関係を求める。
【0061】(1)と(2)の関係は、(1)、(2)
の方法によりそれぞれの対応点追跡を行い、ある時点で
の(2)の方法における画像データf0 とfk 、画像デ
ータf0 とfk+1 の視差量の増加と、(1)の方法での
画像データfk とfk+1 との間での視差量とを比較し、
これらの差がある一定量(実験的には3ピクセル)を越
えた場合には、その点ではミスマッチングを起こしたと
判定し、周辺部のデータから補間関数を用いてその点の
移動量を再度推定し直す。この処理内容は図11のフロ
ーチャートのようになる。
【0062】ステップS11により画像データfm の取
り込みを行い、その後のステップS12で歪曲収差の補
正処理を行う。次のステップS13で m+1 の画像デー
タfm+1 をN 組に分割する。次のステップS14以降
で、N 組に分割された各画像エリアに対して(1)と
(2)の方法によりそれぞれの対応点追跡を行い視差量
の変化量が閾値を越えたか否かを判断する。
【0063】つまり、ステップS14でまず、n=0 と
し、次のステップS15a及びS15bで(1)と
(2)の方法により画像データfm と(画像データfm+
1 の)n=0の画像エリアとの対応点追跡をそれぞれ行
い、ステップS16で(1)と(2)の処理の視差量の
変化量を算出する。
【0064】次のステップS17でそれぞれの変化量が
閾値(上記一定量)を越えたか否かを判断し、この閾値
を越えた場合にはステップS18で補間処理を行う。閾
値を越えていない場合にはステップS19で、n=N か否
かの判断を行う。n=N でない場合にはステップS20で
n=n+1としてステップS15a及びS15bに戻り、次
の画像エリアに対して同様な処理を行う。このようにし
てn=N までの分割された全ての画像エリアに対して同様
な処理を行う。
【0065】図11の処理を行い、順次各点及び各画像
間のシフト量を求め、最終的に(画像データf0 とfi
つまり)P0 とP1 間のシフト量を求めシフトマップ1
を算出する。
【0066】同様にしてシフトマップ2からシフトマッ
プN(PN-1 とPN 間のシフト量)まで求める。このシ
フトマップNの算出によりP0 ないしPN で示す撮像手
段で撮像された画像上における対応点の移動量が相互の
画像で関連付けられて算出され、ある画像までの位置が
決定されると、他の各画像上で同一の点の位置が算出さ
れることになる。
【0067】(2)運動推定による位置推定 前記求められたシフトマップより8点アルゴリズムを用
いて撮像手段の運動(内視鏡先端16の動き)を推定す
る。しかし、画像間の対応付けに誤差が含まれると前記
8点アルゴリズムでは正しい解が得られなくなる。そこ
で8点アルゴリズムに最小2乗法を導入し、解を求める
のに最急降下法を適用して各シフトマップの運動ベクト
ルを求める。
【0068】まず8点アルゴリズムについて説明する
(参考文献:画像理解 森北出版株式会社 金谷健一
著)。
【0069】図12は中心射影の座標系を示す。画像原
点Oから距離fだけ離れたところにZ軸に垂直に画像面
をとる。この時、空間中の点(X,Y,Z)は、この点
(X,Y,Z)と原点Oとを結ぶ直線の画像面との交点
に投影されるものとする。その点の画像座標を(x,
y)とすると幾何学的な関係からx、yは x=Xf/Z y=Yf/Z (1) となる。
【0070】撮像手段の運動により空間中の点X=
(X,Y,Z)がX′=(X′,Y′,Z′)に移動し
たとき、そのとき撮像手段の運動は、原点を通る視軸回
りの回転を表す直行行列Rと、並進ベクトルh=(hx ,
hy,hz)Tを用いて次式で表される 。 X=RX′+h (2) ここで、図13で示すよにn=(nx ,ny,nz) を回転軸
の向きとし、θをその回転角とするとRは次のように表
される。
【0071】R= 点X、X′を原点からの距離と単位方向ベクトルm(N
ベクトル)、m′を用いて表すとそれぞれ次のようにな
る。
【0072】 又、式(5)を用いると式(2)は rm=r′Rm′+h (6) となる。
【0073】図14に示すように3本のベクトルm、R
m′、hは空間中の同一平面上に存在するため、それら
のスカラ3重積が0となる。つまり、 |mhRm′|=(m,h×Rm′)=0 (7) となる。式(7)においてhとRの外積をGとおくと、 (m,Gm′)=0 (8) となる。
【0074】ただし、 G=(h×r1,h×r2,h×r3) (9) であり、r1,r2,r3はそれぞれRの第1,第2,
第3列ベクトルである。式(6)の両辺とhとのベクト
ル積をとると rh×m=r′h×Rm′(=r′Gm) (10) となる。
【0075】両辺とh×mとの内積をとると r‖h×m‖2 =r′(h×m,Gm′)(=r′|hmGm′|) (11 ) となる。これより |hmGm′|≧0 (12) を得る。
【0076】ここでRとhからGの要素を決める。式
(8)はGの9つの要素に関する連立方程式である。し
たがって8組の対応対から得られる8個の1次方程式か
らGの要素の比を定めることができる。
【0077】次に Tr[GGT ]=2 (13) となるように定数倍したものをG^とする。これは並進
ベクトルhを単位ベクトルに正規化することにあたる。
【0078】式(8)及び(9)によれば並進ベクトル
hはGの全ての列ベクトルに直交する。そこでG^の列
ベクトルをg^1,g^2,g^3として (g^i h)=0、i=1,2,3 (14) となる単位ベクトルh^を計算する。符号は式(12)
より |h^mαG^m′α|≧0,α=1,…,8 (15) となるように定める。
【0079】次に式(9)に基づき h^×r^=g^i,i=1,2,3 (16) となるように互いに直交して右手系を作る単位ベクトル
(r^1,r^2,r^3)を求め、これをその順に列
とする行列をR=(r^1,r^2,r^3)とする。
【0080】式(6)の両辺とm,Rm′との内積をと
るとそれぞれ r^α=r′^α(mα,R^m′α)+(h^,m′^α) r^α(mα,R^m′α)=r′^α+(h^,R^m′^α) (17) となる。これを解けば各点までの距離が次のように得ら
れる。
【0081】 r^α={(h,mα)−(mα,R^m′α)(h^,R^m′α)} /{1−(mα,R^m′α)2 } r′^α={(mα,R^m′α)(h^,mα)−(h^,R^m′α)} /{1−(mα,R^m′α)2 } (18) 先にも述べたように8点アルゴリズムでは、画像間の対
応付けに誤差を含んでいる場合、正しい解が得られな
い。そこで必要な条件は厳密に満たし、その他の条件は
平均的に満たすような最適化を行う必要がある。
【0082】そこでN組(N≧8)の対応点が観測され
たとし、最小二乗法を用いて となる行列Gを求め、これを単位ベクトルhと直交行列
Rに近似的に分解する(最小二乗アルゴリズム)。
【0083】そこで、撮像手段の運動に対してある拘束
条件を適用して、撮像手段の運動パラメータh0 、R0
を推定し、これを初期値として式(19)を最小とする
h、Rを推定する。これによりあらかじめ解の存在空間
を制限し、推定誤差を最小限に抑えることが可能にな
る。
【0084】撮像手段の運動パラメータの初期値h0 、
R0 を求める。図15(a)に示すように、(外部の操
作によって動く撮像手段を内蔵した)電子内視鏡6の先
端の動きはある方向への運動とみることができる。
【0085】図15(b)に示すように、首振りの回転
による撮像手段の視軸方向(Z方向)への動きは小さ
く、動きを表す並進ベクトルhはZ軸に垂直な平面内
で、回転軸Uはhに垂直、回転角θはhの方向に+であ
ると仮定して初期値を求めることができる。
【0086】シフトマップから複数の点の移動方向を求
めそれらを平均して並進ベクトルh0 を決定する。そし
てこのh0 に垂直に回転軸U0 を決めると、式(8)よ
り未知数r、r′、θ0 の3個を含む3個の方程式が得
られ、これを解くことでθ0が得られる。
【0087】複数の点に対してθ0 を求め、それぞれの
θ0 より平均値を求め、初期値を決定する。このように
して得られた値を初期値として式(19)より最急降下
法を用いて最適解を決定する。
【0088】図16に示すように、最急降下法により解
を求める。複数のシフトマップの内のj番目のシフトマ
ップM(j)の並進ベクトルhと回転マトリクスRの各
要素を次のように表す。
【0089】 [hx(i),hy(i),hz(i),nx(i),ny(i),nz(i),θ(i) ]j i=0,1,2,…,n 図15(a),15(b)で説明した方法により、ステ
ップS21のように運動ベクトルの初期値である並進ベ
クトルh0 と回転マトリクスR0 を求める。このときそ
れぞれの値を次のように表す。
【0090】 [hx(0),hy(0),hz(0),nx(0),ny(0),nz(0),θ(0) ]j ステップS22のように求められた各ベクトルの1つの
パラメータを選択し、そのパラメータに対してΔd (≧
0)を次のように与えると、全部で14通りのパラメー
タの値の組が求まる。
【0091】 [hx(0)+Δd,hy(0),hz(0),nx(0),ny(0),nz(0),θ(0) ]j [hx(0)-Δd,hy(0),hz(0),nx(0),ny(0),nz(0),θ(0) ]j [hx(0),hy(0)+Δd,hz(0),nx(0),ny(0),nz(0),θ(0) ]j [hx(0),hy(0)-Δd,hz(0),nx(0),ny(0),nz(0),θ(0) ]j ・ ・ ・ [hx(0),hy(0),hz(0),nx(0),ny(0),nz(0),θ(0)+Δd ]j [hx(0),hy(0),hz(0),nx(0),ny(0),nz(0),θ(0)-Δd ]j それぞれのパラメータの値の組に対して、次の評価関数
O(i ,j )の値を求める(ステップS23)。
【0092】 i=0,1,2,…,13 先の8点アルゴリズムで説明したようにGが正しい値で
あれば(m,Gm′)は0に近い値を示す。(m、m′
に誤差が含まれるため0にならない)そこで、求められ
た14個の評価関数O(i ,j )の内、最も小さな値、
つまり最小値をとるパラメータの組を選択する(ステッ
プS24)。ステップS25でこの最小値が閾値を越え
ていない場合には、ステップS22に戻り、このパラメ
ータの組を新たなパラメータとする。例えば第1番目の
パラメータの組が評価関数を最小にした場合、新たなパ
ラメータの値は次のように求めることができる。
【0093】 hx(1)=hx(0)+Δd, hy(1)=hy(0), hz(1)=hz(0), nx(1)=nx(0), ny(1)=ny(0), nz(1)=nz(0), θ(1)=θ(0) 同様にして、評価関数を最小にしたパラメータに対して
Δd (≧0)を次のように与える。
【0094】 [hx(1)+Δd,hy(1),hz(1),nx(1),ny(1),nz(1),θ(1) ]j [hx(1)-Δd,hy(1),hz(1),nx(1),ny(1),nz(1),θ(1) ]j [hx(1),hy(1)+Δd,hz(1),nx(1),ny(1),nz(1),θ(1) ]j [hx(1),hy(1)-Δd,hz(1),nx(1),ny(1),nz(1),θ(1) ]j ・ ・ ・ [hx(1),hy(1),hz(1),nx(1),ny(1),nz(1),θ(1)+Δd ]j [hx(1),hy(1),hz(1),nx(1),ny(1),nz(1),θ(1)-Δd ]j それぞれのパラメータの評価関数の値を求め、その評価
関数が最小となるパラメータの組を選ぶ。以上の手順を
繰り返し行うことにより、評価関数O(i ,j)を最小
にする並進ベクトルhと回転マトリクスRのそれぞれの
要素が求められる。
【0095】すなわち、1つのシフトマップに対して1
つの運動ベクトル(並進ベクトルhと回転マトリクス
R)を推定することができる。
【0096】各シフトマップとそれに対応する運動ベク
トルのパラメータから式(18)を用いて各シフトマッ
プで選択された各点の視点から被写体での相対的な位置
を算出できる。
【0097】(3)形状推定 以上より求められた撮像手段の複数の運動ベクトル及び
各シフトマップで選択された各点の被写体から撮像手段
の位置までの相対的な位置関係を用いて、各シフトマッ
プでの被写体から撮像手段の位置までの相対的な位置関
係を所定の1つの撮像手段の位置を原点とした視線方向
をZ軸とする同一の座標空間に変換する。
【0098】ここで、各々のシフトマップや運動ベクト
ルに誤差が含まれるために、各撮像手段から被写体まで
の相対的な位置関係は同じにならない。
【0099】そこで同一空間に変換された各同一点の撮
像手段から被写体までの相対的な位置関係を単純平均し
て1つの値として求め、それを推定形状とする。
【0100】以上より求められた3次元データより任意
の撮像手段の方向からの2次元画像データまたは3次元
的に表示する画像データ(ワイヤーフレーム等)を算出
してモニタに表示する。また3次元データ及び前記算出
された画像データを記録装置4に記録する。
【0101】この第1実施例によれば、被写体に対し、
撮像手段側を移動して得られる複数の画像の同一点を検
出し、検出された同一点の情報から被写体に対する撮像
手段の相対的な位置関係を推定し、この推定された位置
から被写体の形状を推定している。
【0102】つまり、撮像された画像上で同一の点を検
出(決定)し、その情報に基づいて被写体に対する撮像
手段の相対的な位置関係を推定するようにしているの
で、撮像手段の移動と共に、被写体が移動した場合にお
いても、この被写体の移動に殆ど影響されることなく、
被写体に対する撮像手段の相対的な位置関係を決定でき
るという利点を有する。
【0103】また、撮像された画像情報を用いて被写体
の形状を推定しているので、撮像手段を形成する電子内
視鏡としてはパターンを投影する手段等の付加的な計測
機構が必要でないので、(先端部を太くなってしまうこ
となどなく)通常の電子内視鏡を用いることができる。
【0104】つまり、先端部が太くなってしまうような
電子内視鏡でなく、通常の電子内視鏡を用いることがで
きると共に、計測が必要な場合には観察装置7に画像処
理装置3を付加することにより、被写体の形状を表示で
きるようになり、拡張性に富むシステム構築を可能にす
る。
【0105】また、この画像処理装置を用いて医療用内
視鏡検査に適用すると、患部など注目する部分を立体的
に表示できるので、患部の腫れの程度を従来より的確に
認識でき、診断する場合に有効となる。
【0106】さらに、この実施例では撮像手段の運動ベ
クトルを8点アルゴリズムを用いて反復的に推定するよ
うにしているので、精度の高い形状推定を行うことがで
きる。
【0107】次に第2実施例を説明する。実際の立体形
状を推定する場合、被写体表面において特定の視点から
は見えない領域が存在する可能性がある。前記第1実施
例では各推定形状を単純平均して求めるため、立体形状
を推定するのに大きな誤差が含まれる可能性が生じる。
そこでこの実施例は第1実施例において推定された立体
形状と各視点との関係を用いて決定される重み関数を導
入して反復的に立体形状を再推定する。
【0108】図17は画像処理装置3によって2次元画
像データが3次元画像データに変換されるまでの流れ図
を示す。図17のステップS4までは第1実施例のステ
ップS4と同一で、ステップS4で求められた1つの立
体形状をもとにステップS5では形状の反復推定を行
う。その後、ステップS6で推定された3次元画像デー
タを表示装置側などに出力する。
【0109】次に第1実施例で示したような方法を用い
て、各シフトマップより求められた立体形状を合成した
1つの形状を推定し、その形状を初期値として反復推定
を行い、より精度のよい立体形状を算出する。以下に反
復推定の計算方法について示す。図18は反復処理の具
体的な流れ図を示す。ステップS31では図19に示す
ように立体形状のx、y平面上を間隔Dでサンプリング
を行い、各格子点上における視点からの奥行きz0(x,y)
を算出する。
【0110】ステップS32、S34では各格子上の奥
行きzk(x,y)に対して+Δzk(x,y)、−Δzk(x,y)をそ
れぞれ加えてその値をそれぞれzk(x,y)とし、ステップ
S33、S35でそれぞれの評価関数E(zk(x,y))を
求める。ステップS36ではそれぞれの各格子点で求め
た2つの評価関数値の内、小さい評価関数値のzk(x,y)
を選び、新たなzk(x,y)とする。
【0111】ステップS37では間隔Dがあるしきい値
を越えていないか判定し、しきい値を越えていない場合
はステップS38に移り、間隔Dを1/2にし、k=k
+1にして再度奥行きzを求め、越えた場合はこの処理
を終了する。なお、ステップS38で、q=q/2につ
いては以下で説明する。次に上記評価関数について補足
説明する。
【0112】各画像対(各シフトマップ)が形状推定に
寄与する比率を制御するように評価関数を次のように定
義する。
【0113】 E(z)=L(z)+λS(z) (ここでz=z(x,y) ) (21 ) ここでλは第2項の強さを制御するパラメータであ
り(λ≧0)、S(z)は推定した表面形状の滑らかさ
を表す項で、zの2次偏微分を用いて次のように表され
る。
【0114】 (22)式で、例えばzxyはx及びyでの2回の偏微分
を簡略的に表している。
【0115】ここでN個の画像対を仮定してL(z)を
求める。いま画像対Ii −Ij に注目すると、物体上の
注目する点P(x,y,z(x,y))が、各々の画像上の点Xi
とXj に投影されるとする。
【0116】点Xi とXj の位置はzの推定値によって
決定される。ここで幅qの窓関数Wq を用いて画像Ii
、Ij における点P周辺のある領域Wq の画像濃度値
の2乗差Lijxy(z)を次のように定義する。
【0117】 点Pの投影位置を中心とする物体表面の画像がもし視点
位置の差による歪を受けず、画像値も変化しないなら
ば、正しいzの値で式(23)の値は最小となる。N個
の画像対を利用する場合には、式(23)を各画像対に
ついて加算すればよいが、視点が大きく離れた場合、物
体上の同じ点の画像濃度値も変化することが考えられ
る。
【0118】このため、その影響を小さくするため隣接
する視点の画像対のみに注目することにする。さらに、
点Pが見えないような視点位置の画像対の影響を抑制す
るため、各画像対に対する重みを用いて式(23)を加
算することでLxy(z)を次のように求める。
【0119】 式(24)を推定領域全体で求め、それをL(z)とす
る。
【0120】 ωi は各画像対に対する重み係数で、一般に撮像手段か
ら被写体までの位置関係が近いほど推定精度がよいこと
や、式(23)のようにある領域の画像値の差を評価関
数に用いる場合、画像間の歪が大きいほどその精度が低
下することを考慮して、各視点Vi と推定点Pまでの距
離ri と、推定点周辺領域の歪み度diを用いて次の式
で表す。
【0121】 ( ωi ′=1/{di (ri +ri+1 )} ここで歪み度di は図20(b)に示すように、点Pを
中心とする物体表面上の直線を画像Ii 及びIi+1 に投
影した場合の長さΔXi 、ΔXi+1 の比を用いて次のよ
うに表す。
【0122】 (di ′=ΔXi /ΔXi+1 ) 注目する物体表面が両面像に平行な場合には画像間の歪
はなく、di は最小値1を取ることになる。また、面の
法線ベクトルと、視線方向のベクトルとの成す角度θi
、θ i+1のどちらかが90度を越える場合には、その
点は画像内に現れないはずである。このため、適当なし
きい値(実験では80度)を設定し、この角度の一方で
もしきい値を越えた場合にはωi の値を0とする。
【0123】形状更新の実際の処理は、物体形状を奥行
きzで表すx−y平面上を間隔Dでサンプリングしなが
ら、その点のzの値を式(21)のE(z)を減少させ
る方向へ変化させることにより行う。
【0124】形状を密に求めるにはDの値は小さくなけ
ればならないが、評価関数E(z)は一般に多数の局所
最小点を持つため、そのような局所点への集束を避ける
ためD及び窓関数Wの幅qを徐々に減少させながら(例
えばステップS38に示すようにD=D/2及びq=q
/2)のようにして)反復的に形状更新を行う。
【0125】この実施例によれば、第1実施例で推定し
た立体形状を初期値として反復推定を行うようにしてい
るので、より精度の高い立体形状の推定を行うことがで
きる。
【0126】次に第3実施例を説明する。本実施例にお
いては、第2実施例での反復処理の中にオクリュージョ
ンの可能性の高い部分、すなわちωi の値が低い部分の
シフトマップを除外して運動を再推定することを加える
ことにより、運動の推定精度の向上を図る。
【0127】図21は反復処理の具体的な流れ図を示
す。第2実施例で説明したように評価関数E(z)を導
入し、ステップS36の小さい方の評価関数E(z)を
選択して各格子点上の奥行きzの値を求めるまでは同一
であり図18におけるステップS36とS37との間に
以下のステップS41ないしS43の処理を行うように
している。
【0128】この実施例ではステップS36で求められ
た奥行きzを用い、次のステップS41で各画像上での
位置を計算し、以前の(それまでの)位置の値からの移
動量を求め、その量を以前のシフトマップに加えること
で新しいシフトマップを算出する。
【0129】次のステップS42では前記求めたωi の
値に応じて前記算出されたシフトマップを運動ベクトル
の推定に寄与する比率を変えながら運動ベクトルの推定
を行い、ステップ43で再度立体形状を求める。
【0130】ステップS37では間隔Dがあるしきい値
を越えていないか判定し、しきい値を越えていない場合
はステップS38に移り、間隔Dと幅qを1/2にして
再度奥行きzを求め、越えた場合はこの処理を終了す
る。
【0131】この実施例によれば、オクリュージョンが
ある場合にも、その影響を受けることなく高い精度で立
体形状の推定が可能になる。
【0132】次に第4実施例を説明する。本実施例にお
いては第1〜3実施例の方法により推定された立体形状
と、再度撮像手段を移動することによって得られた2次
元の画像データから新たに立体形状を推定する方法につ
いて説明する。
【0133】図22及び図23は画像処理装置3によっ
て2次元画像データが3次元画像データに変換されるま
での流れ図及び処理過程図をそれぞれ示す。以下3次元
データが算出されるまでの過程を示す。
【0134】ステップS5までは第1〜3実施例の方法
を用いることによりステップS1の撮像手段の移動で得
られた画像データから3次元の立体形状を推定すること
を示している。
【0135】この実施例ではステップS5の次のステッ
プS46では、再度、同一対象物に対して撮像手段(電
子内視鏡6の先端)を移動しながら、少しずつ位置が異
なる新たな2次元画像データの入力を行う。
【0136】次にステップS47では、ステップS46
で新たに得られた複数の画像に対して歪曲収差補正処理
を適用し、画像の歪を補正する。また、ステップS1で
得られた最新の2次元画像データと補正された複数画像
(画像対)より、対応点の追跡、つまり対応する同一の
点がどのようにシフトしているかの追跡を行い、シフト
マップの算出を行う。
【0137】ステップ48では、ステップS47で求め
たシフトマップを用いて、ステップ3で用いられた方法
等よって撮像手段の1つの運動ベクトルを求める。次の
ステップS49では、画像中の各点までの距離を求め、
各シフトマップに対する被写体形状を求め、その立体形
状と既にステップS4で得られた立体形状の合成等によ
り新たな立体形状を推定する。
【0138】ステップS49で推定された立体形状を用
いてステップ50では反復的に立体形状の再推定を行
う。その後、ステップS51で推定された3次元画像デ
ータを表示装置側などに出力する。
【0139】次にステップS46で第n+1番目の2次
元の画像データが入力した場合の処理方法について説明
する。
【0140】図23に示すように第1〜3実施例等の方
法により、第n番目までの2次元画像データを用いて立
体形状を推定する。次に同一対象物に対して撮像手段
(電子内視鏡6の先端)を移動しながら、第n+1番目
の2次元画像データの入力を行う。第n+1番目に得ら
れた2次元画像データに対して歪曲収差補正処理を適用
し、画像の歪を補正する。また、第n番目と第n+1番
目の画像対より、対応点の追跡を行い、シフトマップの
算出を行う。
【0141】前記シフトマップより第n番目と第n+1
番目の画像間で移動した撮像手段の運動ベクトルを求め
る。求められた運動ベクトルから被写体と撮像手段の位
置までの位置関係を求める。
【0142】このとき、その被写体と撮像手段の位置ま
での位置関係が既にステップS4で得られた立体形状
(被写体と撮像手段の位置)の座標空間と同じになるよ
うに変換し、変換された被写体と撮像手段の位置との位
置関係と、ステップS4で得られた立体形状の同一点と
の平均を求めて新たな立体形状を推定する。また、平均
以外にも立体形状と撮像手段の位置との関係より決定さ
れる重み付け加算により新たな形状を推定することもで
きる。
【0143】推定された立体形状を用いて反復的に立体
形状の再推定を行い推定された3次元画像データを表示
装置側などに出力する。
【0144】この第4実施例によれば、時系列的に入力
される画像データに対して、入力された順に3次元の画
像データを演算し表示できるので、第1実施例のように
全ての画像データを記録装置に記録する必要がなくなる
ので、記憶容量とか計算時間を削減できるメリットがあ
る。
【0145】3次元構造を推定する場合、画像から得ら
れる対応点探索に十分な精度を求めることは難しい。そ
のため解を安定に求めるために何らかの拘束条件を導入
することが考えられ、正則化が1つの方法となる。
【0146】そこで第2実施例では評価関数E(z)の
第2項にzの2次偏微分を導入して推定された表面形状
が滑らかに変化しているという拘束条件を用いて立体形
状の推定を行っている。
【0147】内視鏡画像のように生体内の画像を撮像し
た場合、求められる3次元構造は一般に滑らかな曲面を
構成していると考えられ、これを拘束条件にして正則化
を行う。形状の反復推定における更新量を決定する際
に、周囲の形状との差を小さくする方向へ修正量を導入
するという手法を用いることができる。
【0148】第2実施例での2次偏微分を用いる以外に
も、前記反復推定より導出した奥行きの修正量Δz1
、周囲の奥行き情報から補間することで求めた奥行き
と、現在の奥行きとの差として導出した修正量Δz2を
次の式にしたがって重み付け加算して実際の更新量を決
定する方法もある。
【0149】 Δz=(1−λ)Δz1+λΔz2 (28) 以上の反復推定を行うことによって従来1組のステレオ
タイプの撮像手段の内視鏡で求めた形状推定よりも精度
の高い形状推定が行える。
【0150】この実施例ではさらに撮像を行い、形状推
定を行う画像データを多くする等して立体形状の推定を
行うようにしているので、より精度の高い立体形状の推
定を行うことができる。
【0151】なお、上述の各実施例において出力される
形状データは相対値で算出される。形状データを絶対値
で算出するためには内視鏡の先端(撮像手段)の動きに
関するパラメータのうち、1つのパラメータの絶対値
(基準の長さ、或いは角度値)を求め、上記相対値の算
出時にその1つのパラメータを基準値でスケーリングす
れば、形状の大きさを絶対値に求めることができる。
【0152】そのためには、撮像手段の動きに対して、
基準となる大きさを取得する大きさ取得手段が必要にな
る。例えば、日本国特公昭63−246716で開示さ
れているように内視鏡操作部内のアングルノブの回転を
検出して湾曲量を求めて1つのパラメータとする。図1
で示すならば、電子内視鏡6の操作部12内で検出され
た湾曲量を観察装置7を通して画像処理装置3に送り、
画像処理装置3内で前記相対値算出時に検出した湾曲量
の絶対値を用いて形状の絶対値を算出するようにすれば
よい。
【0153】具体的に、図24を参照してアングルノブ
の回転から湾曲角度を得る方法或いは手段を説明する。
【0154】図24の内視鏡79(第1実施例では電子
内視鏡6)では、挿入部80の先端側に設けられた湾曲
部81を湾曲させるためのアングルワイヤ82が内視鏡
79の操作部83内に配設された回転ドラム84に巻き
つけられている。回転ドラム84は、操作部83内に配
設されるパターン円板85及び操作部83から突出して
配設されるアングルノブ86と同軸的に固定されてい
る。
【0155】パターン円板85の円周端面には、白黒の
等間隔のパターンが形成されており、反射型フォトセン
サ等で構成されるセンサ87によって読み取れるように
なっている。センサ87の出力はアンプ88に入力さ
れ、アンプ88の出力はカウンタ89へ入力されるよう
になっている。
【0156】カウンタ89の出力は、第1ラッチ90及
び第2ラッチ91に入力され、これらの出力は角度検出
装置92へ入力されるようになっている。角度検出装置
92で求められた湾曲部の角度情報は画像処理装置3に
送られる。操作スイッチ、タイミング回路等で構成され
る取込み指示手段93の出力は第1及び第2ラッチ9
0、91、画像処理装置3に入力されるようになってい
る。
【0157】なお、湾曲部81は多数の関節駒を回転自
在に連結して構成され、アングルワイヤ82が牽引され
た側に湾曲する。この湾曲部81の前部には先端部94
が形成され、図1で説明したように先端部94には照明
光を出射する照明窓と、観察(撮像)のための観察窓が
設けられている。
【0158】次に作用を説明する。所定の湾曲状態にお
いて取込み指示手段93からの指示により、カウンタ8
9の値が第1ラッチ90に記録される。次に、アングル
ノブ86を少し回し、内視鏡79の湾曲部81を動か
す。この時アングルノブ86の回転にともないパターン
円板85も回転し、センサ87は白黒の変化を検出す
る。即ち、回転エンコーダを構成し、パターン円板85
の回転量と同時に、回転方向の情報もアンプ88を介し
てカウンタ89に伝えられる。動かされた湾曲状態の位
置でのカウンタ89の値が第2ラッチ91に記録され
る。
【0159】第1ラッチ90及び第2ラッチ91に記録
された値は、角度検出装置92へ供給され、角度情報θ
に変換されるようになっている。この角度情報θを画像
処理装置3に送り、被写体と撮像手段の相対的な位置関
係を絶対的な値(距離)に変換する。
【0160】図24ではアングルノブの回転により撮像
手段の角度情報θを得るようにしているが、これに限定
されるものでなく、例えば内視鏡の先端のチャンネルよ
り基準となる大きさのもの(例えばメジャ等)を出して
被写体と一緒にその基準物を撮像し、画素内の基準値と
して絶対値を求めるようにしても良い。
【0161】また、後述するように3次元マニピュレー
タから位置情報を得るようにしても良い。
【0162】上述した実施例では内視鏡装置2を構成す
る撮像手段に電子内視鏡6を用いているが、本発明はこ
れに限定されるものでなく、次に説明するようなシステ
ム構成でも良い。
【0163】図25は電子内視鏡6の代わりにファイバ
ースコープ106とこのファイバースコープ106に装
着されるTVカメラ107を用いている。図25に示す
内視鏡システム101は、画像信号を発生する内視鏡装
置102と、内視鏡装置102からの画像信号に対して
立体形状を推定する画像処理を行う画像処理装置103
と、記録装置104と、モニタ105とから構成され
る。
【0164】内視鏡装置102は生体109内の患部等
の光学像を伝送するファイバースコープ106と、その
光学像を電気信号に変換するTVカメラ107と、この
ファイバースコープ106に照明光を供給する光源装置
108Aと、TVカメラ107からの電気信号を信号処
理する信号処理装置108Bと、この信号処理装置10
8Bから出力される画像信号を表示する観察用モニタ1
10とから構成される。
【0165】ファイバースコープ106は、細長で可撓
性を有する挿入部111と、この挿入部111の後端に
形成された操作部112と、この操作部112から延出
されたライトガイドケーブル113と、操作部112の
頂部に形成された接眼部114とから構成され、ライト
ガイドケーブル113の末端のコネクタ115を光源装
置108Bに接続できる。
【0166】接眼部114に装着されるTVカメラ10
7は内部にCCD等の撮像素子を有し、信号ケーブル1
16の末端に設けたコネクタ117を信号処理装置10
8Aに接続できる。
【0167】光源装置108Aと信号処理装置108B
とで観察装置108が構成される。光源装置108Aと
信号処理装置108Bは第1実施例の光源装置7Aと信
号処理部7Bを使用することができる。また、第1実施
例では面順次の照明方式でカラー撮像を行っているが、
白色照明のもとでカラー撮像を行うものでも良い。画像
処理装置103及び記録装置104は例えば第1実施例
の各装置3、4で構成できる。このシステム101の作
用及び効果は、電子内視鏡6を用いた場合、例えば第1
実施例等と同様である。
【0168】図26は電子内視鏡6の代わりに硬性内視
鏡206と、この硬性内視鏡206に装着されるTVカ
メラ207を用いている。図26に示す内視鏡システム
201は、画像信号を発生する内視鏡装置202と、内
視鏡装置202からの画像信号に対して立体形状を推定
する画像処理を行う画像処理装置203と、記録装置2
04と、モニタ205とから構成される。
【0169】内視鏡装置202は生体209内の患部等
の光学像を伝送する硬性内視鏡206と、その光学像を
電気信号に変換するTVカメラ207と、この硬性内視
鏡206に照明光を供給する光源装置208Aと、TV
カメラ207からの電気信号を信号処理する信号処理装
置208Bと、この信号処理装置208Bから出力され
る画像信号を表示する観察用モニタ210とから構成さ
れる。
【0170】硬性内視鏡206は、細長でリジッドな挿
入部211と、この挿入部211の後端に形成された把
持部212と、この把持部212に接続されたライトガ
イドケーブル213と、把持部212の頂部に形成され
た接眼部214とから構成され、ライトガイドケーブル
213の末端のコネクタ215を光源装置108Bに接
続できる。
【0171】接眼部214に装着されるTVカメラ20
7は内部にCCD等の撮像素子を有し、信号ケーブル2
16の末端に設けたコネクタ217を信号処理装置10
8Aに接続できる。
【0172】光源装置208Aと信号処理装置208B
とで観察装置208が構成される。光源装置208Aと
信号処理装置208Bは第1実施例の光源装置7Aと信
号処理部7Bを使用することができる。また、第1実施
例では面順次の照明方式でカラー撮像を行っているが、
白色照明のもとでカラー撮像を行うものでも良い。
【0173】画像処理装置203及び記録装置204は
例えば第1実施例の各装置3、4で構成できる。このシ
ステム201の作用及び効果は、電子内視鏡6を用いた
場合、例えば第1実施例等と同様である。
【0174】このシステム201の場合には、例えば図
27に示すように3次元マニピュレータ401から位置
情報を得るようにしても良い。
【0175】図27に示すようにTVカメラ207が装
着された硬性内視鏡206をマニピュレータ401に取
り付け、硬性内視鏡206の位置をマニピュレータ40
1から検出しながら生体403内の患部等を観察するシ
ステムを構成している。
【0176】硬性内視鏡206はマニピュレータ401
の先端のアームに取り付けられ、マニピュレータ401
の各アームの角度を変えることにより硬性内視鏡206
を所定の位置に移動できるようになっている。
【0177】マニピュレータ401はアクチュエータ駆
動回路404からの制御信号によりマニピュレータ40
1の各アームを動かし、所定の位置に硬性内視鏡206
を移動させる。CPU405はアクチュエータ駆動回路
404を制御しマニピュレータ401の各アームの位置
情報の入出力を行い、その位置情報を画像処理装置20
3へ送る。
【0178】画像処理装置203はCPU405から硬
性内視鏡206の位置情報を取得し、その位置情報より
被写体と撮像手段の相対的な位置関係を絶対的な値(距
離)に変換する。
【0179】次に本発明の第5実施例を備えた内視鏡シ
ステムを説明する。図28に示す内視鏡システム301
は体腔内の映像を撮像する電子内視鏡装置302と、画
像処理装置303と、記録装置304と、モニタ305
とから構成される。
【0180】電子内視鏡装置302は複眼の電子内視鏡
306と、この電子内視鏡306に照明光を供給する光
源装置307と、電子内視鏡306から得られる左画像
を信号処理する左画像用信号処理装置308Aと、電子
内視鏡306から得られる右画像を信号処理する右画像
用信号処理装置308Bと、それぞれの信号処理装置3
08A、308Bから出力される画像信号を表示する観
察用モニタ309A、309Bとから構成される。
【0181】電子内視鏡306は、生体318内部に挿
入できるように細長で可撓性を有する挿入部311と、
この挿入部311の後端に設けられた操作部312と、
この操作部312から延出されたライトガイドケーブル
313とユニバーサルケーブル314とを備えている。
【0182】ライトガイドケーブル313の末端のコネ
クタ315は光源装置307に接続され、ユニバーサル
ケーブル314は末端側で分岐され末端部のコネクタ3
16A、316Bはそれぞれ左画像用信号処理装置30
8Aと、右画像用信号処理装置308Bに接続される。
【0183】挿入部311の先端部319には、複数
の、例えば2つの観察窓と、照明窓とが設けられてい
る。前記各観察窓の内側には、互いに視差を有する位置
に、右眼用対物レンズ系320、左眼用対物レンズ系3
21が設けられている。各対物レンズ系320、321
の結像位置には、撮像手段を構成する固体撮像素子32
2、323がそれぞれ配置されている。
【0184】また、前記照明窓の内側には、配光レンズ
324が設けられ、この配光レンズ324の後端には、
ファイババンドよりなるライトガイド325が配置され
ている。このライトガイド325は、前記挿入部311
内を挿通され、その入射端面には光源装置307から照
明光が供給される。
【0185】このライトガイド325によって照明光は
伝送され、その先端面及び配光レンズ324を介して被
写体に照射される。この被写体からの反射光は、前記対
物レンズ系320、321によって、それぞれの右画
像、左画像として、固体撮像素子322、323に結像
されるようになっている。
【0186】複眼の電子内視鏡306における内視鏡先
端面から指定された点にいたる距離を計算する測長原理
について以下に説明する。
【0187】図29において点Dは生体318内部など
の対象物体328の着目点、点P、点Qは左画像用撮像
手段322、右画像用撮像手段323に結像された点に
対応する対物レンズ320、321の焦点画上の点であ
る。また点Oは対物レンズ320、321の光軸の中線
と内視鏡先端面326との交点である。
【0188】前記点Dと内視鏡先端面326との距離を
d、対物レンズ320、321の光軸の中線に対する横
方向のずれをxとする。
【0189】前記内視鏡先端面326と対物レンズ32
0、321の焦点面との距離をfとし、対物レンズ32
0、321の光軸間の距離を2sとする。また、対物レ
ンズ320の光軸と点Pとの距離をa、対物レンズ32
1の光軸と点Qとの距離をbとする。
【0190】以上から、図29における三角形の相似か
ら f(s+x)=ad f(s−x)=bd が成立する。以上の2式よりx、dについて解くと x=s(a−b)/(a+d) d=2fs/(a+b) となる。よってa、b、f、sは既知の量であるから、
未知のx、dを求めることができる。
【0191】図30(a)及び図30(b)は画像処理
装置303によって2次元画像データが3次元画像デー
タに変換されるまでの流れ図及び処理過程図を示す。以
下3次元データが算出されるまでの過程を示す。
【0192】ステップS1は撮像手段が移動しながら撮
像された左画像、右画像が画像処理装置303に入力さ
れることを示す。つまり、同一対象物に対して撮像手段
(電子内視鏡311の先端)を移動しながら、少しずつ
位置が異なる2次元の左右の画像データの入力を行う。
【0193】次にステップS2aでは、ステップS1で
得られた複数の左右の画像に対して歪曲収差補正処理を
適用し画像の歪を補正する。補正された例えば右の複数
画像(画像対)(または左の複数画像でもよい)より、
対応点の追跡、つまり対象物を表す1つの画像(テンプ
レート画像)を撰び、その画像上の複数の点を選択して
それぞれの点が他の画像(リファレンス画像)上でどの
ように移動しているかの追跡を行う。そして、テンプレ
ート画像上で選択された点の移動方向及び移動量の値を
記述したシフトマップを求める(図30(b)では複数
の左画像に対して第1実施例と同様な方法で左画像のシ
フトマップを求めることを示す)。
【0194】ステップS2aで求めた左画像のシフトマ
ップを用いて、次にステップS3aでは最急降下法等の
反復処理により例えば左眼用の撮像手段の運動ベクトル
を求め、左眼用の撮像手段と被写体までの相対的な位置
を求める。
【0195】またステップS2bではステップS1で得
られた各々の撮像手段の右の画像と左の画像のシフトマ
ップを前記対応点追跡により求める。このとき作成され
る左右画像からのシフトマップの対象となる点はステッ
プS2aで求めた左画像のシフトマップの対象の点と同
一である。ステップS3bではステップS2bで求めた
シフトマップと前記複眼での測長原理を用いて各々の撮
像手段から被写体までの距離を算出する。
【0196】ステップS4では左画像のシフトマップで
求めた撮像手段と被写体の相対的な位置と各撮像手段の
右画像と左画像より求めた被写体までの距離が同一の座
標系となるように座標変換し、座標変換された各同一点
の距離を平均して1つの被写体形状を求める。その後、
ステップS5で推定された3次元画像データを表示装置
側などに出力する。
【0197】なお、上述した各実施例を部分的などで組
み合わせて異なる実施例を構成することもでき、それら
も本発明に属する。また、最初の出願の図8及び図9の
ような実施例を採用しても良い。
【0198】
【発明の効果】以上説明したように本発明によれば、撮
像手段を備えた内視鏡と、同一の対象物に対して前記撮
像手段により複数の位置から撮像された複数の画像に対
し、各画像上における対象物上の同一の点の位置を検出
する位置検出手段と、前記各画像上における対象物上の
同一の点の位置から前記撮像手段の各位置を推定する位
置推定手段と、前記位置推定手段で推定された前記撮像
手段の位置情報を用いて前記対象物の立体形状を推定す
る形状推定手段と、前記形状推定手段を経て推定された
立体形状を表示する表示手段とを設けてあるので、同一
の対象物をすこしづつ撮像手段の位置を移動する等して
撮像された複数の画像から同一の点の位置等を検出し、
それに基づいて撮像手段の位置の推定を行う処理等を行
い、対象物の立体形状を推定するので、対象物が移動す
る場合でも、精度よく立体形状の推定ができる。
【図面の簡単な説明】
【図1】第1実施例を備えた電子内視鏡システムの全体
構成図。
【図2】電子内視鏡装置のブロック構成を示すブロック
図。
【図3】画像処理装置の構成を示すブロック図。
【図4】CPUで構成した画像処理装置のブロック図。
【図5】ハードウェアで構成した画像処理装置のブロッ
ク図。
【図6】記録装置の構成を示すブロック図。
【図7】画像処理装置によって2次元画像データが3次
元データに変換されるまでの処理内容を示すフローチャ
ート図。
【図8】歪曲収差の補正の説明図。
【図9】テンプレート画像と参照画像とのシフト量を求
める様子を示す説明図。
【図10】2次元の画像データ列からシフトマップを算
出する様子を示す説明図。
【図11】シフトマップを算出して運動ベクトルの反復
処理の具体的な処理の様子を示すフローチャート図。
【図12】中心射影の座標系を示す説明図。
【図13】回転軸と回転ベクトルを示す説明図。
【図14】3つのベクトルが同一平面上にあることを示
す説明図。
【図15】内視鏡の先端の動きを示す説明図。
【図16】反復推定の様子を示すフローチャート図。
【図17】本発明の第2実施例による2次元画像データ
が3次元データに変換されるまでの処理内容を示すフロ
ーチャート図。
【図18】立体形状を反復推定する処理を示すフローチ
ャート図。
【図19】推定された立体形状を所定の間隔でサンプリ
ングする様子を示す説明図。
【図20】評価関数を求めるために画像と対象物との関
係を示す説明図。
【図21】本発明の第3実施例における立体形状を反復
推定する処理を示すフローチャート図。
【図22】本発明の第4実施例による2次元画像データ
が3次元データに変換されるまでの処理内容を示すフロ
ーチャート図。
【図23】第4実施例による処理内容を示す説明図。
【図24】アングルノブの回転操作量から角度情報を得
る構成を示す説明図。
【図25】ファイバスコープにTVカメラを装着したT
Vカメラ外付けスコープを用いた内視鏡システムの全体
構成図。
【図26】硬性内視鏡にTVカメラを装着したTVカメ
ラ外付けスコープを用いた内視鏡システムの全体構成
図。
【図27】3次元マニピュレータを用いて位置情報を得
る内視鏡システムの主要部を示す説明図。
【図28】本発明の第5実施例を備えた電子内視鏡シス
テムの全体構成図。
【図29】複眼の電子内視鏡による測長の説明図。
【図30】第5実施例による処理内容を示すフローチャ
ート図。
【符号の説明】
1…内視鏡システム 2…電子内視鏡装置 3…画像処理装置 4…記録装置 5…モニタ 6…電子内視鏡 7…観察装置 7A…光源部 7B…信号処理部 8…モニタ 9…生体 11…挿入部 12…操作部 13…ユニバーサルケーブル 14…コネクタ 17…対物レンズ 18…CCD 19…撮像部 40…CPU 41…情報入力装置 42…主記憶装置 43…画像入力インタフェース 44…表示インタフェース 45…ROM 46…記録装置インタフェース 47…画像処理手段
─────────────────────────────────────────────────────
【手続補正書】
【提出日】平成5年6月23日
【手続補正1】
【補正対象書類名】明細書
【補正対象項目名】0072
【補正方法】変更
【補正内容】
【0072】 又、式(5)を用いると式(2)は rm=r′Rm′+h (6) となる。
【手続補正2】
【補正対象書類名】明細書
【補正対象項目名】0074
【補正方法】変更
【補正内容】
【0074】ただし、 G=(h×r1,h×r2,h×r3) (9) であり、r1,r2,r3はそれぞれRの第1,第2,
第3列ベクトルである。式(6)の両辺とhとのベクト
ル積をとると rh×m=r′h×Rm′(=r′Gm) (10) となる。
【手続補正3】
【補正対象書類名】明細書
【補正対象項目名】0075
【補正方法】変更
【補正内容】
【0075】両辺とh×mとの内積をとると r‖h×m‖ =r′(h×m,Gm′)(=r′|hmGm′|) (11 ) となる。これより |hmGm′|≧0 (12) を得る。
【手続補正4】
【補正対象書類名】明細書
【補正対象項目名】0078
【補正方法】変更
【補正内容】
【0078】式(8)及び(9)によれば並進ベクトル
hはGの全ての列ベクトルに直交する。そこでG^の列
ベクトルをg^1,g^2,g^3として (g^i h)=0、i=1,2,3 (14) となる単位ベクトルh^を計算する。符号は式(12)
より |h^mαG^m′α|≧0,α=1,…,8 (15) となるように定める。
【手続補正5】
【補正対象書類名】明細書
【補正対象項目名】0080
【補正方法】変更
【補正内容】
【0080】式(6)の両辺とm,Rm′との内積をと
るとそれぞれ r^α=r′^α(mα,R^m′α)+(h^,m′^α) r^α(mα,R^m′α)=r′^α+(h^,′^α) (17) となる。これを解けば各点までの距離が次のように得ら
れる。
【手続補正6】
【補正対象書類名】明細書
【補正対象項目名】0081
【補正方法】変更
【補正内容】
【0081】 r^α={(h,mα)−(mα,R^m′α)(h^,R^m′α)} /{1−(mα,R^m′α)2 } r′^α={(mα,R^m′α)(h^,mα)−(h^,R^m′α)} /{1−(mα,R^m′α)2 } (18) 先にも述べたように8点アルゴリズムでは、画像間の対
応付けに誤差を含んでいる場合、正しい解が得られな
い。そこで必要な条件は厳密に満たし、その他の条件は
平均的に満たすような最適化を行う必要がある。
───────────────────────────────────────────────────── フロントページの続き (72)発明者 野波 徹緒 東京都渋谷区幡ヶ谷2丁目43番2号 オリ ンパス光学工業株式会社内

Claims (1)

    【特許請求の範囲】
  1. 【請求項1】 撮像手段を備えた内視鏡と、 同一の対象物に対して前記撮像手段により複数の位置か
    ら撮像された複数の画像に対し、各画像上における対象
    物上の同一の点の位置を検出する位置検出手段と、 前記各画像上における対象物上の同一の点の位置から前
    記撮像手段の各位置を推定する位置推定手段と、 前記位置推定手段で推定された前記撮像手段の位置情報
    を用いて前記対象物の立体形状を推定する形状推定手段
    と、 前記形状推定手段を経て推定された立体形状を表示する
    表示手段と、を備えた内視鏡画像処理装置。
JP04556393A 1992-03-05 1993-03-05 内視鏡画像処理装置 Expired - Fee Related JP3347385B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP04556393A JP3347385B2 (ja) 1992-03-27 1993-03-05 内視鏡画像処理装置
US08/037,004 US5432543A (en) 1992-03-05 1993-03-25 Endoscopic image processing device for estimating three-dimensional shape of object based on detection of same point on a plurality of different images

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP4-71299 1992-03-27
JP7129992 1992-03-27
JP04556393A JP3347385B2 (ja) 1992-03-27 1993-03-05 内視鏡画像処理装置

Publications (2)

Publication Number Publication Date
JPH067289A true JPH067289A (ja) 1994-01-18
JP3347385B2 JP3347385B2 (ja) 2002-11-20

Family

ID=26385578

Family Applications (1)

Application Number Title Priority Date Filing Date
JP04556393A Expired - Fee Related JP3347385B2 (ja) 1992-03-05 1993-03-05 内視鏡画像処理装置

Country Status (2)

Country Link
US (1) US5432543A (ja)
JP (1) JP3347385B2 (ja)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11295618A (ja) * 1998-04-10 1999-10-29 Olympus Optical Co Ltd 内視鏡画像処理装置
JP2006187386A (ja) * 2005-01-04 2006-07-20 Olympus Corp 内視鏡装置、動体検出方法、及びそのプログラム
JP2008093287A (ja) * 2006-10-13 2008-04-24 Olympus Medical Systems Corp 医療用画像処理装置及び医療用画像処理方法
US7857752B2 (en) 2004-12-27 2010-12-28 Olympus Corporation Medical image processing apparatus and medical image processing method
JP2014071257A (ja) * 2012-09-28 2014-04-21 Fujifilm Corp 立体内視鏡装置及びその画像取込方法
WO2015098353A1 (ja) * 2013-12-26 2015-07-02 オリンパス株式会社 内視鏡による距離測定方法及び内視鏡システム
WO2019198128A1 (ja) * 2018-04-09 2019-10-17 オリンパス株式会社 内視鏡業務支援システムおよび内視鏡業務支援方法
JP2020034743A (ja) * 2018-08-30 2020-03-05 オリンパス株式会社 画像取得装置および画像取得装置の作動方法
CN112584735A (zh) * 2018-08-24 2021-03-30 Cmr外科有限公司 手术内窥镜视频流的图像校正

Families Citing this family (93)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0888017A2 (en) * 1993-08-26 1998-12-30 Matsushita Electric Industrial Co., Ltd. Stereoscopic image display apparatus and related system
US5764871A (en) * 1993-10-21 1998-06-09 Eastman Kodak Company Method and apparatus for constructing intermediate images for a depth image from stereo images using velocity vector fields
US5739844A (en) * 1994-02-04 1998-04-14 Sanyo Electric Co. Ltd. Method of converting two-dimensional image into three-dimensional image
JP3192875B2 (ja) * 1994-06-30 2001-07-30 キヤノン株式会社 画像合成方法および画像合成装置
EP0703716B1 (en) * 1994-09-22 2002-11-27 Sanyo Electric Co. Ltd Method of converting two-dimensional images into three-dimensional images
DE19542308A1 (de) * 1994-11-25 1996-05-30 Zeiss Carl Fa Verfahren und Vorrichtung zur Darstellung dreidimensionaler Videobilder
KR100414629B1 (ko) * 1995-03-29 2004-05-03 산요덴키가부시키가이샤 3차원표시화상생성방법,깊이정보를이용한화상처리방법,깊이정보생성방법
US5777666A (en) * 1995-04-17 1998-07-07 Sanyo Electric Co., Ltd. Method of converting two-dimensional images into three-dimensional images
KR100194923B1 (ko) * 1996-06-21 1999-06-15 윤종용 동영상 정보 검색장치 및 방법
DE19632188A1 (de) * 1996-08-09 1998-02-12 Thomson Brandt Gmbh Verfahren und Vorrichtung zur Gewinnung von Korrekturwerten für Videozeilen eines Videobildes
JPH1062140A (ja) * 1996-08-14 1998-03-06 Oki Electric Ind Co Ltd 形状の再構成方法および形状の再構成装置
US6009189A (en) * 1996-08-16 1999-12-28 Schaack; David F. Apparatus and method for making accurate three-dimensional size measurements of inaccessible objects
JP3771988B2 (ja) * 1997-03-12 2006-05-10 オリンパス株式会社 計測内視鏡装置
US6335950B1 (en) * 1997-10-14 2002-01-01 Lsi Logic Corporation Motion estimation engine
US6295377B1 (en) * 1998-07-13 2001-09-25 Compaq Computer Corporation Combined spline and block based motion estimation for coding a sequence of video images
US6459481B1 (en) 1999-05-06 2002-10-01 David F. Schaack Simple system for endoscopic non-contact three-dimentional measurement
IL135571A0 (en) * 2000-04-10 2001-05-20 Doron Adler Minimal invasive surgery imaging system
US6692430B2 (en) * 2000-04-10 2004-02-17 C2Cure Inc. Intra vascular imaging apparatus
US7625335B2 (en) * 2000-08-25 2009-12-01 3Shape Aps Method and apparatus for three-dimensional optical scanning of interior surfaces
US6781691B2 (en) * 2001-02-02 2004-08-24 Tidal Photonics, Inc. Apparatus and methods relating to wavelength conditioning of illumination
DK1368986T3 (da) * 2001-03-02 2012-02-27 3Shape As Fremgangsmåde til modellering af specialfremstillede ørestykker
JP3884321B2 (ja) * 2001-06-26 2007-02-21 オリンパス株式会社 3次元情報取得装置、3次元情報取得における投影パターン、及び、3次元情報取得方法
IL160736A0 (en) * 2001-09-05 2004-08-31 Given Imaging Ltd System and method for three dimensional display of body lumens
US8428685B2 (en) * 2001-09-05 2013-04-23 Given Imaging Ltd. System and method for magnetically maneuvering an in vivo device
US7101334B2 (en) * 2001-10-31 2006-09-05 Olympus Corporation Optical observation device and 3-D image input optical system therefor
EP1463441A4 (en) * 2001-12-11 2009-01-21 C2Cure Inc APPARATUS, METHOD AND SYSTEM FOR INTRAVASCULAR PHOTOGRAPHIC IMAGING
AU2003224415A1 (en) * 2002-05-16 2003-12-02 Cbyond Inc. Miniature camera head
JP4553141B2 (ja) * 2003-08-29 2010-09-29 日本電気株式会社 重み情報を用いた物体姿勢推定・照合システム
US7349583B2 (en) * 2003-09-05 2008-03-25 The Regents Of The University Of California Global motion estimation image coding and processing
EP2316328B1 (en) * 2003-09-15 2012-05-09 Super Dimension Ltd. Wrap-around holding device for use with bronchoscopes
WO2005031436A1 (en) * 2003-09-26 2005-04-07 Tidal Photonics, Inc. Apparatus and methods relating to expanded dynamic range imaging endoscope systems
AU2004212605A1 (en) * 2003-09-26 2005-04-14 Nec Australia Pty Ltd Computation of soft bits for a turbo decoder in a communication receiver
EP1709405A1 (en) * 2003-09-26 2006-10-11 Tidal Photonics, Inc. Apparatus and methods relating to enhanced spectral measurement systems
US20050234302A1 (en) * 2003-09-26 2005-10-20 Mackinnon Nicholas B Apparatus and methods relating to color imaging endoscope systems
US10251532B2 (en) * 2004-03-20 2019-04-09 Karl Storz Imaging, Inc. Method and system for using a variable direction of view endoscope with a robotic endoscope holder
US7300397B2 (en) * 2004-07-29 2007-11-27 C2C Cure, Inc. Endoscope electronics assembly
EP1842481B1 (en) * 2004-12-10 2017-02-08 Olympus Corporation Medical image processing method
US20060221218A1 (en) * 2005-04-05 2006-10-05 Doron Adler Image sensor with improved color filter
US20070161854A1 (en) * 2005-10-26 2007-07-12 Moshe Alamaro System and method for endoscopic measurement and mapping of internal organs, tumors and other objects
US9176276B2 (en) * 2006-05-09 2015-11-03 Koninklijke Philips N.V. Imaging system for three-dimensional imaging of the interior of an object
US20080260242A1 (en) * 2006-06-22 2008-10-23 Tidal Photonics Inc. Apparatus and methods for measuring and controlling illumination for imaging objects, performances and the like
US7440121B2 (en) * 2006-09-20 2008-10-21 Lawrence Livermore National Security, Llc Optically measuring interior cavities
IL186567A (en) * 2006-10-10 2014-02-27 Visionsense Ltd A method and system for navigating the colon
JP4914735B2 (ja) 2007-02-14 2012-04-11 オリンパスメディカルシステムズ株式会社 処置具の位置制御を行う内視鏡システム
JP5030639B2 (ja) 2007-03-29 2012-09-19 オリンパスメディカルシステムズ株式会社 内視鏡装置の処置具位置制御装置
US20090046171A1 (en) * 2007-08-16 2009-02-19 C2Cure, Inc. Non-linear color correction
US8337397B2 (en) 2009-03-26 2012-12-25 Intuitive Surgical Operations, Inc. Method and system for providing visual guidance to an operator for steering a tip of an endoscopic device toward one or more landmarks in a patient
US10004387B2 (en) * 2009-03-26 2018-06-26 Intuitive Surgical Operations, Inc. Method and system for assisting an operator in endoscopic navigation
US9642513B2 (en) 2009-06-18 2017-05-09 Endochoice Inc. Compact multi-viewing element endoscope system
US11864734B2 (en) 2009-06-18 2024-01-09 Endochoice, Inc. Multi-camera endoscope
US9706903B2 (en) 2009-06-18 2017-07-18 Endochoice, Inc. Multiple viewing elements endoscope system with modular imaging units
EP2865322B1 (en) 2009-06-18 2020-07-22 EndoChoice, Inc. Multi-camera endoscope
US8926502B2 (en) 2011-03-07 2015-01-06 Endochoice, Inc. Multi camera endoscope having a side service channel
US9872609B2 (en) 2009-06-18 2018-01-23 Endochoice Innovation Center Ltd. Multi-camera endoscope
US9901244B2 (en) 2009-06-18 2018-02-27 Endochoice, Inc. Circuit board assembly of a multiple viewing elements endoscope
US11547275B2 (en) 2009-06-18 2023-01-10 Endochoice, Inc. Compact multi-viewing element endoscope system
US9492063B2 (en) 2009-06-18 2016-11-15 Endochoice Innovation Center Ltd. Multi-viewing element endoscope
US9101268B2 (en) 2009-06-18 2015-08-11 Endochoice Innovation Center Ltd. Multi-camera endoscope
US9101287B2 (en) 2011-03-07 2015-08-11 Endochoice Innovation Center Ltd. Multi camera endoscope assembly having multiple working channels
US9402533B2 (en) 2011-03-07 2016-08-02 Endochoice Innovation Center Ltd. Endoscope circuit board assembly
US11278190B2 (en) 2009-06-18 2022-03-22 Endochoice, Inc. Multi-viewing element endoscope
US9713417B2 (en) 2009-06-18 2017-07-25 Endochoice, Inc. Image capture assembly for use in a multi-viewing elements endoscope
US10165929B2 (en) 2009-06-18 2019-01-01 Endochoice, Inc. Compact multi-viewing element endoscope system
JP2011069965A (ja) * 2009-09-25 2011-04-07 Japan Atomic Energy Agency 撮像装置、画像表示方法、及び画像表示プログラムが記録された記録媒体
JP5598033B2 (ja) * 2010-03-15 2014-10-01 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム
US10080486B2 (en) 2010-09-20 2018-09-25 Endochoice Innovation Center Ltd. Multi-camera endoscope having fluid channels
US9560953B2 (en) 2010-09-20 2017-02-07 Endochoice, Inc. Operational interface in a multi-viewing element endoscope
FR2965443B1 (fr) * 2010-09-29 2012-10-19 Tokendo Videoendoscope a vision stereo
JP5704878B2 (ja) * 2010-09-30 2015-04-22 オリンパス株式会社 光電気変換コネクタ、光伝送モジュール、撮像装置および内視鏡
CN103403605A (zh) 2010-10-28 2013-11-20 恩多巧爱思创新中心有限公司 用于多传感器内窥镜的光学系统
EP3522215A1 (en) 2010-12-09 2019-08-07 EndoChoice Innovation Center Ltd. Flexible electronic circuit board for a multi-camera endoscope
US11889986B2 (en) 2010-12-09 2024-02-06 Endochoice, Inc. Flexible electronic circuit board for a multi-camera endoscope
EP3747343A1 (en) 2010-12-09 2020-12-09 EndoChoice, Inc. Flexible electronic circuit board multi-camera endoscope
EP2672878B1 (en) 2011-02-07 2017-11-22 Endochoice Innovation Center Ltd. Multi-element cover for a multi-camera endoscope
US8900126B2 (en) 2011-03-23 2014-12-02 United Sciences, Llc Optical scanning device
US20120300034A1 (en) * 2011-05-23 2012-11-29 Qualcomm Incorporated Interactive user interface for stereoscopic effect adjustment
GB2496903B (en) 2011-11-28 2015-04-15 Rolls Royce Plc An apparatus and a method of inspecting a turbomachine
EP3659491A1 (en) 2011-12-13 2020-06-03 EndoChoice Innovation Center Ltd. Removable tip endoscope
EP2604172B1 (en) 2011-12-13 2015-08-12 EndoChoice Innovation Center Ltd. Rotatable connector for an endoscope
US8900125B2 (en) * 2012-03-12 2014-12-02 United Sciences, Llc Otoscanning with 3D modeling
US9560954B2 (en) 2012-07-24 2017-02-07 Endochoice, Inc. Connector for use with endoscope
US9986899B2 (en) 2013-03-28 2018-06-05 Endochoice, Inc. Manifold for a multiple viewing elements endoscope
US9993142B2 (en) 2013-03-28 2018-06-12 Endochoice, Inc. Fluid distribution device for a multiple viewing elements endoscope
US10499794B2 (en) 2013-05-09 2019-12-10 Endochoice, Inc. Operational interface in a multi-viewing element endoscope
US9257763B2 (en) 2013-07-02 2016-02-09 Gyrus Acmi, Inc. Hybrid interconnect
US9510739B2 (en) 2013-07-12 2016-12-06 Gyrus Acmi, Inc. Endoscope small imaging system
CN105451631B (zh) 2013-08-29 2018-05-18 基文影像公司 用于操纵线圈功率优化的系统和方法
WO2015122354A1 (ja) * 2014-02-14 2015-08-20 オリンパス株式会社 内視鏡システム
JP7179633B2 (ja) 2019-02-01 2022-11-29 株式会社エビデント 計測方法、計測装置、およびプログラム
JP2020134242A (ja) 2019-02-15 2020-08-31 オリンパス株式会社 計測方法、計測装置、およびプログラム
CN111161852B (zh) * 2019-12-30 2023-08-15 北京双翼麒电子有限公司 一种内窥镜图像处理方法、电子设备及内窥镜系统
US11786106B2 (en) 2020-05-26 2023-10-17 Canon U.S.A., Inc. Robotic endoscope probe having orientation reference markers
WO2022104648A1 (zh) * 2020-11-19 2022-05-27 深圳先进技术研究院 一种超分辨成像方法及系统

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS59182688A (ja) * 1983-03-31 1984-10-17 Toshiba Corp ステレオ視処理装置
JPS63276676A (ja) * 1986-09-26 1988-11-14 Olympus Optical Co Ltd 画像間の対応領域の検出方式
US4895431A (en) * 1986-11-13 1990-01-23 Olympus Optical Co., Ltd. Method of processing endoscopic images
JP2911894B2 (ja) * 1986-11-13 1999-06-23 オリンパス光学工業株式会社 内視鏡画像取込み方法および内視鏡装置
JPS6464625A (en) * 1987-09-07 1989-03-10 Toshiba Corp Endoscopic apparatus
US4903204A (en) * 1987-12-01 1990-02-20 Duke University Matrix inversion tomosynthesis improvements in longitudinal X-ray slice imaging
US4935810A (en) * 1988-10-26 1990-06-19 Olympus Optical Co., Ltd. Three-dimensional measuring apparatus
JPH02287311A (ja) * 1989-04-28 1990-11-27 Toshiba Corp 計測機構付内視鏡装置
US4980762A (en) * 1989-10-13 1990-12-25 Massachusetts Institute Of Technology Method and apparatus for image processing to obtain three dimensional motion and depth
US5153721A (en) * 1990-06-04 1992-10-06 Olympus Optical Co., Ltd. Method and apparatus for measuring an object by correlating displaced and simulated object images
DE69125146T2 (de) * 1990-11-19 1997-10-09 Olympus Optical Co Vorrichtung und verfahren zur verarbeitung von endoskopischen bildsignalen

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11295618A (ja) * 1998-04-10 1999-10-29 Olympus Optical Co Ltd 内視鏡画像処理装置
US6295368B1 (en) 1998-04-10 2001-09-25 Olympus Optical Co., Ltd. Endoscopic image processing system capable of estimating absolute shape of object entity
US7857752B2 (en) 2004-12-27 2010-12-28 Olympus Corporation Medical image processing apparatus and medical image processing method
JP2006187386A (ja) * 2005-01-04 2006-07-20 Olympus Corp 内視鏡装置、動体検出方法、及びそのプログラム
JP4624802B2 (ja) * 2005-01-04 2011-02-02 オリンパス株式会社 内視鏡装置、及びそのプログラム
JP2008093287A (ja) * 2006-10-13 2008-04-24 Olympus Medical Systems Corp 医療用画像処理装置及び医療用画像処理方法
JP2014071257A (ja) * 2012-09-28 2014-04-21 Fujifilm Corp 立体内視鏡装置及びその画像取込方法
WO2015098353A1 (ja) * 2013-12-26 2015-07-02 オリンパス株式会社 内視鏡による距離測定方法及び内視鏡システム
US10441146B2 (en) 2013-12-26 2019-10-15 Olympus Corporation Method of measuring distance by an endoscope, and endoscope system
WO2019198128A1 (ja) * 2018-04-09 2019-10-17 オリンパス株式会社 内視鏡業務支援システムおよび内視鏡業務支援方法
JPWO2019198128A1 (ja) * 2018-04-09 2021-05-20 オリンパス株式会社 内視鏡業務支援システムおよび内視鏡業務支援方法
US11910993B2 (en) 2018-04-09 2024-02-27 Olympus Corporation Endoscopic task supporting system and endoscopic task supporting method for extracting endoscopic images from a plurality of endoscopic images based on an amount of manipulation of a tip of an endoscope
CN112584735A (zh) * 2018-08-24 2021-03-30 Cmr外科有限公司 手术内窥镜视频流的图像校正
JP2022503556A (ja) * 2018-08-24 2022-01-12 シーエムアール・サージカル・リミテッド 外科用内視鏡ビデオストリームの画像補正
JP2020034743A (ja) * 2018-08-30 2020-03-05 オリンパス株式会社 画像取得装置および画像取得装置の作動方法

Also Published As

Publication number Publication date
JP3347385B2 (ja) 2002-11-20
US5432543A (en) 1995-07-11

Similar Documents

Publication Publication Date Title
JP3347385B2 (ja) 内視鏡画像処理装置
JP3078085B2 (ja) 画像処理装置および画像処理方法
US8675935B2 (en) Fast 3D-2D image registration method with application to continuously guided endoscopy
US10127629B2 (en) System and method of providing real-time dynamic imagery of a medical procedure site using multiple modalities
JP5715311B2 (ja) 内視鏡システム
US10068334B2 (en) Reconstruction of images from an in vivo multi-camera capsule
JP4054104B2 (ja) 内視鏡画像処理装置
US6914623B2 (en) Image processing measuring apparatus and measuring endoscope apparatus
US20060268257A1 (en) Endoscope apparatus, method of operating the endoscope apparatus, and program to be executed to implement the method
JP3438937B2 (ja) 画像処理装置
JPH0595900A (ja) 内視鏡画像処理装置
CN111035351B (zh) 用于胃肠道中的胶囊相机的行进距离测量的方法及装置
WO2015046152A1 (ja) 内視鏡システム
JPH0919441A (ja) 術式支援用画像表示装置
JP7179837B2 (ja) 内視鏡装置、内視鏡画像表示方法及び内視鏡装置の作動方法
JP4487077B2 (ja) 単一の撮像装置で連続取得したビデオ映像による立体表示方法
JP2002238839A (ja) 内視鏡システム
US20240062471A1 (en) Image processing apparatus, endoscope apparatus, and image processing method
US20230032791A1 (en) Measuring method and a measuring device
JP6906342B2 (ja) 内視鏡システム
KR20240065115A (ko) 다중 이미지 재구성 및 정합 방법
CN115279250A (zh) 内窥镜系统
JP2002027500A (ja) 3次元画像入力装置
CN114862935A (zh) 一种用于神经外科内窥镜中的深度估计方法及系统
JPH1023469A (ja) 三次元情報処理装置及び三次元情報処理方法

Legal Events

Date Code Title Description
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20020826

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080906

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080906

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090906

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090906

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100906

Year of fee payment: 8

LAPS Cancellation because of no payment of annual fees