JPH05108819A - 画像処理装置 - Google Patents

画像処理装置

Info

Publication number
JPH05108819A
JPH05108819A JP4032311A JP3231192A JPH05108819A JP H05108819 A JPH05108819 A JP H05108819A JP 4032311 A JP4032311 A JP 4032311A JP 3231192 A JP3231192 A JP 3231192A JP H05108819 A JPH05108819 A JP H05108819A
Authority
JP
Japan
Prior art keywords
image
processing
images
halation
points
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP4032311A
Other languages
English (en)
Other versions
JP3078085B2 (ja
Inventor
Tetsuo Nonami
徹緒 野波
Nagaaki Ooyama
永昭 大山
Masahiro Yamaguchi
雅浩 山口
Hiroichi Nishimura
博一 西村
Masakazu Nakamura
雅一 中村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Optical Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Optical Co Ltd filed Critical Olympus Optical Co Ltd
Priority to JP04032311A priority Critical patent/JP3078085B2/ja
Publication of JPH05108819A publication Critical patent/JPH05108819A/ja
Priority to US08/721,397 priority patent/US5764809A/en
Application granted granted Critical
Publication of JP3078085B2 publication Critical patent/JP3078085B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/80Geometric correction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/24Aligning, centring, orientation detection or correction of the image
    • G06V10/245Aligning, centring, orientation detection or correction of the image by locating a pattern; Special marks for positioning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/16Image acquisition using multiple overlapping images; Image stitching
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/555Constructional details for picking-up images in sites, inaccessible due to their dimensions or hazardous conditions, e.g. endoscopes or borescopes

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Signal Processing (AREA)
  • Endoscopes (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Image Analysis (AREA)
  • Instruments For Viewing The Inside Of Hollow Bodies (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)
  • Image Processing (AREA)

Abstract

(57)【要約】 【目的】 輝点等、異常データ領域等のある画像から異
常データ領域を除去した画像あるいは高解像度の画像等
を得る画像処理装置を提供すること。 【構成】 メモリ36a,36b,36cを介して取込
んだ複数の画像間における対応点をCPU121を用い
て検出して、その結果に基づいて画像間の整合を行い、
少なくとも1つの画像部分の一部を他の画像の一部等を
用いて埋め合わせる等の画像合成により、輝点等の異常
データを除去した画像をI/O105を経てモニタに表
示するようにしている。

Description

【発明の詳細な説明】
【0001】
【産業上の利用分野】
【0002】本発明は、同一対象に関する複数の画像か
ら、画像間の相関性を利用する事により、原画像の欠陥
等を除去した新たな画像を構成する画像処理装置に関す
る。
【従来技術】近年、半導体デバイス及び画像処理技術の
発達により膨大な量の画像データを同時に、あるいは短
時間で処理する事が実用的な水準で可能になりつつあ
る。
【0003】特に、画像間の相関を利用する技術に関し
ては、発達著しいものがあり、例えば、デジタル伝送等
に関する動画像フレーム間の動きベクトルを推定する事
による圧縮符号化、復号化は、現在最も多くの検討が行
われている分野の一つである。あるいは、例えば特開平
1−109970号にはTVカメラにおける画像振れ防
止する従来例が開示されている。
【0004】一般の映像技術分野に於けるニーズとし
て、広い視野をより鮮明に、欠陥部分なく画像化する事
が求められる。通常の環境下においては、一般的な撮像
手法によってもこの事は実用上十分な程度に実現する事
ができるが、一部の分野では原理的にこれらの要望を満
たす事ができない。
【0005】例えば、近年、細長の挿入部を体腔内に挿
入する事によって、切開を必要とする事無く、体腔内の
患部等を観察したり、必要に応じ処置具を用いて治療処
置のできる内視鏡が広く用いられるようになった。
【0006】上記内視鏡には、イメージガイドを像伝送
手段に用いた光学式の内視鏡の他に、最近CCD等の固
体撮像手段を用いた電子式の内視鏡が実用化され、より
明瞭な映像を得る事が可能となっている。
【0007】しかしながら、例えば、医療用内視鏡等の
装置においては、粘液に覆われ、光沢を持つ粘膜面を観
察対象とする為、照診光が正反射して撮像面に入射し、
輝点(ハレーション)を生じて観察を妨げる現象は避け
得ない。
【0008】また、医療用内視鏡における通常の光学系
は、その視野の超広角故、強度の歪曲収差をともなって
いる。この為、対象を詳細に観察しようとする場合、な
るべく歪曲収差の小さい視野の中央付近で対象を観察す
る必要がある。この場合、一枚の画像により同時に観察
可能な領域はあまり広くない。この傾向は、近接像及び
拡大内視鏡においてはますすます顕著なものとなり、対
象全体を見渡す事は困難になってくる。
【0009】
【発明が解決しようとする問題点】正反射による輝点に
対しては、偏光フィルター等の組合せにより、観察に対
する妨げを軽減しようとする試みも為されているが、光
量不足、あるいは色彩再現性が犠牲になる等の問題点が
あり実用には至っていない。
【0010】広視野化に対しては、特開平1−2519
62に複数の画像からのパノラマ画像作成手法が開示さ
れているが、視点の移動、距離の変化等が考慮されてお
らず適用範囲は極めて限定されるという問題がある。
【0011】本発明は、上述の点に鑑みてなされたもの
で、同一対象を撮像する事により得られた複数の画像か
ら、異常データ領域等を除去したり、視野拡大、解像力
向上のなされた画像を合成可能な画像処理装置を提供す
る事を目的とする。
【0012】
【問題点を解決する為の手段及び作用】複数の画像を入
力する画像入力手段と、前記複数の画像間における対応
点を検出する対応点検出手段と、前記対応点検出手段の
出力結果に基づき、少なくとも2つの画像間の整合を行
う画像整合手段と、前記画像整合手段により、少なくと
も1つの画像部分の少なくとも一部を他の画像の少なく
とも一部の画像情報を用いて1枚の画像を合成する画像
合成手段とを設けることにより、輝点等の異常データ領
域を他の画像における対応する異常とならない領域で置
換する等の画像合成を行うことにより望ましい画像を得
られるようにしている。
【0013】
【実施例】図1ないし図17は本発明の第1実施例に係
り、図1は内視鏡装置の構成を示すブロック図、図2は
画像処理装置の構成を示すブロック図、図3は内視鏡装
置の全体を示す側面図、図4は画像処理装置に関する入
出力装置の構成を示すブロック図、図5は第1実施例に
おける処理の流れを説明するためフローチャート、図6
は歪曲収差の補正の様子を示す説明図、図7はハレーシ
ョン領域がある画像を示す説明図、図8は図7のハレー
ション領域を含む補正領域が選出された様子を示す説明
図、図9は画像Gn 上で対応点が検出された様子を示す
説明図、図10は画像G0 上での対応検出点と画像Gn
上での対応点とを示す説明図、図11は対応検出点内の
点Pの位置決定のための説明図、図12は画像G0 上の
ハレーション領域の一部を埋め合わせた結果を示す説明
図、図13はカラーマッチング手法を適用した画像処理
装置の処理内容を示すフローチャート図、図14は近接
して複数存在するハレーション領域の対応検出点及びブ
ロックマッチング領域の決定を説明する説明図、図15
は複数の画像との位置関係とか視野拡大した画像等を示
す図、図16は画像処理装置の視野拡大の処理内容を示
すフローチャート図、図17はカラーマッチング手法を
適用した画像処理装置の視野拡大の処理内容を示すフロ
ーチャート図である。
【0014】本実施例に係る内視鏡装置は、図3に示す
ように、電子内視鏡1を備えている。この電子内視鏡1
は、細長で例えば可撓性の挿入部2を有し、この挿入部
2の後端に太径の操作部3が連設されている。前記操作
部3の後端部からは側方に可撓性のユニバーサルコード
4が延設され、このユニバーサルコード4の先端部にコ
ネクタ5が設けられている。前記電子内視鏡1は、前記
コネクタ5を介して、光源装置及び信号処理回路が内蔵
されたビデオプロセッサ6に接続されるようになってい
る。さらに、前記ビデオプロセッサ6には、モニタ7が
接続されるようになっている。
【0015】前記挿入部2の先端側には、硬性の先端部
9及びこの先端部9に隣接する後方側に湾曲可能な湾曲
部10が順次設けられている。また、前記操作部3に設
けられた湾曲操作ノブ11を回動操作することによっ
て、前記湾曲部10を左右方向あるいは上下方向に湾曲
できるようになっている。また、前記操作部3には、前
記挿入部2内に設けられた処置具チャンネルに連通する
挿入口12が設けられている。
【0016】図1に示すように、電子内視鏡1の挿入部
2内には、照明光を伝達するライトガイド14が挿通さ
れている。このライトガイド14の先端面は、挿入部2
の先端部9に配置され、この先端部9から照明光を出射
できるようになっている。また、前記ライトガイド14
の入射端側は、ユニバーサルコード4内に挿通されてコ
ネクタ5に接続されている。また、前記先端部9には、
対物レンズ系15が設けられ、この対物レンズ系15の
結像位置に、固体撮像素子16が配設されている。この
固体撮像素子16は、可視領域を含め紫外領域から赤外
領域に至る広い波長域で感度を有している。前記固体撮
像素子16には、信号線26,27が接続され、これら
信号線26,27は、前記挿入部2及びユニバーサルコ
ード4内に挿通されて前記コネクタ5に接続されてい
る。
【0017】一方、ビデオプロセッサ6内には、紫外光
から赤外光に至る広帯域の光を発光するランプ21が設
けられている。このランプ21としては、一般的なキセ
ノンランプやストロボランプ等を用いることができる。
前記キセノンランプやストロボランプは、可視光のみな
らず紫外光及び赤外光を大量に発光する。このランプ2
1は、電源22によって電力が供給されるようになって
いる。前記ランプ21の前方には、モータ23によって
回転駆動される回転フィルタ50が配設されている。こ
の回転フィルタ50には、通常観察用の赤(R),緑
(G),青(B)の各波長領域の光を透過するフィルタ
が、周方向に沿って配列されている。
【0018】また、前記モータ23は、モータドライバ
25によって回転が制御されて駆動されるようになって
いる。
【0019】前記回転フィルタ50を透過し、R,G,
Bの各波長領域の光に時系列的に分離された光は、前記
ライトガイド14の入射端に入射され、このライトガイ
ド14を介して先端部9に導かれ、この先端部9から出
射されて、観察部位を照明するようになっている。
【0020】この照明光による観察部位からの戻り光
は、対物レンズ系15によって、固体撮像素子16上に
結像され、光電変換されるようになっている。この固体
撮像素子16には、前記信号線26を介して、前記ビデ
オプロセッサ6内のドライブ回路31からの駆動パルス
が印加され、この駆動パルスによって読み出し、転送が
行われるようになっている。この固体撮像素子16から
読み出された映像信号は、前記信号線27を介して、前
記ビデオプロセッサ6内または電子内視鏡1内に設けら
れたプリアンプ32に入力されるようになっている。
【0021】このプリアンプ32で増幅された映像信号
は、プロセス回路33に入力され、γ補正及びホワイト
バランス等の信号処理を施され、A/Dコンバータ34
によって、デジタル信号に変換されるようになってい
る。このデジタルの映像信号は、セレクト回路35によ
って、例えば赤(R),緑(G),青(B)各色に対応
するメモリ(1)36a,メモリ(2)36b,メモリ
(3)36cに選択的に記憶されるようになっている。
前記メモリ(1)36a,メモリ(2)36b,メモリ
(3)36cは、同時に読み出され、D/Aコンバータ
37によって、アナログ信号に変換され、入出力インタ
ーフェース38を介して、R,G,B信号として、カラ
ーモニタ7に入力され、このカラーモニタ7によって、
観察部位がカラー表示されるようになっている。
【0022】また、前記ビデオプロセッサ6内には、シ
ステム全体のタイミングを作るタイミングジェネレータ
42が設けられ、このタイミングジェネレータ42によ
って、モータドライバ25、ドライブ回路31、セレク
ト回路35等の各回路間の同期が取られている。
【0023】本実施例では、前記メモリ(1〜3)36
a〜36cの出力端は、画像処理装置104に接続され
ている。また、前記画像処理装置104には、入出力イ
ンターフェース105を介して、モニタ106が接続さ
れ、このモニタ106に、前記画像処理装置104によ
る演算処理結果が表示されるようになっている。前記画
像処理装置104は、図2に示すような構成になってい
る。
【0024】すなわち、画像処理装置104は、図2
(a)に示すように、CPU121、情報入力装置12
2、RAMからなる主記憶装置123、画像入力インタ
ーフェース125及び表示インターフェース128、R
OM130を備え、これらは、バスによって互いに接続
されている。
【0025】前記CPU121は、図2(b)に示すよ
うに、前記ROM130に記憶されたプログラムにより
動作する画像処理手段を備え、この画像処理手段は、例
えば、複数の画像間における対応点を検出する対応点検
出手段141と、前記対応点検出手段の出力結果に基づ
き、少なくとも2つの画像間の整合を行う画像整合手段
142と、前記画像整合手段により、少なくとも1つの
画像部分の少なくとも一部を他の画像の少なくとも一部
の画像情報を用いて1枚の画像を合成する画像合成手段
143等からなる。
【0026】前記情報入力装置122は、キーボード等
であり、電子内視鏡1の種別等のデータを入力できるよ
うになっている。前記画像入力インターフェース125
は、メモリ(1)36a,メモリ(2)36b,メモリ
(3)36cに接続され、これらからの画像データの受
信を行うようになっている。また、前記表示インターフ
ェース128は、入出力インターフェース105に接続
され、モニタ106に入力する画像データを送るように
なっている。
【0027】本実施例では、電子内視鏡1で得た対象部
位の画像に対し、画像処理装置104で処理を行い、モ
ニタ106に処理結果を出力する。
【0028】また、画像処理装置104に対する画像入
力は、内視鏡装置のみに限らず、例えばアナログあるい
はデジタル光磁気ディスク、VTR、光ディスク、動画
メモリ等の入力装置により行うことも可能である。図4
は前述の入力装置を想定した場合のブロック図である。
内視鏡装置131は前述の内視鏡装置である。画像記録
装置132はVTR、あるいはアナログ光磁気ディスク
等のアナログ画像記録装置であり、その出力はA/D変
換器133によりA/D変換された後デジタル画像とし
て画像処理装置104に入力される。また、画像処理装
置104による処理結果画像をD/A変換器136を介
することにより画像記録装置132に記録することが可
能であってもよい。
【0029】動画像ファイル装置134は、半導体メモ
リ、ハードディスク、デジタル光磁気ディスク等であ
り、その出力はデジタル画像として画像処理装置104
に入力される。静止画像ファイル装置135は動画像フ
ァイル装置134と同様の装置であり、デジタル静止画
像を画像処理装置104に入力する。また、画像処理装
置104による処理結果画像を動画像ファイル装置13
4及び静止画像ファイル装置135に記録することが可
能であってもよい。
【0030】次に、前記画像処理装置104の処理につ
いて説明する。この実施例では、輝点領域(ハレーショ
ンと同義)除去処理を行うものである。この除去処理の
概要は次のようになる。正反射による輝点は各画像固有
の局所的な異常領域であると考えることができる。何故
ならば、観察対象と照診光出射位置、観察位置の相対的
位置関係、及び観察対象面の角度により、この輝点の発
生する範囲、位置は変化する為である。すなわち、内視
鏡先端及び対象の移動、運動により、輝点の位置、面積
等は変化し、生体本来の観察画像は、ある画像において
は輝点に覆われているが、輝点に覆われていない画像も
撮影することができる。このことから、同一対象に関す
る複数の画像の内、少なくとも1枚が輝点に覆われてい
ないのであれば、画像間の対応点を検出することにより
位置合わせ、変形の整合を行い、正常データのみを採用
した画像を合成することができる。また、各画像のデー
タの位置合わせ、及び変形整合を行い、貼り合わせるこ
とで広視野画像を合成することが可能になる。
【0031】第1実施例ではハレーション部分を、他の
画像におけるこのハレーション部に対応する部分(勿論
ハレーションを起こしていない部分)で埋め合わせる画
像合成処理を行う。例えば移動する内視鏡により得られ
る連続的な時系列画像群X0〜Xn (n=1,2,3,
…)に対し、ハレーション部の位置が各画像毎に変化す
る性質を利用することにより、画像X0 においてハレー
ションにより損失した部位を、画像X1 〜Xn からの同
部位に該当する部位のブロックマッチングなる手法を利
用したモザイク的埋め合わせによる復元に基づくもので
ある。また、本処理手法を応用することにより画像X0
〜Xn の連結を行うことから、新たに視野(対象物が1
枚の画像において撮像される範囲)が拡大された静止画
像を得ることが可能となる。
【0032】画像の埋め合わせあるいは連結処理を行う
には、例えばRGB画像におけるG画像に対して位置合
わせ処理を施した後、残るR,B画像を同様の位置に対
応させればよい。また、R画像、G画像、B画像それぞ
れに対して個別に対応点を求め、位置合わせあるいは連
結処理を行うこともできる。適用するブロックマッチン
グ手法は、例えば公知の相互相関によるマッチング手法
(参考文献:ディジタル画像処理工学 日刊工業新聞社
手塚慶一・北橋忠宏・小川秀夫著p.107 〜p.109 )
を用いればよい。
【0033】さらに、ブロックマッチング処理は、本件
の同一出願人による文献1(USP4,962,54
0)に開示されているカラーマッチング手法を適用して
もよい。
【0034】図5は本実施例における具体的な処理の流
れを示すフローチャートである。まず、図5に従いG画
像に基づく位置合わせ処理の内容を説明する。
【0035】ステップS1において、画像Xn (n=
0,1,2,…)におけるG画像Gnに対してn=0と
し、ステップS2でこのn=0の画像G0 を取込む。そ
して、この画像G0 に対し、ステップS3において例え
ば3×3の大きさのマスクを持つメディアンフィルタを
用いたノイズ除去を施す。
【0036】原画像には広角レンズの使用あるいは内視
鏡先端部の傾き等により、歪が存在するため、ステップ
S4において原画像に対する歪曲収差補正処理を適用
し、画像の歪を補正する。内視鏡を用いて例えば図6
(a)に示す正方のます目を撮像した場合、得られる画像
は図6(b)に示されるようなものになる。この歪み画像
が正方ます目画像になるように、各画素における補正値
をあらかじめ決定しておき、実際の撮像画像に対しての
補正を行うことにより歪曲収差補正処理を実現すること
が可能となる。より具体的な処理手法は、文献2(US
P4,895,431)において開示されている。
【0037】歪曲収差処理後の画像に対しては、ステッ
プS5においてハレーション領域抽出処理を適用する。
具体的な処理内容は、例えば以下のようなものである。
2値化しきい値を注目画素近傍の平均値からのかい離量
により決定する動的しきい値決定法による2値化処理に
より、まず画像内のハレーションと認識され得る領域を
決定し、さらに抽出結果を膨張させる処理を施し、ハレ
ーションによる影響を受けていると考えられる上記領域
周辺部を含め、この結果をハレーション領域として抽出
する。
【0038】図7は、画像G0 において抽出されたハレ
ーション領域A0 の例である。斜線部に示されたハレー
ション部H0 及びその影響を受けていると思われる部位
を加えた、破線により示されるハレーション領域A0 を
抽出する。
【0039】ハレーション領域A0 の抽出は、画像G0
においてはハレーション除去対象領域決定処理であり、
n≧1である画像Gn においては後述のステップS10
での画像合成による領域埋め合わせ処理に適用し得ない
領域の抽出を行う意味を持つ。 上記ステップS5によ
るハレーション領域A0 の抽出が終了すると、ステップ
S6によりn=0か否かの判断が行われる。この場合に
は、n=0であるので、ステップS7により、nが1つ
インクリメントされてn=1にされた後、再びステップ
S2に戻り、n=1の画像G1の取込み等が行われた
後、ステップS3〜5及びステップS6の判断の後、ス
テップS8に移る。
【0040】ステップS8では、画像G0 に対し、抽出
されたハレーション領域A0 を含む例えば四辺形(以
降、この四辺形の内部領域を補正領域HDと称する)を
得るための頂点となる4点A,B,C,Dを対応検出点
として選出する。また、各点に関し、例えば対応検出点
A,B,C,Dを中心とする32×32の大きさのブロ
ックマッチング領域Va ,Vb ,Vc ,Vd を決定す
る。ハレーション除去は、画像X0 以降に連続する画像
からの前記4点のそれぞれに関するブロックマッチング
を利用した埋め合わせ処理に基づくものである。
【0041】このため、対応検出点A,B,C,Dはブ
ロックマッチングに用いる領域が画像Gn におけるハレ
ーション抽出領域と重ならないような点のうちで、ブロ
ックマッチングに用いる領域の模様が十分明瞭であるも
の(例えば、ブロック内の分散数が大きい)を選択す
る。図8は図7に示した例に対し決定した対応検出点
A,B,C,D及びブロックマッチング領域Va ,V
b,Vc ,Vd の例である。
【0042】続いて、ステップS9において画像G0 と
の対応点検出処理(整合点検出処理)を適用する。これ
は、ステップS8において決定された対応検出点A,
B,C,Dに対応する画像Gn 上の点(以降、対応点と
称する)を導出するものである。具体的には、ステップ
S8において決定された画像G0 の各対応検出点I(I
=A,B,C,D)におけるブロックマッチング領域V
i に対応する画像Gn 上の領域をブロックマッチングを
行うことにより導出した、対応検出点Iに該当する画像
Gn 上の点を求める。
【0043】尚、画像Gn に対しては、ステップS10
において、各対応検出点に関するブロックマッチングの
正否を判定する。この処理は、例えばブロックマッチン
グ実行時に、相関面上の最大のピーク値とその次に値が
大であるピーク値とを比較し、その差がある一定のしき
い値M未満である場合に検出不良とみなすことにより実
現される。これはマッチング対象となる2つの領域の相
関が高ければ、相関面上の最大のピーク値は大きくなり
その他のピーク値は微小なものとなる性質に基づくもの
ものである。検出不良と判断された場合には、再びステ
ップS8における処理を行い、画像G0 における対応検
出点及びブロックマッチング領域決定処理を適用後、ス
テップS9での処理を再実行する。
【0044】各対応検出点に関する対応点導出後、ステ
ップS11において、画像合成処理を適用する。図9は
図8に示した画像G0 における対応検出点A〜Dに対し
導出された、画像Gn における対応点A′〜D′の例で
ある。これら対応点A′〜D′の内側に画像G0 におけ
るハレーション領域A0 に対応する領域An 及びハレー
ション部H0 に対応する部分Hn があることになる。こ
こでは、この例に基づいて画像合成処理の内容を示す。
【0045】画像G0 におけるハレーション領域A0 内
のハレーション部H0 の各点に対応する、画像Gn にお
ける対応点A′〜D′により決定される四辺形A′B′
C′D′内の点を、四辺形ABCDからA′B′C′
D′への変形と同等の写像により位置決定する。写像に
よる位置決定の方法としては、例えば以下のようなもの
が考えられる。
【0046】まず、四辺形ABCD及びA′B′C′
D′をそれぞれ図10(a)及び(b)に示すように三
角形BCAと三角形CAD及び三角形B′C′DとC′
A′D′より構成されるものと考える。例えば図11
(a)に示すように、三角形LMN内の点Pは、辺LM
と、点N及び点Pを通る線分と辺LMとの交点Hから、
LH:HM及びNP:PHにより決定さされる。これよ
り、三角形LMNに対応する三角形L′M′N′におい
て点Pに対応する点P′は、LH:HM=L′H′:
H′M′及びNH:NP=N′H′:N′P′を満たす
ように定められる。
【0047】この性質を利用し、図10(a)及び
(b)における2組の対応する三角形の内部領域内の点
の対応付けによる位置決定を行う。また、点Pが三角形
LMNの外部に存在する場合においても、同様にして対
応するL′M′N′への位置決定を行うことが可能であ
るため、後述する視野拡大処理時に適用することができ
る。
【0048】また、四辺形ABCD及びA’B’C’
D’に関して、図11(b)に示すように、四辺形KL
MNの内部の点Pに対応する四辺形K’L’M’N’内
部の点P’を、 KS:SL=K’S’:S’L’ LT:TM=L’T’:T’M’ MU:UN=M’U’:U’N’ NV:VK=N’V’:V’K’ を満たすように定めることも可能である。
【0049】これらの位置合わせ処理により求められた
対応点P’には、点Pの値を代入する。直接対応する点
Pが存在しない場合には、点Pの近傍の点を用いて、例
えば公知の線形補間法を用いて計算した値を代入すれば
よい。尚、ここではG画像について説明しているが、こ
れらの位置合わせ処理はR,B画像等にももちろん適用
できるものである。
【0050】位置決定処理後は、画像G0 におけるハレ
ーション領域内のハレーション画素である点Q0 に対応
する画像Gn 上の点Qn が、画像Gn におけるハレーシ
ョン部Hn に含まれない場合、すなわち画像G0 におい
ては損失されているが、画像Gn においては正しく撮像
されている場合には、画像X0 及び画像Xn におけるR
GB各画像上の点Q0 に対し点Qn の濃度値を代入する
処理を、ハレーション領域A0 におけるすべての点に関
して行う。図12は、画像G0 に対する画像Gn による
埋め合わせ処理の結果の例である。ハレーション領域A
0 における斜線部に示される領域からハレーションが一
部除去される。
【0051】また、画像R0と画像Rn及び画像B0と
画像Bnにおいても、画像G0と画像Gnにおいて対応
づけられた点に相当する点の埋め合わせを行えばよい。
【0052】そして、ステップS12において、画像G
0 におけるハレーション領域A0 の除去が終了できたか
否かを判断し、終了していない場合にはnを1つインク
リメントした後、ステップS2に戻り、新たな画像Gn
に対して同様の処理を行う。
【0053】つまり上述したステップS2よりステップ
S11までの一連の処理を、画像G0 すなわち画像X0
におけるハレーション領域A0 が完全に消滅するまで繰
り返し行うことにより、画像合成により、ハレーション
除去画像が得られ、この処理を終了することができる。
【0054】また、R,G及びB画像それぞれに対し
て、図5に示したフローチャートの一連の処理を適用す
ることにより、同様な効果を得ることも可能である。
【0055】さらに、図13はRGB画像に対する対応
点検出処理手法として、文献1に詳述されているカラー
マッチング手法を用いた場合の処理の流れである。基本
的な処理の流れと内容は、図5に示したものと同一であ
るが、本処理ではカラー画像X0〜Xnに対し直接ブロ
ックマッチング処理を行うことができるものである。す
なわち、ステップS21〜S28までは図5のステップ
S1〜S8における各処理を、画像Xnに対して適用す
ることになる。ステップS29では、カラー画像X0及
びXnとの対応点を、前出のカラーマッチング手法を用
いて検出する。この処理ににより、RGB各画像におけ
る対応点を同時に決定することが可能となる。続いて、
図5のステップS10〜S12にそれぞれ対応するステ
ップS30b〜S32を経て、ハレーション除去画像を
得ることができる。
【0056】尚、以上に示したハレーション除去処理方
法は、画像X0において、ハレーション領域が例えば図
14(a)に示すように、比較的近接して複数存在する
場合には、ステップS8あるいはステップS28におけ
る対応検出点及びブロックマッチング領域の決定を以下
のように行う。
【0057】まず、図14(b)に示すように、複数の
ハレーション領域を包括する、例えば四辺形の頂点とな
る点A,B,C,Dを選出する。さらに、四辺形ABC
Dの各辺上に点E,F,G,Hを定め、EGとFHとの
交点をOとする。続いて四辺形AEOH,四辺形EBF
O,四辺形FCGO,四辺形GDHOのそれぞれの頂点
を対応検出点とし、前述のブロックマッチング領域V
a,Vb,Vc,Vd,Ve,Vf,Vg,Vh,Vo
を決定後、ステップS9あるいはステップS29におけ
る対応点検出処理を、画像GnあるいはXnに対し、点
A〜H及び点Oそれぞれについて適用する。
【0058】画像GnあるいはXnにおいて求められた
対応点A’〜H’及び点O’において、四辺形A’E’
O’H’,四辺形E’B’F’O’,四辺形F’C’
G’O’,四辺形G’D’H’O’それぞれに対し前述
の写像による位置決定法を適用し、ハレーション領域の
埋め込みを行えばよい。
【0059】また、本実施例における処理適用後のハレ
ーション除去画像において、時系列画像X0〜Xnの連
結により、視野の拡大を行うことが可能となる。図15
(a)は画像X0〜Xnとの撮像対象に関する位置関係
の例を示すものである。これらの画像の連結処理によ
り、図15(b)に示すような拡大された視野を持つ画
像を得ることができる。図16はこの処理の流れを示す
フローチャートである。
【0060】図16に示す処理の流れは、図5に示した
処理を基本としている。ステップS42において取り込
まれた画像Gnに対し、図5のステップS8〜S10に
おける各処理にそれぞれ対応するステップS45〜S4
7の、画像G0と画像Gnとの対応点検出処理を行う。
対応点検出に成功後、ステップS48において、画像G
0に対し画像Gnを連結する。
【0061】連結処理手法としては、図5のステップS
11において適用した処理を応用すればよい。例えば、
画像G0に対し3個の対応検出点E〜G(図示せず)及
びそのブロックマッチング領域を決定後、図5のステッ
プS9における処理と同様にして画像Gnにおける対応
点E’〜G’(図示せず)を導出する。次いで、三角形
EFG及び三角形E’F’G’に関して、図5のステッ
プS11において行った位置決定処理を適用する。
【0062】ステップS48での画像連結処理終了後、
ステップS49において連結処理終了の判定を行う。処
理継続するのであれば、連結された画像を新たな画像G
0とみなしてステップS42〜S49の処理を繰り返せ
ばよい。
【0063】また、画像R0と画像Rn及び画像B0と
画像Bnにおいても、画像G0と画像Gnにおいて対応
づけられた点に相当する点の連結処理を行えばよい。
【0064】また、R,G及びB画像それぞれに対し
て、図16に示したフローチャートの一連の処理を適用
することにより、同様な効果を得ることも可能である。
【0065】さらに、図17はRGB画像に対する対応
点検出処理手法として、文献1に詳述されているカラー
マッチング手法を用いた場合の処理の流れである。基本
的な処理の流れと内容は、図16に示したものと同一で
あるが、本処理ではカラー画像X0〜Xnに対し直接ブ
ロックマッチング処理を行うことができるものである。
すなわち、ステップS51〜S55までは図16のステ
ップS41〜S45における各処理を、画像Xnに対し
て適用することになる。ステップS56では、カラー画
像X0及びXnとの対応点を、前出のカラーマッチング
手法を用いて検出する。この処理により、RGB各画像
における対応点を同時に決定することが可能となる。続
いて、図16のステップS47〜S49にそれぞれ対応
するステップS57〜S59を経て、視野拡大画像を得
ることができる。
【0066】本実施例における処理は、例えば情報入力
装置122より入力された動作命令信号を受領後、数枚
の画像を経て処理結果画像をモニタ106に表示すれば
よい。
【0067】以上に示した処理により、ハレーションの
除去された画像が得られるという効果があり、診断する
場合に有効である。又、この実施例によれば、視野の拡
大された画像を得ることが可能となる。
【0068】尚、本実施例においては連続する画像群に
おいて処理を適用したが、処理に使用する画像は例えば
1枚おきに選出する等、適宜選択可能であっても何等問
題は無い。また、本実施例においては、画像G0 に対す
る画像Gn (n=1,2,3,…)からの画像合成によ
りハレーション除去画像及び視野拡大画像を得ていた
が、処理対象とする画像は画像G0 に関して固定ではな
く、0≦m≦nである画像Gm に対し、その前後に撮像
された画像のいずれからあるいは双方から前述の埋め合
わせ処理を適用しても構わないものである。
【0069】次に本発明の第2実施例を説明する。
【0070】図18ないし図25は第2実施例に係わ
り、図18はステレオ内視鏡装置の全体を示す側面図、
図19はステレオ内視鏡装置の構成を示すブロック図、
図20は画像処理装置の構成を示すブロック図、図21
は画像処理装置の処理内容を示すフローチャート図、図
22はカラーマッチング手法を適用した画像処理装置の
処理内容を示すフローチャート図、図23は図21の処
理による画像の合成を示す説明図、図24は画像処理装
置の視野拡大の処理内容を示すフローチャート図、図2
5はカラーマッチング手法を適用した画像処理装置の視
野拡大の処理内容を示すフローチャート図である。
【0071】第2実施例は、第1実施例におけるハレー
ション除去及び視野拡大処理を、移動する内視鏡により
得られる時系列画像群を用いる処理のみでなく、例えば
ステレオ内視鏡のように、複数の光学系、すなわち光学
系R及び光学系Lを用いて同時に撮像することにより得
られる複数の画像に対して適用したものである。
【0072】本実施例に係る内視鏡装置は、図18に示
すように、電子内視鏡1aを備えている。この電子内視
鏡1aは、細長で例えば可撓性の挿入部2aを有し、こ
の挿入部2aの後端に太径の操作部3aが連設されてい
る。前記操作部3aの後端部からは側方に可撓性のユニ
バーサルコード4aが延設され、このユニバーサルコー
ド4aの先端部にコネクタ5aが設けられている。前記
電子内視鏡1aは、前記コネクタ5aを介して、光源装
置及び信号処理回路が内蔵されたビデオプロセッサ6a
に接続されるようになっている。さらに、前記ビデオプ
ロセッサ6には、モニタ7R,7Lが接続されるように
なっている。
【0073】前記挿入部2aの先端側には、硬性の先端
部9a及びこの先端部9aに隣接する後方側に湾曲可能
な湾曲部10aが順次設けられている。また、前記操作
部3aに設けられた湾曲操作ノブ11aを回動操作する
ことによって、前記湾曲部10aを左右方向あるいは上
下方向に湾曲できるようになっている。また、前記操作
部3aには、前記挿入部2a内に設けられた処置具チャ
ンネルに連通する挿入口12aが設けられている。
【0074】図19に示すように、電子内視鏡1aの挿
入部2a内には、照明光を伝達するライトガイド14a
が挿通されている。このライトガイド14aの先端面
は、挿入部2aの先端部9aに配置され、この先端部9
aから照明光を出射できるようになっている。また、前
記ライトガイド14aの入射端側は、ユニバーサルコー
ド4a内に挿通されてコネクタ5aに接続されている。
また、前記先端部9aには、対物レンズ系15R,15
Lが設けられ、この対物レンズ系15R,15Lのそれ
ぞれの結像位置に、固体撮像素子2組の16R,16L
が配設されている。この固体撮像素子16R,16L
は、可視領域を含め紫外領域から赤外領域に至る広い波
長域で感度を有している。前記固体撮像素子16R,1
6Lには、信号線26,27R及び27Lが接続され、
これら信号線26,27R及び27Lは、前記挿入部2
a及びユニバーサルコード4a内に挿通されて前記コネ
クタ5aに接続されている。
【0075】一方、ビデオプロセッサ6a内には、紫外
光から赤外光に至る広帯域の光を発光するランプ21a
が設けられている。このランプ21aとしては、一般的
なキセノンランプやストロボランプ等を用いることがで
きる。前記キセノンランプやストロボランプは、可視光
のみならず紫外光及び赤外光を大量に発光する。このラ
ンプ21aは、電源22aによって電力が供給されるよ
うになっている。前記ランプ21aの前方には、モータ
23aによって回転駆動される回転フィルタ50aが配
設されている。この回転フィルタ50aには、通常観察
用の赤(R),緑(G),青(B)の各波長領域の光を
透過するフィルタが、周方向に沿って配列されている。
【0076】また、前記モータ23aは、モータドライ
バ25aによって回転が制御されて駆動されるようにな
っている。
【0077】前記回転フィルタ50aを透過し、R,
G,Bの各波長領域の光に時系列的に分離された光は、
前記ライトガイド14aの入射端に入射され、このライ
トガイド14aを介して先端部9aに導かれ、この先端
部9aから出射されて、観察部位を照明するようになっ
ている。
【0078】この照明光による観察部位からの戻り光
は、対物レンズ系15R,15Lによって、それぞれ固
体撮像素子16R,16L上に結像され、光電変換され
るようになっている。この固体撮像素子16R,16L
には、前記信号線26を介して、前記ビデオプロセッサ
6a内のドライブ回路31aからの駆動パルスが印加さ
れ、この駆動パルスによって読み出し、転送が行われる
ようになっている。この固体撮像素子16R,16Lか
ら読み出された映像信号は、前記信号線27R,27L
を介して、前記ビデオプロセッサ6a内または電子内視
鏡1a内に設けられたプリアンプ32R,32Lに入力
されるようになっている。
【0079】このプリアンプ32R,32Lで増幅され
た映像信号は、プロセス回路33R,33Lに入力さ
れ、γ補正及びホワイトバランス等の信号処理を施さ
れ、A/Dコンバータ34R,34Lによって、デジタ
ル信号に変換されるようになっている。このデジタルの
映像信号は、セレクト回路35R,35Lによって、例
えば赤(R),緑(G),青(B)各色に対応するメモ
リ(1)36Ra,メモリ(2)36Rb,メモリ
(3)36Rc及びメモリ(4)36La,メモリ
(5)36Lb,メモリ(6)36Lcに選択的に記憶
されるようになっている。前記メモリ(1)36Ra,
メモリ(2)36Rb,メモリ(3)36Rc及びメモ
リ(4)36La,メモリ(5)36Lb,メモリ
(6)36Lcは、同時に読み出され、D/Aコンバー
タ37R,37Lによって、アナログ信号に変換され、
入出力インターフェース38R,38Lを介して、R,
G,B信号として、カラーモニタ7R,7Lに入力さ
れ、このカラーモニタ7R,7Lによって、観察部位が
カラー表示されるようになっている。
【0080】また、前記ビデオプロセッサ6内aには、
システム全体のタイミングを作るタイミングジェネレー
タ42aが設けられ、このタイミングジェネレータ42
aによって、モータドライバ25a、ドライブ回路31
a、セレクト回路35R,35L等の各回路間の同期が
取られている。
【0081】本実施例では、前記メモリ(1〜3)36
Ra〜36Rc及びメモリ(4〜6)36La〜36L
cの出力端は、画像処理装置104aに接続されてい
る。また、前記画像処理装置104aには、入出力イン
ターフェース105aを介して、モニタ106aが接続
され、このモニタ106aに、前記画像処理装置104
aによる演算処理結果が表示されるようになっている。
【0082】前記画像処理装置104aは、図20に示
すような構成になっている。
【0083】すなわち、画像処理装置104aは、CP
U121a、情報入力装置122a、RAMからなる主
記憶装置123a、画像入力インターフェース125a
及び表示インターフェース128a、ROM130aを
備え、これらは、バスによって互いに接続されている。
前記情報入力装置122aは、キーボード等であり、電
子内視鏡1aの種別等のデータを入力できるようになっ
ている。前記画像入力インターフェース125aは、メ
モリ(1)36Ra,メモリ(2)36Rb,メモリ
(3)36Rc及びメモリ(4)36La,メモリ
(5)36Lb,メモリ(6)36Lcに接続され、こ
れらからの画像データの受信を行うようになっている。
また、前記表示インターフェース128aは、入出力イ
ンターフェース105aに接続され、モニタ106aに
入力する画像データを送るようになっている。
【0084】前記CPU121aは、第1実施例と同様
に、図2(b)に示すように、前記ROM130aに記
憶されたプログラムにより動作する画像処理手段を備
え、この画像処理手段は、例えば、複数の画像間におけ
る対応点を検出する対応点検出手段141aと、前記対
応点検出手段の出力結果に基づき、少なくとも2つの画
像間の整合を行う画像整合手段142aと、前記画像整
合手段により、少なくとも1つの画像部分の少なくとも
一部を他の画像の少なくとも一部の画像情報を用いて1
枚の画像を合成する画像合成手段143a等からなる。
【0085】本実施例では、電子内視鏡1で得た対象部
位の画像に対し、画像処理装置104aで処理を行い、
モニタ106aに処理結果を出力する。
【0086】図21ないし図25は本実施例の処理の流
れを示すフローチャートである。N個の光学系により撮
像されたN枚の画像X1〜XNに対し、第1実施例にお
いて時系列画像群に対して施したものを基本とする処理
を適用する。
【0087】図21及び図22は、画像X2〜XNを用
いた画像X1におけるハレーション部分の埋め合わせを
行う処理のフローチャートである。本実施例では、ステ
レオ内視鏡により撮像された画像を使用するためN=2
となる。ここでは画像X1を光学系R,画像X2を光学
系Lによりそれぞれ撮像されたものと考える。
【0088】図21は、前出の相互相関によるマッチン
グ手法を用いた場合のハレーション除去処理の流れであ
る。この例では、画像X1及び画像X2におけるG画像
G1及びG2に関して処理を適用する。ステップS62
において取り込まれた画像G1に対し、ステップS63
においてノイズ除去処理、ステップS64において歪曲
収差補正処理、ステップS65においてハレーション領
域抽出処理を行う。各ステップにおける処理は、それぞ
れ第1実施例におけるステップS3〜S5において適用
したものを用いればよい。
【0089】続いて、ステップS66、ステップS6
7、を経てステップS62において画像G2を取り込
み、ステップS63〜S65での処理を適用する。さら
に、ステップS68〜S70において、第1実施例にお
ける図5のステップS8〜S10での処理にそれぞれ対
応する、対応点検出処理を適用する。画像G1と画像G
2との対応点検出に成功後、S71で画像G2から画像
G1への画像合成を行い、画像G1におけるハレーショ
ン領域の埋め合わせを行う。R及びB画像については、
G画像において検出された対応点に相当する点の埋め合
わせたを行えばよい。また、R,G,Bそれぞれの画像
に対して図21に示した一連の処理を適用してもよい。
【0090】また、図22は、ブロックマッチング処理
として文献1(USP 4,962,540)に開示さ
れているカラーマッチング手法を適用した場合の処理の
流れを示している。ここでは、カラー画像X1及びX2
を用いて対応点検出を行う。ステップS82により画像
X1(ここでは光学系Rによる画像)を取り込んだ後、
ステップS63〜S65において適用したものとそれぞ
れ同様な処理をステップS83〜S85において適用す
る。さらに、画像X2(ここでは光学系Lによる画像)
を取り込んだ後、ステップS83〜S85を経て、ステ
ップS88〜S90における処理を適用する。ステップ
S88〜S90における処理は、それぞれ第1実施例に
おいて示したステップS28〜S30の処理と同様なも
のである。対応点検出成功後、画像X2から画像X1へ
の画像合成を行うことにより、ハレーション領域の減少
が可能となる。
【0091】また、本実施例における処理適用後のハレ
ーション除去画像において、画像X1〜XNの連結によ
り、視野の拡大を行うことが可能となる。例えばステレ
オ内視鏡により撮像された、図23(a)に示す画像X
R及びXLにより、図23(b)に示すような視野拡大
画像が得られる。図24は、この処理の流れを示すフロ
ーチャートである。
【0092】図24に示す処理の流れは、図21に示し
た処理を基本としている。ステップS102において取
り込まれた画像G1あるいは画像G2に対し、ステップ
S68〜S70における各処理にそれぞれ対応するステ
ップS105〜S107の、画像G1と画像G2との対
応点検出処理を行う。対応点検出に成功後、ステップS
108において、画像G1に対し画像G2を連結する。
【0093】連結処理手法としては、第1実施例におけ
るステップS11において適用した処理をすればよい。
【0094】例えば、画像G0に対し3個の対応検出点
E〜G(図示せず)及びそのブロックマッチング領域を
決定後、ステップS9における処理と同様にして画像G
nにおける対応点E’〜G’(図示せず)を導出する。
次いで、三角形EFG及び三角形E’F’G’に関して
ステップS11において行った位置決定処理を適用す
る。ステップS108で画像連結処理終了後、ステップ
S109aにおいて連結処理終了の判定を行う。ここで
はステレオ内視鏡による撮像画像を用いたが、N>2す
なわちより多くの光学系を用いた撮像である場合は、N
<Nであれば、連結された画像を新たな画像G1とみな
してステップS102〜S109の処理を繰り返せばよ
い。
【0095】また、画像R1と画像Rn及び画像B1と
画像Bnにおいても、画像G1と画像Gnにおいて対応
づけられた点に相当する点の連結処理を行えばよい。
【0096】また、R,G及びB画像それぞれに対し
て、図24に示したフローチャートの一連の処理を適用
することにより、同様な効果を得ることも可能である。
【0097】さらに、図25はRGB画像に対する対応
点検出処理手法として、文献1に詳述されているカラー
マッチング手法を用いた場合の処理の流れである。基本
的な処理の流れと内容は、図24に示したものと同一で
あるが、本処理ではカラー画像X1〜Xnに対し直接ブ
ロックマッチング処理を行うことができるものである。
すなわち、ステップS111〜S115まではステップ
S101〜S105における各処理を、画像Xnに対し
て適用することになる。ステップS116では、カラー
画像X1及びXnとの対応点を、前出のカラーマッチン
グ手法を用いて検出する。この処理により、RGB各画
像における対応点を同時に決定することが可能となる。
続いて、ステップS107〜S109にそれぞれ対応す
るステップS117〜S119を経て、視野拡大画像を
得ることができる。
【0098】次に本発明の第3実施例を説明する。
【0099】図26及び図27は第3実施例に係わり、
図26は画像処理装置の処理内容を示すフローチャート
図、図27はカラーマッチング手法を適用した画像処理
装置の処理内容を示すフローチャート図である。
【0100】本実施例におけるハレーション除去処理
は、移動する内視鏡により得られる連続的な時系列画像
群X0 〜Xn (n=1,2,3,…)に対し、ハレーシ
ョン部の位置が各画像ごとに変化する性質を利用し、画
像Xm (0<m≦n)においてハレーションにより損失
した部位を、画像X(m−1)からの同部位に該当する
部位のブロックマッチングなる手法を利用したモザイク
的埋め合わせにより順次復元し、m=nにおいて完全に
ハレーションが除去された画像Xn を得るものである。
【0101】本処理を適用することにより、画像Xn 以
降の画像Xk (k=n+1,n+2,n+3,…)を、
常にハレーションが除去された画像として得ることが可
能となり、これは動画像に対するリアルタイムの処理と
して有効なものである。図26及び図27は本実施例に
おける具体的な処理の流れを示すフローチャートであ
る。以下、本フローチャートに従い処理の内容を説明す
る。
【0102】図26は前出の相互相関によるマッチング
手法を用いた場合のハレーション除去処理の流れであ
る。ステップS121において、n=0として次のステ
ップS122において画像Xn (n=0,1,2,3,
…)における画像Gn の取込みを行い、次のステップS
123において、例えば3×3の大きさのマスクを持つ
メディアンフィルタを用いたノイズ除去を施す。
【0103】続いて、第1実施例に示した処理と同様
に、ステップS124において画像Gn に対する歪曲収
差補正処理を適用後、ステップS125において前述の
ハレーション領域An を抽出する。次のステップS12
6において、n=0か否かの判断を行い、n=0であれ
ばステップS127でn=1としステップS122に戻
り、画像G1 を取り込む。n≧1であれば、ステップS
128において、画像Gn に対し前述の対応検出点及び
ブロックマッチング領域を決定した後、ステップS12
9において、画像Gn に対する画像G(n−1)上の対
応点検出を行う。対応点検出処理は公知の相互相関を利
用したマッチング手法によるブロックマッチングを利用
すればよい。
【0104】ステップS130においては、第1実施例
に示したステップS10での処理と同様に対応点検出処
理の成否を判定する。対応点検出が不良であればステッ
プS128及びステップS129における処理を再度実
行する。
【0105】対応点検出処理適用後、ステップS131
において画像Gn に対する画像G(n−1)からの埋め
合わせ処理による画像合成を行う。具体的な処理内容は
第1実施例に示したステップS11での処理を、画像G
n 及び画像G(n−1)に関して適用すれば良い。すな
わち、画像Gn においてはハレーションにより損失され
ているが、画像G(n−1)においては通常の画像とし
て得られているか、すでに復元されている点Qn を抽出
し、画像Xn 上の点Qn に画像X(n−1)上の点Qn
の濃度値をRGB各画像において代入する。
【0106】そして、ステップS132において処理終
了か否かを判断して、終了でない場合にはステップS1
22に戻り、上述の処理を続行する。つまり、以上の述
べた一連の処理を、処理終了命令を受けるまで連続的な
時系列画像群に適用し続けることにより、ハレーション
の除去された画像を動画像としてリアルタイムで得るこ
とができる。尚、本処理は、G画像に基づくもののみで
はなく、R,G,B各画像に対し、それぞれ別個に適用
し、ハレーション除去を行うことのできるまた、図27
は、ブロックマッチング処理として文献1(USP
4,962,540)に開示されているカラーマッチン
グ手法を適用した場合の処理の流れを示している。ここ
では、カラー画像X0〜Xnを用いて対応点検出を行
う。ステップS141〜S147は、それぞれステップ
S121〜S127における処理に対応している。ステ
ップS148において画像X0と画像Xnとの対応検出
点及びブロックマッチング領域を決定後、ステップS1
49において対応点検出を行う。この処理は、前出のカ
ラーマッチング手法を用いることにより、カラー画像X
0〜Xnに対し直接ブロックマッチング処理を行うこと
ができる。ステップS150〜S152はそれぞれステ
ップS130〜S132に対応する。以上の処理を連続
的な時系列画像群に適用することにより、ハレーション
の除去された画像を動画像としてリアルタイムで得るこ
とができる。
【0107】尚、本実施例におけるハレーション除去処
理はリアルタイムで得られる連続的な内視鏡画像に対し
ての適用に限定されるものではなく、例えば光磁気ディ
スク、ビデオ等の磁気テープ等によりすでに記録されて
いる画像群に対し適用しても良好である。また、本実施
例においては連続する画像群において処理を適用した
が、処理に使用する画像は例えば1枚おきに選出する
等、適宜選択可能であっても何等問題は無い。
【0108】本実施例は、第1実施例に示したものと同
様に静止画像に対するハレーション除去処理としての適
用であってもよい。
【0109】次に本発明の第4実施例について説明す
る。
【0110】図28ないし図34は第4実施例に係わ
り、図28は処理内容を示すフローチャート図、図29
は内視鏡を撮像対象物に垂直方向に移動した様子を示す
図、図30は図28により得られる複数の画像を合成し
て視野の広い高解像度の画像を得ることを示す説明図、
図31はカラーマッチング手法を適用した画像処理装置
の処理内容を示すフローチャート図、図32は画像Gn-
1 の画像を画像Gn に合わせて拡大した様子を示す説明
図、図33は画像Gn-1 上での対応検出点と画像Gn 上
での対応点とを示す説明図、図34は画像Gn-1 上での
対応検出点内の点P及び画像Gn 上での対応検出点内の
点P’の位置決定のための説明図である。
【0111】本実施例における処理手法は、内視鏡が撮
像対象物に対して例えば図29に示すように垂直方向に
移動する際に得られる連続的な時系列画像群X0 〜Xn
(n=1,2,3,…)に対し、各画像において内視鏡
と撮像対象物との距離の変化に関し、得られる画像の視
野の広さと解像度が変化する性質を利用することによ
り、通常の撮像では得られない視野及び解像度の関係を
持つ画像を得ることを可能とするものである。
【0112】具体的には、内視鏡と撮像対象との距離が
大である場合、通常はより広い視野を得ることができる
が、撮像画像における対象物体に対する解像度は、制限
される。一方、同距離が小であれば視野は狭くなるが、
得られる画像は対象物体に対する解像度はより高いもの
となる。本実施例における処理では、内視鏡がn=0に
おける位置より、nの増大に伴い撮像対象に近づく場
合、拡大した画像X(n−1)に対し画像Xn より前述
の第2実施例に示した処理に準ずるブロックマッチング
を順次利用した処理を施すことにより図30(a)の通
常画像X0 、次の画像X1 ,…を合成して、図30
(b)に示すような合成画像を得るものである。
【0113】図28及び図31は、本実施例に示す処理
の流れを示すフローチャートである。以下、本フローチ
ャートに従い処理の内容を説明する。
【0114】図28に示すように、ステップS161で
n=0とした後、ステップS162において取り込まれ
たG画像Gn に対し、第1実施例におけるステップS3
及びステップS4において行ったノイズ除去及び歪曲収
差補正処理をそれぞれステップS163及びステップS
164において適用する。続いて、ステップS165に
て、n=0か否かの判断を行い、n=0の場合にはステ
ップS172でn=1とし、ステップS173の判断の
後ステップS162に戻る。一方、n≧1であれば、ス
テップS166においては、第1実施例におけるステッ
プS8と同様な処理により、画像G(n−1)に対し対
応検出点及びブロックマッチング領域を決定する。さら
に、ステップS167において、第1実施例におけるス
テップS9と同様な処理により、画像Gn 上の画像G
(n−1)に対する対応点を検出する。
【0115】ステップS168において対応点検出成功
か否かの判定後、この対応点検出に失敗すると、ステッ
プS166に戻り、成功した場合には次のステップS1
69において、画像G(n−1)に対して拡大処理を施
す。図32(a)の例に示すように、画像Gn において
は撮像対象に接近したことにより、画像G(n−1)に
比較して同一の部位がより大きく見える。ここでは、画
像G(n−1)を図32(b)に示すように、画像Gn
に合わせて拡大する。拡大処理の方法としては、例え
ば、以下のようなものが考えられる。
【0116】図33(a)に示すように、画像Gn−1
上の点A,B,C,Dに対する画像Gn上の対応点
A’,B’,C’,D’が、例えば図33(b)に示す
ようなものであるものとすると、四辺形ABCDを四辺
形A’B’C’D’の大きさに拡大する場合、四辺形
A’B’C’D’内の各点は、次のようにして求められ
る。
【0117】図34において、四辺形K’L’M’N’
内の点P’の値を四辺形KLMN内の点の値から求める
ものとする。また、点P’を通り、K’L’及びL’
M’にそれぞれ平行な直線と、K’L’,M’N’及び
L’M’N’K’との交点をそれぞれS’,U’及び
T’,V’とする。点P’の値は、 K’S’:S’L’=KS:SL L’T’:T’M’=LT:TM M’U’:U’N’=MU:UN N’V’:V’K’=NV:VK である線分SUと線分TVとの交点Pの値を用いればよ
い。対応する点Pの直接の値が存在しない場合は、点P
の近傍の点の値を用いて例えば公知の線形補間により求
めればよい。
【0118】なお、以上に説明した拡大処理は、G画像
のみでなく、R,B画像に対して適用することも可能で
ある。
【0119】ステップS170においては、画像G(n
−1)と画像Gn におけるコントラストの比較を行う。
ここで画像Gn におけるコントラストが高く、画像G
(n−1)に対してより多くの情報を含むと判断されれ
ば、ステップS171において第1実施例におけるステ
ップS11と同様な処理により画像合成を行う。これ
は、拡大された画像G(n−1)に対し、画像Gn を埋
め込むことになる。このステップS171の後、ステッ
プS172でnを1つインクリメントする。
【0120】前述のコントラスト比較手段の実現は、例
えば各画像における分散値を比較すればよい。また、各
画像に対し公知の2次元離散的フーリエ変換を適用し、
注目する高周波成分をより多く含む画像をコントラスト
の高いものと認識することも可能である。
【0121】上記ステップS170のコントランスト比
較により、Gn ≧G(n−1)でないと判断された場合
には、ステップS172によりnを1つインクリメント
してステップS173で処理終了か否かの判断を行う。
処理が終了していないと、以上の処理により得られた画
像を新たな画像G(n−1)とし、続いて取り込んだ画
像Gn に対して同様な処理を施す。R及びB画像におい
ては、G画像において検出された対応点に相当する点の
合成を行えばよい。また、R,G,B各画像それぞれ
に、ステップS161〜S173の処理を適用してもよ
い。
【0122】以上の一連の処理を処理終了命令を受ける
まで実行することにより、図30に示すような視野が広
く、中心に近づくに従い高解像度を持つ画像を得ること
が可能となる。
【0123】処理終了の判断は、例えば最接近点を内視
鏡の焦点が最も良好に合う点と規定し、画像Gn が最接
近点において得られた時点で行えばよい。
【0124】また、図31は、ブロックマッチング処理
として文献1(USP 4,962,540)に開示さ
れているカラーマッチング手法を適用した場合の処理の
流れを示している。ここでは、カラー画像X0〜Xnを
用いて対応点検出を行う。ステップS181〜S185
は、それぞれステップS161〜S165における処理
に対応している。ステップS186において画像Xn−
1と画像Xnとの対応検出点及びブロックマッチング領
域を決定後、ステップS187において対応点検出を行
う。この処理は、前出のカラーマッチング手法を用いる
ことにより、カラー画像X0〜Xnに対し直接ブロック
マッチング処理を行うことができる。ステップS188
〜S193はそれぞれステップS168〜S173に対
応する。以上の処理を処理終了命令を受けるまで実行す
ることにより、同様な効果を持つ画像を得ることが可能
となる。
【0125】また、例えば内視鏡を図35に示すよう
に、撮像対象に対し水平方向に移動し、ある通過点にお
いて撮像対象物に垂直に接近させた後、接近前の位置に
戻し水平方向に移動することにより撮像された画像群に
対し、第1実施例における視野拡大処理及び本実施例に
おける一連の処理を組み合わせて適用することにより、
例えば図36に示すような画像を得ることもできる。
【0126】本実施例における処理は、例えば情報入力
装置122より入力された動作命令信号を受領後、数枚
の画像を経て処理結果画像をモニタ106に表示すれば
よい。
【0127】本実施例においては、内視鏡が撮像対象に
接近する過程において得られた画像群に関し処理を適用
したが、近接状態から徐々に遠ざかる過程において撮像
された画像に対し同様な処理を施すことにも何等問題は
なく、また、内視鏡が一方向に移動する際に得られた画
像に対する処理として限定されるものではない。さら
に、処理対象画像群は、内視鏡の移動により得られたも
のに限定するのみではなく、例えば光学的ズーミングに
より撮像されたものを使用してもよい。
【0128】本実施例においては連続する画像群におい
て処理を適用したが、処理に使用する画像は例えば1枚
おきに選出する等、適宜選択可能であってもよい。
【0129】本実施例における一連の処理は、内視鏡撮
像装置によりリアルタイムで連続的に得られる画像に対
するのみではなく、例えば光磁気ディスク、ビデオ等の
磁気テープ等によりすでに記録されている画像群に対し
適用しても良好である。
【0130】以上に述べた第1ないし第4実施例におけ
る処理対象画像は、G画像のみに限定されるものではな
く、RあるいはB画像に対し適用してもよい。また、G
画像に対する処理により決定された写像と同等の位置に
R及びB画像を写像するものであっても良い。又、内視
鏡画像に限定されるものでなく、一般の画像、例えば伝
送経路において、局所的な劣化を受けた様な画像に対
し、適用しても有効である。
【0131】
【発明の効果】以上述べたように本発明によれば複数の
画像間における対応点の検出を行った後、少なくとも1
つの画像における一部の画像領域を他の画像における対
応する画像領域で埋め合わせる等の画像合成処理を行え
るようにしているので、輝点除去等して、より望ましい
画像を得ることができる。
【図面の簡単な説明】
【図1】 第1実施例に係る内視鏡装置の構成を示すブ
ロック図である。
【図2】 第1実施例に係る画像処理装置の構成を示す
ブロック図である。
【図3】 第1実施例に係る図1の内視鏡装置の全体を
示す側面図である。
【図4】 第1実施例に係る画像入力装置に関する入出
力装置の構成を示すブロック図である。
【図5】 第1実施例に係る画像処理装置の処理内容を
示すフローチャート図である。
【図6】 第1実施例に係る歪曲収差の補正の様子を示
す説明図である。
【図7】 第1実施例に係るハレーション領域がある画
像を示す説明図である。
【図8】 第1実施例に係る図7のハレーション領域を
含む補正領域が選出された様子を示す説明図である。
【図9】 第1実施例に係る画像Gn 上で対応点が検出
された様子を示す説明図である。
【図10】第1実施例に係る画像G0 上での対応検出点
と画像Gn 上での対応点とを示す説明図である。
【図11】第1実施例に係る対応検出点内の点Pの位置
決定のための説明図である。
【図12】第1実施例に係る画像G0 上のハレーション
領域の一部を埋め合わせた結果を示す説明図である。
【図13】第1実施例に係るカラーマッチング手法を適
用した画像処理装置の処理内容を示すフローチャート図
である。
【図14】第1実施例に係る近接して複数存在するハレ
ーション領域の対応検出点及びブロックマッチング領域
の決定を説明する説明図である。
【図15】第1実施例に係る複数の画像との位置関係と
か視野拡大した画像等を示す図である。
【図16】第1実施例に係る画像処理装置の視野拡大の
処理内容を示すフローチャート図である。
【図17】第1実施例に係るカラーマッチング手法を適
用した画像処理装置の視野拡大の処理内容を示すフロー
チャート図である。
【図18】第2実施例に係るステレオ内視鏡装置の全体
を示す側面図である。
【図19】第2実施例に係るステレオ内視鏡装置の構成
を示すブロック図である。
【図20】第2実施例に係る画像処理装置の構成を示す
ブロック図である。
【図21】第2実施例に係る画像処理装置の処理内容を
示すフローチャート図である。
【図22】第2実施例に係るカラーマッチング手法を適
用した画像処理装置の処理内容を示すフローチャート図
である。
【図23】第2実施例に係る図21の処理による画像の
合成を示す説明図である。
【図24】第2実施例に係る画像処理装置の視野拡大の
処理内容を示すフローチャート図である。
【図25】第2実施例に係るカラーマッチング手法を適
用した画像処理装置の視野拡大の処理内容を示すフロー
チャート図である。
【図26】第3実施例に係る画像処理装置の処理内容を
示すフローチャート図である。
【図27】第3実施例に係るカラーマッチング手法を適
用した画像処理装置の処理内容を示すフローチャート図
である。
【図28】第4実施例に係る処理内容を示すフローチャ
ート図である。
【図29】第4実施例に係る内視鏡を撮像対象物に垂直
方向に移動した様子を示す図である。
【図30】第4実施例に係る図28により得られる複数
の画像を合成して視野の広い高解像度の画像を得ること
を示す説明図である。
【図31】第4実施例に係るカラーマッチング手法を適
用した画像処理装置の処理内容を示すフローチャート図
である。
【図32】第4実施例に係る画像Gn-1 の画像を画像G
n に合わせて拡大した様子を示す説明図である。
【図33】第4実施例に係る画像Gn-1 上での対応検出
点と画像Gn上での対応点とを示す説明図である。
【図34】第4実施例に係る画像Gn-1 上での対応検出
点内の点P及び画像Gn上での対応検出点内の点P’の
位置決定のための説明図である。
【図35】内視鏡を水平方向に移動後、垂直方向に移動
する様子を示す説明図である。
【図36】図35により得られる画像に対し、第1及び
第4実施例を適用して得られる画像を示す説明図であ
る。
【符号の説明】
1…………電子内視鏡 2…………挿入部 6…………ビデオプロセッサ 7…………モニタ 104……画像処理装置 106……モニタ 121……CPU 130……ROM 131……内視鏡装置 132……画像記録装置 134……動画像ファイル装置 135……静止画像ファイル装置 141……対応点検出手段 142……画像整合手段 143……画像合成手段
─────────────────────────────────────────────────────
【手続補正書】
【提出日】平成4年6月18日
【手続補正1】
【補正対象書類名】明細書
【補正対象項目名】0003
【補正方法】変更
【補正内容】
【0003】特に、画像間の相関を利用する技術に関し
ては、発達著しいものがあり、例えば、デジタル伝送等
に関する動画像フレーム間の動きベクトルを推定する事
による圧縮符号化、復号化は、現在最も多くの検討が行
われている分野の一つである。あるいは、例えば特開平
1−109970号にはTVカメラにおける画像振れを
防止する従来例が開示されている。
【手続補正2】
【補正対象書類名】明細書
【補正対象項目名】0012
【補正方法】変更
【補正内容】
【0012】
【問題点を解決する為の手段及び作用】複数の画像を入
力する画像入力手段と、前記複数の画像間における対応
点を検出する対応点検出手段と、前記対応点検出手段の
出力結果に基づき、少なくとも2つの画像間の整合を行
う画像整合手段と、前記画像整合手段により、少なくと
も1つの画像部分の少なくとも一部を他の画像の少なく
とも一部の画像情報を用いて1枚の画像を合成する画像
合成手段とを設けることにより、輝点等の異常データ領
域を他の画像における対応する異常ではない領域で置換
する等の画像合成を行うことにより望ましい画像を得ら
れるようにしている。
【手続補正3】
【補正対象書類名】明細書
【補正対象項目名】0039
【補正方法】変更
【補正内容】
【0039】ハレーション領域A0 の抽出は、画像G0
においてはハレーション除去対象領域決定処理であり、
n≧1である画像Gn においては後述のステップS11
での画像合成による領域埋め合わせ処理に適用し得ない
領域の抽出を行う意味を持つ。 上記ステップS5によ
るハレーション領域A0 の抽出が終了すると、ステップ
S6によりn=0か否かの判断が行われる。この場合に
は、n=0であるので、ステップS7により、nが1つ
インクリメントされてn=1にされた後、再びステップ
S2に戻り、n=1の画像G1 の取込み等が行われた
後、ステップS3〜5及びステップS6の判断の後、ス
テップS8に移る。
【手続補正4】
【補正対象書類名】明細書
【補正対象項目名】0041
【補正方法】変更
【補正内容】
【0041】このため、対応検出点A,B,C,Dはブ
ロックマッチングに用いる領域が画像Gn におけるハレ
ーション抽出領域と重ならないような点のうちで、ブロ
ックマッチングに用いる領域の模様が十分明瞭であるも
の(例えば、ブロック内の分散が大きい)を選択する。
図8は図7に示した例に対し決定した対応検出点A,
B,C,D及びブロックマッチング領域Va ,Vb ,V
c ,Vd の例である。
【手続補正5】
【補正対象書類名】明細書
【補正対象項目名】0046
【補正方法】変更
【補正内容】
【0046】まず、四辺形ABCD及びA′B′C′
D′をそれぞれ図10(a)及び(b)に示すように三
角形BCAと三角形CAD及び三角形B′C′DとC′
A′D′より構成されるものと考える。例えば図11
(a)に示すように、三角形LMN内の点Pは、辺LM
と、点N及び点Pを通る線分と辺LMとの交点Hから、
LH:HM及びNP:PHにより決定さされる。これよ
り、三角形LMNに対応する三角形L′M′N′(図示
せず)において点Pに対応する点P′は、LH:HM=
L′H′:H′M′及びNH:NP=N′H′:N′
P′を満たすように定められる。
【手続補正6】
【補正対象書類名】明細書
【補正対象項目名】0048
【補正方法】変更
【補正内容】
【0048】また、四辺形ABCD及びA’B’C’
D’に関して、図11(b)に示すように、四辺形KL
MNの内部の点Pに対応する四辺形K’L’M’N’
(図示せず)内部の点P’を、 KS:SL=K’S’:S’L’ LT:TM=L’T’:T’M’ MU:UN=M’U’:U’N’ NV:VK=N’V’:V’K’ を満たすように定めることも可能である。
【手続補正7】
【補正対象書類名】明細書
【補正対象項目名】0085
【補正方法】変更
【補正内容】
【0085】本実施例では、電子内視鏡1aで得た対象
部位の画像に対し、画像処理装置104aで処理を行
い、モニタ106aに処理結果を出力する。
【手続補正8】
【補正対象書類名】明細書
【補正対象項目名】0086
【補正方法】変更
【補正内容】
【0086】図21ないし図25は本実施例の処理の流
れを示すフローチャート及び説明図である。N個の光学
系により撮像されたN枚の画像X1〜XNに対し、第1
実施例において時系列画像群に対して施したものを基本
とする処理を適用する。
【手続補正9】
【補正対象書類名】明細書
【補正対象項目名】0093
【補正方法】変更
【補正内容】
【0093】連結処理手法としては、第1実施例におけ
るステップS11において適用した処理を応用すればよ
い。
【手続補正10】
【補正対象書類名】明細書
【補正対象項目名】0094
【補正方法】変更
【補正内容】
【0094】例えば、画像G0に対し3個の対応検出点
E〜G(図示せず)及びそのブロックマッチング領域を
決定後、ステップS9における処理と同様にして画像G
nにおける対応点E’〜G’(図示せず)を導出する。
次いで、三角形EFG及び三角形E’F’G’に関して
ステップS11において行った位置決定処理を適用す
る。ステップS108で画像連結処理終了後、ステップ
S109aにおいて連結処理終了の判定を行う。ここで
はステレオ内視鏡による撮像画像を用いたが、N>2す
なわちより多くの光学系を用いた撮像である場合は、
<Nであれば、連結された画像を新たな画像G1とみな
してステップS102〜S109の処理を繰り返せばよ
い。
【手続補正11】
【補正対象書類名】図面
【補正対象項目名】図18
【補正方法】変更
【補正内容】
【図18】
───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.5 識別記号 庁内整理番号 FI 技術表示箇所 H04N 7/18 M 8626−5C // G06F 15/70 460 A 9071−5L (72)発明者 西村 博一 東京都渋谷区幡ケ谷2丁目43番2号 オリ ンパス光学工業株式会社内 (72)発明者 中村 雅一 東京都渋谷区幡ケ谷2丁目43番2号 オリ ンパス光学工業株式会社内

Claims (1)

    【特許請求の範囲】
  1. 【請求項1】 複数の画像を入力する画像入力手段と、
    前記複数の画像間における対応点を検出する対応点検出
    手段と、前記対応点検出手段の出力結果に基づき、少な
    くとも2つの画像間の整合を行う画像整合手段と、前記
    画像整合手段により、少なくとも1つの画像部分の少な
    くとも一部を他の画像の少なくとも一部の画像情報を用
    いて1枚の画像を合成する画像合成手段とを備えたこと
    を特徴とする画像処理装置。
JP04032311A 1991-03-26 1992-02-19 画像処理装置および画像処理方法 Expired - Fee Related JP3078085B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP04032311A JP3078085B2 (ja) 1991-03-26 1992-02-19 画像処理装置および画像処理方法
US08/721,397 US5764809A (en) 1991-03-26 1996-09-26 Image processing apparatus using correlation among images

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP6211491 1991-03-26
JP3-62114 1991-03-26
JP04032311A JP3078085B2 (ja) 1991-03-26 1992-02-19 画像処理装置および画像処理方法

Publications (2)

Publication Number Publication Date
JPH05108819A true JPH05108819A (ja) 1993-04-30
JP3078085B2 JP3078085B2 (ja) 2000-08-21

Family

ID=26370855

Family Applications (1)

Application Number Title Priority Date Filing Date
JP04032311A Expired - Fee Related JP3078085B2 (ja) 1991-03-26 1992-02-19 画像処理装置および画像処理方法

Country Status (2)

Country Link
US (1) US5764809A (ja)
JP (1) JP3078085B2 (ja)

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11127338A (ja) * 1997-10-23 1999-05-11 Matsushita Joho System Kk 画像送受信システム
JP2004187711A (ja) * 2002-12-06 2004-07-08 Olympus Corp 内視鏡装置
JP2006185038A (ja) * 2004-12-27 2006-07-13 Ge Medical Systems Global Technology Co Llc 4次元ラベリング装置、n次元ラベリング装置、4次元空間フィルタ装置およびn次元空間フィルタ装置
JP2006314805A (ja) * 2005-05-13 2006-11-24 Given Imaging Ltd 画像ストリームを表示する方法、撮像器の出力を表示するためのシステム、および画像ストリームを表示するためのシステム
JP2007159641A (ja) * 2005-12-09 2007-06-28 Rf:Kk 画像処理装置及び医療システム
WO2007108056A1 (ja) * 2006-03-16 2007-09-27 Fujitsu Limited 画像認識システムおよび画像認識プログラム
WO2007108280A1 (ja) * 2006-03-15 2007-09-27 Olympus Medical Systems Corp. 医療用画像処理装置及び医療用画像処理方法
JP2010104421A (ja) * 2008-10-28 2010-05-13 Fujifilm Corp 撮像システムおよび撮像方法
WO2011118287A1 (ja) * 2010-03-24 2011-09-29 オリンパス株式会社 内視鏡装置
JP2012050600A (ja) * 2010-08-31 2012-03-15 Fujifilm Corp 電子内視鏡システム
US8186289B2 (en) 2008-02-28 2012-05-29 Brother Kogyo Kabushiki Kaisha Sewing machine and computer-readable medium storing control program executable on sewing machine
JP2013165776A (ja) * 2012-02-14 2013-08-29 Fujifilm Corp 内視鏡システム、内視鏡システムのプロセッサ装置、及び画像生成方法
JP2016052529A (ja) * 2015-10-28 2016-04-14 国立大学法人 千葉大学 パノラマ画像作成プログラム
CN105917397A (zh) * 2014-02-20 2016-08-31 爱信艾达株式会社 注意引导系统、方法以及程序
JP2018125585A (ja) * 2017-01-30 2018-08-09 アルパイン株式会社 周辺状況把握支援システム
JP2020054444A (ja) * 2018-09-28 2020-04-09 株式会社Nttドコモ 口腔癌診断システム及び口腔癌診断プログラム
CN112890736A (zh) * 2019-12-03 2021-06-04 精微视达医疗科技(武汉)有限公司 一种内窥成像系统视场掩模的获得方法及装置

Families Citing this family (86)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10361802B1 (en) 1999-02-01 2019-07-23 Blanding Hovenweep, Llc Adaptive pattern recognition based control system and method
US6850252B1 (en) 1999-10-05 2005-02-01 Steven M. Hoffberg Intelligent electronic appliance system and method
US6418424B1 (en) 1991-12-23 2002-07-09 Steven M. Hoffberg Ergonomic man-machine interface incorporating adaptive pattern recognition based control system
US6400996B1 (en) 1999-02-01 2002-06-04 Steven M. Hoffberg Adaptive pattern recognition based control system and method
US8352400B2 (en) 1991-12-23 2013-01-08 Hoffberg Steven M Adaptive pattern recognition based controller apparatus and method and human-factored interface therefore
US5857038A (en) * 1993-06-29 1999-01-05 Canon Kabushiki Kaisha Image processing apparatus and method for synthesizing first and second image data
US20020137890A1 (en) * 1997-03-31 2002-09-26 Genentech, Inc. Secreted and transmembrane polypeptides and nucleic acids encoding the same
US6141440A (en) * 1998-06-04 2000-10-31 Canon Kabushiki Kaisha Disparity measurement with variably sized interrogation regions
US6741743B2 (en) * 1998-07-31 2004-05-25 Prc. Inc. Imaged document optical correlation and conversion system
US6373995B1 (en) * 1998-11-05 2002-04-16 Agilent Technologies, Inc. Method and apparatus for processing image data acquired by an optical scanning device
US7966078B2 (en) 1999-02-01 2011-06-21 Steven Hoffberg Network media appliance system and method
US6817975B1 (en) 2000-01-14 2004-11-16 Intuitive Surgical, Inc. Endoscope
EP1250081B1 (en) 2000-01-14 2015-04-29 Intuitive Surgical Operations, Inc. Endoscope
US6511418B2 (en) * 2000-03-30 2003-01-28 The Board Of Trustees Of The Leland Stanford Junior University Apparatus and method for calibrating and endoscope
US7046273B2 (en) * 2001-07-02 2006-05-16 Fuji Photo Film Co., Ltd System and method for collecting image information
US8428685B2 (en) * 2001-09-05 2013-04-23 Given Imaging Ltd. System and method for magnetically maneuvering an in vivo device
US20030045790A1 (en) * 2001-09-05 2003-03-06 Shlomo Lewkowicz System and method for three dimensional display of body lumens
US7170677B1 (en) 2002-01-25 2007-01-30 Everest Vit Stereo-measurement borescope with 3-D viewing
JP3800192B2 (ja) * 2002-05-21 2006-07-26 カシオ計算機株式会社 撮像装置、画像合成方法及び画像合成プログラム
US7502057B2 (en) * 2002-06-20 2009-03-10 Hewlett-Packard Development Company, L.P. Method and apparatus for color non-uniformity correction in a digital camera
US6801325B2 (en) 2002-06-25 2004-10-05 Intuitive Surgical, Inc. Method and devices for inspecting and calibrating of stereoscopic endoscopes
US7184609B2 (en) * 2002-06-28 2007-02-27 Microsoft Corp. System and method for head size equalization in 360 degree panoramic images
FR2842628B1 (fr) * 2002-07-18 2004-09-24 Mauna Kea Technologies "procede de traitement d'une image acquise au moyen d'un guide compose d'une pluralite de fibres optiques"
US7559890B2 (en) * 2003-02-26 2009-07-14 Ikona Medical Corporation Endoscopic imaging of an organ system
US7744528B2 (en) * 2003-02-26 2010-06-29 Infinite Biomedical Technologies, Llc Methods and devices for endoscopic imaging
US20040199052A1 (en) 2003-04-01 2004-10-07 Scimed Life Systems, Inc. Endoscopic imaging system
US7591783B2 (en) 2003-04-01 2009-09-22 Boston Scientific Scimed, Inc. Articulation joint for video endoscope
US20050245789A1 (en) 2003-04-01 2005-11-03 Boston Scientific Scimed, Inc. Fluid manifold for endoscope system
US8118732B2 (en) 2003-04-01 2012-02-21 Boston Scientific Scimed, Inc. Force feedback control system for video endoscope
US7578786B2 (en) 2003-04-01 2009-08-25 Boston Scientific Scimed, Inc. Video endoscope
US20050058330A1 (en) * 2003-09-16 2005-03-17 Sysmex Corporation Method of displaying smear image and retrieving method employing the same, surveillance method, system of displaying smear image, program for displaying smear image and recording medium recording the program
US7604589B2 (en) * 2003-10-01 2009-10-20 Given Imaging, Ltd. Device, system and method for determining orientation of in-vivo devices
US7241263B2 (en) 2004-09-30 2007-07-10 Scimed Life Systems, Inc. Selectively rotatable shaft coupler
WO2006039511A2 (en) 2004-09-30 2006-04-13 Boston Scientific Scimed, Inc. System and method of obstruction removal
AU2005291952A1 (en) 2004-09-30 2006-04-13 Boston Scientific Limited Adapter for use with digital imaging medical device
JP2008514363A (ja) 2004-09-30 2008-05-08 ボストン サイエンティフィック リミテッド 電気外科用途において使用するための多機能内視鏡システム
US7479106B2 (en) 2004-09-30 2009-01-20 Boston Scientific Scimed, Inc. Automated control of irrigation and aspiration in a single-use endoscope
US8083671B2 (en) 2004-09-30 2011-12-27 Boston Scientific Scimed, Inc. Fluid delivery system for use with an endoscope
US7846107B2 (en) 2005-05-13 2010-12-07 Boston Scientific Scimed, Inc. Endoscopic apparatus with integrated multiple biopsy device
US8097003B2 (en) 2005-05-13 2012-01-17 Boston Scientific Scimed, Inc. Endoscopic apparatus with integrated variceal ligation device
US8052597B2 (en) 2005-08-30 2011-11-08 Boston Scientific Scimed, Inc. Method for forming an endoscope articulation joint
US7967759B2 (en) 2006-01-19 2011-06-28 Boston Scientific Scimed, Inc. Endoscopic system with integrated patient respiratory status indicator
US8888684B2 (en) 2006-03-27 2014-11-18 Boston Scientific Scimed, Inc. Medical devices with local drug delivery capabilities
US8202265B2 (en) 2006-04-20 2012-06-19 Boston Scientific Scimed, Inc. Multiple lumen assembly for use in endoscopes or other medical devices
US7955255B2 (en) 2006-04-20 2011-06-07 Boston Scientific Scimed, Inc. Imaging assembly with transparent distal cap
GB0613576D0 (en) * 2006-07-10 2006-08-16 Leuven K U Res & Dev Endoscopic vision system
US7912319B2 (en) * 2006-08-28 2011-03-22 Avago Technologies General Ip (Singapore) Pte. Ltd. Systems and methods for panoramic image construction using small sensor array
US20110085021A1 (en) * 2009-10-12 2011-04-14 Capso Vision Inc. System and method for display of panoramic capsule images
US9633426B2 (en) 2014-05-30 2017-04-25 General Electric Company Remote visual inspection image capture system and method
US8213676B2 (en) 2006-12-20 2012-07-03 Ge Inspection Technologies Lp Inspection apparatus method and apparatus comprising motion responsive control
US8810636B2 (en) 2006-12-20 2014-08-19 Ge Inspection Technologies, Lp Inspection apparatus method and apparatus comprising selective frame output
TWI383666B (zh) * 2007-08-21 2013-01-21 Sony Taiwan Ltd 多重鏡頭相機系統之先進式動態接圖方法
US9101268B2 (en) 2009-06-18 2015-08-11 Endochoice Innovation Center Ltd. Multi-camera endoscope
US11278190B2 (en) 2009-06-18 2022-03-22 Endochoice, Inc. Multi-viewing element endoscope
WO2012077117A1 (en) 2010-12-09 2012-06-14 Peermedical Ltd. Flexible electronic circuit board multi-camera endoscope
US9492063B2 (en) 2009-06-18 2016-11-15 Endochoice Innovation Center Ltd. Multi-viewing element endoscope
US9901244B2 (en) 2009-06-18 2018-02-27 Endochoice, Inc. Circuit board assembly of a multiple viewing elements endoscope
WO2012077116A1 (en) 2010-12-09 2012-06-14 Peermedical Ltd. Flexible electronic circuit board for a multi-camera endoscope
US9642513B2 (en) 2009-06-18 2017-05-09 Endochoice Inc. Compact multi-viewing element endoscope system
US11864734B2 (en) 2009-06-18 2024-01-09 Endochoice, Inc. Multi-camera endoscope
US9872609B2 (en) 2009-06-18 2018-01-23 Endochoice Innovation Center Ltd. Multi-camera endoscope
US9713417B2 (en) 2009-06-18 2017-07-25 Endochoice, Inc. Image capture assembly for use in a multi-viewing elements endoscope
US9101287B2 (en) 2011-03-07 2015-08-11 Endochoice Innovation Center Ltd. Multi camera endoscope assembly having multiple working channels
US9706903B2 (en) 2009-06-18 2017-07-18 Endochoice, Inc. Multiple viewing elements endoscope system with modular imaging units
US10165929B2 (en) 2009-06-18 2019-01-01 Endochoice, Inc. Compact multi-viewing element endoscope system
US9402533B2 (en) 2011-03-07 2016-08-02 Endochoice Innovation Center Ltd. Endoscope circuit board assembly
EP2865322B1 (en) 2009-06-18 2020-07-22 EndoChoice, Inc. Multi-camera endoscope
US8926502B2 (en) 2011-03-07 2015-01-06 Endochoice, Inc. Multi camera endoscope having a side service channel
US11547275B2 (en) 2009-06-18 2023-01-10 Endochoice, Inc. Compact multi-viewing element endoscope system
US8150124B2 (en) * 2009-10-12 2012-04-03 Capso Vision Inc. System and method for multiple viewing-window display of capsule images
US9560953B2 (en) 2010-09-20 2017-02-07 Endochoice, Inc. Operational interface in a multi-viewing element endoscope
US10080486B2 (en) 2010-09-20 2018-09-25 Endochoice Innovation Center Ltd. Multi-camera endoscope having fluid channels
EP2635932B1 (en) 2010-10-28 2019-06-05 EndoChoice Innovation Center Ltd. Optical systems for multi-sensor endoscopes
US11889986B2 (en) 2010-12-09 2024-02-06 Endochoice, Inc. Flexible electronic circuit board for a multi-camera endoscope
EP2672878B1 (en) 2011-02-07 2017-11-22 Endochoice Innovation Center Ltd. Multi-element cover for a multi-camera endoscope
US20130046137A1 (en) * 2011-08-15 2013-02-21 Intuitive Surgical Operations, Inc. Surgical instrument and method with multiple image capture sensors
EP2604172B1 (en) 2011-12-13 2015-08-12 EndoChoice Innovation Center Ltd. Rotatable connector for an endoscope
EP2604175B1 (en) 2011-12-13 2019-11-20 EndoChoice Innovation Center Ltd. Removable tip endoscope
WO2013093761A2 (en) * 2011-12-21 2013-06-27 Koninklijke Philips Electronics N.V. Overlay and motion compensation of structures from volumetric modalities onto video of an uncalibrated endoscope
US9560954B2 (en) 2012-07-24 2017-02-07 Endochoice, Inc. Connector for use with endoscope
JP2014045800A (ja) * 2012-08-29 2014-03-17 Canon Inc 立体内視鏡システム
US9986899B2 (en) 2013-03-28 2018-06-05 Endochoice, Inc. Manifold for a multiple viewing elements endoscope
US9993142B2 (en) 2013-03-28 2018-06-12 Endochoice, Inc. Fluid distribution device for a multiple viewing elements endoscope
US10499794B2 (en) 2013-05-09 2019-12-10 Endochoice, Inc. Operational interface in a multi-viewing element endoscope
US10070932B2 (en) 2013-08-29 2018-09-11 Given Imaging Ltd. System and method for maneuvering coils power optimization
US11415792B2 (en) * 2018-06-27 2022-08-16 Altek Biotechnology Corporation Wide-angle endoscope lens

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5661873A (en) * 1979-10-25 1981-05-27 Sony Corp Digital video signal processor
JPH0614707B2 (ja) * 1984-08-31 1994-02-23 オリンパス光学工業株式会社 撮像装置
US4819077A (en) * 1986-05-14 1989-04-04 Kabushiki Kaisha Toshiba Color image processing system
JP2603947B2 (ja) * 1986-09-26 1997-04-23 オリンパス光学工業株式会社 原色画像間の対応領域検出装置
US4895431A (en) * 1986-11-13 1990-01-23 Olympus Optical Co., Ltd. Method of processing endoscopic images
US4985930A (en) * 1987-09-24 1991-01-15 Hitachi, Ltd. Image data filing system and image data correcting method
GB2251152B (en) * 1990-12-20 1994-05-18 Gec Ferranti Defence Syst Noise reduction processing means for video signals
US5187754A (en) * 1991-04-30 1993-02-16 General Electric Company Forming, with the aid of an overview image, a composite image from a mosaic of images

Cited By (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11127338A (ja) * 1997-10-23 1999-05-11 Matsushita Joho System Kk 画像送受信システム
JP2004187711A (ja) * 2002-12-06 2004-07-08 Olympus Corp 内視鏡装置
JP2006185038A (ja) * 2004-12-27 2006-07-13 Ge Medical Systems Global Technology Co Llc 4次元ラベリング装置、n次元ラベリング装置、4次元空間フィルタ装置およびn次元空間フィルタ装置
JP2006314805A (ja) * 2005-05-13 2006-11-24 Given Imaging Ltd 画像ストリームを表示する方法、撮像器の出力を表示するためのシステム、および画像ストリームを表示するためのシステム
JP2007159641A (ja) * 2005-12-09 2007-06-28 Rf:Kk 画像処理装置及び医療システム
WO2007108280A1 (ja) * 2006-03-15 2007-09-27 Olympus Medical Systems Corp. 医療用画像処理装置及び医療用画像処理方法
US8335361B2 (en) 2006-03-15 2012-12-18 Olympus Medical Systems Corp. Medical image processing apparatus and medical image processing method
WO2007108056A1 (ja) * 2006-03-16 2007-09-27 Fujitsu Limited 画像認識システムおよび画像認識プログラム
US8186289B2 (en) 2008-02-28 2012-05-29 Brother Kogyo Kabushiki Kaisha Sewing machine and computer-readable medium storing control program executable on sewing machine
US8522701B2 (en) 2008-02-28 2013-09-03 Brother Kogyo Kabushiki Kaisha Sewing machine and computer-readable medium storing control program executable on sewing machine
JP2010104421A (ja) * 2008-10-28 2010-05-13 Fujifilm Corp 撮像システムおよび撮像方法
WO2011118287A1 (ja) * 2010-03-24 2011-09-29 オリンパス株式会社 内視鏡装置
JP5771598B2 (ja) * 2010-03-24 2015-09-02 オリンパス株式会社 内視鏡装置
JP2012050600A (ja) * 2010-08-31 2012-03-15 Fujifilm Corp 電子内視鏡システム
JP2013165776A (ja) * 2012-02-14 2013-08-29 Fujifilm Corp 内視鏡システム、内視鏡システムのプロセッサ装置、及び画像生成方法
CN105917397A (zh) * 2014-02-20 2016-08-31 爱信艾达株式会社 注意引导系统、方法以及程序
JP2016052529A (ja) * 2015-10-28 2016-04-14 国立大学法人 千葉大学 パノラマ画像作成プログラム
JP2018125585A (ja) * 2017-01-30 2018-08-09 アルパイン株式会社 周辺状況把握支援システム
JP2020054444A (ja) * 2018-09-28 2020-04-09 株式会社Nttドコモ 口腔癌診断システム及び口腔癌診断プログラム
CN112890736A (zh) * 2019-12-03 2021-06-04 精微视达医疗科技(武汉)有限公司 一种内窥成像系统视场掩模的获得方法及装置
CN112890736B (zh) * 2019-12-03 2023-06-09 精微视达医疗科技(武汉)有限公司 一种内窥成像系统视场掩模的获得方法及装置

Also Published As

Publication number Publication date
US5764809A (en) 1998-06-09
JP3078085B2 (ja) 2000-08-21

Similar Documents

Publication Publication Date Title
JP3078085B2 (ja) 画像処理装置および画像処理方法
JP3347385B2 (ja) 内視鏡画像処理装置
US10068334B2 (en) Reconstruction of images from an in vivo multi-camera capsule
WO2014155778A1 (ja) 画像処理装置、内視鏡装置、プログラム及び画像処理方法
US20120120216A1 (en) Endscope apparatus and program
KR20110016896A (ko) 다차원 영상 생성 방법 및 시스템
US9826884B2 (en) Image processing device for correcting captured image based on extracted irregularity information and enhancement level, information storage device, and image processing method
JP3910239B2 (ja) 医用画像合成装置
US20160295126A1 (en) Image Stitching with Local Deformation for in vivo Capsule Images
CN111508068B (zh) 一种应用于双目内窥镜图像的三维重建方法及系统
JP3438937B2 (ja) 画像処理装置
JP2003179800A (ja) 多視点画像生成装置、画像処理装置、および方法、並びにコンピュータ・プログラム
Haase et al. ToF/RGB sensor fusion for 3-D endoscopy
JP7179837B2 (ja) 内視鏡装置、内視鏡画像表示方法及び内視鏡装置の作動方法
Ben-Hamadou et al. Construction of extended 3D field of views of the internal bladder wall surface: A proof of concept
CN113744266B (zh) 一种病灶检测框的显示方法、装置、电子设备及存储介质
CN108597004A (zh) 基于局部优化算法的牙齿咬合面全景图像拼接方法
CN117710233B (zh) 一种内窥图像的景深扩展方法及装置
US20230081476A1 (en) Method of multiple image reconstruction and registration
JP2908669B2 (ja) 複眼撮像装置
Kshirsagar et al. Depth Estimation Using Stereo Medical Imaging
JPS5969045A (ja) 内視鏡映像システム
Ma et al. A half jaw panoramic stitching method of intraoral endoscopy images based on dental arch arrangement
Hackner et al. 3D Reconstruction of the Colon from Monocular Sequences Evaluation by 3D-printed Phantom Data
JP2006020746A (ja) 画像表示装置

Legal Events

Date Code Title Description
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20000523

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080616

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090616

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090616

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100616

Year of fee payment: 10

LAPS Cancellation because of no payment of annual fees