JP2016519968A - 生体内マルチカメラカプセルからの画像再構築 - Google Patents
生体内マルチカメラカプセルからの画像再構築 Download PDFInfo
- Publication number
- JP2016519968A JP2016519968A JP2016514153A JP2016514153A JP2016519968A JP 2016519968 A JP2016519968 A JP 2016519968A JP 2016514153 A JP2016514153 A JP 2016514153A JP 2016514153 A JP2016514153 A JP 2016514153A JP 2016519968 A JP2016519968 A JP 2016519968A
- Authority
- JP
- Japan
- Prior art keywords
- image
- images
- camera
- capsule
- sets
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 239000002775 capsule Substances 0.000 title claims abstract description 105
- 238000001727 in vivo Methods 0.000 title abstract description 7
- 238000000034 method Methods 0.000 claims abstract description 74
- 230000033001 locomotion Effects 0.000 claims description 56
- 239000002131 composite material Substances 0.000 claims description 48
- 210000001035 gastrointestinal tract Anatomy 0.000 claims description 48
- 230000009466 transformation Effects 0.000 claims description 17
- 238000005286 illumination Methods 0.000 claims description 16
- 230000002572 peristaltic effect Effects 0.000 claims description 5
- 238000010801 machine learning Methods 0.000 claims description 3
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 claims description 2
- 238000011156 evaluation Methods 0.000 claims 1
- 238000002156 mixing Methods 0.000 description 16
- 239000011159 matrix material Substances 0.000 description 12
- 230000008602 contraction Effects 0.000 description 11
- 230000008569 process Effects 0.000 description 10
- 238000013519 translation Methods 0.000 description 10
- 238000003384 imaging method Methods 0.000 description 9
- 239000013598 vector Substances 0.000 description 9
- 238000004364 calculation method Methods 0.000 description 8
- 230000008859 change Effects 0.000 description 8
- 230000000968 intestinal effect Effects 0.000 description 8
- 238000006243 chemical reaction Methods 0.000 description 6
- 230000000694 effects Effects 0.000 description 6
- 230000004927 fusion Effects 0.000 description 6
- 230000005540 biological transmission Effects 0.000 description 4
- 239000000470 constituent Substances 0.000 description 4
- 238000001514 detection method Methods 0.000 description 4
- 230000006870 function Effects 0.000 description 4
- 238000007689 inspection Methods 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 4
- 238000011160 research Methods 0.000 description 4
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 description 3
- 208000037062 Polyps Diseases 0.000 description 3
- 238000004458 analytical method Methods 0.000 description 3
- 238000003491 array Methods 0.000 description 3
- 238000000605 extraction Methods 0.000 description 3
- 230000001575 pathological effect Effects 0.000 description 3
- 206010002091 Anaesthesia Diseases 0.000 description 2
- 241000282320 Panthera leo Species 0.000 description 2
- 230000037005 anaesthesia Effects 0.000 description 2
- 210000001072 colon Anatomy 0.000 description 2
- 238000010276 construction Methods 0.000 description 2
- 238000006073 displacement reaction Methods 0.000 description 2
- 230000002496 gastric effect Effects 0.000 description 2
- 230000007935 neutral effect Effects 0.000 description 2
- 238000005457 optimization Methods 0.000 description 2
- 210000000056 organ Anatomy 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 230000008855 peristalsis Effects 0.000 description 2
- 230000002829 reductive effect Effects 0.000 description 2
- 230000003068 static effect Effects 0.000 description 2
- 238000000844 transformation Methods 0.000 description 2
- 208000012661 Dyskinesia Diseases 0.000 description 1
- 206010028980 Neoplasm Diseases 0.000 description 1
- 230000002159 abnormal effect Effects 0.000 description 1
- 230000005856 abnormality Effects 0.000 description 1
- 230000002547 anomalous effect Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000000701 chemical imaging Methods 0.000 description 1
- 230000001427 coherent effect Effects 0.000 description 1
- 230000006835 compression Effects 0.000 description 1
- 238000007906 compression Methods 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000009795 derivation Methods 0.000 description 1
- 230000009429 distress Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 210000003238 esophagus Anatomy 0.000 description 1
- 230000029142 excretion Effects 0.000 description 1
- 239000010794 food waste Substances 0.000 description 1
- 239000000383 hazardous chemical Substances 0.000 description 1
- 230000036541 health Effects 0.000 description 1
- 231100000206 health hazard Toxicity 0.000 description 1
- 230000001939 inductive effect Effects 0.000 description 1
- 230000002045 lasting effect Effects 0.000 description 1
- 230000000670 limiting effect Effects 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 238000013178 mathematical model Methods 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 230000035515 penetration Effects 0.000 description 1
- 230000003449 preventive effect Effects 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 210000000664 rectum Anatomy 0.000 description 1
- 230000008929 regeneration Effects 0.000 description 1
- 238000011069 regeneration method Methods 0.000 description 1
- 230000001105 regulatory effect Effects 0.000 description 1
- 238000005316 response function Methods 0.000 description 1
- 230000002441 reversible effect Effects 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 210000000813 small intestine Anatomy 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
- 230000002747 voluntary effect Effects 0.000 description 1
- 239000002699 waste material Substances 0.000 description 1
Images
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/00002—Operational features of endoscopes
- A61B1/00004—Operational features of endoscopes characterised by electronic signal processing
- A61B1/00009—Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
- A61B1/000094—Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope extracting biological structures
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/00002—Operational features of endoscopes
- A61B1/00004—Operational features of endoscopes characterised by electronic signal processing
- A61B1/00009—Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
- A61B1/000096—Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope using artificial intelligence
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/04—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
- A61B1/041—Capsule endoscopes for imaging
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T11/00—2D [Two Dimensional] image generation
- G06T11/60—Editing figures and text; Combining figures or text
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/80—Geometric correction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0012—Biomedical image inspection
- G06T7/0014—Biomedical image inspection using an image reference approach
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/13—Edge detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/136—Segmentation; Edge detection involving thresholding
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/174—Segmentation; Edge detection involving the use of two or more images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/30—Determination of transform parameters for the alignment of images, i.e. image registration
- G06T7/33—Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
- G06T7/337—Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods involving reference images or patches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/30—Determination of transform parameters for the alignment of images, i.e. image registration
- G06T7/37—Determination of transform parameters for the alignment of images, i.e. image registration using transform domain methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/40—Analysis of texture
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/50—Constructional details
- H04N23/51—Housings
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/80—Camera processing pipelines; Components thereof
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/90—Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/222—Studio circuitry; Studio devices; Studio equipment
- H04N5/262—Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
- H04N5/265—Mixing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10068—Endoscopic image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20048—Transform domain processing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20072—Graph-based image processing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20212—Image combination
- G06T2207/20221—Image fusion; Image merging
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30028—Colon; Small intestine
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30028—Colon; Small intestine
- G06T2207/30032—Colon polyp
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Surgery (AREA)
- Medical Informatics (AREA)
- Signal Processing (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Radiology & Medical Imaging (AREA)
- General Health & Medical Sciences (AREA)
- Animal Behavior & Ethology (AREA)
- Biophysics (AREA)
- Heart & Thoracic Surgery (AREA)
- Public Health (AREA)
- Veterinary Medicine (AREA)
- Biomedical Technology (AREA)
- Pathology (AREA)
- Optics & Photonics (AREA)
- Molecular Biology (AREA)
- Multimedia (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Quality & Reliability (AREA)
- Endoscopes (AREA)
- Image Processing (AREA)
- Geometry (AREA)
- Image Analysis (AREA)
Abstract
生体内マルチカメラカプセルからの画像の再構築の方法及び装置が開示されている。本発明の一つの具体的な実施例においては、カプセルは、オーバラップ視界(FOV)を有する2つのカメラを含む。内部画像基準の姿勢推定はオーバラップエリアに関連する部分画像に適用され、カプセル装置の姿勢推定を改善する。本発明の別の具体的な実施例においては、視差調整されたオーバラップ部分画像の線型重み付け合計を利用することにより、前記2つの視界に対応する2つの画像が融合される。さらに別の具体的な実施例においては、タイムインスタンス表示のために、マルチカメラカプセルからの画像はステッチされる。
Description
本発明は、2013年5月29日付で出願されて名称が“Reconstruction of Images from an in vivo Multi-Cameras Capsule”である整理番号第61/828,653号米国仮特許出願の優先権を主張する。本発明は、2006年12月19日付で出願されて名称が“In Vivo Image Capturing System Including Capsule Enclosing A Camera”である整理番号第11/642,275号米国特許出願、2008年11月25日付で出願されて名称が“Camera System with Multiple Pixel Arrays on a Chip”である整理番号第12/323,219号米国特許出願、2010年10月19日付で出願されて名称が“Panoramic Imaging System”である整理番号第7,817,354号米国特許、及び2012年9月25日付で出願されて名称が“Camera System with Multiple Pixel on a Chip”である整理番号第13/626,168号米国特許出願に関するものである。ここに上記米国仮特許出願、米国特許出願、及び米国特許の全体内容を引用し併合した。
本発明は、マルチカメラ付の生体カプセルを使用して取り込んだ画像からの画像再構築に関する。
生体の体腔または管を撮像する装置は当分野において知られており、内視鏡と自主カプセルカメラを含む。内視鏡は、開口部または手術の切口から体内に挿入され、一般的に口を介して食道に、または直腸を介して結腸に進入するフレキシブルまたは剛性パイプである。画像は、レンズを用いて遠位端に形成され、レンズリレーシステムまたはコヒレント光ファイバーによって近位端、すなわち体外に伝送される。概念上に類似の道具は例えばCCDやCMOSアレイを用いて、遠位端で電子的に画像を記録し、ケーブルを介して前記画像データを電気信号として近位端に転送してもよい。内視鏡は、その視界を医者が制御することが許容され、広く利用されている診断ツールである。しかしながら、それらは確かにいくつの制限があり、患者にリスクを負担させ、患者にとっては侵入性であり不快感を感じさせている。それらのコストは、定期健康診断ツールとしての応用を制限している。
曲りくねる通路を通過することは困難であるので、内視鏡は小腸の大半に達することができない。これにより、結腸全体に達するのには特殊な技術及び予防処置が必要になり、コストが高くなる。内視鏡のリスクは、通過した肉体器官の貫通、及び麻酔による併発症を含む。また、治療期間における患者の苦痛、健康危害、及び麻酔関連のプロセス後の休止時間の間のトレードオフも必要である。内視鏡は、臨床医の時間を大量に占用する必要な医療資源であるので、コストがかかる。
これら数多くの問題を対処する他の生体内イメージセンサはカプセル内視鏡である。カメラは、データをベースステーション受信機または送受信機に伝送する無線(radio)伝送器と共に、嚥下可能なカプセル内に収納される。体外のデータ記録器を伝送されるデータの受信と記録に利用してもよい。データは主にデジタルカメラが記録した画像を含んでいる。無線周波数の送信以外に、周波数の低い電磁信号を使用してもよい。電力は、誘導方式により外部インダクタから内部インダクタに供給されてもよく、またはカプセル内のバッテリーから供給されてもよい。
2006年9月19日にて提出されて出願名称が“In Vivo Autonomous Camera with On-Board Data Storage or Digital Wireless Transmission in Regulatory Approved Band”の第11/533,304号米国特許出願には、内蔵データストレージ付の自律型カプセルカメラシステムが開示されている。当該出願には、たとえば半導体不揮発性アーカイバルメモリを使用して撮像した画像を保存するカプセルシステムが開示されている。カプセルは、人体から離脱した後、回収される。カプセルハウジングを開封して、保存された画像はコンピュータワークステーションに転送され、保存及び分析に用いられる。無線送信を介して受信され、または内蔵ストレージから取り出されたいずれのカプセル画像は、診断医により表示及び検査が行われ、その潜在的異常現象を判別する必要がある。
上記前面撮像型カプセルカメラの他には、側面図またはパノラマ図を提供するカプセルカメラがある。組織表面を適宜に検査するため、側辺または反転角は必要である。従来の装置は、その視界(FOV)が実質的に前面撮像型であるので、このような表面を見ることはできない。的確に診断できるように、ポリープまたは他の不規則体を徹底的に観察することが必要であるため、医者にこれらの器官のすべてのエリアを見せることが重要である。従来のカプセルはリブ部周辺の隠蔽されたエリアを見えないため、不規則体を見逃される可能性があり、深刻な医療状況における重要な診断に欠陥がある恐れがある。2006年12月19日にて提出されて出願名称が“In vivo sensor with panoramic camera”という第11/642,275号米国特許出願には、カメラ周辺環境のパノラマ画像を撮像するように配置されたカメラが開示されている。パノラマカメラシステムには、カプセル縦軸に対して視角範囲によって限定される縦方向視界(FOV)、及び縦軸近傍方位角のパノラマ範囲によって限定される緯度視界が配置されており、カメラが実質的に360°緯度方向FOVのパノラマ画像を撮像できるようにした。
概念的には、複数の独立したカメラを360°緯度方向のFOVを完全または実質的にカバーするように配置してもよい。しかしながら、このようなパノラマカプセルシステムは、複数の画像センサまたは関連電子装置が必要となり、高価になる可能性がある。2007年1月17日にて提出されて出願名称が“Panoramic Imaging System”である第11/624,209号米国特許出願には、コスト効率の高いパノラマカプセルシステムが開示されている。当該パノラマカプセルシステムには、360°の視野を占めることができるように、複数の視界を合併されて配置された光学システムが使用されている。また、合併された視界を単一のセンサに投影して、コストが削減されている。これにより、当該単一センサカプセルシステムは低コストで効率的に複数のカメラとしての機能を果たしている。パノラマ図をサポートするセンサ構造及び操作については、2008年11月25日にて提出されて出願名称が“Camera System with Multiple Pixel Arrays on a Chip”である第12/323,219号米国特許出願、及び2012年9月25日にて提出されて出願名称が“Camera System with Multiple Pixel Arrays on a Chip”という第13/626,168号米国特許出願でさらに説明する。
自律型カプセルシステムにおいて、カプセルカメラが消化管(GI)を通過する時には、通過の期間に複数の画像とその他のデータを収集する。一般的には、画像及びデータは診断医または医療専門家の検査のため、表示装置で表示される。検査効率を向上させるために、たとえば表示速度、早送り、巻き戻し、及び停止などの表示制御により画像を映像のように連続表示し、ユーザが画像序列を介して容易に検索することができる。画像を収集し映像データとして表示させることにより、検査の効率を実質的に改善することができる。しかしながら、それぞれの画像は消化管における小さいセクション制限された視野しか提供されていない。カプセル画像を一枚の消化管表面断面図である大きい画像に合併させることが好ましい。ユーザは、高解像度の大画面表示装置を利用して、その大きい画像からより多くの情報を閲覧できる。画像の間の余ったオーバラップ領域を取り除いた後、大面積の内消化管表面が同時に閲覧できる。また、大きい画像は内消化管表面の全体図または重要部位を提供することが可能である。診断医または医療専門家はたとえばポリープなどの注目エリアをより容易かつ迅速に認識するはずである。
本願は、カプセルハウジング内に固定配置されており、任意の2つの隣接しているカメラの間にオーバラップ視界(FOV)を有する複数のカメラを含むカプセル装置を用いて撮像した人体消化管(GI)の画像を表示する方法であって、前記複数のカメラが撮像した複数の画像序列を別々に受信するステップであって、前記複数の画像序列は内部画像の複数セットを含み、iセット目の内部画像はタイムインデックスiにおいて複数のカメラが撮像した同時画像に対応するステップと、異なるタイムインスタンスに対応する前記内部画像の複数セットをステッチして合成画像を生成するステップと、表示装置に前記合成画像を表示させるステップとを含む、方法を提供する。
本明細書及び図面に説明または示されるように、本発明の要素は、様々の異なる態様を利用して設置及び設計されることは容易に理解される。そのため、図に示されるように、下記の本発明のシステム及び方法の具体的な実施例はのより詳細の説明は、特許請求の範囲の通り、本発明の範囲を限定するものではなく、本発明の選択される具体的な実施例を示すだけのものである。本明細書に参照される“1つの具体的な実施例”、“一つの具体的な実施例”、または似たような用語は、具体的な実施例と合わせて説明される特定の特徴、構造または特性を本発明の少なくとも一つの具体実施例に含ませることを意味する。従って、本明細書の全文に渡って様々な箇所にある“一つの実施例においては”または“一実施例においては”という用語は、必ずしも全部が同じ具体的な実施例を指しているものではない。
また、記載された特徴、構造または特性はいかなる適切な方法により、1つまたは多数の実施例に組み合わせられてもよい。当業者は、1つまたは多数の特定な詳細なしに、または他の方法や部材などにより、本発明は実施することができると認識している。他の実例において、本発明を紛らわしくさせないために、周知構造及び操作は詳細に表示または記載しない。本発明の図示された実施例は、全文に渡って似ている部材が似ている符号が割り当てられる図面を参照すればよく理解できる。下記説明は、単に例示であって、装置及び方法のある選択された実施例を簡単に説明するものであり、特許請求の範囲に記載の発明と一致している。
自律型カプセルカメラが人体消化管を通過し、画像を生成する過程において、通常は数万枚の画像を撮像する。それぞれの画像はカメラ光学装置の視界内のシーンに対応する。そのカプセルは前面カメラまたは側面カメラを有してもよい。どちらも、それぞれのカメラは消化管表面の非常に小さいエリアまたはセグメントに対応する。計算撮影の領域において、画像モザイキング技術は、小さい画像を大きい画像にステッチすることに発展している。上記の技術はコンシューマデジタルカメラに使用されることにより、ユーザはカメラを旋回させることによりパノラマ画像が撮像できる。パノラマ全自動構築は、Brown 及び Lowe により、Proceeding of Ninth IEEE International Conference on Computer Vision 第2巻1218〜1225ページ目の“Recognising Panoramas”という文献に開示されている。BrownとLoweは、回転及びスケール不変局所特徴に基づいた画像マッチング技術を使用してマッチする画像を選択し、確率モデルを利用して検証を行う。この方法は画像の順番、方向、スケール及び照度に敏感ではなく、ノイズを有する画像に対しても敏感ではない。画像アラインメント及びステッチの一般的な技術については、2006年12月10日のMicrosoft Research Technical Report MSR-TR-2004-92、Szeliskiが記述した“Image Alignment and Stitching: A Tutorial”に見られる。
画像モザイキングのために、まず、画像間の対応の部分、オブジェクト、エリアを識別する。対応の部分、オブジェクト、エリアを識別した後、対応の部分、オブジェクト、エリアをアラインメントすることにより、画像をステッチする。両画像は画素ドメインにおいて直接マッチすることができ、また、画像基準の画像マッチングはダイレクトマッチングとも呼ばれる。しかしながら、これは非常に高密度の計算が伴う。代替的な手段として、特徴基準の画像マッチングが用いられる。画像毎に1セットの特徴ポイントを決定し、対応の特徴記述子を比較することによりマッチングを行う。特徴ポイントの数は、一般的には対応画像の画素の数よりはるかに少ない。これにより、特徴基準の画像マッチングの計算負荷は、実質的に画像基準の画像マッチングよりも少ない。しかしながら、ペアワイズのマッチングは依然として時間がかかる。一般的にはk-dツリーを用いてこのプロセスを加速させる。よって、特徴基準の画像マッチングは当分野において広く利用されている。それでも、特徴基準のマッチングはある種の画像に対して有効に機能することができない。この状況において、ダイレクトマッチングを予備モードとして利用し、または上記2つの方法の組み合わせを利用することが好ましい。
2つの画像において特徴ポイントを決定するとき、選択された基準における両セットの最適マッチングを識別することにより、両特徴セットをマッチングする。特徴ポイントは非平面のシーンにおけるある異なる特徴に対応する。このマッチングは、2つの画像の画像撮像期間において、シーンの中のオブジェクトの三次元幾何態様を考慮する必要がある。従って、この両セットの特徴ポイントは、二次元並進以上の数学モデルに基づいて行っている。この両セットの特徴ポイントを関連付けられる様々の変換モデルがある。1つは、回転及び並進に関連する剛体モデルが一般的に使われている。xi(i∈[1,m])とyi(i∈[1,q])とをそれぞれ画像IAとIBの特徴ポイントの3×1の列ベクトルに対応させる。XとYとは、xiとyiとをそれぞれの列ベクトルとする3×mの行列と3×qの行列である。特徴ポイントyiは(Ryj(P)−t)<->xiに基づいて、xiとマッチングし、ここで、Rは3×3の回転行列であり、tは3×1の並進ベクトル(translation vector)であり、Pはm×qの順序行列であり、ここで、xiとyiとがマッチングした場合、pij=1であり、そうではない場合には0である。L2(平方)誤差測度を用いると、与えられた回転R、並進t、及び順序Pに対するL2誤差は:
3×q行列TをT=[t,t,…,t]に定義すると、上記の式を
に書き換える。
全ての可能性のある回転及び順序に対して、式(2)における誤差測度を最小化にすることにより、当該両セットの特徴の間に最適のマッチングを求めることができるが、これにより克服し難い計算負荷が生ずる可能性がある。回転及び順序を同時に最適化する際の計算複雑性の問題を克服するために、最適化のプロセスを2つのサブ問題に分割し、2007年10月14〜21日、Proceedings of IEEE 11th International Conference on Computer Vision1〜8ページ目、Liなどが提出した“The 3D-3D Registration Problem Revisited”に記載された逐次法を利用して解を求めることができる。画像を与え、画像マッチングを適用することにより、対応性を求める順序ステップを簡略化できる。一般的には、ランダムサンプルコンセンサス(RANSAC)と最小二乗法(LMS)を利用して、最適変換を求める。
特徴基準の画像レジストレーションの回転モデルのほか、複数の画像の間の特徴ポイントの関係を説明する他の変換モデルがある。たとえば、2006年12月10日、Microsoft Research Technical Report MSR-TR-2004-92の“Image Alinment and Stitching: A Tutorial”にて、Szeliskiにおいて、全ての画像に関連する回転及びカメラ焦点距離に関するモデルが開示していた。そして回転行列及び焦点距離アップデートは最適マッチングの特定に用いられる。ステッチ問題については、二次元画像座標のみを考慮する。2つの画像ポイントの間の変換は、下記の式を利用して計算することができる:
ここで、uiとujは、ui=[xi,yi,1]とuj=[xj,yj,1]の同次座標である。Kは焦点距離及びその他のカメラパラメータを含む3×3カメラ内部行列である。RiとRjは各カメラの3×3回転行列である。Hijは2つの画像の間の3×3変換行列であり、ホモグラフィーとしられている。より一般的には、Hijは2つの未知数(並進)、4つの未知数(並進+回転)、6つの未知数(アフィン)、または8つの未知数(投影)を有してもよい。一般的には、ホモグラフィーは2つの画像の間の線型変換を意味する。
カプセルカメラの応用において、一連の画像は消化管を通過する期間において収集される。対応の部分、オブジェクトまたはエリアを識別かつマッチングでき、また画像をステッチして閲覧用の大きい合成画像を形成することが望ましい。上記で説明した識別、マッチング及び画像をステッチする技術はカプセルカメラ応用に関するものである。しかしながら、カプセル画像においては、その状況は更に挑戦的である。まず、物体距離(消化管表面からカメラまで)は、通常非常に接近している。よく使われているアフィンカメラモデルは、カメラとの距離に比べて画像に見えるポイントセットの深度変化は小さい場合に有効なモデルである。カプセルカメラシステム環境において、内腔壁とカメラとの間の短い距離、及び折畳みまたは他の理由による内腔壁の凸凹により、アフィンカメラモデルを無効にしてしまう。その代わりとして、投影モデルのようなより複雑なモデルを考慮しなければならない。
距離の問題以外に、消化管の蠕動は、撮像された画像に顕著な動きをもたらす。このような局所的な変形は前記のような線型変換で処理できない。式(3)における変換行列Hijは非線型変換関数f、すなわちui=f(uj)に置き換えられる。このような非線型変換関数は、シンプレート、放射基底関数などを含む。この問題を解決するには、非常に複雑な非線型最適化プロセスが伴う。一方、カプセル画像のフレーム再生速度は遅いため(数秒で一画面ないし一秒あたり数個の画面程度)、連続する画像間の動きは目立っていてもよい。画像マッチング研究の大部分は、シーンは一部の動きオブジェクトに対して静止状態を呈する。通常、オーバラップエリアに対して動くオブジェクトがカバーされたエリアは小さい。従って、一般的には、画像マッチングは、合理的パフォーマンスを許容するオーバラップ静止エリアを有する。一方、2つの連続するカプセル画像は、内腔壁の変形及びカメラの動きにより、2つの異なる内腔壁シーンに対応することがある。本発明にかかる一つの方法によれば、カプセル内の複数のカメラを利用してオーバラップ部分を有する複数のカプセル画像を同時に撮像し、カメラの信頼性を向上させる。2つの画像のオーバラップエリアは同時に撮像されたので、2つのオーバラップエリア間の相対運動が伴わない。従って、各タイムインスタンスにおいて、オーバラップエリアに対してより信頼性の高い剛体カメラモデルが導出されるので、複数のカメラのオーバラップエリア間の動きを配慮する必要はない。各タイムインスタンスにおいて大きな画像を合併すれば、異なるタイムフレーム間に、より多くのオーバラップエリアをステッチに用いられる。消化管の一部のセクションに対応する画像には少数の特徴が含まれていることが観察されている。本発明の一つの具体的な実施例において、画像特徴の導出は、画像の強度、階調度及び明暗情報に基づくものであってもよい。近傍フィールドの証明の校正も必要である。
図1Aは、本発明一つの実施例にかかる例示的マルチカメラ配置を示している。レンズ101とレンズ102が、視界(FOV)111及び112のそれぞれのシーンの画像センサの各部分に投影する。視界111と視界112には、オーバラップエリア120を有する。図1Bのように、レンズ101と102に対応するシーンを画像センサ151と152の各部分に投影させる。図1Bのように、オーバラップエリア120のシーンを画像センサ151のエリア161、及び画像センサ152のエリア162に投影させる。破線矢印171及び172はオーバラップエリア120の中央線を示す。レンズ101及び102はともに図1Aに図示していないカプセルハウジング内に固定設置されている。これにより、この2つのレンズの相対位置及び方向を維持する。カプセル内のカメラの光学システムを校正し、この2つのレンズに適宜整合することができる。校正後、オーバラップエリアの中央線130を画像センサの既知位置171と172に投影させる。本発明の一配置によれば、位置171と172をオーバラップエリアの中央に対応させるように、画像センササブエリア151と152とを適宜位置決めてもよい。周辺表面とカメラとの間に異なる距離がある場合には、破線矢印171と172をオーバラップエリア161と162の中央線に位置させることができない。図1Aに示されるマルチカメラ配置は、2つの独立視界に対応する2つの画像を合併されることにより、拡張された視界を提供できる。
各画像におけるオーバラップエリアは、カメラの姿勢位置により導出または制限される。また、カメラの姿勢パラメータを画像間の変換の初期化に用いられる。本発明の別の実施例において、カプセルの一側面は消化管に接触している。これにより、撮像表面は円柱の一部である。オーバラップエリアは2つの隣接するカメラのオーバラップ視界によって決定されてもよい。一つの具体的な実施例において、サブ画素まで画像マッチングを最適化してもよい。別の具体的な実施例において、カメラに保存された校正画像を使用して、マルチカメラのカメラ姿勢位置を導出してもよい。さらに別の具体的な実施例において、これらカメラ姿勢パラメータを画像間変換の制限に用いてもよい。
<内部画像ステッチ>
図2は、本開示に使用される一部の命名習慣を示している。画像IAとIBは、それぞれ画像センササブエリア151と152で撮像した画像を示す。各画像が重ねていないエリア(IAまたはIB)とオーバラップエリア(IA”またはIB”)から構成される。校正後、一定の精度でオーバラップエリアIA”とIB”が決定される。従来のカメラシステムは一回で1つの画像(たとえば、IA”)しか撮像しない。画像マッチング、レジストレーション及びモザイキングは対応する画像序列IA”に基づき、また、jは画像序列のタイムインデックスである。本発明の一つの具体的な実施例が併合している例示的システムは、2つのオーバラップエリアに対応するサブ序列IAj”とIBj”を含む2つの同時の序列IAjとIBjを撮像する。
図2は、本開示に使用される一部の命名習慣を示している。画像IAとIBは、それぞれ画像センササブエリア151と152で撮像した画像を示す。各画像が重ねていないエリア(IAまたはIB)とオーバラップエリア(IA”またはIB”)から構成される。校正後、一定の精度でオーバラップエリアIA”とIB”が決定される。従来のカメラシステムは一回で1つの画像(たとえば、IA”)しか撮像しない。画像マッチング、レジストレーション及びモザイキングは対応する画像序列IA”に基づき、また、jは画像序列のタイムインデックスである。本発明の一つの具体的な実施例が併合している例示的システムは、2つのオーバラップエリアに対応するサブ序列IAj”とIBj”を含む2つの同時の序列IAjとIBjを撮像する。
サブ序列IAj”とIBj”は同じシーンに対応しているので、マッチング及びレジストレーションのプロセスに付加の制限条件が与えられる。例えば、タイムインスタンスjにおいて、回転RABj及び焦点距離fAjとfBjに基づいたカメラモデルを2つの画像IAj”とIBj”間の画像マッチング及びレジストレーションに用いる。言い換えれば、これら2つの画像間の変換は、式(3)を用いて説明することができる。
従来のシステムでは、1つの序列しか撮像しない。特徴取出、画像マッチング及びレジストレーションはこの1つの序列に基づいて行われる。本発明の一つの具体的な実施例にかかるマルチカメラが併合していたシステムでは、単一の画像序列で従来の特徴取出、画像マッチング及びレジストレーションを行うことができる。また、複数の序列における既知オーバラップエリアを用いて、信頼性の改善及び/またはより早い演算法収束によりシステムパフォーマンスを改善することができる。M個のカメラ及びカメラ毎に撮像されたN個の画像がある場合、あわせてN×M個の画像がある。1つの選択は、制限なしで全セットの画像をステッチする。消化管の局所変形により、2つの画像間の全ての変換は非線型モデルが使用される。加速かつパフォーマンスを向上させるためのもう1つの選択は、ツーステップステッチを適用することである。各タイムインデックスは、異なるカメラからのM個の画像を有する。それらは同じ時間で撮像されたので、M個の画像のオーバラップエリアには、同じ内容が観察されているはずである。言い換えれば、このM個の画像間には局所的な変形がない。便宜上、これらM個のカメラにより同じ時間で撮像されたM個の画像を内部画像と呼ばれる。これにより、より簡単かつ早く解ける線型カメラモデルを利用してM個の画像をステッチすることができる。N個の構成画像は非線型カメラモデルでステッチすることができる。変換ミスを回避するために、1つの構成画像内のM個の内部画像に対して導出されたH行列は、マルチカメラの既知カメラ相対位置に一致する必要がある。精細化が必要である場合、カメラが保存したまたは他の方法で取得できる画像データを、マルチカメラの精度アブソリュートと相対位置の決定に用いる。
<オーバラップエリアの画像融合>
ユーザにとって、2つの独立した画像の代わりに、IAjとIBjを使用してワイド画像を「構成(composing)」することにより、2つの視界に対応する2つの画像はより閲覧しやすい。図3は本発明の一つ具体的な実施例にかかる線型重み付けと線型視差調整を利用した画像融合の実施例を示している。カメラ光学機器は適宜校正されたので、二本の破線において、オーバラップエリアにおける2つのカメラシーンを特定の視角に整合したことができる。画像構成の簡単の方法は、破線171と172においての切り取り及びスライスにより達成される。しかしながら、種々の深度を有する周辺表面に対しては実現できない。それでも、シームレス画像合併されは2つのオーバラップエリアを“融合する”ことにより達成される。例えば、ラプラシアンピラミッド混合法及びグラディアントドメイン混合法といったより高度な融合/混合技術がある。基本的に、混合は異なる周波数領域にて発生する。更なる詳細は、2006年10月10日、Microsoft Research Technical Report MSR-TR-2004-92、Szeliskiによる“Image Alignment and Stitching: A Tutorial”に記載される。
ユーザにとって、2つの独立した画像の代わりに、IAjとIBjを使用してワイド画像を「構成(composing)」することにより、2つの視界に対応する2つの画像はより閲覧しやすい。図3は本発明の一つ具体的な実施例にかかる線型重み付けと線型視差調整を利用した画像融合の実施例を示している。カメラ光学機器は適宜校正されたので、二本の破線において、オーバラップエリアにおける2つのカメラシーンを特定の視角に整合したことができる。画像構成の簡単の方法は、破線171と172においての切り取り及びスライスにより達成される。しかしながら、種々の深度を有する周辺表面に対しては実現できない。それでも、シームレス画像合併されは2つのオーバラップエリアを“融合する”ことにより達成される。例えば、ラプラシアンピラミッド混合法及びグラディアントドメイン混合法といったより高度な融合/混合技術がある。基本的に、混合は異なる周波数領域にて発生する。更なる詳細は、2006年10月10日、Microsoft Research Technical Report MSR-TR-2004-92、Szeliskiによる“Image Alignment and Stitching: A Tutorial”に記載される。
<マルチカメラからの序列の画像ステッチ>
カプセルカメラシステムは、消化管を通過する期間において数万枚の画像を撮ることができる。デジタル無線送信または内蔵ストレージのいずれかを有するカプセルシステムにおいて、医療専門家の分析及び検査のために、撮像された画像が再生される。閲覧の効率を向上させるためには、一般的には、撮像された画像がビデオ序列として連続再生される。再生期間に、診断医はできるだけ迅速かつ効率的にポリープ又はほかの注目ポイントを探し出すことができる。再生は制御可能なフレームレートにおいて実行でき、また閲覧時間を短縮するようにフレームレートを増加することが可能である。撮像された画像の数は膨大であるため、映像として画像を連続再生されても、全ての画像を閲覧するには時間がかかる。例えば、1秒当たり30フレームで30,000個のビデオ序列となる画像を閲覧するには、中断なしに16.67分閲覧する必要がある。異常現象の可能性の精密検査のための一時停止、低フレーム再生及び逆サーチを考慮すると、検査を完了するには30分またはそれ以上の時間がかかる。通常、典型的のカプセル画像は表示装置が支援できる解像度よりかなり低い解像度を有する。これにより、通常は、表示画面の一部しか利用されない。また、連続画像は通常、実質的なオーバラップエリアを有する。これにより、画像をビデオ序列に表示する方法の代わりとして、画像をステッチして、1つまたは複数の大きい合成画像を形成することができる。大きい合成画像は消化管内表面の断面図に対応する。もう一つの実施例において、ステッチ画像はトンネル像に形成される。医療専門家が消化管のいかなる異常現象または消化管の健康部分を迅速に識別できるように、高解像度表示装置にて大きい合成画像を表示させてもよい。合成画像サイズは表示装置の解像度より大きい場合には、合成画像を縮小表示してもよい。あるいは、一部の合成画像を表示し、かつ画像を移動させる操作を許容するユーザインターフェイスを提供してもよい。
カプセルカメラシステムは、消化管を通過する期間において数万枚の画像を撮ることができる。デジタル無線送信または内蔵ストレージのいずれかを有するカプセルシステムにおいて、医療専門家の分析及び検査のために、撮像された画像が再生される。閲覧の効率を向上させるためには、一般的には、撮像された画像がビデオ序列として連続再生される。再生期間に、診断医はできるだけ迅速かつ効率的にポリープ又はほかの注目ポイントを探し出すことができる。再生は制御可能なフレームレートにおいて実行でき、また閲覧時間を短縮するようにフレームレートを増加することが可能である。撮像された画像の数は膨大であるため、映像として画像を連続再生されても、全ての画像を閲覧するには時間がかかる。例えば、1秒当たり30フレームで30,000個のビデオ序列となる画像を閲覧するには、中断なしに16.67分閲覧する必要がある。異常現象の可能性の精密検査のための一時停止、低フレーム再生及び逆サーチを考慮すると、検査を完了するには30分またはそれ以上の時間がかかる。通常、典型的のカプセル画像は表示装置が支援できる解像度よりかなり低い解像度を有する。これにより、通常は、表示画面の一部しか利用されない。また、連続画像は通常、実質的なオーバラップエリアを有する。これにより、画像をビデオ序列に表示する方法の代わりとして、画像をステッチして、1つまたは複数の大きい合成画像を形成することができる。大きい合成画像は消化管内表面の断面図に対応する。もう一つの実施例において、ステッチ画像はトンネル像に形成される。医療専門家が消化管のいかなる異常現象または消化管の健康部分を迅速に識別できるように、高解像度表示装置にて大きい合成画像を表示させてもよい。合成画像サイズは表示装置の解像度より大きい場合には、合成画像を縮小表示してもよい。あるいは、一部の合成画像を表示し、かつ画像を移動させる操作を許容するユーザインターフェイスを提供してもよい。
画像ステッチ又は画像モザイキング技術はデジタル撮影分野において周知されている。画像ステッチまたは画像モザイキングプロセスには、1つのシーンをカバーし、画像間に常に適宜の画像アラインメントができるようにオーバラップエリアを有する1セットの画像が入力される。ステッチの前に、画像を整合またはマッチングする必要がある。直接(画像基準)アラインメント及び特徴基準のレジストレーションのいずれも利用可能である。一般的には、特徴基準のマッチングは必要計算量の削減に用いられる。この段階において、低計算負荷を維持するために、画像マッチングは、通常、独立してペアで行われる。しかしながら、独立マッチングは大きな全体的なアラインメント誤差を生じうる。全体的なアラインメント誤差を減少させるために、バンドル調整法と呼ばれるプロセスを全画像の姿勢パラメータの同時調整に適用される。バンドル調整の期間において、適宜アラインメントできない画像は削除され、画像合併される際の潜在的アーティファクトが緩和される。バンドル調整後、対となる画像は、ステッチまたは構成により大きい画像を形成する用意ができる。すべての画像の重ね合わせが完成した後、選択された複合表面及び閲覧に対して、最終の画像構成が行われる。続いて、適宜な重み付け及び混合を利用して、ソース画素が最終合成表面に対応付けられる。
消化管壁の焦点距離及び局所移動距離が相対的に短いため、デジタル撮影に比べ、カプセル画像の画像ステッチはより困難である。また、カプセルカメラが消化管を通過するとき、縦方向移動以外に、回転もする。図4Aは、ツーカメラ側面視カプセル装置がカプセル回転を受けて撮像した画像の実施例を示しており、ここで、水平方向は消化管に沿った縦方向に対応する。カプセル回転により、撮像された画像は縦方向に垂直な方向に変位されている(即ち、上方変位または下方変位)。カプセル装置は消化管の蠕動により動かされているので、フレームからフレームへの移動量は一意にはならない。
従来の画像ステッチにおいて、全ての画像のペアのオーバラップエリアは、本質的に画像マッチング期間中において決定されている。基本的には、特徴取出及びマッチングは画像全体にわたって適用される。従って、大部分のマッチされた特徴ペアはオーバラップエリアに位置される。本発明にかかるシステムでは、全ての画像のペアにおけるオーバラップエリアは動き情報に基づき決定される。運動推定技術は当分野においては周知されている。ブロック運動推定及びオプティカルフロー運動推定を各画像のペアにおけるオーバラップエリアの決定に用いられる。運動推定は大量な計算が伴うとしても、本発明に係るシステムは、高効率の画像圧縮を達成するために、すでに運動推定が使用されていてもよい。これにより、運動推定を画像ペアのオーバラップエリアに用いることには、別途の計算は必要ない。運動推定を画像ステッチに用いる目的は、オーバラップエリアの決定にある。そこで、この目的のために、グローバル運動ベクトルは十分である。従って、必要な運動推定のタイプはグローバル運動推定である。局所運動推定を使用すると、局所運動ベクトルまたは動きフィールドを処理することにより、グローバル運動ベクトルを導出する。たとえば、グローバル運動ベクトルとして、ドミナント運動ベクトルを選択してもよい。画像ペアにてオーバラップエリアを識別し、特徴基準または画像基準の画像マッチングをオーバラップエリアに適用することにより、画像マッチングのプロセスを加速させる。
カプセルが消化管を通過するとき傾斜することもある。カプセル傾斜は、撮像された画像を縦方向に対して回転させる。図4Bは、カメラ傾斜による画像回転の実施例を示している。運動推定技術は大半並進モデルと想定し、画像の回転を考慮しない。カプセル傾斜角を決定するために、選択された運動推定技術は、画像回転を制御できるものである。或いは、特徴基準の画像マッチングは、通常、画像マッチングモデルに回転行列を含ませているので、画像マッチングの間に、画像の回転を固有に扱える。三次元カプセル運動を決定するように、カプセル装置は、ジャイロスコープ、加速計、または電子コンパスを備えてもよい。この場合では、カプセル傾斜及び/または移動パラメータを読み出し、画像ステッチに用いてもよい。図4A及び図4Bにおいて、二回の撮像された画像が融合され、ワイド画像が形成される。他の構成では、2つの対応するカメラが、2つの独立した画像序列を形成することができる。個々の画像序列にて先に画像ステッチを行ってもよい。続いて2つのステッチした合成画像を融合しワイドのステッチした合成画像を形成する。1つの代替解決案として、タイムインスタンス毎に2つのカメラからの2つの画像をステッチする。2つの内部画像を撮像するときのシーンに変動が生じていないので、この案は更に容易である。続いて、ワイドのステッチした画像序列に画像ステッチを行う。
カプセルカメラ環境において、照明光源がカプセルシステムにより提供されて制御される。これにより、光条件は既知である。本発明の一つの具体的な実施例において、画像の光条件は保存される。照明情報は、画像ステッチ期間において取り出されて照明変化の補償に用いられる。
ステッチ用の画像は、1つの期間に亘って撮影される。この期間内において、オブジェクト動きがあってもよい。合成画像の各エリアは、画像ステッチの期間において、その対応性が複数の画像から求められる。デジタル撮影に用いられる従来画像ステッチにおいて最終合成画像を獲得するように、これらの対応エリアが混合される。画像の中の動きと、平均、中央数フィルタまたは重み付け合計に基づく画像混合により、ブレ(またはダブル画像)は生じてしまう。デジタル撮影に適用するブレがない合成画像を生成するために、この分野においてすでに種々の先行画像混合技術が開発されている。例えば、2006年12月10日、Microsoft Research Technical Report MSR-TR-2004-92、Szeliskiによる“Image Alinment and Stitching: A Tutorial”に提出されるp-norm、Vornoi、weighted ROD vertex conver with feathering、graph cut seams with Poisson、ラプラシアンピラミッド混合法、グラディアントドメイン混合法などの画像混合技術。一般的には、これらの先行混合技術は特定の規則に基づき、1つの画像から混合に用いる1つ又は複数の画素を選択する。これらの画像混合技術はブレない合成画像を生成できるが、合成画像において一部のオブジェクトと局所変形は可視でない場合は多い。カプセル画像応用は、ブレているまたは欠けているオブジェクトを許容できない。これらの問題を克服するために、本発明にかかるシステムは合成画像に対して時空間を用いて表示しており、これにより縫い合わされたシーンの時間変化の本質が説明される。
消化管の特性を考慮すれば、本発明の一つの実施例において、撮像された画像は、フレキシブルスペクトル撮像カラー強化などのカラー空間変換を応用して前処理される。これにより画像特徴可視性及びステッチパフォーマンスが改善される。
便通の性質を一定させ、カプセルは一箇所に一定の時間で停止し、同じシーンの複数の画像を撮像することができる。本発明の一つの実施例において、隣接する画像の差分を余分の画像を取り除くことに利用できる。照明変化及びグラディアント情報を隣接する画像の差分を評価することに利用することも考えられる。これにより、画像序列のサイズ及び読み込み時間を実質的に縮小することができる。
<時空間表示>
本発明の一つの実施例において、時空間表示は、ユーザが選択したタイムインスタンス毎に静止状態合成画像を表示する。例えば、タイムインデックス1において、全て単独の画像は第一の画像座標上でワープされる。第一の画像を基準とし、第一の画像により撮像された局所変形は第一の合成画像に表示される。いずれのタイムインスタンスにおいても、スクロールバーを利用してユーザが時空間画像を閲覧することができる。タイムインデックスiまでにバーをスクロールすることにより、i番目の画像座標に全ての単独画像がワープされている新しい合成画像が画面に表示される。これにより、i番目の画像により撮像される局所変形を観察できる。スクロールポインタの位置に関係なく、現在タイムインデックスの局所変形は画面に表示され、他の画像もワープされかつ現在時間に適応される。
本発明の一つの実施例において、時空間表示は、ユーザが選択したタイムインスタンス毎に静止状態合成画像を表示する。例えば、タイムインデックス1において、全て単独の画像は第一の画像座標上でワープされる。第一の画像を基準とし、第一の画像により撮像された局所変形は第一の合成画像に表示される。いずれのタイムインスタンスにおいても、スクロールバーを利用してユーザが時空間画像を閲覧することができる。タイムインデックスiまでにバーをスクロールすることにより、i番目の画像座標に全ての単独画像がワープされている新しい合成画像が画面に表示される。これにより、i番目の画像により撮像される局所変形を観察できる。スクロールポインタの位置に関係なく、現在タイムインデックスの局所変形は画面に表示され、他の画像もワープされかつ現在時間に適応される。
消化管中の一部の清潔でないセクションについて、例えば、食べ物の残りかすは画像に表れる。これは、診断の観点においては役に立たないが、有意義な画像特徴を提供ことはできる。本発明の一つの実施例において、カラー及びパターン分析をステッチの前に適用し、画像からそれらのエリアを取り除く。同じ技術は、気泡または水泡を有するセッションの取り除きにも適用される。機械学習アルゴリズムはそれらの不要な画像エリアの検出に適用される。
著しい画像変化及びグラディアント特徴を有しない一部の消化管のセクションについて、明暗情報が表面深度の概略推定に用いられる。この方法を利用して推定された深度マップから、表面下の腫瘍などの病理特徴を検出できる。本発明の一つの実施例において、このような病理特徴が検出されると、データ漏れを回避するように、2つの画像を単純にスタックする。2つの画像のスタック以外に、病理特徴が現れていなければ、1つの画像をもう1つの画像に重ねることにより、ストレージ及び読み込み時間を節約できる。上記方法により、連続時空間表示を生成できる。
本発明の一つの実施例において、図5のように、画像501〜504はt−2〜t+1から撮像されたワープ画像に対応する。ユーザがワープ前のオリジナル画像505〜508を閲覧することを選択できる。カメラの数は1であると、オリジナル画像は最初に撮像された画像であってもよい。そうでない場合では、オリジナル画像は、マルチカメラが撮像した内部画像の構成画像を意味する。本発明の一つの具体的な実施例にかかるユーザインターフェイスは、画像501〜504に対応する構成画像を表示する。ユーザは構成画像のいずれのセクションをクリックしたら、関連する全てのオリジナル画像505〜508は表示される。
図6は、ユーザが時間tからt−1まで(巻き戻し)閲覧中の、本発明の一つの具体的な実施例にかかる時空間表示実施例の合成画像を示している。図6では、水平スクロールの実施例を示しているが、垂直スクロールでも実施できる。ユーザが画像序列にわたってスクロールすることを許容するスクロールバー630が提供される。画像604は、時間tにて撮像された単一撮像画像またはマルチカメラが撮像した合成画像を示す。領域603は時間tにおける局所変形を示す。合成画像609は、t−4からt+3までに撮像された全ての隣接画像に対応する。図6のように、表示ウィンドウ620に合成画像を表示させる。ユーザは隣接画像の数をカスタマイズできる。時間tの画像604を基準として用いることにより、全ての隣接画像をワープする。時間tにて最初に撮像された画像(即ち画像606と領域605)に対応するワープ画像602とワープ局所変形領域601は、図6における時間tにてそれらが現れるべき位置に表示される。ユーザがツールバーを時間t−1に巻き戻したとき、他の合成画像610は表示される。この画像において、画像606を基準に、すべての隣接画像がワープされる。画像領域605は、時間t−1にて撮像された局所変形を示す。時間tにて最初に撮像された画像(即ち画像604と領域603)に対応するワープ画像608とワープ局所変形領域607は、図6における時間t−1にてそれらが現れるべき位置に表示される。
図6に示す実施例において、動的方式で画像ステッチを行う。全ての局所的動きのあるセクションは、特定の周期の異なるタイムインスタンスについて画像をステッチする。消化管内のカプセル装置の移動は遅いので、全てのセクションは複数の連続画像間のオーバラップエリアに対応できる。これにより、局所的動きのあるセクションの時空間表示を示すことができる。
本発明の別の実施例において、時空間表示は静止状態の合成画像を順番に映像に表示する。例えば、本発明の一つの具体的な実施例は、時間tにて合成画像609に対応する静止画像を表示する代わりに、t−4〜t+3で撮像した画像を基準として使用し、一連の合成画像からの単独画像を表示する。これにより、ユーザはマニュアルで繰り返しスクロールする必要はない。ユーザは、当該系列の単独画像(例えば、t−4〜t+3)のタイムウィンドウを表示することを選択できる。空間−時間の視覚効果をより改善させるように、隣接変形を含む映像を表示する。ステッチした画像の連続でスムーズな動きは、自然便通に類似している。ステッチ画像を生成するプロセスは、従来のカプセル映像によく知られるカメラ動きに関連するジャーキネス(JERKINESS)を減少させる。
本発明の一つの実施例において、ユーザは、時空間全体を閲覧する際に、ステップを特定することができる。例えば、図6のように、現在表示ウィンドウは、タイムインデックスt−4〜t+3の合成画像又は合成映像についての一連の隣接画像を表示する。ステッピングフォワードの際に、t+3から開始してt−4までの単一フレームにおけるステッピングの代わりに、ステッピングはt−4〜t+3の期間と重ねた次の期間に前進してもよい。例えば、ステッピングはt〜t+8から次の期間へ移行してもよい。これにより、2つの表示セグメントに亘る境界情報をロストせずに、読み込み時間を短縮することができる。
本発明の一つの実施例において、各フレームを順に基準として合成画像を表示することの代わりに、ユーザはキーフレームを選択して基準としてもよい。キーフレームを選択する一つの選択肢は、自然便通に基づくものである。図7に示されたフレームti+1、ti+4及びti+7のように、消化管の最大収縮と最大弛緩をキーイベントとされることもよい。光源変化を考慮することにより、このようなキーイベントの検出を実現することができる。これにより、光源変化を追跡できる。照明条件を一定に維持するように、カプセルからの照明は自動的に調整される。消化管が収縮すると、カプセルは壁部に接近し、必要とする照明は少ない。一方、消化管が弛緩すると、カプセルは壁部から離れ、良好な画像品質に必要な照明は多い。周囲組織の反射モデル(例えば、ランバート面)を選択することにより、画像強度と、入力ニアフィールド照明強度と、光源と壁面との間の距離との関連性は、次の式により説明される
ここで、Iは画像強度であり、
は表面光輝度を画像強度にマッピングしたカメラ応答関数であり、ρは表面の反射プロパティを示す表面アルベド(surface albedo)である。光源をV個に仮定し、トータル表面輝度はすべての光源の寄与の合計である。
はi番目の光源の強度/強さであり、
は表面法線であり、
は光源と表面シーンポイントとの間の距離である。光源調整後の光源の方向は変更がなければ、入力光と表面法線とがなす角度が一定に維持される。距離が離れるほど、表面輝度は暗く、より照明が必要となる。照明変化を追跡することにより、消化管の収縮と弛緩を検出することができる。これにより、観察された最大及び最小の照明に対応するフレームをキーフレームとして使用することができる。事前に外的要素の影響、特に排泄物要素を取り除くことにより、光強度/画像強度の計算への影響を回避する。異なるカラーの比率及び/または他の手段により排泄物要素を識別することができる。このようなキーフレームの検出は上記方法に限られたものではない。例えば、機械学習方法を異なる排泄パターンの検出に用いることができる。上記時空間表示は読み込み時間を短縮し、かつより簡易な方式で消化管を表示する。
本発明のもう一つの実施形態において、異なる角度からの視界はユーザに異なる情報を与えることができるので、便通のキーフレームに利用する代わりに、カプセルの回転角度を使用してキーイベントを示す。隣接画像と校正後のカメラ内部行列Kとの間の計算された変換Hが与えられ、式(3)に基づいて隣接画像間の回転角度を推定する。図8のように、ユーザが自動またはマニュアルで基準とする画像を選択することにより、これらの回転角度を幾つかの種類に分類できる。画像ti及びti+2はグループ1に属し、画像ti+1、ti+5、ti+6、ti+8及びti+9はグループ2に属し、画像ti+3、ti+4及びti+7はグループ3に属する。各グループは1つのフレームを選択してキーフレームとすることができる。また、これら全てのフレームはタイムウィンドウから選択することができ、そのサイズはユーザが予め定義または選択する。
図9に示された本発明の一つの実施例において、腸管状態901は便通の弛緩から収縮までの中間状態を示している。腸管状態902(太線円形)は消化管の収縮を示す。腸管状態903(破線円形)は、便通の収縮から弛緩までの中間状態を示す。腸管状態904(破線円形)は、消化管の弛緩を示す。便通は、幾つかのフェーズに分類されることができる。例えば、フェーズIは収縮(902)を示し、フェーズIIは弛緩(904)を示し、フェーズIIIはニュートラル状態(901及び903)を示す。時間tiで腸管状態901に対応する画像tiが撮像される。時間ti+q1で腸管状態902に対応する画像ti+q1が撮像される。時間ti+q2で腸管状態903に対応する画像ti+q2が撮像される。時間ti+q3で腸管状態904に対応する画像ti+q3が撮像される。1秒あたりに画像の撮像は数回行われる。従って、このti〜ti+qのタイムウィンドウにおいて、カプセルの進行は少ない。蠕動フェーズに基づいて画像をグループに分けられると、たとえグループごとの画像は時間方向に沿って連続していなくても、十分に重ねることができる。上記のようにこのti〜ti+qのタイムウィンドウにおけるすべての画像をステッチに利用することではなく、各グループ/フェーズのいずれにおいても画像のステッチを行うことができる。タイムウィンドウ全体は少数の異なるフェーズの少数のステッチ画像だけを表示すればよい。フェーズ数はどのぐらいの詳細なフェーズ変化が表示させるのかを反映しており、これはユーザによって決定される。これにより、異なるフェーズ間の大きな変形によるゴースト効果を有するステッチ画像を回避することができる。
図10に示される本発明の別の実施例において、キー画像1001〜1003は、カプセル回転により異なる角度から撮像された3つの画像に対応する。正常の撮像回数では、このti〜ti+qのタイムウィンドウにおけるカプセルの進行は少ない。異なる角度に基づいて画像をグループ分けすると、たとえグループ毎の画像は時間方向に沿って連続していなくても、十分に重ねることができる。上記のようにこのti〜ti+qのタイムウィンドウにおけるすべての画像をステッチに利用することではなく、各グループ/角度の画像のみのステッチを行う。タイムウィンドウ全体に対して、異なる3つの角度は、異なる3つのステッチ画像だけを必要とする。角度の数はどのぐらいの詳細な角度変化を表示させるのかを反映しており、これはユーザによって決定される。隣接画像間の角度の基準画像は、ユーザで決定してもよい。これにより、異なる閲覧方向間の大きな曖昧さによるゴースト効果を有するステッチ画像を回避することができる。
図11は、本発明の別の具体的な実施例を示している。腸管状態1101は便通の弛緩から収縮までの中間状態を示す。腸管状態1102(太線円形)は消化管の収縮を示す。腸管状態1103(破線円形)は便通の収縮から弛緩までの中間状態を示す。腸管状態1104(太破線円形)は消化管の弛緩を示す。便通を幾つかのフェーズに分類することができる。例えば、フェーズIは収縮1102を示し、フェーズIIは弛緩1304を示し、フェーズIIIはニュートラル状態(1101及び1103)を示す。時間tiで腸管状態1101に対応する画像tiが撮像される。時間ti+q1で腸管状態1102に対応する画像ti+q1が撮像される。同様に、時間ti+q2と時間ti+q3で、それぞれ腸管状態1103と1104に対応する画像ti+q2とti+q3が撮像される。時間ti+qm+1で腸管状態1105に対応する画像ti+qm+1が撮像される。時間ti+qm+2で腸管状態1106に対応する画像ti+qm+2が撮像される。時間ti+qm+3で腸管状態1107に対応する画像ti+qm+3が撮像される。ti+qm+1〜ti+qm+3において、その原因は、例えば破損画像、遮蔽などの原因で、カプセルはフェーズIとIIIに関連する画像しか撮像しない。これにより、フェーズIIに関連する画像のステッチが行われているとき、ti+qm+1〜ti+qm+3にギャップが生ずる。2つの隣接するフェーズII画像の間にオーバラップが生成できないほどギャップが大きくなる場合、ステッチした画像を2つに分けて表示する。
図12に示される本発明の別の実施例において、キー画像1201〜1203はカプセルの回転により異なる角度から撮像された3つの画像に対応する。正常の撮像回数では、ti〜ti+qのタイムウィンドウにおけてカプセルはあまり進行しない。異なる角度に基づいて画像をグループに分けられると、たとえグループ毎の画像は時間方向に沿って連続していなくても、十分に重ねることができる。この状況において、カプセルが進行中で180°で回転することは少ないので、ti〜ti+qのタイムウィンドウから2つの角度グループに対応する画像だけを撮像する。画像1204と1206は、画像1203と同じグループに属する。画像1205は、画像1202と同じグループに属する。従って、画像1201が属するグループの画像ステッチが行われる際に、ti+qm+1〜ti+qm+3にギャップが生ずる。本発明にかかる一つの実施例において、このグループにおける2つの画像の間にオーバラップが生成できないほどギャップが大きくなると、ステッチした画像を2つに分けて表示する。
本発明の一つの実施例において、画像をグループに分けられる前に、角度またはフェーズに基づいて画像マッチングを適用する。グループ境界に位置する画像は、各グループにおける隣接画像とマッチングされる。この画像をベストマッチのグループに割り当てる。
本発明の一つの実施例において、統計情報は画像のグループ分けに用いられる。タイムウィンドウ(図9〜12に示すti〜ti+q)内に、画像フェーズと角度の統計分布を計算する。統計資料に基づいて、局所最大数(number of local maximum)を画像のグループ分けに用いられることができる。ステッチした画像は、最初に撮像された角度またはフェーズに対応する最適表示を提供する。
本発明の一つの実施例において、一回に局所変形を有するセクションを表示する。例えば、ブロックA、B、C、D、及びEは、図13Aに示される画像序列の異なる時間セクションにおける異なる局所変形を示す。セグメントAはti〜ti+2に発生する変形に対応し、セグメントBはti+2〜ti+12に発生する変形に対応し、セグメントCはti+12〜ti+15に発生する変形に対応し、セグメントDはti+15〜ti+22に発生する変形に対応し、セグメントEはti+22〜ti+29に発生する変形に対応する。最長の変形は10秒を継続したBである。しかしながら、全ての局所変形を観察するように、ユーザは29秒を使う必要がある。これらのセグメントの画像総数が膨大である場合には、これらのセグメントに関連する局所変形を動画化すると、長時間がかかる可能性がある。動的表示を加速させるために、局所変形のセグメントを複数のグループに分けて、各グループは図13Aに示されるような変形から構成される。例えば、セグメントAは消化管の収縮を示し、セグメントBは消化管の弛緩を示す。これは、これらのセグメント内の合成画像に局所変形検知及び分割を適用することにより達成される。図13Bに示すように、グループを動作中に表示させることができ、かつ一回に各グループに関連するセグメントを再生することができる。分割の直後にセグメントA、B、C、D、Eの表示を開始させることができる。図13Bのように、セグメントAのような短いセクションの表示は複数回繰り返せる。従って、必要とする表示時間を実質的に短縮することができる。図13Bの実施例は、表示時間を29秒から10秒に短縮したケースを示す。隣接するグループに亘った境界の混合をスムーズな表示の確保に適用することができる。
図14Aのように、本発明の一つの実施例において、クラウドベース計算をローカル機器の計算負荷の軽減に用いることができる。カプセルが取り出されると、撮像された全ての画像をクラウドにアップロードできる。特徴の検出、画像対応性及び変換の計算、及び画像ワープと混合などの全ての計算はクラウドにて実現される。そして、ステッチした大きい画像から構成された前計算された複数のビデオストリームを、ローカル機器にダウンロードして表示させる。オリジナル映像のサイズと比べて、新しい映像のすべてのフレームはu×v個のオリジナル映像からなる合成画像に対応しており、ここで、uは各カメラが撮像したフレームの数であり、vはカメラの数である。従って、新しい映像は大容量のストレージスペース及び/または長いダウンロード時間が必要である。この問題を解決するために、クラウドでは画像間の変換しか計算しない。図14Bのように、各合成画像の混合及び最終描画はローカル機器にて行われる。
<4つのカメラを使用する360°全視界パノラマカプセルへの拡張>
図1Aはオーバラップ視界を有する2つのカメラの実施例を示している。本発明の一実施例において、図15のように、4つのカメラを使用する。この4つのカメラは、2つの隣接するカメラの視界中心が実質的に90°で分離するように配置されている。この4つのカメラの4つのレンズ(1501〜1504)は、それぞれの視界1511〜1514を有する。2つの隣接する視界はオーバラップエリア1531〜1534を有する。この4つのカメラは、統合された360°の視界をカバーするように配置されている。
図1Aはオーバラップ視界を有する2つのカメラの実施例を示している。本発明の一実施例において、図15のように、4つのカメラを使用する。この4つのカメラは、2つの隣接するカメラの視界中心が実質的に90°で分離するように配置されている。この4つのカメラの4つのレンズ(1501〜1504)は、それぞれの視界1511〜1514を有する。2つの隣接する視界はオーバラップエリア1531〜1534を有する。この4つのカメラは、統合された360°の視界をカバーするように配置されている。
本システムは、同時に4つのカメラから画像を撮像するように配置されている。オーバラップエリアにおけるシーンは2つの隣接するカメラにより同時に撮像される。前述のように、内部画像基準の姿勢推定を姿勢推定の精確さの改善に用いられることができる。4つの視界が包囲されており、かつ4つのレンズの間には4つのオーバラップエリアが存在している。4つの視界が360°をカバーする事実を含むように内部画像基準の姿勢推定を拡張してもよい。例えば、レンズ1501と1502に関連するカメラに対して、1503におけるオーバラップに関連する画像を用いて姿勢推定を補助する。レンズ1502と1503に関連するカメラに対して、1502におけるオーバラップに関連する画像を用いて姿勢推定を補助する。レンズ1503と1504に関連するカメラに対して、1533におけるオーバラップに関連する画像を用いて姿勢推定を補助する。また、レンズ1504と1501に関連するカメラに対して、1534におけるオーバラップに関連する画像を用いて姿勢推定を補助する。一連の内部画像基準の姿勢推定はサークルを形成する。レンズ1501の関連画像基準の姿勢推定と循環チェーン基準の姿勢推定との間に何らかの矛盾があった場合には、誤差は他の循環チェーンを介して姿勢推定を繰り返して調整されることができる。
カプセルは、消化管を通過する際に回転する。カプセル回転の影響により、撮像される画像は、図4Aのように、上方および下方へ移動する。360°全視界パノラマカプセルについて、4つのカメラからの組み合わせたワイド画像は全視界パノラマ画像に対応する。図16Aのように、カプセルの回転時に、撮像された画像は垂直方向に沿って円周方向に変位する。遮蔽エリアは2つのカメラ間の融合エリアに対応する。全視界パノラマ画像は4つの融合エリアを有する。それでも、便宜上、各画像には1つの融合エリアのみ表示する。カプセル回転は運動推定により検出される。破線は第一の画像の相対画像エッジを示す。本発明の一つの実施例において、グローバル運動推定をカメラの回転量の決定に用い、かつこの回転が補償されることができる。図16Bは、回転が補償された画像の実施例を示している。カメラの回転を決定するように、カプセル装置には、ジャイロスコープ、加速計、または電気コンパスが配されてもよい。カプセル回転情報は装置から読み出されて回転補償に用いられる。
本発明は、精神及び本質特徴を離脱しない範囲で他の特定の形式で具体化することができる。説明された例は説明するためのものであり、制限ではないと考えるべきである。そのため、本発明の範囲は、前述の説明ではなく、特許請求の範囲に示される。請求の範囲に均等の意味及び範囲内の変化はその範囲に含まれる。
101,102 レンズ
151,152 画像センサ
151,152 画像センサ
Claims (34)
- カプセルハウジング内に固定配置されており、任意の2つの隣接しているカメラの間にオーバラップ視界(FOV)を有する複数のカメラを含むカプセル装置を用いて撮像した人体消化管(GI)の画像を表示する方法であって、
前記複数のカメラが撮像した複数の画像序列を別々に受信するステップであって、前記複数の画像序列は内部画像の複数セットを含み、iセット目の内部画像はタイムインデックスiにおいて複数のカメラが撮像した同時画像に対応するステップと、
異なるタイムインスタンスに対応する前記内部画像の複数セットをステッチして合成画像を生成するステップと、
表示装置に前記合成画像を表示させるステップとを含む、方法。 - 画像序列における各カメラに対応する画像メンバーをステッチして部分合成画像を生成してから、前記複数のカメラに対応する前記部分合成画像を融合させ、前記合成画像を生成する、請求項1に記載の方法。
- 内部画像の各セットの画像メンバーを融合させてワイド画像を形成してから、複数のワイド画像に基づいて前記合成画像を形成し、
それぞれのワイド画像は内部画像の1つのセットに対応する、請求項1に記載の方法。 - 前記複数の画像序列における隣接画像間の差分を用いて余分画像を決定し、前記余分画像を前記内部画像の複数セットの前記ステッチから取り除く、請求項1に記載の方法。
- 前記隣接画像の照明変化及びグラディアント情報を、前記隣接画像間の差分の決定の評価に用いる、請求項4に記載の方法。
- 1つの画像序列内の2つの隣接画像の特徴を検出し、
前記2つの隣接画像の特徴が異なる場合、前記内部画像の複数セットのステッチは、2つの隣接画像のうち少なくとも1つを除外する、請求項1に記載の方法。 - 前記2つの隣接画像の特徴は異なる場合、前記2つの隣接画像を表示装置の異なる表示エリアに表示する、請求項6に記載の方法。
- カメラ傾斜パラメータ、カメラ回転パラメータ、またはカメラ運動パラメータを前記内部画像の複数セットの前記ステッチの補助に用いる、請求項1に記載の方法。
- 運動推定に基づいて、前記カメラ傾斜パラメータ、カメラ回転パラメータ、またはカメラ運動パラメータを決定する、請求項8に記載の方法。
- 前記カメラ傾斜パラメータ、カメラ回転パラメータ、またはカメラ運動パラメータを、前記カメラ装置に搭載されたジャイロスコープ、加速計、または電気コンパスにより決定する、請求項8に記載の方法。
- 前記内部画像の複数セットのステッチは、前記カプセル装置から取得された照明状態に関連する照明状態を使用して、前記複数の画像序列の照明変化を補償する、請求項1に記載の方法。
- 気泡または水泡を含む画像エリアを、前記内部画像の複数セットのステッチから取り除く、請求項1に記載の方法。
- 選択されたタイムインデックスの前記内部画像のセットに基づいて前記複数の画像序列の内部画像の複数セットをワープして、前記選択されたタイムインデックスの前記内部画像のセットに対するワープされた内部画像の複数セットを生成するステップをさらに含み、
前記合成画像の生成は前記選択されたタイムインデックスのために行われ、
前記内部画像の複数セットのステッチは、前記選択されたタイムインデックスに対応する前記内部画像のセットに対するワープされた内部画像の複数セットに基づいて行われ、
前記合成画像の表示は前記選択されたインデックスのために前記合成画像の表示に対応する、請求項1に記載の方法。 - 前記選択されたタイムインデックスは、ユーザインターフェイスを介してユーザにより選択される、請求項13に記載の方法。
- 前記選択されたタイムインデックスの前記内部画像のセットに基づいた前記複数の画像序列の内部画像の複数セットのワープ、及び前記選択されたタイムインデックスのための前記合成画像の表示は、選択されたタイムインデックス毎に、タイムインデックスの範囲内に実行される、請求項13に記載の方法。
- 前記タイムインデックスの範囲は、ユーザインターフェイスを介してユーザにより選択される、請求項15に記載の方法。
- 前記複数の画像序列の内部画像の複数セットの前記ワープ、または前記ワープされた内部画像の複数セットのステッチのために、前記複数の画像序列に関連する画像特徴を抽出する、請求項13に記載の方法。
- 強度、グラディアントまたは画像の遮蔽情報に基づいて、前記複数の画像序列に関連する前記画像特徴を抽出する、請求項17に記載の方法。
- 前記複数の画像序列にカラー変換を用いて、前記画像特徴の可視性を強調する、請求項17に記載の方法。
- 変換モデル、及び前記変換モデルの初期化に用いられる前記複数のカメラに関連するカメラ姿勢パラメータに基づいて、内部画像の1つのセットの2つの隣接画像に関連する画像特徴間の特徴マッチングを行う、請求項17に記載の方法。
- 前記カプセル装置に保存された校正画像を使用し、前記複数のカメラに関連するカメラ姿勢パラメータを導出し、導出された前記カメラ姿勢パラメータを前記カプセル装置に保存する、請求項20に記載の方法。
- 前記画像特徴に基づいて画像マッチングを加速させるために、1つの画像序列内の2つの隣接画像の間のオーバラップエリアを特定し、運動推定を用いて前記オーバラップエリアを決定する、請求項17に記載の方法。
- グローバル運動推定を用いて前記オーバラップエリアを決定する、請求項22に記載の方法。
- カプセルカメラを利用し、撮像した人体消化管(GI)の画像表示の方法であって、
前記カメラにより撮像された画像序列を受信するステップと、
前記画像序列の各画像に関連する画像特性により、前記画像序列からキー画像セットを選択するステップと、
1つのキー画像に基づいて前記画像序列内の画像をワープし、前記1つのキー画像についてワープ画像を生成するステップと、
前記1つのキー画像について前記ワープ画像に基づいて、前記1つのキー画像に関連する合成画像を生成するステップと、
前記1つのキー画像のための前記合成画像を表示するステップと
を含む、方法。 - 前記画像特性に基づいて、前記画像序列内の前記画像を複数のグループに分割する、請求項24に記載の方法。
- 前記複数のグループの各グループから1つのキー画像を選択する、請求項25に記載の方法。
- 前記1つのキー画像による同一グループ内の画像のワープ画像に基づいて、前記1つのキー画像に関連する前記合成画像を生成する、請求項26に記載の方法。
- 同じグループの画像にギャップが存在する場合には、前記1つのキー画像に関連する合成画像は2つの部分に分割されて表示され、
前記2つの部分は、同じ画像内のギャップの両側の画像に対応する、請求項27に記載の方法。 - 前記画像特性は、前記画像序列の各画像に関連する蠕動のフェーズに対応する、請求項24に記載の方法。
- 各画像に関連する前記蠕動のフェーズは、カメラからの照明強度及び各画像の画像強度により決定される、請求項29に記載の方法。
- 各画像に関連する前記蠕動のフェーズを、機械学習を用いて決定する、請求項29に記載の方法。
- 前記画像特性は、前記画像序列内の各画像に関連するカプセルの回転角度に対応する、請求項24に記載の方法。
- 前記カプセルの回転角度を、隣接画像に基づいた運動推定を用いて決定する、請求項32に記載の方法。
- 前記カプセルの回転角度は、前記カプセルカメラに搭載されたジャイロスコープ、加速計、または電気コンパスにより決定される、請求項32に記載の方法。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201361828653P | 2013-05-29 | 2013-05-29 | |
US61/828,653 | 2013-05-29 | ||
PCT/US2014/038533 WO2014193670A2 (en) | 2013-05-29 | 2014-05-19 | Reconstruction of images from an in vivo multi-camera capsule |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2016519968A true JP2016519968A (ja) | 2016-07-11 |
Family
ID=51989512
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016514153A Pending JP2016519968A (ja) | 2013-05-29 | 2014-05-19 | 生体内マルチカメラカプセルからの画像再構築 |
Country Status (6)
Country | Link |
---|---|
US (3) | US10068334B2 (ja) |
EP (1) | EP3005232A4 (ja) |
JP (1) | JP2016519968A (ja) |
CN (3) | CN105308621B (ja) |
TW (1) | TWI532460B (ja) |
WO (2) | WO2014193670A2 (ja) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2022524806A (ja) * | 2019-03-11 | 2022-05-10 | 影石創新科技股▲ふん▼有限公司 | 画像融合方法及び携帯端末 |
JP2023524320A (ja) * | 2020-04-08 | 2023-06-09 | 上▲海▼安▲翰▼医▲療▼技▲術▼有限公司 | カプセル内視鏡の制御方法及びシステム |
Families Citing this family (68)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9600703B2 (en) * | 2013-03-15 | 2017-03-21 | Cognex Corporation | Systems and methods for sorting image acquisition settings for pattern stitching and decoding using multiple captured images |
WO2014148184A1 (ja) * | 2013-03-19 | 2014-09-25 | オリンパスメディカルシステムズ株式会社 | 内視鏡システム及び内視鏡システムの作動方法 |
WO2014168128A1 (ja) * | 2013-04-12 | 2014-10-16 | オリンパスメディカルシステムズ株式会社 | 内視鏡システム及び内視鏡システムの作動方法 |
WO2016160862A1 (en) * | 2015-04-01 | 2016-10-06 | Capso Vision Inc | Method of overlap-dependent image stitching for images captured using a capsule camera |
JP2016519968A (ja) * | 2013-05-29 | 2016-07-11 | カン−フアイ・ワン | 生体内マルチカメラカプセルからの画像再構築 |
US10212361B2 (en) * | 2013-06-28 | 2019-02-19 | Sony Corporation | Information processing device, information processing method, and information processing system |
US20150045619A1 (en) * | 2013-08-09 | 2015-02-12 | Chang Bing Show Chwan Memorial Hospital | System and method for mosaicing endoscope images using wide angle view endoscope |
KR20150026201A (ko) * | 2013-09-02 | 2015-03-11 | 엘지전자 주식회사 | 디지털 디바이스 및 제어 방법 |
CN105939650B (zh) * | 2014-02-14 | 2018-01-30 | 奥林巴斯株式会社 | 内窥镜系统 |
US11120547B2 (en) * | 2014-06-01 | 2021-09-14 | CapsoVision, Inc. | Reconstruction of images from an in vivo multi-camera capsule with two-stage confidence matching |
JP6339872B2 (ja) * | 2014-06-24 | 2018-06-06 | オリンパス株式会社 | 画像処理装置、内視鏡システム及び画像処理方法 |
WO2015198981A1 (ja) * | 2014-06-27 | 2015-12-30 | オリンパス株式会社 | 内視鏡システム |
US10547825B2 (en) * | 2014-09-22 | 2020-01-28 | Samsung Electronics Company, Ltd. | Transmission of three-dimensional video |
US11205305B2 (en) | 2014-09-22 | 2021-12-21 | Samsung Electronics Company, Ltd. | Presentation of three-dimensional video |
US20160295126A1 (en) * | 2015-04-03 | 2016-10-06 | Capso Vision, Inc. | Image Stitching with Local Deformation for in vivo Capsule Images |
WO2016165016A1 (en) * | 2015-04-14 | 2016-10-20 | Magor Communications Corporation | View synthesis-panorama |
US20170071456A1 (en) * | 2015-06-10 | 2017-03-16 | Nitesh Ratnakar | Novel 360-degree panoramic view formed for endoscope adapted thereto with multiple cameras, and applications thereof to reduce polyp miss rate and facilitate targeted polyp removal |
WO2017017996A1 (ja) * | 2015-07-28 | 2017-02-02 | オリンパス株式会社 | 画像処理装置、画像処理方法及び画像処理プログラム |
CN110460779A (zh) * | 2016-04-28 | 2019-11-15 | 深圳市大疆创新科技有限公司 | 用于获得球面全景图像的系统和方法 |
US10257417B2 (en) | 2016-05-24 | 2019-04-09 | Microsoft Technology Licensing, Llc | Method and apparatus for generating panoramic images |
CN107872671B (zh) * | 2016-09-26 | 2022-01-14 | 华为技术有限公司 | 一种图片编码方法及终端 |
US10339627B2 (en) * | 2016-10-10 | 2019-07-02 | Gopro, Inc. | Apparatus and methods for the optimal stitch zone calculation of a generated projection of a spherical image |
WO2018101936A1 (en) * | 2016-11-30 | 2018-06-07 | CapsoVision, Inc. | Method and apparatus for image stitching of images captured using a capsule camera |
US10571679B2 (en) | 2017-01-06 | 2020-02-25 | Karl Storz Imaging, Inc. | Endoscope incorporating multiple image sensors for increased resolution |
US10038894B1 (en) | 2017-01-17 | 2018-07-31 | Facebook, Inc. | Three-dimensional scene reconstruction from set of two dimensional images for consumption in virtual reality |
WO2018186758A1 (en) * | 2017-04-07 | 2018-10-11 | Auckland Uniservices Limited | System for transmitting and viewing a series of images |
WO2018194599A1 (en) * | 2017-04-19 | 2018-10-25 | CapsoVision, Inc. | Method of image processing and display for images captured by a capsule camera |
US11044445B2 (en) | 2017-05-05 | 2021-06-22 | VergeSense, Inc. | Method for monitoring occupancy in a work area |
US10742940B2 (en) | 2017-05-05 | 2020-08-11 | VergeSense, Inc. | Method for monitoring occupancy in a work area |
TWI650018B (zh) * | 2017-07-18 | 2019-02-01 | 晶睿通訊股份有限公司 | 提供使用者介面以進行場景之監控畫面縫合之方法及其電子裝置 |
JP6807459B2 (ja) * | 2017-07-25 | 2021-01-06 | 富士フイルム株式会社 | 損傷図作成方法、損傷図作成装置、損傷図作成システム、及び記録媒体 |
US11049218B2 (en) * | 2017-08-11 | 2021-06-29 | Samsung Electronics Company, Ltd. | Seamless image stitching |
US10699163B1 (en) * | 2017-08-18 | 2020-06-30 | Massachusetts Institute Of Technology | Methods and apparatus for classification |
CN107909609B (zh) * | 2017-11-01 | 2019-09-20 | 欧阳聪星 | 一种图像处理方法及装置 |
US11039084B2 (en) * | 2017-11-14 | 2021-06-15 | VergeSense, Inc. | Method for commissioning a network of optical sensors across a floor space |
US11173785B2 (en) * | 2017-12-01 | 2021-11-16 | Caterpillar Inc. | Operator assistance vision system |
US10510145B2 (en) | 2017-12-27 | 2019-12-17 | Industrial Technology Research Institute | Medical image comparison method and system thereof |
US11055348B2 (en) * | 2017-12-29 | 2021-07-06 | Facebook, Inc. | Systems and methods for automatically generating stitched media content |
US11514579B2 (en) * | 2018-06-04 | 2022-11-29 | University Of Central Florida Research Foundation, Inc. | Deformable capsules for object detection |
US11857151B2 (en) * | 2018-09-12 | 2024-01-02 | Steris Instrument Management Services, Inc. | Systems and methods for standalone endoscopic objective image analysis |
CN109344742B (zh) * | 2018-09-14 | 2021-03-16 | 腾讯科技(深圳)有限公司 | 特征点定位方法、装置、存储介质和计算机设备 |
US20200104977A1 (en) * | 2018-09-30 | 2020-04-02 | Augentix Inc. | Method of Adaptive Image Stitching and Image Processing Device |
US10506921B1 (en) * | 2018-10-11 | 2019-12-17 | Capso Vision Inc | Method and apparatus for travelled distance measuring by a capsule camera in the gastrointestinal tract |
US20200118287A1 (en) * | 2018-10-16 | 2020-04-16 | Augentix Inc. | Method of Assembly Calibration for Multi-Camera system and Related Device |
WO2020123398A1 (en) * | 2018-12-09 | 2020-06-18 | Verma Pramod Kumar | Stick device and user interface |
EP3671660A1 (en) * | 2018-12-20 | 2020-06-24 | Dassault Systèmes | Designing a 3d modeled object via user-interaction |
WO2020142589A1 (en) * | 2019-01-04 | 2020-07-09 | Gopro, Inc. | Face detection in spherical images |
CN109934276B (zh) * | 2019-03-05 | 2020-11-17 | 安翰科技(武汉)股份有限公司 | 基于迁移学习的胶囊内窥镜图像分类系统及方法 |
EP3938975A4 (en) | 2019-03-15 | 2022-12-14 | Vergesense, Inc. | ARRIVAL DETECTION OF BATTERY POWERED OPTICAL SENSORS |
US11688048B2 (en) * | 2019-04-03 | 2023-06-27 | Digital Check Corp. | Image stitching from multiple line scanners |
KR102045871B1 (ko) * | 2019-06-07 | 2019-11-18 | 주식회사 창성에이스산업 | 인공지능 기술에 기반한 화재감지시스템 및 인공지능 기술에 기반한 화재감지방법 |
US11191423B1 (en) | 2020-07-16 | 2021-12-07 | DOCBOT, Inc. | Endoscopic system and methods having real-time medical imaging |
CN110501344A (zh) * | 2019-08-30 | 2019-11-26 | 无锡先导智能装备股份有限公司 | 电池物料在线检测方法 |
US11620808B2 (en) | 2019-09-25 | 2023-04-04 | VergeSense, Inc. | Method for detecting human occupancy and activity in a work area |
TWI759657B (zh) * | 2019-12-05 | 2022-04-01 | 晶睿通訊股份有限公司 | 影像拼接方法及其相關監控攝影設備 |
WO2021242809A1 (en) * | 2020-05-26 | 2021-12-02 | Hover Inc. | Systems and methods for image capture |
CN111738300A (zh) * | 2020-05-27 | 2020-10-02 | 复旦大学 | 一种交通标志及信号灯检测和识别的优化算法 |
US11972561B2 (en) * | 2020-08-06 | 2024-04-30 | Canon U.S.A., Inc. | Auto-pullback triggering method for intracoronary imaging apparatuses or systems using blood clearing |
US11602267B2 (en) | 2020-08-28 | 2023-03-14 | Karl Storz Imaging, Inc. | Endoscopic system incorporating multiple image sensors for increased resolution |
CN115761101A (zh) * | 2020-10-19 | 2023-03-07 | 深圳硅基智控科技有限公司 | 组织腔体内的胶囊内窥镜的本质矩阵的计算方法 |
CN113222820B (zh) * | 2021-05-20 | 2024-05-07 | 北京航空航天大学 | 一种位姿信息辅助的航空遥感图像拼接方法 |
JP2024533111A (ja) * | 2021-09-16 | 2024-09-12 | サージビジョン・ゲゼルシャフト・ミット・ベシュレンクテル・ハフツング | 異なる内視鏡ユニットを用いて取得した画像の位置合わせ |
DE102021133252A1 (de) | 2021-12-15 | 2023-06-15 | Karl Storz Se & Co. Kg | Endoskopische Kapsel |
DE102021133248B4 (de) | 2021-12-15 | 2023-06-29 | Karl Storz Se & Co. Kg | Endoskopie-Vorrichtung und Endoskopie-System |
CN114519671B (zh) * | 2022-02-16 | 2022-11-01 | 天津中科无人机应用研究院 | 无人机遥感影像动态快速拼接方法 |
CN114419041B (zh) * | 2022-03-29 | 2022-06-21 | 武汉大学 | 病灶颜色的识别方法及装置 |
DE202023101183U1 (de) | 2023-03-12 | 2023-03-22 | Kusum Yadav | Auf künstlicher Intelligenz und IoT basierendes intelligentes Gesundheitssystem, das Bildverarbeitung und tiefes Lernen nutzt, um chronischen Magen-Darm-Erkrankungen vorzubeugen und sie vorherzusagen |
CN116912302B (zh) * | 2023-09-12 | 2023-12-01 | 湖南大学 | 一种基于深度图像配准网络的高精度成像方法及系统 |
Citations (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH04341232A (ja) * | 1991-03-11 | 1992-11-27 | Olympus Optical Co Ltd | 電子内視鏡システム |
JPH09313435A (ja) * | 1996-03-25 | 1997-12-09 | Olympus Optical Co Ltd | 内視鏡装置 |
US5800341A (en) * | 1994-03-30 | 1998-09-01 | Medical Media Systems | Electronically steerable endoscope |
JP2002042109A (ja) * | 2000-07-21 | 2002-02-08 | Topcon Corp | 医用画像合成処理装置及び方法並びに記憶媒体 |
WO2005077253A1 (ja) * | 2004-02-18 | 2005-08-25 | Osaka University | 内視鏡システム |
US20050215876A1 (en) * | 2004-03-25 | 2005-09-29 | Eastman Kodak Company | Method and system for automatic image adjustment for in vivo image diagnosis |
JP2006314805A (ja) * | 2005-05-13 | 2006-11-24 | Given Imaging Ltd | 画像ストリームを表示する方法、撮像器の出力を表示するためのシステム、および画像ストリームを表示するためのシステム |
JP2006527012A (ja) * | 2003-05-01 | 2006-11-30 | ギブン・イメージング・リミテツド | パノラマ視野の撮像装置 |
JP2006320760A (ja) * | 2001-01-16 | 2006-11-30 | Given Imaging Ltd | 体腔の広域画像形成用のシステムおよび方法 |
JP2007159641A (ja) * | 2005-12-09 | 2007-06-28 | Rf:Kk | 画像処理装置及び医療システム |
US20090278921A1 (en) * | 2008-05-12 | 2009-11-12 | Capso Vision, Inc. | Image Stabilization of Video Play Back |
US20090284589A1 (en) * | 2006-03-13 | 2009-11-19 | Petia Radeva | Cascade analysis for intestinal contraction detection |
JP2010240000A (ja) * | 2009-04-01 | 2010-10-28 | Hoya Corp | 画像処理装置、画像処理方法、およびシステム |
US20110085022A1 (en) * | 2009-10-12 | 2011-04-14 | Capso Vision, Inc. | System and method for multiple viewing-window display of capsule images |
JP2013051987A (ja) * | 2011-08-31 | 2013-03-21 | Olympus Corp | 画像処理装置、画像処理方法、及び画像処理プログラム |
JP2013085593A (ja) * | 2011-10-14 | 2013-05-13 | Toshiba Corp | 医用画像表示装置 |
Family Cites Families (34)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5986668A (en) * | 1997-08-01 | 1999-11-16 | Microsoft Corporation | Deghosting method and apparatus for construction of image mosaics |
US6157747A (en) * | 1997-08-01 | 2000-12-05 | Microsoft Corporation | 3-dimensional image rotation method and apparatus for producing image mosaics |
US5987164A (en) * | 1997-08-01 | 1999-11-16 | Microsoft Corporation | Block adjustment method and apparatus for construction of image mosaics |
US6018349A (en) * | 1997-08-01 | 2000-01-25 | Microsoft Corporation | Patch-based alignment method and apparatus for construction of image mosaics |
US6097854A (en) * | 1997-08-01 | 2000-08-01 | Microsoft Corporation | Image mosaic construction system and apparatus with patch-based alignment, global block adjustment and pair-wise motion-based local warping |
US6009190A (en) * | 1997-08-01 | 1999-12-28 | Microsoft Corporation | Texture map construction method and apparatus for displaying panoramic image mosaics |
US6081278A (en) * | 1998-06-11 | 2000-06-27 | Chen; Shenchang Eric | Animation object having multiple resolution format |
US6434265B1 (en) * | 1998-09-25 | 2002-08-13 | Apple Computers, Inc. | Aligning rectilinear images in 3D through projective registration and calibration |
US6359617B1 (en) * | 1998-09-25 | 2002-03-19 | Apple Computer, Inc. | Blending arbitrary overlaying images into panoramas |
US7194112B2 (en) * | 2001-03-12 | 2007-03-20 | Eastman Kodak Company | Three dimensional spatial panorama formation with a range imaging system |
US8602971B2 (en) * | 2004-09-24 | 2013-12-10 | Vivid Medical. Inc. | Opto-Electronic illumination and vision module for endoscopy |
US20100010300A1 (en) * | 2004-12-30 | 2010-01-14 | Given Imaging Ltd. | Device, System and Method for Orienting a Sensor In-Vivo |
US7460730B2 (en) * | 2005-08-04 | 2008-12-02 | Microsoft Corporation | Video registration and image sequence stitching |
CN1920882A (zh) * | 2005-08-24 | 2007-02-28 | 西门子共同研究公司 | 基于显著区域特征的医学图像三维多模配准的系统和方法 |
JP2009517138A (ja) * | 2005-11-23 | 2009-04-30 | カプソ・ビジョン・インコーポレイテッド | 動き検出と「実体像」イメージの構築 |
JP5523713B2 (ja) * | 2006-01-18 | 2014-06-18 | カプソ ビジョン, インコーポレイテッド | 生体内撮像システム |
CN101495022B (zh) * | 2006-07-24 | 2011-09-07 | 皇家飞利浦电子股份有限公司 | 具有对周围组织的可变照明的胶囊摄像机 |
US9007478B2 (en) * | 2007-01-09 | 2015-04-14 | Capso Vision, Inc. | Methods to compensate manufacturing variations and design imperfections in a capsule camera |
US20090010507A1 (en) | 2007-07-02 | 2009-01-08 | Zheng Jason Geng | System and method for generating a 3d model of anatomical structure using a plurality of 2d images |
US7978932B2 (en) * | 2007-08-02 | 2011-07-12 | Mauna Kea Technologies | Robust mosaicing method, notably with correction of motion distortions and tissue deformations for in vivo fibered microscopy |
US20090074265A1 (en) | 2007-09-17 | 2009-03-19 | Capsovision Inc. | Imaging review and navigation workstation system |
US20100268025A1 (en) * | 2007-11-09 | 2010-10-21 | Amir Belson | Apparatus and methods for capsule endoscopy of the esophagus |
KR100919247B1 (ko) * | 2008-03-12 | 2009-09-30 | 중앙대학교 산학협력단 | 파노라마 영상 생성장치 및 방법, 그리고 이를 이용한 객체추적장치 및 방법 |
CN101716077B (zh) * | 2009-12-03 | 2012-09-12 | 西交利物浦大学 | 基于无线胶囊内视镜或视频内窥镜体内摄像的图像处理方法及其系统 |
US20110141226A1 (en) * | 2009-12-11 | 2011-06-16 | Fotonation Ireland Limited | Panorama imaging based on a lo-res map |
US20120019613A1 (en) * | 2009-12-11 | 2012-01-26 | Tessera Technologies Ireland Limited | Dynamically Variable Stereo Base for (3D) Panorama Creation on Handheld Device |
US8294748B2 (en) * | 2009-12-11 | 2012-10-23 | DigitalOptics Corporation Europe Limited | Panorama imaging using a blending map |
US10080006B2 (en) * | 2009-12-11 | 2018-09-18 | Fotonation Limited | Stereoscopic (3D) panorama creation on handheld device |
US20120019614A1 (en) * | 2009-12-11 | 2012-01-26 | Tessera Technologies Ireland Limited | Variable Stereo Base for (3D) Panorama Creation on Handheld Device |
CN101807295B (zh) * | 2010-03-26 | 2012-02-29 | 华中科技大学 | 一种遥感图像无缝镶嵌拼接线的生成方法 |
US8422755B2 (en) | 2010-06-11 | 2013-04-16 | Given Imaging Ltd. | System and method for synchronizing image sequences captured in-vivo for automatic comparison |
US20130002842A1 (en) * | 2011-04-26 | 2013-01-03 | Ikona Medical Corporation | Systems and Methods for Motion and Distance Measurement in Gastrointestinal Endoscopy |
CN102393953B (zh) * | 2011-07-15 | 2013-06-26 | 汉王科技股份有限公司 | 图像帧拼接方法和装置 |
JP2016519968A (ja) * | 2013-05-29 | 2016-07-11 | カン−フアイ・ワン | 生体内マルチカメラカプセルからの画像再構築 |
-
2014
- 2014-05-19 JP JP2016514153A patent/JP2016519968A/ja active Pending
- 2014-05-19 US US14/775,711 patent/US10068334B2/en active Active
- 2014-05-19 WO PCT/US2014/038533 patent/WO2014193670A2/en active Application Filing
- 2014-05-19 EP EP14805156.8A patent/EP3005232A4/en not_active Withdrawn
- 2014-05-19 CN CN201480030874.XA patent/CN105308621B/zh active Active
- 2014-05-27 TW TW103118368A patent/TWI532460B/zh active
-
2015
- 2015-04-01 US US14/675,744 patent/US9324172B2/en active Active
- 2015-08-15 US US14/827,325 patent/US9672620B2/en active Active
-
2016
- 2016-03-30 CN CN201680020175.6A patent/CN107529944B/zh active Active
- 2016-07-25 CN CN201680047653.2A patent/CN107920722B/zh active Active
- 2016-07-25 WO PCT/US2016/043907 patent/WO2017030747A1/en active Application Filing
Patent Citations (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH04341232A (ja) * | 1991-03-11 | 1992-11-27 | Olympus Optical Co Ltd | 電子内視鏡システム |
US5800341A (en) * | 1994-03-30 | 1998-09-01 | Medical Media Systems | Electronically steerable endoscope |
JPH09313435A (ja) * | 1996-03-25 | 1997-12-09 | Olympus Optical Co Ltd | 内視鏡装置 |
JP2002042109A (ja) * | 2000-07-21 | 2002-02-08 | Topcon Corp | 医用画像合成処理装置及び方法並びに記憶媒体 |
JP2006320760A (ja) * | 2001-01-16 | 2006-11-30 | Given Imaging Ltd | 体腔の広域画像形成用のシステムおよび方法 |
JP2006527012A (ja) * | 2003-05-01 | 2006-11-30 | ギブン・イメージング・リミテツド | パノラマ視野の撮像装置 |
WO2005077253A1 (ja) * | 2004-02-18 | 2005-08-25 | Osaka University | 内視鏡システム |
US20050215876A1 (en) * | 2004-03-25 | 2005-09-29 | Eastman Kodak Company | Method and system for automatic image adjustment for in vivo image diagnosis |
JP2006314805A (ja) * | 2005-05-13 | 2006-11-24 | Given Imaging Ltd | 画像ストリームを表示する方法、撮像器の出力を表示するためのシステム、および画像ストリームを表示するためのシステム |
JP2007159641A (ja) * | 2005-12-09 | 2007-06-28 | Rf:Kk | 画像処理装置及び医療システム |
US20090284589A1 (en) * | 2006-03-13 | 2009-11-19 | Petia Radeva | Cascade analysis for intestinal contraction detection |
US20090278921A1 (en) * | 2008-05-12 | 2009-11-12 | Capso Vision, Inc. | Image Stabilization of Video Play Back |
JP2010240000A (ja) * | 2009-04-01 | 2010-10-28 | Hoya Corp | 画像処理装置、画像処理方法、およびシステム |
US20110085022A1 (en) * | 2009-10-12 | 2011-04-14 | Capso Vision, Inc. | System and method for multiple viewing-window display of capsule images |
JP2013051987A (ja) * | 2011-08-31 | 2013-03-21 | Olympus Corp | 画像処理装置、画像処理方法、及び画像処理プログラム |
JP2013085593A (ja) * | 2011-10-14 | 2013-05-13 | Toshiba Corp | 医用画像表示装置 |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2022524806A (ja) * | 2019-03-11 | 2022-05-10 | 影石創新科技股▲ふん▼有限公司 | 画像融合方法及び携帯端末 |
JP7253635B2 (ja) | 2019-03-11 | 2023-04-06 | 影石創新科技股▲ふん▼有限公司 | 画像融合方法及び携帯端末 |
US11967051B2 (en) | 2019-03-11 | 2024-04-23 | Arashi Vision Inc. | Image fusion method and portable terminal |
JP2023524320A (ja) * | 2020-04-08 | 2023-06-09 | 上▲海▼安▲翰▼医▲療▼技▲術▼有限公司 | カプセル内視鏡の制御方法及びシステム |
Also Published As
Publication number | Publication date |
---|---|
CN107529944B (zh) | 2019-07-26 |
CN107529944A (zh) | 2018-01-02 |
TWI532460B (zh) | 2016-05-11 |
US10068334B2 (en) | 2018-09-04 |
US9324172B2 (en) | 2016-04-26 |
EP3005232A4 (en) | 2017-03-15 |
CN105308621B (zh) | 2019-05-21 |
CN107920722B (zh) | 2020-01-24 |
US9672620B2 (en) | 2017-06-06 |
WO2014193670A4 (en) | 2015-03-19 |
WO2014193670A2 (en) | 2014-12-04 |
EP3005232A2 (en) | 2016-04-13 |
WO2014193670A3 (en) | 2015-01-29 |
US20160037082A1 (en) | 2016-02-04 |
US20150221116A1 (en) | 2015-08-06 |
CN107920722A (zh) | 2018-04-17 |
CN105308621A (zh) | 2016-02-03 |
US20170046825A1 (en) | 2017-02-16 |
TW201509363A (zh) | 2015-03-16 |
WO2017030747A1 (en) | 2017-02-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10068334B2 (en) | Reconstruction of images from an in vivo multi-camera capsule | |
JP5153620B2 (ja) | 連続的にガイドされる内視鏡と関係する画像を重ね合わせるためのシステム | |
JP4631057B2 (ja) | 内視鏡システム | |
Bergen et al. | Stitching and surface reconstruction from endoscopic image sequences: a review of applications and methods | |
US20220012954A1 (en) | Generation of synthetic three-dimensional imaging from partial depth maps | |
JPH05108819A (ja) | 画像処理装置 | |
US10506921B1 (en) | Method and apparatus for travelled distance measuring by a capsule camera in the gastrointestinal tract | |
EP3148399B1 (en) | Reconstruction of images from an in vivo multi-camera capsule with confidence matching | |
US20160295126A1 (en) | Image Stitching with Local Deformation for in vivo Capsule Images | |
Seshamani et al. | Real-time endoscopic mosaicking | |
Liu et al. | Global and local panoramic views for gastroscopy: an assisted method of gastroscopic lesion surveillance | |
CN110520893B (zh) | 对通过胶囊相机所撷取的图像进行图像处理并显示的方法 | |
CN110035687A (zh) | 对使用胶囊相机所撷取的图像进行图像拼接的方法及装置 | |
US11601732B2 (en) | Display system for capsule endoscopic image and method for generating 3D panoramic view | |
US10624533B2 (en) | Endoscope with images optimized based on depth map derived from structured light images | |
Carroll et al. | Rectified surface mosaics | |
Hackner et al. | Deep-learning based reconstruction of the stomach from monoscopic video data | |
Ali | Total variational optical flow for robust and accurate bladder image mosaicing | |
Oliveira et al. | Towards Robust Homography Estimation for Forward-Motion Panorama for Multi-camera Wireless Capsule Endoscopy Videos | |
Hackner et al. | 3D Reconstruction of the Colon from Monocular Sequences Evaluation by 3D-printed Phantom Data |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20161031 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20161205 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170222 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20170807 |