JPWO2019220584A1 - 撮像装置、内視鏡装置及び撮像装置の作動方法 - Google Patents

撮像装置、内視鏡装置及び撮像装置の作動方法 Download PDF

Info

Publication number
JPWO2019220584A1
JPWO2019220584A1 JP2020518895A JP2020518895A JPWO2019220584A1 JP WO2019220584 A1 JPWO2019220584 A1 JP WO2019220584A1 JP 2020518895 A JP2020518895 A JP 2020518895A JP 2020518895 A JP2020518895 A JP 2020518895A JP WO2019220584 A1 JPWO2019220584 A1 JP WO2019220584A1
Authority
JP
Japan
Prior art keywords
image
images
depth
focus position
focus
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020518895A
Other languages
English (en)
Other versions
JP7016952B2 (ja
Inventor
直也 栗山
直也 栗山
浩一郎 吉野
浩一郎 吉野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Corp filed Critical Olympus Corp
Publication of JPWO2019220584A1 publication Critical patent/JPWO2019220584A1/ja
Application granted granted Critical
Publication of JP7016952B2 publication Critical patent/JP7016952B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00163Optical arrangements
    • A61B1/00188Optical arrangements with focusing or zooming features
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/95Computational photography systems, e.g. light-field imaging systems
    • H04N23/958Computational photography systems, e.g. light-field imaging systems for extended depth of field imaging
    • H04N23/959Computational photography systems, e.g. light-field imaging systems for extended depth of field imaging by adjusting depth of field during image capture, e.g. maximising or setting range based on scene characteristics
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00006Operational features of endoscopes characterised by electronic signal processing of control signals
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • A61B1/045Control thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/555Constructional details for picking-up images in sites, inaccessible due to their dimensions or hazardous conditions, e.g. endoscopes or borescopes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/56Cameras or camera modules comprising electronic image sensors; Control thereof provided with illuminating means
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • H04N23/675Focus control based on electronic image sensor signals comprising setting of focusing regions
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • H04N23/676Bracketing for image capture at varying focusing conditions
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/71Circuitry for evaluating the brightness variation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/74Circuitry for compensating brightness variation in the scene by influencing the scene brightness using illuminating means
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/95Computational photography systems, e.g. light-field imaging systems
    • H04N23/958Computational photography systems, e.g. light-field imaging systems for extended depth of field imaging

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Surgery (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Radiology & Medical Imaging (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Biophysics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Optics & Photonics (AREA)
  • Pathology (AREA)
  • Veterinary Medicine (AREA)
  • Public Health (AREA)
  • Biomedical Technology (AREA)
  • Physics & Mathematics (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Endoscopes (AREA)
  • Studio Devices (AREA)
  • Image Processing (AREA)

Abstract

撮像装置10は、被写体像を撮像素子220に結像する対物光学系210のフォーカス位置を制御するフォーカス制御部350と、撮像素子220が撮像した1秒あたり(L×N)枚の画像を取得する画像取得部390と、画像取得部390が取得したM枚の画像から1枚の深度拡大画像を合成することで被写界深度を拡大し、1秒あたりL枚の深度拡大画像を出力する画像合成部330と、を含む。画像合成部330は、M枚の画像のうち1枚の画像を基準画像として設定し、M枚の画像のうち基準画像以外の画像を基準画像に対して位置合わせし、位置合わせ後のM枚の画像から1枚の深度拡大画像を合成する。

Description

本発明は、撮像装置、内視鏡装置及び撮像装置の作動方法等に関する。
内視鏡装置においては、ユーザが行う診断と処置に支障をきたさないように、可能な限り深い被写界深度が要求される。しかし近年では、内視鏡装置において多画素数の撮像素子が使用され、それに伴って被写界深度が浅くなっている。
浅い被写界深度を補う技術として、被写界深度を拡大するEDOF(Extended Depth Of Field)技術の導入が提案されている。例えば特許文献1では、フォーカス位置を変化させて複数の画像を撮像し、その複数の画像においてピントの合った領域を合成画像として合成する。以降は、フォーカス位置を変化させて次の画像を撮像し、その画像においてピントが合った領域と合成画像を合成する。これにより、撮像フレームレートを抑制しつつ被写界深度を拡大できる。
特開2017−6330号公報
EDOFを用いた場合、複数の画像を合成するため、実際の被写体には存在しないアーティファクトが発生するおそれがある。そして、アーティファクトが発生してしまった場合、そのアーティファクトが出来るだけ早く消えることが望ましい。例えば特許文献1に記載の技術では、新たに撮像した画像においてピントが合った領域を用いて、合成画像を更新している。このため、合成画像に発生したアーティファクト領域が更新されるまで、アーティファクトが表示され続けてしまう。
本発明の幾つかの態様によれば、EDOFにおいて発生したアーティファクトを早期に更新できる撮像装置、内視鏡装置及び撮像装置の作動方法等を提供できる。
本発明の一態様は、被写体像を撮像素子に結像する対物光学系のフォーカス位置を制御するフォーカス制御部と、前記撮像素子が撮像した1秒あたり(L×N)枚(Lは2以上の整数、Nは1以上の数)の画像を取得する画像取得部と、前記画像取得部が取得したM枚(MはNより大きい整数)の画像から1枚の深度拡大画像を合成することで被写界深度を拡大し、1秒あたりL枚の深度拡大画像を出力する画像合成部と、を含み、前記画像合成部は、前記M枚の画像のうち1枚の画像を基準画像として設定し、前記M枚の画像のうち前記基準画像以外の画像を前記基準画像に対して位置合わせし、位置合わせ後の前記M枚の画像を前記1枚の深度拡大画像に合成する撮像装置に関係する。
本発明の一態様によれば、L枚の深度拡大画像の各々を、撮像画像から合成している。これにより、ある深度拡大画像において仮にアーティファクトが発生したとしても、次の深度拡大画像は撮像画像から合成するので、アーティファクト部分を早期に更新できる。また本発明の一態様によれば、N>Mであることで、L×N<L×Mとなる。即ち、合成される画像を重複させながら深度拡大画像を合成できる。合成される画像を重複させない場合、撮像フレームレートは(L×M)fpsとなるが、本発明の一態様によれば、それより低フレームレートの(L×N)fpsとなる。即ち、出来るだけ低フレームレートの撮像を実現しながら、且つ被写体深度の拡大率Mを大きくできる。
また本発明の他の態様は、上記に記載された撮像装置を含む内視鏡装置に関係する。
また本発明の更に他の態様は、被写体像を撮像素子に結像する対物光学系のフォーカス位置を制御し、前記撮像素子が撮像した1秒あたり(L×N)枚(Lは2以上の整数、Nは1以上の数)の画像を取得し、取得したM枚(MはNより大きい整数)の画像のうち1枚の画像を基準画像として設定し、前記M枚の画像のうち前記基準画像以外の画像を前記基準画像に対して位置合わせし、位置合わせ後の前記M枚の画像を1枚の深度拡大画像に合成して被写界深度を拡大し、1秒あたりL枚の深度拡大画像を出力する撮像装置の作動方法に関係する。
EDOFにおけるアーティファクトの発生を説明する図。 本実施形態の撮像装置の構成例。 内視鏡装置の詳細な構成例。 N=2、M=3であるときの内視鏡装置の動作を説明する図。 N=2、M=4であるときの内視鏡装置の動作を説明する図。 N=2、M=5であるときの内視鏡装置の動作を説明する図。 N=3、M=5であるときの内視鏡装置の動作を説明する図。 N=1、M=2であるときの内視鏡装置の動作を説明する図。 N=3/2、M=2であるときの内視鏡装置の動作を説明する図。 N=3/2、M=2であるときの内視鏡装置の動作を説明する図。 N=5/4、M=2であるときの内視鏡装置の動作を説明する図。 画像合成部の詳細な構成例。 合成マップ生成部が行う処理の手順を示すフローチャート。
以下、本実施形態について説明する。なお、以下に説明する本実施形態は、請求の範囲に記載された本発明の内容を不当に限定するものではない。また本実施形態で説明される構成の全てが、本発明の必須構成要件であるとは限らない。
1.撮像装置
図1は、EDOFにおけるアーティファクトの発生を説明する図である。
図1に示すように、フレームF1、F2において、フォーカス位置を変えながら画像が撮像される。フレームF1では、点線で示す円の内側が合焦しており、フレームF2では、円の外側が合焦している。この場合、フレームF1で撮像された画像の円の内側と、フレームF2で撮像された画像の円の外側とが合成され、深度拡大画像ED1が生成される。なお、点線は便宜的に示すものであり、実際には存在しない。
複数の画像から深度拡大画像ED1を合成しているので、深度拡大画像ED1においてアーティファクトが発生する場合がある。例えば、フレームF1、F2の間で調光によって照明光の明るさが変化した場合、合成の境界である円の内外で明るさの差が発生し、その明るさムラがアーティファクトとなる。或いは、フレームF1、F2の間で被写体が動いた場合、被写体の位置がずれているため合成の境界がアーティファクトとなる。これらのアーティファクトは、実際の被写体には存在しない。
次に、フレームF3において画像が撮像される。このときのフォーカス位置は例えばフレームF1のフォーカス位置と同じである。フレームF3では、点線で示す円の内側が合焦しており、この合焦領域を使って深度拡大画像ED1が更新され、深度拡大画像ED2が生成される。フレームF3の合焦領域は、フレームF1の合焦領域から右側にずれているため、その右側にずれた合焦領域の部分だけが更新される。このため、深度拡大画像ED1におけるアーティファクトの一部は消えるが、更新されない領域のアーティファクトは残ったままである。以降も同様な更新を繰り返すが、合焦領域で更新されない限りアーティファクトが消えないので、長い期間にわたってアーティファクトが表示される可能性がある。
この課題を解決する手法として、深度拡大画像を更新するのではなく、毎回、撮像画像から新たに深度拡大画像を合成する手法が考えられる。しかしながら、この手法では深度拡大画像のフレームレートが低下する、又は撮像のフレームレートが高速になるという課題がある。例えば、撮影した動画の3フレーム毎に深度拡大画像を生成し、60fps(fps: frame per second)の深度拡大動画を得たいとき、元の動画を180fpsで撮影する必要がある。一方、元の動画を60fpsで撮影したときには、3フレーム毎に深度拡大画像を生成すると20fpsの深度拡大画像しか得られない。
以上のように、従来技術では、EDOFにおいて発生したアーティファクトを早期に更新し、且つ深度拡大動画のフレームレートを確保することが困難である。
図2は、本実施形態の撮像装置の構成例である。撮像装置10は処理部300と撮像部200とを含む。処理部300は例えば処理装置又は制御装置である。撮像部200はイメージャである。なお、撮像部200は着脱可能であってもよい。
撮像部200は、対物光学系210と撮像素子220とを含む。対物光学系210は、被写体像を撮像素子220に結像する。対物光学系210は対物レンズであるが、更にプリズム等の光学素子を含んでもよい。撮像素子220はイメージセンサである。撮像素子220は、1秒あたり(L×N)枚の画像を撮像する。即ち、フレームレートが(L×N)fpsの動画を撮影する。Lは2以上の整数であり、Nは1以上の数である。Nは実数であり、整数に限定されない。例えばNは有理数である。
処理部300は、フォーカス制御部350と画像取得部390と画像合成部330とを含む。フォーカス制御部350は、対物光学系210のフォーカス位置を制御する。画像取得部390は、撮像素子220が撮像した画像を取得する。画像合成部330は、画像取得部390が取得したM枚の画像から1枚の深度拡大画像を合成することで被写界深度を拡大し、1秒あたりL枚の深度拡大画像を出力する。MはNより大きい整数である。画像合成部330は、M枚の画像のうち1枚の画像を基準画像として設定し、M枚の画像のうち基準画像以外の画像を基準画像に対して位置合わせし、位置合わせ後のM枚の画像を1枚の深度拡大画像に合成する。
例えば、後述する図4ではN=2、M=3である。画像合成部330は、3枚の画像IA1〜IA3のうち1枚の画像IA2を基準画像として設定し、基準画像以外の画像IA1、IA3を基準画像IA2に対して位置合わせし、位置合わせ後の画像IA1〜IA3を1枚の深度拡大画像EA1に合成する。次に、画像合成部330は、3枚の画像IA3〜IA5のうち1枚の画像IA4を基準画像として設定し、基準画像以外の画像IA3、IA5を基準画像IA4に対して位置合わせし、位置合わせ後の画像IA3〜IA5を1枚の深度拡大画像EA2に合成する。フレームレートは120fpsなので(L×N)=120であり、L=60である。即ち、深度拡大画像の出力フレームレートは60fpsである。
本実施形態によれば、M枚の画像から深度拡大画像を合成し、1秒あたり(L×N)枚の画像からL枚の深度拡大画像を出力する。即ち、深度拡大画像と、新たに撮像した画像とを合成するのではなく、撮像した画像から深度拡大画像を合成している。図1では深度拡大画像と、新たに撮像した画像とを合成しているため、アーティファクトが長く残るおそれがあるが、本実施形態では仮にアーティファクトが発生してもアーティファクト部分の更新間隔が短縮される。
また本実施形態によれば、N>Mであることで、L×N<L×Mとなる。即ち、合成させる画像を重複させながら深度拡大画像を合成できる。例えば図4では深度拡大画像EA1、EA2において画像IA3が重複する。合成させる画像を重複させない場合、撮像フレームレートは(L×M)fpsとなるが、本実施形態では、それより低フレームレートの(L×N)fpsとなる。即ち、出来るだけ低フレームレートの撮像を実現しながら、且つ被写体深度の拡大率Mを大きくできる。
また図1において仮に位置合わせを行う場合、深度拡大画像と、新たに撮像した画像との間において位置合わせされる。過去の位置合わせが失敗していた場合には深度拡大画像にアーティファクトが残っている場合があるが、そのアーティファクトは新たな位置合わせでは消去できない。この点、本実施形態によれば、撮像した画像から深度拡大画像を合成しているので、撮像した画像間において位置合わせを行うことができる。これにより、毎回位置合わせし直すことができるので、過去の位置合わせが失敗していても、それを原因とするアーティファクトが残らない。
ここで、フォーカス位置とは、被写体側においてフォーカスが合う位置である。即ち、合焦面の位置、又は合焦面と光軸の交点の位置である。フォーカス位置は、撮像部の基準位置から、被写体側においてフォーカスが合う位置までの距離で表される。撮像部の基準位置は、例えば撮像素子の位置、又は対物レンズ先端の位置である。対物光学系においてフォーカスレンズを動かすことでフォーカス位置を調整する。即ち、フォーカス位置とフォーカスレンズの位置は互いに対応しており、フォーカス位置はフォーカスレンズの位置とも言える。
また、深度拡大画像とは、撮像画像の被写体深度よりも被写界深度を拡大した画像である。具体的には、互いにフォーカス位置が異なる複数の画像に基づいて被写界深度が疑似的に拡大された画像である。例えば、画像の各局所領域において、M枚の画像の中から、その局所領域での合焦度合いが最も高い画像を選択し、その選択した各局所領域の画像で深度拡大画像を構成する。局所領域は例えば画素である。1フレームの深度拡大画像を合成する際に用いるM枚の画像は、撮像素子が順次に撮像した画像である。
また、フォーカス制御部350は、M枚の画像の各々が撮像されるタイミングにおいて、異なるフォーカス位置を設定する。
例えば図4では、深度拡大画像EA1を合成する際に用いられる画像IA1、IA2、IA3から深度拡大画像EA1が合成される。画像IA1、IA2、IA3が撮像されるタイミングにおいて、フォーカス位置はfp1、fp2、fp3に設定される。fp1、fp2、fp3は、互いに異なるフォーカス位置である。
本実施形態によれば、互いに異なるフォーカス位置で撮像したM枚の画像から深度拡大画像を合成することで、被写体深度を拡大できる。本実施形態では、合成させる画像を重複させながら深度拡大画像を合成するので、重複しない画像を撮像するタイミングにおけるフォーカス位置は、重複する画像を撮像するタイミングにおけるフォーカス位置以外から選択する。例えば図4では深度拡大画像EA1、EA2において画像IA3が重複する。深度拡大画像EA2を合成する際に用いる画像IA3〜IA5のうち、画像IA4、IA5を撮像するタイミングにおけるフォーカス位置fp2、fp1は、画像IA3を撮像するタイミングにおけるフォーカス位置fp3以外から選択されている。
ここで、画像が撮像されるタイミングは、撮像素子220の露光期間に含まれるタイミングである。例えば露光期間の中央であるが、これに限定されず、露光期間に含まれる任意のタイミングであってよい。例えば図4において画像IA1の露光期間においてフォーカス位置がfp1に設定される。図4では露光期間の全体でフォーカス位置がfp1となっているが、露光期間に含まれる任意のタイミングにおいてフォーカス位置がfp1となっていればよい。
また、第1〜第Mのフォーカス位置のうち第1のフォーカス位置が、最も遠い被写体へ合焦するフォーカス位置であり、第Mのフォーカス位置が、最も近い被写体へ合焦するフォーカス位置であるとする。このとき、フォーカス制御部350は、画像が撮像されるタイミングの1タイミングおきに、第2〜第M−1のフォーカス位置のいずれかを設定する。
例えば図5では、フォーカス位置fp1〜fp4のうちfp1が、最も遠い被写体へ合焦するフォーカス位置であり、fp4が、最も近い被写体へ合焦するフォーカス位置である。フォーカス制御部350は、画像IB1、IB3、IB5、IB7が撮像されるタイミングにおいて、フォーカス位置fp3、fp2、fp3、fp2を設定する。
アクチュエータがフォーカスレンズを駆動することでフォーカス位置を移動させるが、フォーカス位置の移動速度が速いほどアクチュエータの経年劣化が早くなる。この点、本実施形態によれば、第1のフォーカス位置から第Mのフォーカス位置へ、又は第Mのフォーカス位置から第1のフォーカス位置へ移動するときに、第2〜第M−1のフォーカス位置のいずれかを経由する。これにより、フォーカス位置の差が最大となる移動を避けることができるので、アクチュエータの経年劣化を遅らせることができる。
また、Nは2であり、Mは3以上5以下の整数である。
例えば図4では、N=2、M=3であり、図5では、N=2、M=4であり、図6では、N=2、M=5である。
N=2の場合、深度拡大画像を合成する際に用いる画像を2枚ずつ更新する。例えば図4では、画像IB1〜IB4から深度拡大画像EB1を合成し、画像IB3〜IB6から深度拡大画像EB2を合成する。即ち、画像IB1、IB2を画像IB5、IB6に更新し、画像IB3、IB4を共通に用いている。2枚ずつ画像を更新する場合、基準画像を2枚毎に設定することが望ましいが、本実施形態では2枚毎に第2〜第M−1のフォーカス位置のいずれかが設定されるので、第2〜第M−1のフォーカス位置のいずれかにおいて撮像された画像を基準画像として設定できる。これにより、位置合わせされる画像間のフォーカス位置の差を最大値よりも小さくできるので、位置合わせの精度を向上できる。最大値は、第1、第Mのフォーカス位置の差である。
また、フォーカス制御部350は、第1のフォーカス位置において画像が撮像された後、次の画像が撮像されるタイミングにおいて、第Mのフォーカス位置を設定せず、第2〜第M−1のフォーカス位置のいずれかを設定する。またフォーカス制御部350は、第Mのフォーカス位置において画像が撮像された後、次の画像が撮像されるタイミングにおいて、第1のフォーカス位置を設定せず、第2〜第M−1のフォーカス位置のいずれかを設定する。
本実施形態によれば、第1のフォーカス位置から第Mのフォーカス位置へ、又は第Mのフォーカス位置から第1のフォーカス位置へ移動するときに、第2〜第M−1のフォーカス位置のいずれかを経由する。これにより、フォーカス位置の差が最大となる移動を避けることができるので、アクチュエータの経年劣化を遅らせることができる。
また、Nが整数であるとき、画像合成部330は、画像取得部390が取得した第1〜第M+Nの画像のうち第1〜第Mの画像から第1の深度拡大画像を合成し、第N+1〜第M+Nの画像から第2の深度拡大画像を合成する。
例えば図5では、N=2、M=4である。画像合成部330は、画像IB1〜IB6のうち画像IB1〜IB4から深度拡大画像EB1を合成し、画像IB3〜IB6から深度拡大画像EB2を合成する。
本実施形態によれば、被写界深度を4倍(M倍)に拡大できると共に、深度拡大画像を出力するフレームレートを撮像フレームレートの2倍(N倍)に抑制できる。即ち低フレームレートの撮像であるにも関わらず、高倍率な深度拡大を実現できる。
また、画像合成部330は、第1〜第Mの画像の位置合わせを行う際、第1〜第Nの画像のいずれかを基準画像として設定する。第1〜第Nの画像は、第2の深度拡大画像を合成する際に用いる第N+1〜第M+Nの画像と重複しない。
例えば図4では、画像合成部330は画像IA1〜IA3から深度拡大画像EA1を合成する。このとき、画像合成部330は、画像IA2を位置合わせの基準画像として設定する。画像合成部330は画像IA3〜IA5から深度拡大画像EA2を合成するが、画像IA2は、画像IA3〜IA5と重複しない。また図7では、画像合成部330は画像ID1〜ID4から深度拡大画像ED1を合成する。このとき、画像合成部330は、画像ID3を位置合わせの基準画像として設定する。画像合成部330は画像ID4〜ID8から深度拡大画像ED2を合成するが、画像ID3は、画像ID4〜ID8と重複しない。
本実施形態によれば、深度拡大画像を合成する際に用いる画像のうち、更新される画像を位置合わせの基準画像として設定できる。これにより、アーティファクトが同じ位置に残り続ける可能性を低減できる。例えば図4では、深度拡大画像EA1、EA2を合成する際に用いられる画像のうち重複する画像はIA3であるが、それは基準画像に設定されない。即ち、深度拡大画像EA1を合成するとき基準画像はIA2であり、深度拡大画像EA2を合成するとき基準画像はIA4である。被写体が動く場合には、画像IA2と画像IA4で被写体の位置が変わっており、その異なる被写体位置を基準として位置合わせが行われる。このため、深度拡大画像EA1、EA2においてアーティファクトの発生位置が変化する。
また、画像合成部330は、画像取得部390が取得した第1〜第M+p+qの画像のうち第1〜第Mの画像から第1の深度拡大画像を合成し、第p+1〜第M+pの画像から第2の深度拡大画像を合成し、第q+1〜第M+p+qの画像から第3の深度拡大画像を合成する。p、qは1以上Mより小さい整数であり、p≠qである。画像合成部330は、1秒間あたりの平均として(L×N)枚の画像からL枚の深度拡大画像を出力する。
例えば図9では、M=2、p=1、q=2である。画像合成部330は、画像IF1〜IF5のうち画像IF1、IF2から深度拡大画像EF1を合成し、画像IF2、IF3から深度拡大画像EF2を合成し、画像IF4、IF5から深度拡大画像EF3を合成する。なお、画像合成部330は、画像IF3、IF4から深度拡大画像を合成しない。又は、画像合成部330は、画像IF3、IF4から深度拡大画像を合成するが、その深度拡大画像を出力しない。図9では、撮像フレームレート90fpsであり、フレームレート60fpsの深度拡大画像を出力する。即ち、平均としてN=90fps/60fps=3/2となっている。
本実施形態によれば、深度拡大画像を合成する際に用いる画像が、一定の枚数でなく、変化する。このような場合であっても、平均としては(L×N)枚の画像からL枚の深度拡大画像を出力できる。そして、M>Nなので、被写体深度の拡大率を出来るだけ大きくしながら、撮像フレームレートを抑制できる。
また、1<N<2である。
例えば図9では、N=3/2であり、図11では5/4である。また図9、図11ではM=2である。
被写体深度の拡大率がM=2である場合、フォーカス位置がfp1、fp2の2つしかないので、画像の更新枚数が変化してもフォーカス位置の選択が容易である。即ち、fp1、fp2の間を往復するだけで、連続する2画像のフォーカス位置は必ずfp1、fp2となる。M=2の場合、1≦N<M=2である。そして、画像の更新枚数が一定でない場合には1<Nとなる。即ち、1<N<2となる。
また、フォーカス制御部350は、各画像が撮像されるタイミングにおいて、第1〜第Mのフォーカス位置のいずれかを設定する。画像合成部330は、第2〜第M−1のフォーカス位置のいずれかに設定されたときに撮像された画像を、基準画像として設定する。
フォーカス位置の差が最大となるのは、第1、第Mのフォーカス位置の差である。本実施形態によれば、第2〜第M−1のフォーカス位置のいずれかにおいて撮像された画像を基準画像として設定できる。これにより、位置合わせされる画像間のフォーカス位置の差を最大値よりも小さくできるので、位置合わせの精度を向上できる。
また、深度拡大画像を合成する際に用いるM枚の画像は、順に撮像された第1〜第Mの画像である。画像合成部330は、第2〜第M−1の画像のいずれかを基準画像として設定する。
撮像タイミングの差が最大となるのは、第1の画像の撮像タイミングと第Mの画像の撮像タイミングとの差である。本実施形態によれば、第2〜第M−1のフォーカス位置のいずれかにおいて撮像された画像を基準画像として設定できる。これにより、位置合わせされる画像間の撮像タイミングの差を最大値よりも小さくできるので、位置合わせの精度を向上できる。
また、Nが整数であるとき、画像合成部330は、N枚間隔の画像毎に基準画像を設定する。
仮に基準画像が一定間隔で設定されない場合、その基準画像における被写体の動きは、一定でない間隔で撮像した動きになっている。深度拡大画像は、基準画像を基準として位置合わせされているので、被写体の位置は基準画像における被写体の位置となっている。Nが整数であるとき、深度拡大画像は一定のフレームレートであるが、その被写体の動きは一定のフレームレートではなくなってしまう。この点、本実施形態によれば、N枚間隔の画像毎に基準画像を設定するので、深度拡大画像において被写体の動きが一定のフレームレートとなる。
なお、本実施形態の撮像装置10は以下のように構成されてもよい。即ち、処理部300は、情報を記憶するメモリと、メモリに記憶された情報に基づいて動作するプロセッサと、を含む。情報は、例えばプログラムや各種のデータである。プロセッサは、フォーカス制御処理と画像取得処理と画像合成処理とを行う。フォーカス制御処理は、被写体像を撮像素子に結像する対物光学系のフォーカス位置を制御する。画像取得処理は、撮像素子が撮像した1秒あたり(L×N)枚の画像を取得する。画像合成処理は、画像取得処理部が取得したM枚の画像から1枚の深度拡大画像を合成することで被写界深度を拡大し、1秒あたりL枚の深度拡大画像を出力する。画像合成処理は、M枚の画像のうち1枚の画像を基準画像として設定し、M枚の画像のうち基準画像以外の画像を基準画像に対して位置合わせし、位置合わせ後のM枚の画像から1枚の深度拡大画像を合成する。
プロセッサは、例えば各部の機能が個別のハードウェアで実現されてもよいし、或いは各部の機能が一体のハードウェアで実現されてもよい。例えば、プロセッサはハードウェアを含み、そのハードウェアは、デジタル信号を処理する回路及びアナログ信号を処理する回路の少なくとも一方を含むことができる。例えば、プロセッサは、回路基板に実装された1又は複数の回路装置や、1又は複数の回路素子で構成することができる。回路装置は例えばIC等である。回路素子は例えば抵抗、キャパシター等である。プロセッサは、例えばCPU(Central Processing Unit)であってもよい。ただし、プロセッサはCPUに限定されるものではなく、GPU(Graphics Processing Unit)、或いはDSP(Digital Signal Processor)等、各種のプロセッサを用いることが可能である。またプロセッサはASICによるハードウェア回路でもよい。またプロセッサは、アナログ信号を処理するアンプ回路やフィルタ回路等を含んでもよい。メモリは、SRAM、DRAMなどの半導体メモリであってもよいし、レジスターであってもよいし、ハードディスク装置等の磁気記憶装置であってもよいし、光学ディスク装置等の光学式記憶装置であってもよい。例えば、メモリはコンピュータにより読み取り可能な命令を格納しており、当該命令をプロセッサが実行することで、処理部300の各部の機能が処理として実現される。ここでの命令は、プログラムを構成する命令セットの命令でもよいし、プロセッサのハードウェア回路に対して動作を指示する命令であってもよい。処理部300の各部は、画像取得部390、画像合成部330、フォーカス制御部350、制御部340、前処理部310である。
また、本実施形態の処理部300の各部は、プロセッサ上で動作するプログラムのモジュールとして実現されてもよい。例えば、フォーカス制御部350はフォーカス制御モジュールとして実現され、画像取得部390は画像取得モジュールとして実現され、画像合成部330は画像合成モジュールとして実現される。
また、本実施形態の処理部300の各部が行う処理を実現するプログラムは、例えばコンピュータにより読み取り可能な媒体である情報記憶媒体に格納できる。情報記憶媒体は、例えば光ディスク、メモリーカード、HDD、或いは半導体メモリなどにより実現できる。半導体メモリは例えばROMである。処理部300は、情報記憶媒体に格納されるプログラムに基づいて本実施形態の種々の処理を行う。即ち情報記憶媒体は、処理部300の各部としてコンピュータを機能させるためのプログラムを記憶する。コンピュータは、入力装置、処理部、記憶部、出力部を備える装置である。プログラムは、処理部300の各部の処理をコンピュータに実行させるためのプログラムである。
2.内視鏡装置
以下では本実施形態の撮像装置が内視鏡装置である場合を説明するが、撮像装置は内視鏡装置に限定されない。撮像装置は、連続的に深度拡大画像を取得するものであればよく、例えば深度拡大された動画を撮影するものであればよい。例えば、撮像装置は顕微鏡であってもよい。
図3は、内視鏡装置12の詳細な構成例である。図3の内視鏡装置12は撮像装置10の一例である。内視鏡装置12は、挿入部100と処理部300と表示部400と外部I/F部500と照明部600とを含む。挿入部100は例えばスコープであり、表示部400は例えば表示装置であり、外部I/F部500は例えばインターフェース、又は操作部、又は操作装置であり、照明部600は照明装置、又は光源である。内視鏡装置12は、例えば消化管等に用いられる軟性鏡、又は腹腔鏡等に用いられる硬性鏡である。
挿入部100は、体内へ挿入される部分である。挿入部100は、ライトガイド110と撮像部200とを含む。
ライトガイド110は、照明部600からの出射光を、挿入部100の先端まで導光する。照明部600は、例えば白色光源610を含み、白色光の照明光を出射する。白色光源610は、例えばLED、又はキセノンランプである。なお、照明光は白色光に限定されず、内視鏡装置に用いられる種々の帯域の照明光を採用できる。
撮像部200は、被写体からの反射光を結像し、被写体の画像を撮像する。撮像部200は、対物光学系210と撮像素子220とA/D変換部230とを含む。A/D変換部230は例えばA/D変換回路である。なお、A/D変換部230はイメージセンサに内蔵されてもよい。
ライトガイド110からの出射光が被写体に照射される。対物光学系210は、被写体から反射した反射光を、被写体像として結像する。対物光学系210のフォーカス位置は変更可能であり、後述するフォーカス制御部350によって制御される。
撮像素子220は、対物光学系210により結像された被写体像を光電変換して画像を撮像する。A/D変換部230は、撮像素子220から順次出力されるアナログ信号をデジタルの画像に変換し、そのデジタルの画像を前処理部310に順次出力する。具体的には、撮像素子220が被写体の動画を撮像する。A/D変換部230は、その動画の各フレームの画像をA/D変換し、デジタルの画像を前処理部310へ出力する。前処理部310は、デジタルの動画を出力する。
処理部300は、画像処理を含む信号処理と、内視鏡装置12の制御とを行う。処理部300は、前処理部310と、フレームメモリ320と、画像合成部330と、制御部340と、フォーカス制御部350と、を含む。前処理部310は例えば前処理回路であり、フレームメモリ320は例えばRAM等のメモリであり、画像合成部330は例えば画像合成回路であり、制御部340は例えば制御回路又はコントローラであり、フォーカス制御部350は例えばフォーカス制御回路又はフォーカスコントローラである。
前処理部310は、A/D変換部230から順次出力された画像に対して、の画像処理を施し、その処理後の画像をフレームメモリ320と画像合成部330に順次出力する。画像処理は、例えばホワイトバランス処理、補間処理等である。なお、図3の前処理部310が図2の画像取得部390に相当する。
フレームメモリ320は、前処理部310から出力された(M−1)枚の画像を記憶し、その画像を画像合成部330へ出力する。Mは2以上の整数である。ここで、1枚の画像は、動画の1フレームにおいて撮像された画像である。
画像合成部330は、フレームメモリ320が記憶する(M−1)枚の画像と、前処理部310が出力する1枚の画像とを、1枚の深度拡大画像へ合成し、その深度拡大画像を出力する。即ち、画像合成部330はM枚の画像から1枚の深度拡大画像を生成する。画像合成部330は、深度拡大画像の各局所領域において、M枚の画像のうち最もフォーカスが合っている画像を選択し、その選択した画像の局所領域を抽出し、抽出した局所領域から深度拡大画像を合成する。撮像部200が撮影した動画から深度拡大画像を順次に生成することで、深度拡大画像をフレーム画像とする動画が得られる。
制御部340は、撮像素子220、前処理部310、フレームメモリ320、画像合成部330及びフォーカス制御部350と双方向に接続しており、これらを制御する。例えば、制御部340は、撮像素子220の露光期間と対物光学系210のフォーカス位置とを同期させる。或いは、制御部340は、照明を調光制御する。即ち、制御部340は、画像の明るさに基づいて照明部600の光量を制御し、画像の明るさを一定にする。
フォーカス制御部350は、フォーカス位置を制御するフォーカス制御信号を対物光学系210へ出力する。フォーカス位置の制御の詳細は後述する。撮像部200は、互いにフォーカス位置が異なるMフレームで画像を撮像し、画像合成部330は、そのM枚の画像を1枚の画像に合成する。これにより、被写界深度が拡大された深度拡大画像が得られる。
表示部400は、画像合成部330から出力される深度拡大画像を順次表示する。即ち、深度拡大画像をフレーム画像とする動画を表示する。表示部400は、例えば液晶ディスプレイやEL(Electro-Luminescence)ディスプレイ等である。
外部I/F部500は、ユーザが内視鏡装置に対して入力等を行うためのインターフェースである。即ち、内視鏡装置を操作するためのインターフェース、或いは内視鏡装置の動作設定を行うためのインターフェース等である。例えば、外部I/F部500は、画像処理のパラメータを調整するための調整ボタン等を含む。
3.動作
以下、内視鏡装置12の動作について説明する。図4は、N=2、M=3であるときの内視鏡装置12の動作を説明する図である。撮像フレームレートをIFRとし、深度拡大画像のフレームレートをEFRとしたとき、N=IFR/EFRである。Mは、1枚の深度拡大画像へ合成される画像の枚数である。
図4に示すように、撮像素子220は画像IA1〜IA5を順次に撮像する。フレームレートは120fpsである。図4において、実線の四角は露光期間を示す。露光期間は、撮像素子220が露光状態となっている期間である。露光状態は、画素が光電変換による電荷を蓄積している状態である。フォーカス制御部350は、画像毎にフォーカス位置を変更する。具体的には、フォーカス制御部350は、画像IA1、IA2、IA3、IA4に対応して、フォーカス位置をfp1、fp2、fp3、fp2と変化させ、以降、同様に繰り返す。
フォーカス位置fp1〜fp3は、M=3におけるfp1〜fpMである。fp1は、fp1〜fpMのうち最も遠点側のフォーカス位置であり、fp2は、fp1に比べて近点側のフォーカス位置であり、fpMは、fp1〜fpMのうち最も近点側のフォーカス位置である。隣り合うフォーカス位置をfpi、fpi+1とすると、fpi、fpi+1における被写界深度は一部において重なっている。iは、1以上M−1以下の整数である。
画像合成部330は、画像IA1〜IA3を合成し、深度拡大画像EA1を出力する。このとき、フォーカス位置fp2において撮像された画像IA2を基準画像とし、画像IA1及び画像IA3を画像IA2に対して位置合わせし、位置合わせされた画像IA1〜IA3を合成する。図4において、太実線の四角が基準画像を示す。画像合成部330は、画像IA3〜IA5を合成し、深度拡大画像EA2を出力する。このとき、フォーカス位置fp2において撮像された画像IA4を基準画像とし、画像IA3及び画像IA5を画像IA4に対して位置合わせし、位置合わせされた画像IA3〜IA5を合成する。以上の結果、画像合成部330は、被写界深度を3倍に拡大した深度拡大画像を120fps/2=60fpsで出力できる。
深度拡大画像EA1の元となる画像IA1〜IA3のうち、画像IA3は、深度拡大画像EA2の元となる画像IA3〜IA5と共通している。このため、仮に画像IA3を合成した領域において、位置合わせの精度不足によるアーティファクトが発生した場合、深度拡大画像EA1、EA2の同じ位置にアーティファクトが発生するおそれがある。
この点、本実施形態では、深度拡大画像EA1を合成する際には、画像IA2を基準として画像IA1〜IA3の位置合わせを行い、深度拡大画像EA2を合成する際には、画像IA4を基準として画像IA3〜IA5の位置合わせを行う。被写体が動く場合には、画像IA2と画像IA4で被写体の位置が変わっており、その異なる被写体位置を基準として位置合わせが行われる。このため、深度拡大画像EA1、EA2においてアーティファクトの発生位置が変化するので、アーティファクトが同じ位置に残り続ける可能性を低減できる。
また、位置合わせの精度が不十分な場合、同じ被写体が二重に合成される二重像等のアーティファクトが発生する可能性がある。一般的には、フォーカス位置の差や、撮像タイミングの差が大きくなるにつれて、位置合わせが困難になる。フォーカス位置の差に関しては、フォーカス位置の差が大きくなると同一の被写体であってもボケ方が異なるので、画像上で同一の被写体と識別できなくなるためである。撮像タイミングの差に関しては、撮像タイミングの差が大きくなると画像上での被写体の動きが大きくなるので、画像間で被写体の位置が大きく異なるためである。例えば、一方の画像では被写体が画像外に出てしまい、位置合わせできない場合がある。又は、画像間で被写体の位置が大きく異なる場合、位置合わせに必要な計算コストが増大する。
この点、本実施形態によれば、フォーカス位置fp2において撮像される画像を基準画像としている。フォーカス位置fp1とfp3の間においてフォーカス位置の差が最大となるが、本実施形態ではフォーカス位置fp1とfp2の間、及びフォーカス位置fp2とfp3の間において位置合わせを行う。また、本実施形態によれば、深度拡大画像の元となる3枚の画像のうち2番目に撮像される画像を基準画像としている。1番目と3番目に撮像される画像の間において撮像タイミングの差が最大であるが、本実施形態では1番目と2番目の間、及び2番目と3番目の間において位置合わせを行う。以上の理由によって、安定的な位置合わせが可能となり、深度拡大画像にアーティファクトを発生させる可能性を低減できる。
また、フォーカス位置を変更するためには、対物光学系の一部をアクチュエータで駆動する必要がある。フォーカス位置をfp1からfp2へ駆動する場合に比べて、フォーカス位置をfp1からfp3へ駆動する場合の方が、より高速な駆動が求められる。高速な駆動を行うほど、アクチュエータの経年劣化を早めてしまう。本実施形態によれば、fp1とfp2の間、及びfp2とfp3の間においてフォーカス位置を駆動するので、アクチュエータの経年劣化を遅らせることができる。
図5は、N=2、M=4であるときの内視鏡装置12の動作を説明する図である。
図5に示すように、撮像素子220は画像IB1〜IB8を順次に撮像する。フレームレートは120fpsである。フォーカス制御部350は、画像IB1、IB2、IB3、IB4に対応して、フォーカス位置をfp3、fp1、fp2、fp4と変化させ、以降、同様に繰り返す。
画像合成部330は、画像IB1〜IB4を合成し、深度拡大画像EB1を出力する。このとき、フォーカス位置fp2において撮像された画像IB3を基準画像とし、画像IB1、IB2、IB4を画像IB3に対して位置合わせし、位置合わせされた画像IB1〜IB4を合成する。画像合成部330は、画像IB3〜IB6を合成し、深度拡大画像EB2を出力する。このとき、フォーカス位置fp3において撮像された画像IB5を基準画像とし、画像IB3、IB4、IB6を画像IB5に対して位置合わせを行い、位置合わせされた画像IB3〜IB6を合成する。以上の結果、画像合成部330は、被写界深度を4倍に拡大した深度拡大画像を120fps/2=60fpsで出力できる。
深度拡大画像EB1を合成する際の基準画像は画像IB3であり、画像IB3と画像IB1は、フォーカス位置の差が1つであり、撮像タイミングの差が2つである。また、画像IB3と画像IB2は、フォーカス位置の差が1つであり、撮像タイミングの差が1つである。画像IB3と画像IB4は、フォーカス位置の差が2つであり、撮像タイミングの差が1つである。深度拡大画像EB2を合成する際の基準画像は画像IB5であり、画像IB5と画像IB3は、フォーカス位置の差が1つであり、撮像タイミングの差が2つである。また、画像IB5と画像IB4は、フォーカス位置の差が2つであり、撮像タイミングの差が1つである。画像IB5と画像IB6は、フォーカス位置の差が2つであり、撮像タイミングの差が1つである。フォーカス位置fp1とfp4の間においてフォーカス位置の差が最大の4となるが、本実施形態では、フォーカス位置の差が最大となる場合の位置合わせを回避できる。また、深度拡大画像の元となる4枚の画像のうち1番目と4番目に撮像される画像の間において撮像タイミングの差が最大の4となるが、本実施形態では、撮像タイミングの差が最大となる場合の位置合わせを回避できる。以上の理由によって、安定的な位置合わせが可能となり、深度拡大画像にアーティファクトを発生させる可能性を低減できる。
また、フォーカス位置をfp1からfp4へ、又はfp4からfp1へ駆動する場合に、アクチュエータの駆動が最も高速になる。本実施形態によれば、アクチュエータの駆動が最も高速になる場合を回避できるので、アクチュエータの経年劣化を遅らせることができる。
なお、図5では、深度拡大画像を合成する毎に、元となる画像を2枚ずつ更新しているが、更新する画像の枚数はこれに限定されない。具体的には、画像IB1〜IB4から深度拡大画像EB1を合成し、画像IB4〜IB7から深度拡大画像EB2を合成しても構わない。この場合、1枚更新と3枚更新を交互に繰り返す。この場合においても、平均としてフレームレート60fpsの深度拡大画像が出力されるので、N=120fps/60fps=2となる。
図6は、N=2、M=5であるときの内視鏡装置12の動作を説明する図である。
図6に示すように、撮像素子220は画像IC1〜IC12を順次に撮像する。フレームレートは120fpsである。フォーカス制御部350は、画像IC1、IC2、IC3、IC4、IC5、IC6、IC7、IC8、IC9、IC10、IC11、IC12に対応して、フォーカス位置をfp2、fp1、fp3、fp5、fp4、fp1、fp2、fp5、fp3、fp1、fp4、fp5と変化させ、以降、同様に繰り返す。
画像合成部330は、画像IC1〜IC5を合成し、深度拡大画像EC1を出力する。このとき、フォーカス位置fp3において撮像された画像IC3を基準画像とし、画像IC1、IC2、IC4、IC5を画像IC3に対して位置合わせし、位置合わせされた画像IC1〜IC5を合成する。画像合成部330は、画像IC3〜IC7を合成し、深度拡大画像EC2を出力する。このとき、フォーカス位置fp3において撮像された画像IC5を基準画像とし、画像IC3、IC4、IC6、IC7を画像IC5に対して位置合わせを行い、位置合わせされた画像IC3〜IC7を合成する。以上の結果、画像合成部330は、被写界深度を5倍に拡大した深度拡大画像を120fps/2=60fpsで出力できる。
深度拡大画像EC1を合成する際の基準画像は画像IC3であり、画像IC3と画像IC1は、フォーカス位置の差が1つであり、撮像タイミングの差が2つである。また、画像IC3と画像IC2は、フォーカス位置の差が2つであり、撮像タイミングの差が1つである。画像IC3と画像IC4は、フォーカス位置の差が2つであり、撮像タイミングの差が1つである。画像IC3と画像IC5は、フォーカス位置の差が2つであり、撮像タイミングの差が2つである。深度拡大画像EC2を合成する際の基準画像は画像IC5であり、画像IC5と画像IC3は、フォーカス位置の差が1つであり、撮像タイミングの差が2つである。また、画像IC5と画像IC4は、フォーカス位置の差が1つであり、撮像タイミングの差が1つである。画像IC5と画像IC6は、フォーカス位置の差が3つであり、撮像タイミングの差が1つである。画像IC5と画像IC7は、フォーカス位置の差が2つであり、撮像タイミングの差が2つである。フォーカス位置fp1とfp5の間においてフォーカス位置の差が最大の5となるが、本実施形態では、フォーカス位置の差が最大となる場合の位置合わせを回避できる。また、深度拡大画像の元となる5枚の画像のうち1番目と5番目に撮像される画像の間において撮像タイミングの差が最大の5となるが、本実施形態では、撮像タイミングの差が最大となる場合の位置合わせを回避できる。以上の理由によって、安定的な位置合わせが可能となり、深度拡大画像にアーティファクトを発生させる可能性を低減できる。
また、フォーカス位置をfp1からfp5へ、又はfp5からfp1へ駆動する場合に、アクチュエータの駆動が最も高速になる。本実施形態によれば、アクチュエータの駆動が最も高速になる場合を回避できるので、アクチュエータの経年劣化を遅らせることができる。
なお、図6では、深度拡大画像を合成する毎に、元となる画像を2枚ずつ更新しているが、更新する画像の枚数はこれに限定されない。具体的には、画像IB1〜IB4から深度拡大画像EB1を合成し、画像IB4〜IB7から深度拡大画像EB2を合成しても構わない。この場合、1枚更新と3枚更新を交互に繰り返す。この場合においても、平均としてフレームレート60fpsの深度拡大画像が出力されるので、N=120fps/60fps=2となる。
図7は、N=3、M=5であるときの内視鏡装置12の動作を説明する図である。
図7に示すように、撮像素子220は画像ID1〜ID8を順次に撮像する。フレームレートは180fpsである。フォーカス制御部350は、画像ID1、ID2、ID3、ID4、ID5、ID6に対応して、フォーカス位置をfp1、fp2、fp3、fp5、fp4、fp3と変化させ、以降、同様に繰り返す。
画像合成部330は、画像ID1〜ID5を合成し、深度拡大画像ED1を出力する。このとき、フォーカス位置fp3において撮像された画像ID3を基準画像とし、画像ID1、ID2、ID4、ID5を画像ID3に対して位置合わせし、位置合わせされた画像ID1〜ID5を合成する。画像合成部330は、画像ID4〜ID8を合成し、深度拡大画像ED2を出力する。このとき、フォーカス位置fp3において撮像された画像ID6を基準画像とし、画像ID4、ID5、ID7、ID8を画像ID6に対して位置合わせを行い、位置合わせされた画像ID4〜ID8を合成する。以上の結果、画像合成部330は、被写界深度を5倍に拡大した深度拡大画像を180fps/3=60fpsで出力できる。
深度拡大画像ED1を合成する際の基準画像は画像ID3であり、画像ID3と画像ID1は、フォーカス位置の差が2つであり、撮像タイミングの差が2つである。また、画像ID3と画像ID2は、フォーカス位置の差が1つであり、撮像タイミングの差が1つである。画像ID3と画像ID4は、フォーカス位置の差が2つであり、撮像タイミングの差が1つである。画像ID3と画像ID5は、フォーカス位置の差が1つであり、撮像タイミングの差が2つである。深度拡大画像ED2を合成する際の基準画像は画像ID6であり、画像ID6と画像ID4は、フォーカス位置の差が2つであり、撮像タイミングの差が2つである。また、画像ID6と画像ID5は、フォーカス位置の差が1つであり、撮像タイミングの差が1つである。画像ID6と画像ID7は、フォーカス位置の差が2つであり、撮像タイミングの差が1つである。画像ID6と画像ID8は、フォーカス位置の差が1つであり、撮像タイミングの差が2つである。フォーカス位置fp1とfp5の間においてフォーカス位置の差が最大の5となるが、本実施形態では、フォーカス位置の差が最大となる場合の位置合わせを回避できる。また、深度拡大画像の元となる5枚の画像のうち1番目と5番目に撮像される画像の間において撮像タイミングの差が最大の5となるが、本実施形態では、撮像タイミングの差が最大となる場合の位置合わせを回避できる。以上の理由によって、安定的な位置合わせが可能となり、深度拡大画像にアーティファクトを発生させる可能性を低減できる。
また、フォーカス位置をfp1からfp5へ、又はfp5からfp1へ駆動する場合に、アクチュエータの駆動が最も高速になる。本実施形態によれば、アクチュエータの駆動が最も高速になる場合を回避できるので、アクチュエータの経年劣化を遅らせることができる。
図8は、N=1、M=2であるときの内視鏡装置12の動作を説明する図である。
図8に示すように、撮像素子220は画像IE1〜IE3を順次に撮像する。フレームレートは60fpsである。フォーカス制御部350は、画像IE1、IE2に対応して、フォーカス位置をfp2、fp1と変化させ、以降、同様に繰り返す。
画像合成部330は、画像IE1、IE2を合成し、深度拡大画像EE1を出力する。このとき、フォーカス位置fp1において撮像された画像IE2を基準画像とし、画像IE1を画像IE2に対して位置合わせし、位置合わせされた画像IE1、IE2を合成する。画像合成部330は、画像IE2、IE3を合成し、深度拡大画像EE2を出力する。このとき、フォーカス位置fp2において撮像された画像IE3を基準画像とし、画像IE2を画像IE3に対して位置合わせし、位置合わせされた画像IE2、IE3を合成する。以上の結果、画像合成部330は、被写界深度を2倍に拡大した深度拡大画像を60fps/1=60fpsで出力できる。
本実施形態によれば、深度拡大画像のフレームレートに対して撮像フレームレートを高速化することなく、2倍の深度拡大が可能となる。また本実施形態によれば、画像間における撮像タイミングの差を小さくできる。このため、位置合わせが必要な画像間における被写体の動き量を小さくでき、その動き量を検出する回路の規模を抑制できる。
なお、図4〜図8では、N=2且つ3≦M≦5、又はN=3且つM=5、又はN=1且つM=2の場合を説明したが、N、Mの選び方はこれに限定されない。即ち、N≧1且つM>Nであり、M枚の画像から深度拡大画像を合成し、次の深度拡大画像を合成する際にM枚のうちN枚を更新してもよい。これにより、被写界深度をM倍に拡大できる。また、深度拡大画像の元となる画像に重複がない場合には、深度拡大画像のフレームレートに対してM倍の撮像フレームレートが必要となるが、本実施形態では重複させているので、深度拡大画像のフレームレートに対してN倍(N<M)の撮像フレームレートに抑制できる。また本実施形態では、フォーカス位置を変化させる順序、及び基準画像の選び方を工夫しているので、アーティファクトを効果的に抑制できる。
また、図4〜図8ではNが整数である場合を説明したが、以下に説明する通り、Nが非整数であってもよい。例えば、s、tが1以上の整数であり、s≠tであるとき、N=s/tであってもよい。以下では1<N<2となる幾つかの例を説明する。
図9は、N=3/2、M=2であるときの内視鏡装置12の動作を説明する図である。
図9に示すように、撮像素子220は画像IF1〜IF6を順次に撮像する。フレームレートは90fpsである。フォーカス制御部350は、画像IF1、IF2に対応して、フォーカス位置をfp2、fp1と変化させ、以降、同様に繰り返す。
画像合成部330は、画像IF1、IF2を合成し、深度拡大画像EF1を出力する。このとき、フォーカス位置fp1において撮像された画像IF2を基準画像とし、画像IF1を画像IF2に対して位置合わせし、位置合わせされた画像IF1、IF2を合成する。画像合成部330は、画像IF2、IF3を合成し、深度拡大画像EF2を出力する。このとき、フォーカス位置fp2において撮像された画像IF3を基準画像とし、画像IF2を画像IF3に対して位置合わせし、位置合わせされた画像IF2、IF3を合成する。画像合成部330は、画像IF4、IF5を合成し、深度拡大画像EF3を出力する。このとき、フォーカス位置fp2において撮像された画像IF5を基準画像とし、画像IF4を画像IF5に対して位置合わせし、位置合わせされた画像IF4、IF5を合成する。画像合成部330は、画像IF5、IF6を合成し、深度拡大画像EF4を出力する。このとき、フォーカス位置fp1において撮像された画像IF6を基準画像とし、画像IF5を画像IF6に対して位置合わせし、位置合わせされた画像IF5、IF6を合成する。以上の結果、画像合成部330は、被写界深度を2倍に拡大した深度拡大画像を90fps/(3/2)=60fpsで出力できる。図8と同様に2画像間の位置合わせなので、動き量を検出する回路の規模を抑制できる。
なお、図9では画像IF3、IF4から深度拡大画像を合成していないが、図10に示すように画像IF3、IF4から深度拡大画像EF2bを合成し、且つ、その深度拡大画像EF2bを画像合成部330が出力しない構成としてもよい。画像合成部330は深度拡大画像EF1、EF2、EF3、EF4を出力するので、表示部400に表示する深度拡大画像は図9と同じになる。
図11は、N=5/4、M=2であるときの内視鏡装置12の動作を説明する図である。
図11に示すように、撮像素子220は画像IG1〜IG10を順次に撮像する。フレームレートは75fpsである。フォーカス制御部350は、画像IG1、IG2に対応して、フォーカス位置をfp2、fp1と変化させ、以降、同様に繰り返す。
画像合成部330は、画像IG1、IG2を合成し、深度拡大画像EG1を出力する。このとき、フォーカス位置fp1において撮像された画像IG2を基準画像とし、画像IG1を画像IG2に対して位置合わせし、位置合わせされた画像IG1、IG2を合成する。画像合成部330は、画像IG2、IG3を合成し、深度拡大画像EG2を出力する。このとき、フォーカス位置fp2において撮像された画像IG3を基準画像とし、画像IG2を画像IG3に対して位置合わせし、位置合わせされた画像IG2、IG3を合成する。画像IG3、IG4を合成し、深度拡大画像EG3を出力する。このとき、フォーカス位置fp1において撮像された画像IG4を基準画像とし、画像IG3を画像IG4に対して位置合わせし、位置合わせされた画像IG3、IG4を合成する。画像合成部330は、画像IG4、IG5を合成し、深度拡大画像EG3を出力する。このとき、フォーカス位置fp2において撮像された画像IG5を基準画像とし、画像IG4を画像IG5に対して位置合わせし、位置合わせされた画像IG4、IG5を合成する。画像合成部330は、画像IG6、IG7を合成し、深度拡大画像EG5を出力する。このとき、フォーカス位置fp2において撮像された画像IG7を基準画像とし、画像IG6を画像IG7に対して位置合わせし、位置合わせされた画像IG6、IG7を合成する。以上の結果、画像合成部330は、被写界深度を2倍に拡大した深度拡大画像を75fps/(5/4)=60fpsで出力できる。
4.画像合成部
以下、画像合成部330が深度拡大画像を合成する手法について説明する。図12は、画像合成部330の詳細な構成例である。画像合成部330は、基準画像設定部331と第1位置合わせ部332と第2位置合わせ部333と第1合焦度算出部334と第2合焦度算出部335と第3合焦度算出部336と合成マップ生成部337と合成部338とを含む。なお図12、図13ではM=3の場合を例に説明する。
基準画像設定部331は、フレームメモリ320が記憶する2枚の画像から、基準画像を1枚設定する。設定した基準画像を、第1位置合わせ部332、第2位置合わせ部333、第1合焦度算出部334、及び合成部338へ出力する。
第1位置合わせ部332は、基準画像設定部331が設定した基準画像を基準として、前処理部310が出力する1枚の画像を画素毎に位置合わせする。第1位置合わせ部332は、位置合わせ後の画像を第2位置合わせ画像として、第2合焦度算出部335及び合成部338へ出力する。
第2位置合わせ部333は、基準画像設定部331が設定した基準画像を基準として、1枚の画像を画素毎に位置合わせする。1枚の画像は、フレームメモリ320が記憶する2枚の画像のうち基準画像以外の画像である。第2位置合わせ部333は、位置合わせ後の画像を第2位置合わせ画像として、第3合焦度算出部336及び合成部338へ出力する。
第1合焦度算出部334は、基準画像の合焦度を画素毎に算出する。例えば、画像に対してハイパスフィルタ処理、又はバンドパスフィルタ処理を行い、その処理結果を合焦度として出力する。第1合焦度算出部334は、算出した合焦度を第1合焦度として合成マップ生成部337へ出力する。
第2合焦度算出部335は、第1位置合わせ画像の合焦度を画素毎に算出し、算出した合焦度を第2合焦度として合成マップ生成部337へ出力する。
第3合焦度算出部336は、第2位置合わせ画像の合焦度を画素毎に算出し、算出した合焦度を第3合焦度として合成マップ生成部337へ出力する。
合成マップ生成部337は、画素毎に第1合焦度と第2合焦度と第3合焦度を比較し、その比較結果に基づき画像と同サイズの合成マップを生成し、その合成マップを合成部338へ出力する。合成マップは、各画素に「0」、「1」又は「2」が格納されたマップである。図13は、合成マップ生成部337が行う処理の手順を示すフローチャートである。ステップS1において、合成マップ生成部337は、画像に含まれる画素のうち1つの画素を選択する。次にステップS2において、第1合焦度≧第2合焦度、且つ第1合焦度≧第3合焦度であるか否かを判定する。ステップS2の条件を満たす場合には、ステップS3において、合成マップの画素に「0」を格納する。ステップS2の条件を満たさない場合には、ステップS4において、第2合焦度≧第3合焦度であるか否かを判定する。ステップS4の条件を満たす場合には、ステップS5において、合成マップの画素に「1」を格納する。ステップS4の条件を満たさない場合には、ステップS6において、合成マップの画素に「2」を格納する。
合成部338は、基準画像と第1位置合わせ画像と第2位置合わせ画像とを合成マップに基づいて合成する。合成部338は、合成マップの画素の値が「0」であるとき、基準画像の画素値を選択し、合成マップの画素の値が「1」であるとき、第1位置合わせ画像の画素値を選択し、合成マップの画素の値が「2」であるとき、第2位置合わせ画像の画素値を選択する。これを全ての画素に対して行う。
なお、上記ではM=3の場合を例に説明したが、M>4であってもよい。即ち、基準画像設定部331は、フレームメモリ320が記憶する(M−1)枚の画像から、基準画像を1枚設定する。第1位置合わせ部332、第1合焦度算出部334、第2合焦度算出部335の動作は上述の通りである。第2位置合わせ部333は、基準画像を基準として、(M−2)枚の画像を画素毎に位置合わせし、位置合わせ後の画像を第2〜第M−1位置合わせ画像として出力する。第3合焦度算出部336は、第2〜第M−1位置合わせ画像の合焦度を画素毎に算出し、算出した合焦度を第3〜第M合焦度として出力する。合成マップ生成部337は、画素毎に第1〜第M合焦度を比較し、その比較結果に基づき合成マップを生成する。
5.手術支援システム
内視鏡装置として、制御装置とスコープが接続され、そのスコープをユーザが操作しながら体内を撮影するタイプを想定できる。但し、これに限定されず、本発明を適用した内視鏡装置として例えばロボットを用いた手術支援システム等を想定できる。
例えば、手術支援システムは、制御装置とロボットとスコープとを含む。スコープは例えば硬性鏡である。制御装置は、ロボットを制御する装置である。即ち、ユーザが制御装置の操作部を操作することでロボットを動作させ、ロボットを介して患者に対する手術を行う。また制御装置の操作部を操作することでロボットを経由してスコープを操作し、手術領域を撮影する。制御装置は、図1又は図3の処理部300を含んでいる。ユーザは、処理部300が表示装置に表示した画像を見ながら、ロボットを操作する。本発明は、このような手術支援システムにおける制御装置に適用できる。なお、制御装置はロボットに内蔵されてもよい。
以上、本発明を適用した実施形態およびその変形例について説明したが、本発明は、各実施形態やその変形例そのままに限定されるものではなく、実施段階では、発明の要旨を逸脱しない範囲内で構成要素を変形して具体化することができる。また、上記した各実施形態や変形例に開示されている複数の構成要素を適宜組み合わせることによって、種々の発明を形成することができる。例えば、各実施形態や変形例に記載した全構成要素からいくつかの構成要素を削除してもよい。さらに、異なる実施の形態や変形例で説明した構成要素を適宜組み合わせてもよい。このように、発明の主旨を逸脱しない範囲内において種々の変形や応用が可能である。また、明細書又は図面において、少なくとも一度、より広義または同義な異なる用語と共に記載された用語は、明細書又は図面のいかなる箇所においても、その異なる用語に置き換えることができる。
10 撮像装置、12 内視鏡装置、100 挿入部、110 ライトガイド、200 撮像部、210 対物光学系、220 撮像素子、230 A/D変換部、300 処理部、310 前処理部、320 フレームメモリ、330 画像合成部、331 基準画像設定部、332 第1位置合わせ部、333 第2位置合わせ部、334 第1合焦度算出部、335 第2合焦度算出部、336 第3合焦度算出部、337 合成マップ生成部、338 合成部、340 制御部、350 フォーカス制御部、390 画像取得部、400 表示部、500 外部I/F部、600 照明部、610 白色光源、EA1,EA2 深度拡大画像、IA1〜IA5 画像、fp1〜fp5 フォーカス位置
本発明の一態様によれば、L枚の深度拡大画像の各々を、撮像画像から合成している。これにより、ある深度拡大画像において仮にアーティファクトが発生したとしても、次の深度拡大画像は撮像画像から合成するので、アーティファクト部分を早期に更新できる。また本発明の一態様によれば、N>Mであることで、L×N<L×Mとなる。即ち、合成される画像を重複させながら深度拡大画像を合成できる。合成される画像を重複させない場合、撮像フレームレートは(L×M)fpsとなるが、本発明の一態様によれば、それより低フレームレートの(L×N)fpsとなる。即ち、出来るだけ低フレームレートの撮像を実現しながら、且つ被写深度の拡大率Mを大きくできる。
また本実施形態によれば、N>Mであることで、L×N<L×Mとなる。即ち、合成させる画像を重複させながら深度拡大画像を合成できる。例えば図4では深度拡大画像EA1、EA2において画像IA3が重複する。合成させる画像を重複させない場合、撮像フレームレートは(L×M)fpsとなるが、本実施形態では、それより低フレームレートの(L×N)fpsとなる。即ち、出来るだけ低フレームレートの撮像を実現しながら、且つ被写深度の拡大率Mを大きくできる。
また、深度拡大画像とは、撮像画像の被写深度よりも被写界深度を拡大した画像である。具体的には、互いにフォーカス位置が異なる複数の画像に基づいて被写界深度が疑似的に拡大された画像である。例えば、画像の各局所領域において、M枚の画像の中から、その局所領域での合焦度合いが最も高い画像を選択し、その選択した各局所領域の画像で深度拡大画像を構成する。局所領域は例えば画素である。1フレームの深度拡大画像を合成する際に用いるM枚の画像は、撮像素子が順次に撮像した画像である。
本実施形態によれば、互いに異なるフォーカス位置で撮像したM枚の画像から深度拡大画像を合成することで、被写深度を拡大できる。本実施形態では、合成させる画像を重複させながら深度拡大画像を合成するので、重複しない画像を撮像するタイミングにおけるフォーカス位置は、重複する画像を撮像するタイミングにおけるフォーカス位置以外から選択する。例えば図4では深度拡大画像EA1、EA2において画像IA3が重複する。深度拡大画像EA2を合成する際に用いる画像IA3〜IA5のうち、画像IA4、IA5を撮像するタイミングにおけるフォーカス位置fp2、fp1は、画像IA3を撮像するタイミングにおけるフォーカス位置fp3以外から選択されている。
N=2の場合、深度拡大画像を合成する際に用いる画像を2枚ずつ更新する。例えば図では、画像IB1〜IB4から深度拡大画像EB1を合成し、画像IB3〜IB6から深度拡大画像EB2を合成する。即ち、画像IB1、IB2を画像IB5、IB6に更新し、画像IB3、IB4を共通に用いている。2枚ずつ画像を更新する場合、基準画像を2枚毎に設定することが望ましいが、本実施形態では2枚毎に第2〜第M−1のフォーカス位置のいずれかが設定されるので、第2〜第M−1のフォーカス位置のいずれかにおいて撮像された画像を基準画像として設定できる。これにより、位置合わせされる画像間のフォーカス位置の差を最大値よりも小さくできるので、位置合わせの精度を向上できる。最大値は、第1、第Mのフォーカス位置の差である。
例えば図4では、画像合成部330は画像IA1〜IA3から深度拡大画像EA1を合成する。このとき、画像合成部330は、画像IA2を位置合わせの基準画像として設定する。画像合成部330は画像IA3〜IA5から深度拡大画像EA2を合成するが、画像IA2は、画像IA3〜IA5と重複しない。また図7では、画像合成部330は画像ID1〜IDから深度拡大画像ED1を合成する。このとき、画像合成部330は、画像ID3を位置合わせの基準画像として設定する。画像合成部330は画像ID4〜ID8から深度拡大画像ED2を合成するが、画像ID3は、画像ID4〜ID8と重複しない。
深度拡大画像EB1を合成する際の基準画像は画像IB3であり、画像IB3と画像IB1は、フォーカス位置の差が1つであり、撮像タイミングの差が2つである。また、画像IB3と画像IB2は、フォーカス位置の差が1つであり、撮像タイミングの差が1つである。画像IB3と画像IB4は、フォーカス位置の差が2つであり、撮像タイミングの差が1つである。深度拡大画像EB2を合成する際の基準画像は画像IB5であり、画像IB5と画像IB3は、フォーカス位置の差が1つであり、撮像タイミングの差が2つである。また、画像IB5と画像IB4は、フォーカス位置の差がつであり、撮像タイミングの差が1つである。画像IB5と画像IB6は、フォーカス位置の差が2つであり、撮像タイミングの差が1つである。フォーカス位置fp1とfp4の間においてフォーカス位置の差が最大の4となるが、本実施形態では、フォーカス位置の差が最大となる場合の位置合わせを回避できる。また、深度拡大画像の元となる4枚の画像のうち1番目と4番目に撮像される画像の間において撮像タイミングの差が最大の4となるが、本実施形態では、撮像タイミングの差が最大となる場合の位置合わせを回避できる。以上の理由によって、安定的な位置合わせが可能となり、深度拡大画像にアーティファクトを発生させる可能性を低減できる。
画像合成部330は、画像IC1〜IC5を合成し、深度拡大画像EC1を出力する。このとき、フォーカス位置fp3において撮像された画像IC3を基準画像とし、画像IC1、IC2、IC4、IC5を画像IC3に対して位置合わせし、位置合わせされた画像IC1〜IC5を合成する。画像合成部330は、画像IC3〜IC7を合成し、深度拡大画像EC2を出力する。このとき、フォーカス位置fpにおいて撮像された画像IC5を基準画像とし、画像IC3、IC4、IC6、IC7を画像IC5に対して位置合わせを行い、位置合わせされた画像IC3〜IC7を合成する。以上の結果、画像合成部330は、被写界深度を5倍に拡大した深度拡大画像を120fps/2=60fpsで出力できる。
深度拡大画像EC1を合成する際の基準画像は画像IC3であり、画像IC3と画像IC1は、フォーカス位置の差が1つであり、撮像タイミングの差が2つである。また、画像IC3と画像IC2は、フォーカス位置の差が2つであり、撮像タイミングの差が1つである。画像IC3と画像IC4は、フォーカス位置の差が2つであり、撮像タイミングの差が1つである。画像IC3と画像IC5は、フォーカス位置の差がつであり、撮像タイミングの差が2つである。深度拡大画像EC2を合成する際の基準画像は画像IC5であり、画像IC5と画像IC3は、フォーカス位置の差が1つであり、撮像タイミングの差が2つである。また、画像IC5と画像IC4は、フォーカス位置の差が1つであり、撮像タイミングの差が1つである。画像IC5と画像IC6は、フォーカス位置の差が3つであり、撮像タイミングの差が1つである。画像IC5と画像IC7は、フォーカス位置の差が2つであり、撮像タイミングの差が2つである。フォーカス位置fp1とfp5の間においてフォーカス位置の差が最大の5となるが、本実施形態では、フォーカス位置の差が最大となる場合の位置合わせを回避できる。また、深度拡大画像の元となる5枚の画像のうち1番目と5番目に撮像される画像の間において撮像タイミングの差が最大の5となるが、本実施形態では、撮像タイミングの差が最大となる場合の位置合わせを回避できる。以上の理由によって、安定的な位置合わせが可能となり、深度拡大画像にアーティファクトを発生させる可能性を低減できる。
画像合成部330は、画像IG1、IG2を合成し、深度拡大画像EG1を出力する。このとき、フォーカス位置fp1において撮像された画像IG2を基準画像とし、画像IG1を画像IG2に対して位置合わせし、位置合わせされた画像IG1、IG2を合成する。画像合成部330は、画像IG2、IG3を合成し、深度拡大画像EG2を出力する。このとき、フォーカス位置fp2において撮像された画像IG3を基準画像とし、画像IG2を画像IG3に対して位置合わせし、位置合わせされた画像IG2、IG3を合成する。画像IG3、IG4を合成し、深度拡大画像EG3を出力する。このとき、フォーカス位置fp1において撮像された画像IG4を基準画像とし、画像IG3を画像IG4に対して位置合わせし、位置合わせされた画像IG3、IG4を合成する。画像合成部330は、画像IG4、IG5を合成し、深度拡大画像EGを出力する。このとき、フォーカス位置fp2において撮像された画像IG5を基準画像とし、画像IG4を画像IG5に対して位置合わせし、位置合わせされた画像IG4、IG5を合成する。画像合成部330は、画像IG6、IG7を合成し、深度拡大画像EG5を出力する。このとき、フォーカス位置fp2において撮像された画像IG7を基準画像とし、画像IG6を画像IG7に対して位置合わせし、位置合わせされた画像IG6、IG7を合成する。以上の結果、画像合成部330は、被写界深度を2倍に拡大した深度拡大画像を75fps/(5/4)=60fpsで出力できる。
第1位置合わせ部332は、基準画像設定部331が設定した基準画像を基準として、前処理部310が出力する1枚の画像を画素毎に位置合わせする。第1位置合わせ部332は、位置合わせ後の画像を第位置合わせ画像として、第2合焦度算出部335及び合成部338へ出力する。
例えば、手術支援システムは、制御装置とロボットとスコープとを含む。スコープは例えば硬性鏡である。制御装置は、ロボットを制御する装置である。即ち、ユーザが制御装置の操作部を操作することでロボットを動作させ、ロボットを介して患者に対する手術を行う。また制御装置の操作部を操作することでロボットを経由してスコープを操作し、手術領域を撮影する。制御装置は、図又は図3の処理部300を含んでいる。ユーザは、処理部300が表示装置に表示した画像を見ながら、ロボットを操作する。本発明は、このような手術支援システムにおける制御装置に適用できる。なお、制御装置はロボットに内蔵されてもよい。

Claims (14)

  1. 被写体像を撮像素子に結像する対物光学系のフォーカス位置を制御するフォーカス制御部と、
    前記撮像素子が撮像した1秒あたり(L×N)枚(Lは2以上の整数、Nは1以上の数)の画像を取得する画像取得部と、
    前記画像取得部が取得したM枚(MはNより大きい整数)の画像から1枚の深度拡大画像を合成することで被写界深度を拡大し、1秒あたりL枚の深度拡大画像を出力する画像合成部と、
    を含み、
    前記画像合成部は、
    前記M枚の画像のうち1枚の画像を基準画像として設定し、前記M枚の画像のうち前記基準画像以外の画像を前記基準画像に対して位置合わせし、位置合わせ後の前記M枚の画像から前記1枚の深度拡大画像を合成することを特徴とする撮像装置。
  2. 請求項1において、
    前記フォーカス制御部は、
    前記M枚の画像の各々が撮像されるタイミングにおいて、異なる前記フォーカス位置を設定することを特徴とする撮像装置。
  3. 請求項2において、
    第1〜第Mのフォーカス位置のうち前記第1のフォーカス位置が、最も遠い被写体へ合焦するフォーカス位置であり、前記第Mのフォーカス位置が、最も近い被写体へ合焦するフォーカス位置であるとき、
    前記フォーカス制御部は、
    画像が撮像されるタイミングの1タイミングおきに、前記第2〜第M−1のフォーカス位置のいずれかを設定することを特徴とする撮像装置。
  4. 請求項3において、
    Nは2であり、Mは3以上5以下の整数であることを特徴とする撮像装置。
  5. 請求項2において、
    第1〜第Mのフォーカス位置のうち前記第1のフォーカス位置が、最も遠い被写体へ合焦するフォーカス位置であり、前記第Mのフォーカス位置が、最も近い被写体へ合焦するフォーカス位置であるとき、
    前記フォーカス制御部は、
    前記第1のフォーカス位置において画像が撮像された後、次の画像が撮像されるタイミングにおいて、前記第Mのフォーカス位置を設定せず、前記第2〜第M−1のフォーカス位置のいずれかを設定し、
    前記第Mのフォーカス位置において画像が撮像された後、次の画像が撮像されるタイミングにおいて、前記第1のフォーカス位置を設定せず、前記第2〜第M−1のフォーカス位置のいずれかを設定することを特徴とする撮像装置。
  6. 請求項1において、
    Nは整数であり、
    前記画像合成部は、
    前記画像取得部が取得した第1〜第M+Nの画像のうち前記第1〜第Mの画像から第1の深度拡大画像を合成し、前記第N+1〜第M+Nの画像から第2の深度拡大画像を合成することを特徴とする撮像装置。
  7. 請求項6において、
    前記画像合成部は、
    前記第1〜第Mの画像の位置合わせを行う際、前記第1〜第Nの画像のいずれかを前記基準画像として設定することを特徴とする撮像装置。
  8. 請求項1において、
    前記画像合成部は、
    前記画像取得部が取得した第1〜第M+p+qの画像(p、qは1以上Mより小さい整数であり、p≠q)のうち前記第1〜第Mの画像から第1の深度拡大画像を合成し、前記第p+1〜第M+pの画像から第2の深度拡大画像を合成し、前記第q+1〜第M+p+qの画像から第3の深度拡大画像を合成し、
    1秒間あたりの平均として前記(L×N)枚の画像から前記L枚の深度拡大画像を出力することを特徴とする撮像装置。
  9. 請求項1において、
    1<N<2であることを特徴とする撮像装置。
  10. 請求項2において、
    前記フォーカス制御部は、
    前記各画像が撮像されるタイミングにおいて、第1〜第Mのフォーカス位置のいずれかを設定し、
    前記第1のフォーカス位置が、最も遠い被写体へ合焦するフォーカス位置であり、前記第Mのフォーカス位置が、最も近い被写体へ合焦するフォーカス位置であるとき、
    前記画像合成部は、
    前記第2〜第M−1のフォーカス位置のいずれかに設定されたときに撮像された画像を、前記基準画像として設定することを特徴とする撮像装置。
  11. 請求項1において、
    前記画像合成部は、
    前記M枚の画像が、順に撮像された第1〜第Mの画像であるとき、前記第2〜第M−1の画像のいずれかを前記基準画像として設定することを特徴とする撮像装置。
  12. 請求項1において、
    Nは整数であり、
    前記画像合成部は、
    N枚間隔の画像毎に前記基準画像を設定することを特徴とする撮像装置。
  13. 請求項1に記載された撮像装置を含むことを特徴とする内視鏡装置。
  14. 被写体像を撮像素子に結像する対物光学系のフォーカス位置を制御し、
    前記撮像素子が撮像した1秒あたり(L×N)枚(Lは2以上の整数、Nは1以上の数)の画像を取得し、
    取得したM枚(MはNより大きい整数)の画像のうち1枚の画像を基準画像として設定し、前記M枚の画像のうち前記基準画像以外の画像を前記基準画像に対して位置合わせし、位置合わせ後の前記M枚の画像を1枚の深度拡大画像に合成して被写界深度を拡大し、1秒あたりL枚の深度拡大画像を出力することを特徴とする撮像装置の作動方法。
JP2020518895A 2018-05-17 2018-05-17 撮像装置、内視鏡装置及び撮像装置の作動方法 Active JP7016952B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2018/019039 WO2019220584A1 (ja) 2018-05-17 2018-05-17 撮像装置、内視鏡装置及び撮像装置の作動方法

Publications (2)

Publication Number Publication Date
JPWO2019220584A1 true JPWO2019220584A1 (ja) 2021-05-27
JP7016952B2 JP7016952B2 (ja) 2022-02-07

Family

ID=68539663

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020518895A Active JP7016952B2 (ja) 2018-05-17 2018-05-17 撮像装置、内視鏡装置及び撮像装置の作動方法

Country Status (3)

Country Link
US (1) US11272092B2 (ja)
JP (1) JP7016952B2 (ja)
WO (1) WO2019220584A1 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWD204670S (zh) * 2019-04-12 2020-05-11 法商夢鄕公司 電極
WO2021152933A1 (ja) * 2020-01-31 2021-08-05 富士フイルム株式会社 撮像装置、撮像装置の作動方法、及びプログラム
US12010442B1 (en) * 2022-11-21 2024-06-11 Varjo Technologies Oy Systems and methods incorporating adjustable focus and extended depth-of-field correction

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006033242A (ja) * 2004-07-14 2006-02-02 Konica Minolta Photo Imaging Inc 画像再生方法および撮像装置
JP2015216532A (ja) * 2014-05-12 2015-12-03 オリンパス株式会社 撮像装置、撮像方法、及びプログラム
JP2018011268A (ja) * 2016-07-15 2018-01-18 オリンパス株式会社 撮像装置、画像合成方法、およびプログラム
JP2018046543A (ja) * 2016-09-13 2018-03-22 パナソニックIpマネジメント株式会社 画像処理装置及び撮像装置

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100283868A1 (en) * 2010-03-27 2010-11-11 Lloyd Douglas Clark Apparatus and Method for Application of Selective Digital Photomontage to Motion Pictures
JP6750194B2 (ja) 2015-06-19 2020-09-02 ソニー株式会社 医療用画像処理装置、医療用画像処理方法、及び、医療用観察システム
US10282825B2 (en) 2016-09-13 2019-05-07 Panasonic Intellectual Property Management Co., Ltd. Image processing apparatus and imaging apparatus

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006033242A (ja) * 2004-07-14 2006-02-02 Konica Minolta Photo Imaging Inc 画像再生方法および撮像装置
JP2015216532A (ja) * 2014-05-12 2015-12-03 オリンパス株式会社 撮像装置、撮像方法、及びプログラム
JP2018011268A (ja) * 2016-07-15 2018-01-18 オリンパス株式会社 撮像装置、画像合成方法、およびプログラム
JP2018046543A (ja) * 2016-09-13 2018-03-22 パナソニックIpマネジメント株式会社 画像処理装置及び撮像装置

Also Published As

Publication number Publication date
US20210044757A1 (en) 2021-02-11
WO2019220584A1 (ja) 2019-11-21
JP7016952B2 (ja) 2022-02-07
US11272092B2 (en) 2022-03-08

Similar Documents

Publication Publication Date Title
JP5562808B2 (ja) 内視鏡装置及びプログラム
JP6750194B2 (ja) 医療用画像処理装置、医療用画像処理方法、及び、医療用観察システム
JP7016952B2 (ja) 撮像装置、内視鏡装置及び撮像装置の作動方法
JP5953187B2 (ja) 合焦制御装置、内視鏡システム及び合焦制御方法
US9151942B2 (en) Microscope system
JP5973708B2 (ja) 撮像装置及び内視鏡装置
JP2002314868A (ja) 撮像装置
TWI344115B (ja)
JP6600362B2 (ja) 内視鏡装置及び内視鏡装置の作動方法
JP7012549B2 (ja) 内視鏡装置、内視鏡装置の制御方法、内視鏡装置の制御プログラム、および記録媒体
KR20200019616A (ko) 표시 제어 장치, 표시 제어 방법 및 표시 제어 프로그램
WO2012035971A1 (ja) 撮像装置、撮像方法及び記録媒体
JP2003134375A (ja) 画像撮影システム
JP7179837B2 (ja) 内視鏡装置、内視鏡画像表示方法及び内視鏡装置の作動方法
WO2017169121A1 (ja) 内視鏡プロセッサ及び内視鏡プロセッサを有する観察システム
JP6841932B2 (ja) 内視鏡装置及び内視鏡装置の作動方法
JP2012055412A (ja) 画像処理装置、内視鏡装置、画像処理方法及びプログラム
CN112970242B (zh) 摄像装置、内窥镜装置及摄像装置的工作方法
WO2017072860A1 (ja) 撮像装置、内視鏡装置及び撮像装置の作動方法
JP2012238088A (ja) 画像選択表示方法および装置
JP5537320B2 (ja) 顕微鏡システム
WO2019244246A1 (ja) 撮像装置、内視鏡装置及び撮像装置の作動方法
JP6828069B2 (ja) 撮像装置、撮像方法およびプログラム
JP6168630B2 (ja) 画像選択表示方法および装置
JP2005348447A (ja) 画像撮像装置及び方法

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE

Effective date: 20201026

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201026

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE

Effective date: 20201026

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201026

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20211228

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220126