JP2016054352A - 撮影装置及びその制御方法、並びに、プログラム - Google Patents

撮影装置及びその制御方法、並びに、プログラム Download PDF

Info

Publication number
JP2016054352A
JP2016054352A JP2014178483A JP2014178483A JP2016054352A JP 2016054352 A JP2016054352 A JP 2016054352A JP 2014178483 A JP2014178483 A JP 2014178483A JP 2014178483 A JP2014178483 A JP 2014178483A JP 2016054352 A JP2016054352 A JP 2016054352A
Authority
JP
Japan
Prior art keywords
imaging
image
subject
images
timing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014178483A
Other languages
English (en)
Other versions
JP6452355B2 (ja
Inventor
究 小林
Kiwamu Kobayashi
究 小林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2014178483A priority Critical patent/JP6452355B2/ja
Priority to US14/839,681 priority patent/US20160058387A1/en
Publication of JP2016054352A publication Critical patent/JP2016054352A/ja
Application granted granted Critical
Publication of JP6452355B2 publication Critical patent/JP6452355B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Studio Devices (AREA)

Abstract

【課題】動きのある被写体の適切な被写体画像の取得を実現する仕組みを提供する。【解決手段】撮影装置120−1において、被写体Hに対して第1の照明光141が照射されている状態で撮像部121において行われる第1の撮影に係るタイミングと、被写体Hに対して第2の照明光142が照射されている状態で撮像部121において行われる第2の撮影に係るタイミングとを制御し、撮像部121において第1の撮影を複数回行うことにより得られた複数の第1画像間における被写体Hの動きに係る動き情報を検出し、当該動き情報に基づいて、撮像部121において第2の撮影を複数回行うことにより得られた複数の第2画像に対して第1の処理を行い、当該第1の処理を施した複数の第2画像に対して第2の処理を行って1つの出力画像を生成する。【選択図】図1

Description

本発明は、被写体の撮影を行って画像を得る撮像手段を備える撮影装置及びその制御方法、並びに、当該制御方法をコンピュータに実行させるためのプログラムに関するものである。
近年、病巣を何らかの手段により可視化し、撮影することをテーマとした、病理撮影の研究及び実用化がなされている。
例えば、蛍光イメージング等では、動物実験を中心に大がかりな装置なしで、癌細胞の有無をビジュアル的に確認することができるようになりつつある。例えば、下記の特許文献1、特許文献2には、この分野における最近の状況が開示されている。
一般に、病理検査では、患者の組織の一部を切除して固定化して標本にし、これを所定の環境下で観察するのが普通である。この病理検査の1つである病理撮影(例えば蛍光撮影)も、このように固定化して標本とした上で所定の環境下で行われる。当然であるが、病理撮影では、標本を人体の一部として再度機能させることはないという前提で行われる。
ところで、例えば癌の切除等の手術において、その途中で病理検査を行うことが多くなっている。この場合においても、病理検査(生検)は、患者の組織の一部を切除して標本化した上で、別室で所定の環境下で行われる。
しかしながら、より適切な手術をするためには、その場で実時間の病理診断が必要である。即ち、その場で蛍光イメージング等による画像診断ができるような環境が望まれている。
その場で実時間の画像診断による病理診断ができれば、以下のような利点がある。
・実時間で病理的な情報を取得しつつ手術を行えるので、検査結果に応じて臨機応変に手術方針を変更することが可能である。例えば癌の切除において、切り口の病理診断ができるため、癌細胞の取り残しの確率を低くできることや、また、必要以上に広く取りすぎて患者のQOLの低下を招くようなことを回避することが可能である。
・病理検査のために(場合によってはその結果を待つために)手術が中断するということがないので、例えば開腹している時間を最小限にすることができ、患者の体力的負担を軽くすることができる。
・患者の組織を切除せずに病理診断を行えるので、切除による人体組織の損失を回避することができる。
・また、患者の組織を切除せずに病理診断を行えるので、生体の一部として機能している状態での検査が可能となり、生きた状態での細胞の振る舞いに基づく適切な診断が可能である。
特許第3482440号公報 特開2006−180926号公報 特開2010−273141号公報 特開2010−273142号公報
蛍光撮影等に代表される病理検査のための撮影は、被写体が低照度であることが多いため、外光を除外した環境で行われる。特許文献2においては、蛍光撮影するために照明を暗くして撮影することが記載されている。以下、このように、被写体の照度が弱く、一般的に外光が少ない環境を必要とする撮影を「低照度撮影」と呼ぶ。
一般に、低照度撮影をする場合には、露光時間を長くする、絞りを開放する、撮像素子の感度を向上させる等の方法がある。また、蛍光撮影の場合には、フラッシュの照射光の代わりに励起光の強度を上げるという方法もある。
しかしながら、例えば手術中に蛍光撮影をする場合には、問題点として以下のことが挙げられる。
・蛍光撮影を行う対象である被写体は、標本ではなく生きた人体であり、治療対象としての人体組織である。したがって、励起による組織のダメージを最小限に抑える必要がある。即ち、励起光は必要最小限の強度に抑えなければならない。言い換えると、撮影において露光量を稼ぐために励起光のレベルをむやみに上げることはできない。
・また、生きた患者の一部を被写体とする以上、被写体は、拍動、呼吸、蠕動運動等の諸々の不随意運動等で少なからず動いている。更には、同時並行的に行われる手術や処置の作業によっても、被写体は、変形したり動いたりする。また、手術中、撮影装置を必ずしもしっかり固定できているとも言えない。したがって、このような条件下における撮影で長時間の露光をすることは難しい。
以上のような問題点により、動きのある被写体を低照度撮影することは、困難である。即ち、従来においては、動きのある被写体に対して作業を行いつつ、当該動きのある被写体の適切な被写体画像の取得を実現することは難しかった。
本発明は、このような問題点に鑑みてなされたものであり、動きのある被写体の適切な被写体画像の取得を実現する仕組みを提供することを目的とする。
本発明の撮影装置は、被写体の撮影を行って画像を得る撮像手段を備える撮影装置であって、前記被写体に対して第1の照明光が照射されている状態で前記撮像手段において行われる第1の撮影に係るタイミングと、前記被写体に対して前記第1の照明光とは異なる第2の照明光が照射されている状態または前記第1の照明光および前記第2の照明光のいずれも照射されていない状態で前記撮像手段において行われる第2の撮影に係るタイミングとを制御するタイミング制御手段と、前記撮像手段において前記第1の撮影を複数回行うことにより得られた複数の第1画像を取得する第1の取得手段と、前記撮像手段において前記第2の撮影を複数回行うことにより得られた複数の第2画像を取得する第2の取得手段と、前記第1の取得手段で取得された複数の第1画像間における前記被写体の動きに係る動き情報を検出する検出手段と、前記検出手段で検出された動き情報に基づいて前記第2の取得手段で取得された複数の第2画像に対して第1の処理を行い、当該第1の処理を施した複数の第2画像に対して第2の処理を行って1つの出力画像を生成する生成手段とを有する。
また、本発明は、上述した撮影装置による制御方法、及び、当該制御方法をコンピュータに実行させるためのプログラムを含む。
本発明では、動く可能性のある被写体を撮影する手法として、2種類の露光による撮影、即ち、第1の照明光の照射下での露光(例えば十分明るい照明光の照射下での一般的な露光)による第1の撮影と、第1の照明光とは異なる第2の照明光の照射下または第1の照明光及び第2の照明光のいずれも照射されていない状態での露光(例えば診断用の低照度の露光)による第2の撮影とのタイミングを制御するものである。具体的には、第1の撮影に係る第1の照明光の照射タイミングと第2の撮影に係る第2の照明光の照射タイミングとが重複しないように制御する、或いは、第1の撮影に係る第1の照明光の照射タイミングと第2の撮影のタイミングとが重複しないように制御する。
本発明では、第1の撮影は、被写体の動きに係る動き情報を検出するための撮影に相当し、第2の撮影は、本来の目的である診断用の被写体画像を取得するための撮影に相当する。そして、本発明では、第1の撮影により得られた動き情報に基づいて、第2の撮影により得られた画像(例えば低照度画像等)を補正処理する。
このようにすることにより、例えばS/Nや輝度に関して、動く被写体について被写体を固定して長時間露光した場合に近いレベルの被写体画像を得ることができる。
なお、本発明の目的とは異なるが、本発明に類似した手法を提案する先行技術文献として、上記の特許文献3、上記の特許文献4等がある。
特許文献3及び4には、撮影画像を時分割して撮影し、その中で動き検出に適したものを検出画像として用いて、これをもとに他の画像(合成画像)を位置合わせして合成する技術に関する発明が記載されている。
これらの特許文献3及び4に記載の発明は、同一の発光原理に基づいて撮像された画像を処理するものであり、当該画像の中から、動きを検出する画像に適したものを選択することにより他の画像を位置合わせして合成するものである。また、特許文献3及び4では、動き検出用画像として適したものを選択する際に、主として撮像時のブラーが少ないという観点で選択している。
これに対して、本発明は、それぞれ異なる発光原理に基づいて取得された動き検出用画像と合成用画像(観測画像)に関するものである。また、本発明では、それぞれの画像の違いは、撮像時のブラーの大小ではなく、1回の撮影で十分に露光できる画像と露光できない画像という観点である。
以上により、特許文献3及び4に記載の発明と本発明とは異なる。
本発明によれば、動きのある被写体の適切な被写体画像を取得することができる。
本発明の第1の実施形態に係る撮影システムの概略構成の一例を示す図である。 図1に示す照明装置及び撮影装置の内部構成の一例を示す図である。 図1に示す撮影システムによる制御方法の処理手順の一例を示すタイミングチャートである。 本発明の第1の実施形態を示し、通常発光期間及び周期的消灯期間における第1の照明光の発光タイミング、並びに、周期的消灯期間における第2の照明光の発光タイミング及び露光タイミングの一例を示すタイミングチャートである。 本発明の第1の実施形態に係る撮影装置による動き情報の検出処理を説明するための図である。 本発明の第1の実施形態に係る撮影装置による動き情報の検出処理を説明するための図である。 本発明の第1の実施形態に係る撮影装置による動き情報の検出処理を説明するための図である。 本発明の第2の実施形態に係る撮影装置の外観の一例を示す図である。 図8に示す撮像装置の内部構成の一例を示す図である。 本発明の第3の実施形態を示し、通常発光期間及び周期的消灯期間における第1の照明光の発光タイミング、並びに、周期的消灯期間における露光タイミングの一例を示すタイミングチャートである。 本発明の第4の実施形態を示し、第1の照明光の発光タイミング、第2の照明光の発光タイミング、露光タイミング及び画像出力タイミングの一例を示すタイミングチャートである。 本発明の第4の実施形態に係る撮影装置の機能構成の一例を示す図である。 本発明の第4の実施形態を示し、図12に示す制御・処理手段による各フレームメモリを用いた演算処理を説明するための図である。 本発明の第4の実施形態を示し、図12に示す制御・処理手段による各フレームメモリを用いた演算処理を説明するための図である。 本発明の第5の実施形態に係る撮影装置の外観の一例を示す図である。 図15に示す撮影装置の内部構成の一例を示す図である。 本発明の第5の実施形態を示し、周期的消灯期間における第1の照明光の発光タイミング、並びに、周期的消灯期間における第2の照明光の発光タイミング及び露光タイミングの一例を示すタイミングチャートである。 本発明の第5の実施形態に係る撮影装置による制御方法の処理手順の一例を示すフローチャートである。 本発明の第5の実施形態を示し、複数の第1画像に基づいて得られた3次元形状データと第2画像との対応関係を説明するための図である。 本発明の第5の実施形態を示し、複数の第1画像に基づいて得られた3次元形状データと第2画像との対応関係を説明するための図である。 本発明の第5の実施形態に係る撮影装置において、各種の画像を取得し、動き情報を処理するシーケンスの一例を示す図である。
以下に、図面を参照しながら、本発明を実施するための形態(実施形態)について説明する。
(第1の実施形態)
まず、本発明の第1の実施形態について説明する。
図1は、本発明の第1の実施形態に係る撮影システム100の概略構成の一例を示す図である。なお、本実施形態では、手術室において、作業者Sである執刀医が、手術台に載置された患者に対して手術の作業を行う際に、当該患者を被写体Hとして撮影装置120−1にて低照度撮影を行う場合を想定している。
撮影システム100は、図1に示すように、照明装置110−1、撮影装置120−1、及び、表示装置130を有して構成されている。
照明装置110−1は、被写体Hの撮影を行う撮影装置120−1と通信可能に構成され、被写体Hに対して照明光(第1の照明光)141を照射する。この第1の照明光141は、手術室において必要とされる無影光の条件を満たした光となっており、また、特に術野に対しては高い照度の光となっている。
また、照明装置110−1には、撮影装置120−1と通信を行って、撮影装置120−1から第1の照明光141の消灯期間のタイミングに係る消灯指示情報(第1の照明光141の消灯期間の情報を含む)、等を受信する通信部111が設けられている。
撮影装置120−1は、動く被写体Hの撮影を行うものである。この撮影装置120−1としては、一般の一眼レフカメラやコンパクトカメラと似た形状が想定されるが、必ずしもそのような形状をしている必要はない。また、例えば、撮影装置120−1は、蛍光撮影を行うことができる。
この撮影装置120−1は、レンズや絞り等の撮像光学系及び撮像素子を含む撮像部121、発光部122、及び、通信部123を有して構成されている。
撮像部121は、被写体Hの撮影を行って、被写体Hからの光143に基づく画像を撮像する。
発光部122は、被写体Hに対して、第1の照明光141とは異なる光であって撮影の目的に応じた第2の照明光142を発光する。第2の照明光142は、例えば、撮影の目的が蛍光撮影である場合には励起光であり、例えば、撮影の目的が通常のフラッシュ撮影である場合にはフラッシュ光である。
通信部123は、照明装置110−1及び表示装置130と通信を行う。通信部123は、例えば、照明装置110−1に対しては、第1の照明光141の消灯期間のタイミングに係る消灯指示情報(第1の照明光141の消灯期間の情報を含む)、等の無線信号(赤外線信号)144を送信する。また、通信部123は、例えば、表示装置130に対しては、撮像部121で撮像された被写体画像(出力画像)等を送信する。
表示装置130は、撮影装置120−1(通信部123)と通信を行って、撮像部121で撮像された被写体画像(出力画像)等を受信し、当該被写体画像(出力画像)等を表示する処理を行う。
次に、図1に示す照明装置110−1及び撮影装置120−1の内部構成について説明する。
図2は、図1に示す照明装置110−1及び撮影装置120−1の内部構成の一例を示す図である。具体的には、図2(a)に、図1に示す照明装置110−1の内部構成の一例を示し、図2(b)に、図1に示す撮影装置120−1の内部構成の一例を示している。
照明装置110−1は、図2(a)に示すように、CPU211、RAM212、ROM213、外部メモリ214、発光部215、入力デバイス216、通信インタフェース(通信I/F)217を有して構成されている。また、図2(a)に示す各構成は、バスを介して相互に通信可能に構成されている。
CPU211は、例えば、ROM213或いは外部メモリ214に記憶されたプログラムやデータを用いて、当該照明装置110−1の動作を統括的に制御する。
RAM212は、ROM213或いは外部メモリ214からロードされたプログラムやデータを一時的に記憶するエリアを備えるとともに、CPU211が各種の処理を行うために必要とするワークエリアを備える。
ROM213は、変更を必要としないプログラムや各種のパラメータ等の情報などを格納している。
外部メモリ214は、例えば、オペレーティングシステム(OS)やCPU211が実行するプログラム、更には、本実施形態の説明において既知としている情報などを記憶している。なお、本実施形態においては、本発明の実施形態に係る処理を実行するためのプログラムは、外部メモリ214に記憶されているものとするが、例えばROM213に記憶されている形態であっても適用可能である。
発光部215は、CPU211の制御に基づいて、第1の照明光141を発光する。
入力デバイス216は、例えば、当該照明装置110−1に備え付けられたスイッチやボタン等(電源スイッチを含む)で構成されている。
通信I/F217は、当該照明装置110−1と外部装置G(本例では、撮影装置120−1)との間で行われる各種の情報等の送受信を司るものである。
ここで、図2(a)に示す通信I/F217から、図1に示す通信部111が構成されている。
また、撮影装置120−1は、図2(b)に示すように、CPU221、RAM222、ROM223、外部メモリ224、撮像部225、発光部226、入力デバイス227、通信インタフェース(通信I/F)228を有して構成されている。また、図2(b)に示す各構成は、バスを介して相互に通信可能に構成されている。
CPU221は、例えば、ROM223或いは外部メモリ224に記憶されたプログラムやデータを用いて、当該撮影装置120−1の動作を統括的に制御する。
RAM222は、ROM223或いは外部メモリ224からロードされたプログラムやデータを一時的に記憶するエリアを備えるとともに、CPU221が各種の処理を行うために必要とするワークエリアを備える。
ROM223は、変更を必要としないプログラムや各種のパラメータ等の情報などを格納している。
外部メモリ224は、例えば、オペレーティングシステム(OS)やCPU221が実行するプログラム、更には、本実施形態の説明において既知としている情報などを記憶している。なお、本実施形態においては、本発明の実施形態に係る処理を実行するためのプログラムは、外部メモリ224に記憶されているものとするが、例えばROM223に記憶されている形態であっても適用可能である。
撮像部225は、被写体Hの撮影を行って、被写体Hからの光143に基づく画像を撮像する。具体的に、撮像部225は、被写体Hからの光143を内部の撮像素子2252に導くためのレンズや絞り等の撮像光学系2251と、撮像光学系2251を介して導光された被写体Hからの光143に基づく画像を撮像する撮像素子2252を備えて構成されている。
発光部226は、CPU221の制御に基づいて、第2の照明光142を発光する。
入力デバイス227は、例えば、当該撮影装置120−1に備え付けられたスイッチやボタン等で構成されている。入力デバイス227は、例えばユーザが当該撮影装置120−1に対して各種の指示を行う際に操作され、当該指示をCPU221等に入力する。
通信I/F228は、当該撮影装置120−1と外部装置G(本例では、照明装置110−1及び表示装置130)との間で行われる各種の情報等の送受信を司るものである。
ここで、図2(b)に示す撮像部225から、図1に示す撮像部121が構成されている。また、図2(b)に示す発光部226から、図1に示す発光部122が構成されている。また、図2(b)に示す通信I/F228から、図1に示す通信部123が構成されている。
本実施形態は、第1の照明光141による妨害をされることなく第2の照明光142に基づく低照度撮影等を行うものでもある。ここでいう妨害とは、低照度撮影等の撮影の際に第1の照明光141が外乱光ノイズとなり、本来の低照度撮影等の撮影に悪影響を与えることである。
また、本実施形態では、照明装置110−1が高速応答できるデバイスであることを前提としている。従来、この種の照明装置は、多くがハロゲンランプ等であり、必ずしも高速応答が可能なものではなかった。しかしながら、近年、照明用デバイスとしてLEDや有機ELが実用化されており、これらを利用した照明装置は高速応答が可能である。一般に、これらのデバイスが求められる理由は、発光効率が高いこと(即ち発熱が少ないこと)、輝度が高いこと、寿命が長いこと、波長特性の選択肢が広いこと等が主たるものであるが、本実施形態においては高速応答性に着目する。
次に、図1に示す撮影システム100による制御方法の処理手順について説明する。
図3は、図1に示す撮影システム100による制御方法の処理手順の一例を示すタイミングチャートである。
図3において、上から第1段目〜第4段目は、撮影装置120−1のシーケンスであり、上から第5段目〜第6段目は、照明装置110−1のシーケンスである。
図3の上から第1段目のシーケンスは、撮影装置120−1の入力デバイス227を介したユーザからの操作入力を示す。図3に示す例では、時刻T0において入力デバイス227のシャッターボタンの半押しが始まり、時刻T1において入力デバイス227のシャッターボタンの押し込みが行われている。
図3の上から第2段目のシーケンスは、撮影装置120−1の通信I/F228(通信部123)による照明装置110−1への送信タイミングを示す。
まず、撮影装置120−1のCPU221は、時刻T0において入力デバイス227のシャッターボタンの半押しが発生すると、周囲の状況等から、第1の照明光141を周期的に消灯及び点灯する期間である周期的消灯期間におけるタイミングを特定する。ここで、図3に示す例では、照明装置110−1は、通常発光の場合には、一定の光強度の第1の照明光141を連続して発光するものとする。
次いで、撮影装置120−1のCPU221は、特定した周期的消灯期間のタイミングに係る消灯指示情報(周期的消灯期間の情報を含む)を設定する。具体的に、図3に示す例では、シャッターボタンの押し込みがなされたことを示すトリガー情報を照明装置110−1が受信してから、時間t7の経過後から所定期間のタイミングに、第1の照明光141を周期的に消灯及び点灯することを示す消灯指示情報を設定する。その後、撮影装置120−1の通信I/F228(通信部123)は、消灯指示情報を照明装置110−1に送信する。
また、撮影装置120−1のCPU221は、入力デバイス227のシャッターボタンの押し込みが行われると、これを検知する。そして、撮影装置120−1の通信I/F228(通信部123)は、シャッターボタンの押し込みがなされたことを示すトリガー情報を照明装置110−1に送信する。
図3の上から第3段目のシーケンスは、トリガー情報が発生してから時間t5の経過後に周期的に露光をすること(周期的に電子シャッターを開くこと)を示す。具体的に、撮影装置120−1のCPU221は、照明装置110−1に対して指示した第1の照明光141の周期的消灯期間に応じて、周期的露光を行う時間である周期的露光時間を設定する。
図3の上から第4段目のシーケンスは、トリガー情報が発生してから時間t6の経過後に、発光部226から第2の照明光142を周期的に発光することを示す。具体的に、撮影装置120−1のCPU221は、照明装置110−1に対して指示した第1の照明光141の周期的消灯期間に応じて、第2の照明光142の周期的発光を行う時間である周期的発光時間を設定する。
図3の上から第5段目のシーケンスは、照明装置110−1の通信I/F217(通信部111)による受信タイミングを示す。具体的に、図3に示す例では、撮影装置120−1から送信された消灯指示情報及びトリガー情報の受信タイミングが示されている。
図3の上から第6段目のシーケンスは、照明装置110−1の発光部215による第1の照明光141の通常発光、及び、周期的に消灯及び点灯する周期的消灯のタイミングと、その発光強度を示す。具体的に、照明装置110−1のCPU211は、通信I/F217(通信部111)がトリガー情報を受信したことにより設定されるトリガータイミングT1'を基準に、時間t7が経過するまでは通常発光を行い、時間t7の経過後に所定期間に亘り周期的消灯を行う。なお、本実施形態においては、t1≒t1'と考えることができるものとする。
ここで、本実施形態の特徴の1つは、上述した周期的に消灯及び点灯する周期的消灯において、1つの消灯である瞬時消灯の長さを、人間の視覚応答性の範囲内でちらつき等として認識されない程度に抑えることである。具体的には、例えば、瞬時消灯の長さを、作業者Sが第1の照明光141の消灯を認識できない程度に抑えることである。この瞬時消灯の長さについては、個人差があるが、およそ10msec〜20msec程度である。
図3を用いた説明では、通常発光の場合、一定の光強度の第1の照明光141を連続して発光するものを想定したものであった。
一方で、実際に多くのLED照明や有機EL照明では、インパルス的な駆動をしているものが多く、そのことに鑑み、図4以降では、第1の照明光141として、インパルス駆動により点灯する光を想定した例について説明を行う。
インパルス駆動の場合の第1の照明光141の周波数は、一般に数百ヘルツから1キロヘルツ程度である。なお、図4以降のパルス列は模式的に表現したもので、図中のパルス列の間隔が点灯周波数を正しく表現するものではない。
図4は、本発明の第1の実施形態を示し、通常発光期間及び周期的消灯期間における第1の照明光141の発光タイミング、並びに、周期的消灯期間における第2の照明光142の発光タイミング及び露光タイミングの一例を示すタイミングチャートである。
なお、図4では、図3に示すトリガー情報のタイミングの時刻(t1≒t1')を時刻0としている。
図4の上から第1段目のシーケンスは、第1の照明光141の発光タイミング(第1の発光タイミング)を示し、時間t7が経過するまでは通常発光を行い、時間t7の経過後に所定期間(T_seq)に亘り周期的消灯を行うことが示されている。図4に示す例では、所定期間(T_seq)内に、周期T_cycleで時間ΔTの長さの瞬時消灯が6回行われることが示されている。
また、照明装置110−1のCPU211は、瞬時消灯の直前及び直後の時期においては、周期的消灯における点灯の通常の光強度よりも大きい光強度の第1の照明光141を照射する制御を行って、視覚的に瞬時消灯に伴うちらつき等が無いようになされている。
図4の上から第2段目のシーケンスは、周期的消灯期間(T_seq)における第2の照明光142の発光タイミング(第2の発光タイミング)が示されている。具体的に、第2の照明光142の発光タイミングは、第1の照明光141の瞬時消灯の時間内(時間ΔT内)に設定されている。
図4の上から第3段目のシーケンスは、撮影装置120−1の撮像部225による露光のタイミングを示している。露光は、周期的消灯期間(T_seq)内において行われており、第1の照明光141が発光(点灯)している期間に行われる第1の露光と、第2の照明光142が発光(点灯)している期間に行われる第2の露光とが交互に行われている。そして、それぞれの露光は、後から演算できるように、1回の露光ごとに画像(画像データ)として取り込まれる。即ち、第1の露光により第1の撮影が行われ、第2の露光により第2の撮影が行われる。具体的に、図4に示す例では、第1の露光による第1の撮影を複数回行うことにより得られた複数の第1画像(照明画像)S0〜S6と、第2の露光による第2の撮影を複数回行うことにより得られた複数の第2画像(観察画像)K1〜K6が示されている。
第1の露光による第1の撮影及び第2の露光による第2の撮影は、それぞれの条件に適した露光条件が設定される。
具体的に、本実施形態では、第1の露光は、例えば、1回ごとの露光が十分なレベルを持った画像になるように条件設定される。また、第2の露光は、例えば、1回の露光では不十分であり、例えばここでは6回分の露光で十分なレベルを持った画像になるように条件設定される。
本実施形態において、撮影装置120−1のCPU221は、第1の撮影に係るタイミング、及び、第2の撮影に係るタイミング等を制御する。このタイミング制御を行う撮影装置120−1のCPU221は、タイミング制御手段(後述の図12に示すタイミング制御手段1221)を構成する。
具体的に、撮影装置120−1のCPU221は、図4に示すように、第1の撮影に係る第1の照明光141の照射のタイミング(第1の発光タイミング)と第2の撮影に係る第2の照明光142の照射のタイミング(第2の発光タイミング)とが重複しないように制御する。また、撮影装置120−1のCPU221は、図4に示すように、第1の撮影に係る第1の照明光の照射のタイミング(第1の発光タイミング)と第2の撮影(第2の露光)のタイミングとが重複しないように制御する。また、撮影装置120−1のCPU221は、図4に示すように、第1の撮影(第1の露光)と第2の撮影(第2の露光)とが交互に行われるように、第1の撮影に係るタイミングと第2の撮影に係るタイミングとを制御する。
次いで、撮影装置120−1のCPU221は、撮像部225において第1の撮影を複数回行うことにより得られた複数の第1画像(図4に示す照明画像S0〜S6)を取得する。この第1画像を取得する処理を行う撮影装置120−1のCPU221は、第1の取得手段(後述の図12に示す照明画像取得手段1222)を構成する。
また、撮影装置120−1のCPU221は、撮像部225において第2の撮影を複数回行うことにより得られた複数の第2画像(図4に示す観察画像K1〜K6)を取得する。この第2画像を取得する処理を行う撮影装置120−1のCPU221は、第2の取得手段(後述の図12に示す観察画像取得手段1223)を構成する。
次いで、撮影装置120−1のCPU221は、取得した複数の第1画像間(照明画像間)における被写体Hの動きに係る動き情報を検出する。この動き情報を検出する処理を行う撮影装置120−1のCPU221は、動き情報検出手段(後述の図12に示す動き情報検出手段1224)を構成する。
次いで、撮影装置120−1のCPU221は、検出した動き情報に基づいて取得した複数の第2画像に対して第1の処理を行い、当該第1の処理を施した複数の第2画像に対して第2の処理を行って1つの出力画像を生成する。この出力画像を生成する処理を行う撮影装置120−1のCPU221は、出力画像生成手段(後述の図12に示す出力画像生成手段1225)を構成する。
次に、撮影装置120−1のCPU221による動き情報の検出処理について説明する。
ここで、画像Iから画像Jへの移行で決まる動きベクトルマップをMv[I_J]と定義する。以下、図5を用いて説明する。
図5は、本発明の第1の実施形態に係る撮影装置120−1による動き情報の検出処理を説明するための図である。
ここで、図5には、図4に示す第1の露光及び第2の露光の露光タイミングの制御により時系列で取得された画像が示されている。具体的に、図5には、時系列取得画像として、照明画像S0、観察画像K1、照明画像S1、観察画像K2、照明画像S2、観察画像K3、照明画像S3、観察画像K4、照明画像S4、観察画像K5、照明画像S5、観察画像K6、照明画像S6が時系列で取得された例が示されている。なお、上述した説明では、第2の露光による第2の撮影により取得された第2画像である観察画像は、第2の照明光142が照射されている状態で撮影されたものとしたが、本発明においてはこれに限定されるものではない。例えば、図5に示すように、第2の露光による第2の撮影により取得された第2画像である観察画像は、第1の照明光141及び第2の照明光142のいずれも照射されていない状態で撮影されたものであってもよい。
図5に示すように、第1の露光による第1の撮影により取得された照明画像S0と照明画像S1との間で決まる動きベクトルマップをMv[S0_S1]とする。同様に、照明画像S1と照明画像S2との間で決まる動きベクトルマップをMv[S1_S2]とし、照明画像S2と照明画像S3との組み合わせ以降も同様とする。
ここで、画像Xに画像I,Jで決まる動きベクトルマップMv[I_J]を適用して画像Yを生み出す処理(即ち動き補償すること)を、以下の(1)式のように表現する。
Figure 2016054352
次に、具体的な絵柄の画像を用いた説明を行う。
図6は、本発明の第1の実施形態に係る撮影装置120−1による動き情報の検出処理を説明するための図である。
本実施形態では、照明画像Sを取得するための第1の撮影(第1の露光)と観察画像Kを取得するための第2の撮影(第2の露光)とは、それぞれ同一周期で且つ丁度半周期ずれて撮影される場合を仮定している。
図6に示すように、照明画像S0、観察画像K1、照明画像S1、観察画像K2、照明画像S2が時系列で撮影される。ここで、図6に示す例では、画像の内容は、時間が進むに従って画像全体に亘る被写体Hが少しずつ右上の方向に動いている事例である。このようになるのは、例えば、被写体Hの位置が変わったり、或いは、撮影装置120−1が揺れて位置や撮影方向が変わったりする場合等である。この右上に動いていく状態を表すものとして、それぞれの照明画像間で動きベクトルマップMv[S0_S1],Mv[S1_S2]を求める。これが照明画像Sに基づく被写体Hの動き検出である。ここで、図6に示す場合において、動き情報としては、例えば、複数の照明画像間における被写体Hの画像全体に亘る並進移動または回転移動に係る情報が検出される。
ここで、照明画像S0から照明画像S1への変換を関数Mv[S0_S1]( )で表わす。同様に、照明画像S1から照明画像S2への変換を関数Mv[S1_S2]( )で表わす。ここで、本実施形態では、上述したように、観察画像K1の露光タイミングは、照明画像S0の露光タイミングと照明画像S1の露光タイミングとの中間という前提である。同様に、観察画像K2の露光タイミングは、照明画像S1の露光タイミングと照明画像S2の露光タイミングとの中間である。
ここで、照明画像Sと観察画像Kとは、露光条件は異なるものの、同一の被写体Hを同一の方向から同一の画角で撮影して得られたものである。このため、照明画像Sと観察画像Kとは、時間差を考慮した上で同じラインに乗った一連の動きをするはずである。
上述したように、観察画像K1の露光タイミングは、照明画像S0の露光タイミングと照明画像S1の露光タイミングとの中間である。このため、観察画像K1から観察画像K2への被写体Hの動きは、前後の照明画像Sの被写体Hの動きをそれぞれ半分にした変換を重ねたものに略等しい。
即ち、観察画像K1から観察画像K2への変換は、以下のように表すことができる。
Mv[S1_S2]/2(Mv[S0_S1]/2( ))
したがって、観察画像K1から、観察画像K2の時点の画像を推定した画像(観察画像K1を観察画像K2の時点に動き情報をもとに移動させた画像)を、Kv1_2とすると、以下の(2)式のように表すことができる。
Figure 2016054352
これを一般化して、例えば、観察画像Kの露光タイミングが照明画像Sの露光タイミングの周期に対して、a:b(a+b=1,a>0,b>0)の比率のタイミングである場合には、(2)式は、以下の(3)式のように書き換えられる。
Figure 2016054352
本実施形態では、(2)式は、(3)式においてa=0.5,b=0.5としたものである。
図7は、本発明の第1の実施形態に係る撮影装置120−1による動き情報の検出処理を説明するための図である。この図7は、図6に示すように被写体Hの動きが画像全体に亘るもの(画像の全領域同一)ではなく、画像領域ごとによって異なる場合、即ち、被写体Hが部分的に変形している場合を示す。例えば、図7に示す例は、白抜きの矢印の被写体Hの部分を押さえたことによる被写体Hの変形等を示している。ここで、図7に示す場合において、動き情報としては、例えば、複数の照明画像間における被写体Hの画像領域ごとの並進移動または回転移動に係る情報が検出される。
このように被写体Hに部分的な動きがあった場合においても、図6の説明と同様に、上述した(2)式及び(3)式が成り立つ。
ここで、上述したKv1_2と同じ規則で、観察画像K1,K2,K3,K4及びK5のそれぞれについて、観察画像K6の時点を推定した画像(観察画像K1,K2,K3,K4,K5を観察画像K6の時点に動き情報をもとに移動させた画像)を、それぞれ、画像Kv1_6,Kv2_6,Kv3_6,Kv4_6,Kv5_6とする。
この画像Kv1_6,Kv2_6,Kv3_6,Kv4_6,Kv5_6は、それぞれ、上述した考え方に基づき、以下の(4−1)式〜(4−5)式のように表現することができる。
Figure 2016054352
(4−1)式〜(4−5)式で行われた処理が、いわゆる位置合わせ処理である。また、Kv6_6は観察画像K6となるため、(4−6)式が成り立つのは自明である。即ち、(4−1)式〜(4−6)式に示す処理は、検出された動き情報に基づいて複数の観察画像(第2画像)に対して行われる第1の処理に相当するものである。この第1の処理により、被写体Hの画像全体に亘る並進移動または回転移動を補正して位置を合わせる処理、或いは、被写体Hの画像領域ごとの並進移動または回転移動を補正して位置を合わせる処理がなされる。
さらに、(4−1)式〜(4−6)式に示される画像Kv1_6〜Kv6_6を、以下の(5)式のように加算処理することにより、1つの出力画像K_sumを生成する。また、出力画像K_sumの画素値が飽和する等の事情が生じる場合には、必要に応じて、(4−1)式〜(4−6)式に示される画像Kv1_6〜Kv6_6を、以下の(6)式のように平均化処理することにより、1つの出力画像K_aveを生成する。この(5)式または(6)式に示す処理は、上述した第1の処理が施された複数の観察画像に対して1つの出力画像を生成する際に行われる第2の処理に相当するものである。
Figure 2016054352
ここで、(5)式に示される出力画像K_sum等は、仮に被写体Hを固定して観察画像K1〜K6の総露光時間で露光した1回の撮影と比較して、輝度或いはS/Nにおいて遜色のないものであり、且つ、動画ボケやブレに関しては遥かに優れたものとなる。
本実施形態によれば、動きのある被写体Hの適切な被写体画像(出力画像)を取得することができる。また、本実施形態によれば、第1の撮影に係る第1の照明光141の照射のタイミングと、第2の撮影に係る第2の照明光142の照射のタイミング(或いは第2の撮影のタイミング)とが重複しないように制御するため、動きのある被写体Hに対して作業を行う作業者Sによる作業を行いつつ、当該動きのある被写体Hの適切な被写体画像(出力画像)を取得することができる。これにより、例えば、被写体Hの手術中に、実時間で被写体画像(出力画像)に基づく病理診断を行うことが可能となり、適切な手術を施すことが可能となる。
(第2の実施形態)
次に、本発明の第2の実施形態について説明する。
第1の実施形態では、第1の照明光141は、手術室内の照明装置110−1から照射されるものであり、手術室内を照明することと、第1の撮影(第1の露光)によって被写体Hの動き情報を得るための照明画像を取得することの両方の目的を持っていた。
第2の実施形態では、第1の照明光141は、純粋に第1の撮影(第1の露光)を行うためのものである。即ち、第2の実施形態における第1の照明光141は、被写体Hの動き情報を得るための目的のためだけであり、作業者Sが目の前にある被写体Hに対して行う作業を支援するための照明という機能は必ずしも必要ない。したがって、第2の実施形態における第1の照明光141は、不可視の光であってもよく、例えば赤外線であっても構わない。第2の実施形態における第1の照明光141に求められる重要な要件としては、被写体Hの動き情報を検出するのに適した露光が可能なことであり、無影光またはそれに近い光であることが重要である。
図8は、本発明の第2の実施形態に係る撮影装置120−2の外観の一例を示す図である。ここで、図8(a)に示す撮影装置を「撮影装置120−2a」とし、図8(b)に示す撮影装置を「撮影装置120−2b」とする。
図8(a)に示すように、撮影装置120−2aは、レンズや絞り等の撮像光学系及び撮像素子を含む撮像部121、及び、複合光源ユニット810を有して構成されている。
複合光源ユニット810は、いわゆるホットシュー或いは何らかの接続・切り離しが可能な機構によって、撮影装置120−2aの本体と接続されている。この複合光源ユニット810には、本実施形態における第1の照明光141を照射する第1の発光部811と、本実施形態における第2の照明光142を照射する第2の発光部812が設けられている。第1の発光部811は、図8(a)においては斜線で示される複数の部分に設けられており、例えば一般的なストロボ光源や赤外線ストロボ光源等である。第2の発光部812は、図8(a)においては灰色で示される部分に設けられており、例えば励起光を発光する光源や特定の分光光源等である。
図8(b)に示すように、撮影装置120−2bは、レンズや絞り等の撮像光学系及び撮像素子を含む撮像部121、本実施形態における第1の照明光141を照射する第1の発光部811、及び、光源ユニット820を有して構成されている。
光源ユニット820は、いわゆるホットシュー或いは何らかの接続・切り離しが可能な機構によって、撮影装置120−2bの本体と接続されている。この光源ユニット820には、本実施形態における第2の照明光142を照射する第2の発光部812が設けられている。
第1の発光部811は、図8(b)においては撮影装置120−2bの本体の斜線で示される複数の部分に設けられており、例えば一般的なストロボ光源や赤外線ストロボ光源等である。
第2の発光部812は、図8(b)においては灰色で示される部分に設けられており、例えば励起光を発光する光源や特定の分光光源等である。
図8(a)に示す撮影装置120−2aは、第1の発光部811と第2の発光部812の組み合わせを複数準備して、露光の仕組みごとにセットで交換するような使い方に適している。
一方、図8(b)に示す撮影装置120−2bは、第1の発光部811については被写体Hの動き情報を得ることだけが目的(共通目的)であるために様々な撮影に対して共通の物を使い、第2の発光部812のみ複数種類準備して露光の仕組みごとにこれを交換するような使い方に適している。
撮影装置120−2a及び撮影装置120−2bのいずれの場合も、第1の発光部811は、できるだけ無影光に近い光を照射する光源であることが望ましい。したがって、第1の発光部811は、撮像部121からみてそれぞれ異なった側、或いは、撮像部121を中心に反対側に配置することが望ましい。このため、図8(a)や図8(b)に示すような配置を選ぶこととなる。
次に、図8に示す撮影装置120−2a及び120−2bの内部構成について説明する。
図9は、図8に示す撮影装置120−2a及び120−2bの内部構成の一例を示す図である。図9において、図2(b)に示す撮影装置120−1の内部構成と同様の構成については、同じ符号を付しており、その説明は省略する。
図9に示す撮影装置120−2a及び120−2bは、図2(b)に示す撮影装置120−1の内部構成に対して、第1の発光部229を追加し、さらに、発光部226を第2の発光部226としたものである。
ここで、図9に示す第1の発光部229から、図8(a)及び図8(b)に示す第1の発光部811が構成されている。また、図9に示す第2の発光部226から、図8(a)及び図8(b)に示す第2の発光部812が構成されている。
(第3の実施形態)
次に、本発明の第3の実施形態について説明する。
第3の実施形態に係る撮影装置は、上述した第1及び第2の実施形態に係る撮影装置に対して、第2の照明光142を照射する第2の発光部を設けないものである。即ち、第1の実施形態に係る撮影装置120−1に対しては、図2(b)に示す発光部226(図1に示す発光部122)を設けない形態であり、第2の実施形態に係る撮影装置120−2に対しては、図9に示す第2の発光部226(図8(a)及び図8(b)に示す第2の発光部812)を設けない形態である。
つまり、第3の実施形態は、第2の露光による第2の撮影において第2の照明光142による第2の発光(例えば蛍光撮影における励起光等)を必要としない場合である。この第3の実施形態の場合、第2の露光による第2の撮影は、何らかの発光原理による被写体Hの自発光に基づく撮影の場合である。第3の実施形態は、上述した第2の発光部を設けないこと以外は、第1の実施形態或いは第2の実施形態と同様の構成及び動作である。
図10は、本発明の第3の実施形態を示し、通常発光期間及び周期的消灯期間における第1の照明光141の発光タイミング、並びに、周期的消灯期間における露光タイミングの一例を示すタイミングチャートである。
図10の上から第1段目のシーケンスは、第1の照明光141の発光タイミング(第1の発光タイミング)を示し、時間t7が経過するまでは通常発光を行い、時間t7の経過後に所定期間(T_seq)に亘り周期的消灯を行うことが示されている。図10に示す例では、所定期間(T_seq)内に、周期T_cycleで時間ΔTの長さの瞬時消灯が6回行われることが示されている。
本実施形態に係る照明装置のCPU211は、瞬時消灯の直前及び直後の時期においては、周期的消灯における点灯の通常の光強度よりも大きい光強度の第1の照明光141を照射する制御を行って、視覚的に瞬時消灯に伴うちらつき等が無いようになされている。
図10の上から第2段目のシーケンスは、本実施形態に係る撮影装置の撮像部225による露光のタイミングを示している。露光は、周期的消灯期間(T_seq)内において行われており、第1の照明光141が発光(点灯)している期間に行われる第1の露光と、第2の照明光142が消灯している期間に行われる第2の露光とが交互に行われている。そして、それぞれの露光は、後から演算できるように、1回の露光ごとに画像(画像データ)として取り込まれる。即ち、第1の露光により第1の撮影が行われ、第2の露光により第2の撮影が行われる。具体的に、図10に示す例では、第1の露光による第1の撮影を複数回行うことにより得られた複数の第1画像(照明画像)S0〜S6と、第2の露光による第2の撮影を複数回行うことにより得られた複数の第2画像(観察画像)K1〜K6が示されている。
第1の露光による第1の撮影及び第2の露光による第2の撮影は、それぞれの条件に適した露光条件が設定される。
具体的に、本実施形態では、第1の露光は、例えば、1回ごとの露光が十分なレベルを持った画像になるように条件設定される。また、第2の露光は、例えば、1回の露光では不十分であり、例えばここでは6回分の露光で十分なレベルを持った画像になるように条件設定される。
(第4の実施形態)
次に、本発明の第4の実施形態について説明する。
第4の実施形態は、上述した第1〜第3の実施形態において説明した処理のように、特定の回数の露光から1枚の出力画像を生成するのではなく、順次の露光により取得される画像に対して同様の処理を順次連続的に行うものである。
第4の実施形態に係る撮影システムは、例えば、図1に示す第1の実施形態に係る撮影システム100と同様である。また、本実施形態では、撮影装置の出力としては、動画が出力される。
図11は、本発明の第4の実施形態を示し、第1の照明光141の発光タイミング、第2の照明光142の発光タイミング、露光タイミング及び画像出力タイミングの一例を示すタイミングチャートである。
第4の実施形態においても、第1の実施形態と同様に、所定の周期で第1の照明光141による第1の発光があり、当該第1の発光の消灯期間に第2の照明光142による第2の発光を行う。即ち、第1の発光期間中に第1の露光に基づく第1の撮影を行い、第2の発光期間中に第2の露光に基づく第2の撮影を行う。
以下、本実施形態に係る撮影装置による制御方法の処理手順について説明する。
本実施形態では、所定のフレームレートで撮影された第2画像をm1フレームごとに直前のm2枚のフレームを位置合わせして出力画像を生成するものである。ここで、m1及びm2は、整数である。即ち、第2画像のフレームレートをF0としたとき、出力画像のフレームレートはF0/m1であり、その出力画像は、直前のm2枚のフレームを参照し位置合わせして得られたものである。本実施形態においては、フレームレートF0は特に定めないが、以下、m1=5、m2=10の場合を例として説明する。
図11の上から第1段目のシーケンスは、第1の照明光141の発光タイミング(第1の発光タイミング)を示し、周期T_cycleで時間ΔTの長さの瞬時消灯を行うことが示されている。
図11の上から第2段目のシーケンスは、第2の照明光142の発光タイミング(第2の発光タイミング)を示し、第1の照明光141の瞬時消灯の期間に周期T_cycleで第2の照明光142による第2の発光を行うことが示されている。
図11の上から第3段目のシーケンスは、本実施形態に係る撮影装置の撮像部225による露光のタイミングを示している。露光は、第1の照明光141が発光(点灯)している期間に行われる第1の露光と、第2の照明光142が発光(点灯)している期間に行われる第2の露光とが交互に行われている。そして、それぞれの露光は、後から演算できるように、1回の露光ごとに画像(画像データ)として取り込まれる。即ち、第1の露光により第1の撮影が行われ、第2の露光により第2の撮影が行われる。具体的に、図11に示す例では、第1の露光による第1の撮影を複数回行うことにより得られた複数の第1画像(照明画像)S11〜S21と、第2の露光による第2の撮影を複数回行うことにより得られた複数の第2画像(観察画像)K11〜K22が示されている。
図11の上から第4段目のシーケンスは、出力画像D0〜D2の出力タイミングが示されている。図11に示すように、入力画像(第3段目に表示)のフレーム5枚ごとに、1つの出力画像Dが出力されている。
以下、図11に示す出力画像D2を生成する処理の例について説明する。
出力画像D2は、図11に示す観察画像K12,K13,K14,K15,K16,K17,K18,K19,K20及びK21を照明画像Sから得られる動き情報をもとに、仮想的に照明画像S21の撮影タイミングに移動させた画像を、加算または平均化して得られる。
ここで、観察画像K12〜K21を上述したように照明画像S21の撮影タイミングに動かした画像を下記のように表現する。
K12_21s,K13_21s,K14_21s,K15_21s,K16_21s,K17_21s,K18_21s,K19_21s,K20_21s,K21_21s
そして、これらの総和または平均が出力画像D2となる。
ここで、1番目の観察画像K12がK12_21sに変換される過程を、下記のように分解することができる。
K12→K12_12s→K12s_13s→K13s_14s→・・・→K19s_20s→K20s_21s
ここで1回目の変換だけが、その前後の順番が隣接する照明画像Sで決まる動きベクトルマップの各成分を半分にした変換である。それ以降は全て、その前後の順番が隣接する照明画像S同士で決まる動きベクトルマップに基づく変換である。観察画像K12〜K21のいずれの画像においても、撮影された直後の最初の1回だけ上述したように動きベクトルマップの半分で変換され、その後は上記動きベクトルマップに基づく変換となる。
次に、本実施形態に係る撮影装置の機能構成について説明する。
図12は、本発明の第4の実施形態に係る撮影装置の機能構成の一例を示す図である。ここで、図12には、本実施形態に係る撮影装置の機能構成のうち、本発明に係る部分のみ図示している。
本実施形態に係る撮影装置は、図12に示すように、撮像手段1210、制御・処理手段1220、演算用フレームメモリ(演算用FM)1230、及び、各種のフレームメモリ(FM)1231〜1244を有して構成されている。
撮像手段1210は、被写体Hの撮影を行って、被写体Hからの光143に基づく画像を撮像するものである。この撮像手段1210は、例えば、図2(b)等に示す撮像部225(図1等に示す撮像部121)から構成されている。
制御・処理手段1220は、本実施形態に係る撮影装置の動作を統括的に制御するとともに、各種の処理を行う。この制御・処理手段1220は、例えば、図2(b)等に示すCPU221が外部メモリ224に記憶されているプログラムを実行することにより、構成されるものである。
具体的に、制御・処理手段1220は、タイミング制御手段1221、照明画像取得手段1222、観察画像取得手段1223、動き情報検出手段1224、及び、出力画像生成手段1225を有している。
タイミング制御手段1221は、撮像手段1210において行われる第1の撮影に係るタイミングと、撮像手段1210において行われる第2の撮影に係るタイミングを制御する。
照明画像取得手段1222は、撮像手段1210において第1の撮影を複数回行うことにより得られた複数の第1画像である複数の照明画像(図11のS11〜S21)を、撮像手段1210から取得する。
観察画像取得手段1223は、撮像手段1210において第2の撮影を複数回行うことにより得られた複数の第2画像である複数の観察画像(図11のK11〜K22)を、撮像手段1210から取得する。
動き情報検出手段1224は、照明画像取得手段1222で取得された複数の照明画像間における被写体Hの動きに係る動き情報を検出する。
出力画像生成手段1225は、まず、動き情報検出手段1224で検出された動き情報に基づいて観察画像取得手段1223で取得された複数の観察画像に対して第1の処理を行う。ここで、第1の処理としては、複数の観察画像に対して被写体Hの画像全体に亘る並進移動または回転移動を補正して位置を合わせる処理、或いは、複数の観察画像に対して被写体Hの画像領域ごとの並進移動または回転移動を補正して位置を合わせる処理である。次いで、出力画像生成手段1225は、当該第1の処理を施した複数の観察画像に対して第2の処理を行って1つの出力画像を生成する。ここで、第2の処理としては、第1の処理を施した複数の観察画像に対する画像の加算処理または画像の平均化処理である。
制御・処理手段1220は、バスを介して、演算用FM1230に一旦情報を格納しつつ演算処理を行うとともに、演算処理の結果をバスを介して各ブロックに転送する。
演算用FM1230は、制御・処理手段1220による演算処理の結果等の情報を格納するものであり、制御・処理手段1220が演算処理を行う際に用いられる。
FM_a1(1231)〜FM_a3(1233)、及び、FM_0(1234)〜FM_10(1244)は、いわゆるフレームメモリである。
次に、制御・処理手段1220による各種のフレームメモリを用いた演算処理について説明する。
図13は、本発明の第4の実施形態を示し、図12に示す制御・処理手段1220による各フレームメモリを用いた演算処理を説明するための図である。具体的に、図13には、制御・処理手段1220による演算処理を実現するための各フレームメモリ間のデータに移動について示している。
図13の上段は、観察画像K21が入力された直後(図11のi=21の時点)の各フレームメモリの中身である、また、図13の下段は、観察画像K22が入力された直後(図11のi=22の時点)の各フレームメモリの中身である。
図13のフレームメモリFM_0に格納される画像は、iがインクリメントされるごとに、照明画像Sで決まる動きベクトルマップの動き量を半分にした変換が施されてフレームメモリFM_1に移動する。ここで、i=21→i=22のとき、当該変換(前者の変換)は、Y=Mv[S20_S21]/2(X)で表わされる。
また、フレームメモリFM_1〜FM_9に格納される画像は、iがインクリメントされるごとに、照明画像Sで決まる動きベクトルマップに基づいた変換が施されて右隣のフレームメモリFMに移動する。ここで、i=21→i=22のとき、当該変換(後者の変換)は、Y=Mv[S20_S21](X)で表わされる。
図13において、前者の変換と移動を破線の矢印で示し、後者の変換と移動を一点鎖線の矢印で示す。
本実施形態では、入力されるフレーム(撮影されるフレーム)の5フレームに1回の間隔で出力画像の出力を行う。即ち、図11で示す範囲では、i=12,17,22のタイミングで、それぞれ、出力画像D1,D2,D3を出力する。
ここで、例えば、出力画像D2は、観察画像K12〜K21を照明画像S21のタイミングに変換した画像を足し合わせたものである。
図14は、本発明の第4の実施形態を示し、図12に示す制御・処理手段1220による各フレームメモリを用いた演算処理を説明するための図である。具体的に、図14には、各フレームメモリFM_a1,FM_a2,FM_a3に格納される画像と、出力画像生成手段1225で生成される出力画像の内容が示されている。
i=21の時点においては、フレームメモリFM_a1,FM_a2に、それぞれ、照明画像S20,S19が格納され、これらをもとに算出された動きベクトルマップMv[S19_S20]がフレームメモリFM_a3に格納される。
また、i=22の時点においては、フレームメモリFM_a1,FM_a2に、それぞれ、照明画像S21,S20が格納され、これらをもとに算出された動きベクトルマップMv[S20_S21]がフレームメモリFM_a3に格納される。
i=21の時点において、フレームメモリFM_1〜FM_9に格納されていた画像が、i=22の時点で動きベクトルマップMv[S20_S21]によって変換されて、フレームメモリFM_2〜FM_10に移動する。
また、i=21の時点でフレームメモリFM_0に格納されていた画像が、i=22の時点で動きベクトルマップMv[S20_S21]/2によって変換されて、フレームメモリFM_1に格納される。
さらに、i=22の時点は、出力画像D2を出力するタイミングであるので、フレームメモリFM_1〜FM_10に格納されている画像を全て加算(必要に応じて平均化してもよい)することにより、出力画像D2を生成し、これを出力する。
このように、出力画像生成手段1225は、まず、フレームレートF0で撮影された観察画像Kを、照明画像Sによって得られた動き情報に基づいてm2回まで順次位置合わせをする。その上で、出力画像生成手段1225は、m1枚のフレームごとに(即ちF0/m1のフレームレートで)、前記m2枚のフレームを加算(或いは平均化)して出力画像Dを生成する。このようにすることにより、フレームレートF0で撮影された画像は、m1分の1にフレームレート変換された動画として出力される。
また、出力される動画の各フレームは、直前m2枚の入力画像を位置合わせして加算等した画像である。これにより、出力画像は、動きボヤケや多重像などの動的な劣化なく、S/Nの改善、レベルの改善がなされたものとなり、動く被写体Hの低照度撮影等を実現するものである。
(第5の実施形態)
次に、本発明の第5の実施形態について説明する。
ここまでの実施形態では、画像を位置合わせするための動きベクトルを検出するために、通常の撮影画像を用いていた。しかしながら、被写体Hの明度や色調が均一である場合や照明の方向や形状によっては、画像間の対応点を求めづらい、即ち動きベクトルをもとめづらい場合がある。本実施形態では、このような場合を想定し、対象物の3次元的形状データを一旦求め、その3次元的形状データの領域ごとの形状特徴に着目して対応点を求める。
本実施形態では、第1の照明光141として、3次元計測用に空間符号化(2次元的に符号化)されたパターンの投影光を、被写体Hに投影する。そして、本実施形態では、第1の照明光141として上述のパターンの投影光が投影された被写体Hの表面で反射する光を露光する、即ち第1の露光による画像を得ることにより、この画像をもとに被写体Hの3次元形状データを算出する。
図15は、本発明の第5の実施形態に係る撮影装置120−5の外観の一例を示す図である。
図15に示すように、撮影装置120−5は、レンズや絞り等の撮像光学系及び撮像素子を含む撮像部121、本実施形態における第1の照明光141を照射する第1の発光部813、及び、光源ユニット820を有して構成されている。また、光源ユニット820には、第2の照明光142を照射する第2の発光部812が設けられている。
第1の発光部813は、図15に示すように、撮影装置120−5の本体に、撮像部121と所定の距離を隔てて配置されている。
第2の発光部812は、図8に示す第2の実施形態に係る撮影装置120−2の第2の発光部812と同じものであり、図15においても灰色で示される部分に設けられており、例えば励起光を発光する光源等である。
第1の発光部813からは、第1の照明光141として、2次元的に符号化されたパターンの投影光が被写体Hに投影される。
光源ユニット820は、いわゆるホットシュー或いは何らかの接続・切り離しが可能な機構によって、撮影装置120−5の本体と接続されている。このようにすることにより、例えば蛍光撮影を行う装置の場合には、励起光の種類に対応してこの光源ユニット820を用意すれば、用途ごとによって選択して付け替えることが可能である。
次に、図15に示す撮影装置120−5の内部構成について説明する。
図16は、図15に示す撮影装置120−5の内部構成の一例を示す図である。図19において、図9に示す撮影装置120−2a,2bの内部構成と同様の構成については、同じ符号を付しており、その説明は省略する。
図16に示す撮影装置120−5は、図9に示す図9に示す撮影装置120−2a,2bの内部構成に対して、第1の発光部229を第1の発光部(パターン投影部)229−5に置き換えたものである。ここで、図15に示す第1の発光部813から、図16に示す第1の発光部(パターン投影部)229−5が構成されている。それ以外の構成部は、図9に示す撮影装置120−2a,2bの内部構成と同じである。
第1の発光部(パターン投影部)229−5は、距離画像データの計測を可能とする2次元的に符号化されたパターンの投影光を被写体Hの表面に投影する。この第1の発光部(パターン投影部)229−5は、投影光学系2291と、投影素子2292を備えて構成されている。
投影素子2292は、2次元の画素配列からなり、上述した2次元的に符号化されたパターンの投影光に基づいて、所定の画素が発光する。この投影素子2292としては、液晶透過型表示素子や、LCOS(液晶反射型表示素子)、DMD(ディジタル・マイクロミラー・デバイス)等の電子表示デバイスが考えられるが、固定したマスクパターンを発光源の前に配するようなもので構成することも可能である。
投影光学系2291は、投影素子2292の所定の画素が発光してなる像を、被写体Hの表面に結像させる役割を担う。
図17は、本発明の第5の実施形態を示し、周期的消灯期間における第1の照明光141の発光タイミング、並びに、周期的消灯期間における第2の照明光142の発光タイミング及び露光タイミングの一例を示すタイミングチャートである。図17に示す例では、時刻(時間)t=0でシャッターが切られ、最小限度の遅延時間t7でシーケンスが始まる。遅延時間t7の経過後に所定期間(T_seq)に亘り、撮影のためのシーケンスが動作する。
図17の上から第1段目のシーケンスは、第1の発光部(パターン投影部)229−5による第1の照明光141の発光タイミング(第1の発光タイミング)を示す。遅延時間t7の経過後の所定期間(T_seq)内に、周期T_cycleで周期的点灯が7回行われることが示されている。
図17の上から第2段目のシーケンスは、第2の発光部226による第2の照明光142の発光タイミング(第2の発光タイミング)を示す。また、本実施形態においては、第2の発光タイミングと第1の発光タイミングは、同一周期で交互に行われるように設定されている。この際、図17に示す例では、第1の発光タイミングと第2の発光タイミングの時間差は、周期T_cycleの半分である。
図17の上から第3段目のシーケンスは、撮影装置120−5の撮像部225による露光のタイミングを示している。第1の発光タイミングに合わせて行われるのが第1の露光であり、第2の発光タイミングに合わせて行われるのが第2の露光である。そして、それぞれの露光によって得られた画像は、後から演算できるように、1回の露光ごとに画像データとして取り込まれる。それぞれの露光によって得られる画像を、P(0),K(1),P(1),K(2)、P(2),K(3),P(3),K(4),P(4),K(5),P(5),K(6),P(6)とし、図17の上から3段目の時間軸の下に示す。
図18は、本発明の第5の実施形態に係る撮影装置120−5による制御方法の処理手順の一例を示すフローチャートである。
まず、ステップS101において、撮影装置120−5のCPU221は、入力デバイス227のシャッターボタンの押し込みを検知したか否かを判断する。この判断の結果、入力デバイス227のシャッターボタンの押し込みを検知していない場合には(S101/NO)、入力デバイス227のシャッターボタンの押し込みを検知するまで、ステップS101で待機する。
一方、ステップS101の判断の結果、入力デバイス227のシャッターボタンの押し込みを検知した場合には(S101/YES)、ステップS102に進む。
ステップS102に進むと、撮影装置120−5のCPU221は、第1の発光部(パターン投影部)229−5と撮像部225を制御して、3次元計測用のパターンの投影光の投影と第1の露光を同時に行い、図17に示す第1画像であるP(0)画像を取得する。
続いて、ステップS103において、撮影装置120−5のCPU221は、露光のタイミングを示す変数であるiに1を設定する。これにより、露光タイミングiが設定される。ここで、図18に示すフローチャートの例では、露光タイミングiは、1から6まで設定されるものとする。
続いて、ステップS104において、撮影装置120−5のCPU221は、第2の発光部226と撮像部225を制御して、第2の発光(例えば励起光の発光)と第2の露光(例えば蛍光画像の撮影)を行い、図17に示す第2画像であるK(i)画像を取得する。
続いて、ステップS105において、撮影装置120−5のCPU221は、第1の発光部(パターン投影部)229−5と撮像部225を制御して、2次元的に符号化されたパターンの投影光の投影と第1の露光を同時に行い、図17に示す第1画像であるP(i)画像を取得する。
続いて、ステップS106において、撮影装置120−5のCPU221は、露光タイミングiが6であるか否かを判断する。この判断の結果、露光タイミングiが6でない場合には(S106/NO)、ステップS107に進む。
ステップS107に進むと、撮影装置120−5のCPU221は、露光タイミングiに1を加算して、露光タイミングiを変更する。その後、ステップS104に戻り、変更した露光タイミングiに基づいてステップS104以降の処理が行われる。
一方、ステップS106の判断の結果、露光タイミングiが6である場合には(S106/YES)、ステップS108に進む。なお、ステップS108に進む時点で、複数の第1画像(図17に示すP(0)画像〜P(6)画像)、及び、複数の第2画像(図17に示すK(1)画像〜K(6)画像)が取得される。この際、複数の第1画像を取得する処理を行う撮影装置120−1のCPU221は、第1の取得手段を構成し、また、複数の第2画像を取得する処理を行う撮影装置120−1のCPU221は、第2の取得手段を構成する。そして、ステップS108以降の処理は、取得した画像をもとに計算処理を行う。
ステップS108に進むと、撮影装置120−5のCPU221は、複数の第1画像(図17に示すP(0)画像〜P(6)画像)に基づいて被写体Hの複数の距離画像を算出する。そして、撮影装置120−5のCPU221は、算出した複数の距離画像に基づいて被写体Hの3次元形状データとともに動き情報として被写体Hの全体または領域としての3次元的な並進運動または3次元的な回転運動に係る情報を検出する。ここでは、例えば、被写体Hの複数の距離画像から被写体Hの3次元形状データを検出し、検出したそれぞれの部分の形状の特徴から、当該三次元形状データ間の対応点を求め、これを3次元的な動きベクトル(動き情報)として扱う。
続いて、ステップS109において、撮影装置120−5のCPU221は、複数の第2画像を3次元形状データ上にマッピングし、動き情報に基づいて、当該3次元形状データの全体または領域に亘る並進移動または回転移動を補正して、複数の第2画像の3次元的な位置を合わせる処理(第1の処理)を行う。ここでは、例えば、ステップS108で検出された三次元形状データと動き情報とによって、第2の露光タイミングにおける3次元形状データを推定し、共通の撮像素子2252の画素位置に基づいて、当該推定した3次元形状データに複数の第2画像を対応させ、かつ動き情報に基づいて複数の第2画像に基づく3次元データを、例えば図17に示すP(6)画像を露光した時刻と推定される位置に移動させる。
続いて、ステップS110において、撮影装置120−5のCPU221は、ステップS109の第1の処理を施した複数の第2画像に対して画像の加算処理または画像の平均化処理による合成処理(第2の処理)を行って、1つの出力画像を生成する。これにより、従来よりも、輝度の高いまたはS/Nが改善された、第2画像に基づく3次元の出力画像を生成することができる。
ステップS110の処理が終了すると、図18に示すフローチャートの処理が終了する。
次に、ステップS108〜S110の処理について詳しく説明する。
まず、図19を用いて、複数の第1画像に基づいて得られた3次元形状データと第2画像との対応関係について説明する。
図19は、本発明の第5の実施形態を示し、複数の第1画像に基づいて得られた3次元形状データと第2画像との対応関係を説明するための図である。
図19(a)は、図15に示す第1の発光部813と撮像部121によって三角測量により点Qの位置を検出している状態を表す。点Qの位置を一般化して考えれば、被写体Hの三次元形状データを検出していることと同じであり、図19(a)の斜線部は、その立体形状の断面を表している。
第1の発光部813と撮像部121は、それぞれを隔てる距離、それぞれの方向等に関してキャリブレーションされている。また、第1の発光部813から例えば図19(a)の紙面の略深さ方向にそれぞれ識別可能なライン上のパターン等が投影されている。
図19(b)は、第2の照明光142により発光した被写体H上の点Rの方向を撮像部121が検出した状態を表している。図19(b)では、第1の発光部813による3次元計測用のパターンの投影光を投影してはいないので、撮像部121から見た点Rの方向は検出できるが、被写体Hの形状は検出することができない(図19(b)中では破線で示しているが実際には見えない)。
ここで、図19(a)においても図19(b)においても、被写体Hの形状が共通であり、なおかつ図19(b)の発光点Rが被写体Hの表面に存在するという条件が満たされる場合、撮像部121の同一画素領域に検出される、点Qと点Rは同一位置にあるということができる。
本実施形態においては、第1の露光タイミングと第2の露光タイミングは同時ではないので、図19(a)に相当するデータは、前後のタイミングで取得されたデータから動き情報によって推定されたものである。また、図19(b)は、第2の露光で取得された画像が対応する。
次に、図20を用いて、複数の第1画像に基づいて得られた3次元形状データと第2画像との対応関係についてさらに説明する。
図20は、本発明の第5の実施形態を示し、複数の第1画像に基づいて得られた3次元形状データと第2画像との対応関係を説明するための図である。
図20(a)のShape(0)は、図17に示す第1画像であるP(0)画像に基づく3次元形状データである。同様に、Shape(1)は、図17に示す第1画像であるP(1)画像に基づく3次元形状データであり、Shape(2)は、図17に示す第1画像であるP(2)画像に基づく3次元形状データであり、Shape(3)は、図17に示す第1画像であるP(3)画像に基づく3次元形状データである。
図20(a)には、ShapeEs(1)〜ShapeEs(3)が破線で示されている。これらは、前後の3次元形状データ(Shape)の特徴点を対応させて生成した3次元的動きベクトルマップに基づいて、その時間的な中間位置にある状態の推定した3次元形状データである。ここで、時間的な中間位置とは、第2の露光を行う時刻であり、即ち、第2の露光タイミングでの3次元形状データを推定していることと同じである。また、図20(a)には、点Q1〜Q4が示されている。
また、図20(b)の点R1,R2,R3は、それぞれ撮像部121から見た発光点の方向を示す直線とそれぞれの時点での被写体Hの3次元形状データにおける物体表面とが交わる点である。
図20(a)の点Q1,Q2,Q3,Q4と、図20(b)の点R1,R2,R3との関係は、以下の式に示す通りである。
R1=(Q1+Q2)/2,R2=(Q2+Q3)/2,R3=(Q3+Q4)/2
次に、図21を用いて、第5の実施形態に係る撮影装置120−5において、各種の画像を取得し、動き情報を処理するシーケンスについて説明する。
図21は、本発明の第5の実施形態に係る撮影装置120−5において、各種の画像を取得し、動き情報を処理するシーケンスの一例を示す図である。
図21の上から1段目には、図17に示す第1及び第2の露光タイミングにより順番に取得された画像であるP(0),K(1),P(1),K(2)、P(2),K(3),P(3),K(4),P(4),K(5),P(5),K(6),P(6)が、左から時系列順に示されている。
以下、P(0)画像とP(1)画像に関する部分を代表して説明する。P(2)画像以降も同じ規則を適用する。
図21の上か2段目には、P(0)画像及びP(1)画像にそれぞれ基づいて生成された、距離画像Dpth(0)及びDpth(1)が示されている。ここで、距離画像Dpth( )は、撮像素子2252の画素番号ごとに被写体Hまでの距離を並べた距離画像であり、P( )画像から一意に算出することができる。
図21の上から3段目には、3次元形状データShape(0)及びShape(1)が示されている。この3次元形状データShape(0)及びShape(1)は、それぞれ、距離画像Dpth(0)及びDpth(1)に基づいて生成されものであり、算出されたデータを3次元的にマッピングしたものである。
図21の上から4段目には、3次元動きベクトルマップMvS[0_1]が示されている。この3次元動きベクトルマップMvS[0_1]は、3次元的ベクトルを3次元的にマッピングした動きベクトルデータである。この3次元動きベクトルマップMvS[0_1]は、隣接する3次元形状データShape(0)と3次元形状データShape(1)の形状特徴をもとに対応する点を求めてベクトルとすることにより生成されるものである。
以上までの処理が、図18のステップS108に相当する。
図21の上から5段目には、推定3次元形状データShapeEs(1)が示されている。この推定3次元形状データShapeEs(1)は、前後の3次元形状データから推定された3次元形状データであり、3次元形状データShape(0)を3次元動きベクトルマップMvS[0_1]で示す動きベクトルの半分だけ進めたもの、または、3次元形状データShape(1)を3次元動きベクトルマップMvS[0_1]で示す動きベクトルの半分だけ戻したものである。
図21の上から6段目には、推定3次元形状データShapeEs(1)から算出したK(1)画像のタイミングの距離画像DpthEs(1)が示されている。この距離画像DpthEs(1)は、上述した距離画像Dpth( )と同じフォーマットである。この距離画像DpthEs(1)は、推定3次元形状データShapeEs(1)から距離画像を逆算したものである。本実施形態では、この距離画像DpthEs( )を用いて、推定3次元形状データShapeEs( )と第2画像との対応関係を求める。
図21の上から7段目には、距離画像DpthEs(1)をもとに推定3次元形状データShapeEs(1)に対応させた第2画像のK(1)画像の3次元形状対応データShapeK(1)が示されている。即ち、3次元形状対応データShapeK(1)は、K(1)画像を推定3次元形状データShapeEs(1)上に対応ヅケタものであり、図19及び図20に示すR点の輝度値を3次元マップ上にデータとして並べたものである。また、図21の上から7段目には、3次元形状対応データShapeK(1)と同様の手法により得られる3次元形状対応データShapeK(2)〜ShapeK(6)も示されている。
さらに、3次元形状対応データShapeK(6)〜ShapeK(1)を、それぞれ、以下の(7−1)式〜(7−6)式に代入することにより、推定値KvS6_6〜KvS1_6を求める。
Figure 2016054352
この(7−1)式〜(7−6)式の処理は、それぞれの3次元形状対応データShapeK( )について、3次元的な動きベクトルマップによって動かし、所定のタイミングにおけるそれぞれの状態値を推定することである。本実施形態では、P(6)画像を露光する時刻を上記タイミングとし、推定値KvS6_6〜KvS1_6を算出する。
さらに、(7−1)式〜(7−6)式に示される推定値KvS6_6〜KvS1_6を、以下の(8)式のように加算処理することにより、1つの出力画像KS_sumを生成する。また、出力画像KS_sumの画素値が飽和する等の事情が生じる場合には、必要に応じて、(7−1)式〜(7−6)式に示される推定値KvS6_6〜KvS1_6を、以下の(9)式のように平均化処理することにより、1つの出力画像KS_aveを生成する。
Figure 2016054352
以上までの処理が、図18のステップS109及びS110に相当する。
以上のように処理することにより、例え、低輝度で動く対象であって、なおかつ、物体として輝度や色相が均一で、画像同士の対応点を求めづらくて動きベクトルが求めづらい被写体Hであっても、撮像時のブラーを増大することなく、従来よりも輝度の高いまたはS/Nが改善された、第2画像に基づく3次元の出力画像を生成することができる。
(その他の実施形態)
また、本発明は、以下の処理を実行することによっても実現される。
即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(又はCPUやMPU等)がプログラムを読み出して実行する処理である。
このプログラム及び当該プログラムを記憶したコンピュータ読み取り可能な記憶媒体は、本発明に含まれる。
なお、上述した本発明の実施形態は、いずれも本発明を実施するにあたっての具体化の例を示したものに過ぎず、これらによって本発明の技術的範囲が限定的に解釈されてはならないものである。即ち、本発明はその技術思想、又はその主要な特徴から逸脱することなく、様々な形で実施することができる。
100 撮影システム、110−1 照明装置、111 通信部、120−1 撮影装置、121 撮像部、122 発光部、123 通信部、130 表示装置、141 第1の照明光、142 第2の照明光、143 被写体からの光、144 無線信号(赤外線信号)、H 被写体、S 作業者

Claims (14)

  1. 被写体の撮影を行って画像を得る撮像手段を備える撮影装置であって、
    前記被写体に対して第1の照明光が照射されている状態で前記撮像手段において行われる第1の撮影に係るタイミングと、前記被写体に対して前記第1の照明光とは異なる第2の照明光が照射されている状態または前記第1の照明光および前記第2の照明光のいずれも照射されていない状態で前記撮像手段において行われる第2の撮影に係るタイミングとを制御するタイミング制御手段と、
    前記撮像手段において前記第1の撮影を複数回行うことにより得られた複数の第1画像を取得する第1の取得手段と、
    前記撮像手段において前記第2の撮影を複数回行うことにより得られた複数の第2画像を取得する第2の取得手段と、
    前記第1の取得手段で取得された複数の第1画像間における前記被写体の動きに係る動き情報を検出する検出手段と、
    前記検出手段で検出された動き情報に基づいて前記第2の取得手段で取得された複数の第2画像に対して第1の処理を行い、当該第1の処理を施した複数の第2画像に対して第2の処理を行って1つの出力画像を生成する生成手段と
    を有することを特徴とする撮影装置。
  2. 前記タイミング制御手段は、前記第1の撮影に係る前記第1の照明光の照射のタイミングと前記第2の撮影に係る前記第2の照明光の照射のタイミングとが重複しないように制御することを特徴とする請求項1に記載の撮影装置。
  3. 前記タイミング制御手段は、前記第1の撮影に係る前記第1の照明光の照射のタイミングと前記第2の撮影のタイミングとが重複しないように制御することを特徴とする請求項1に記載の撮影装置。
  4. 前記タイミング制御手段は、前記第1の撮影と前記第2の撮影とが交互に行われるように、前記第1の撮影に係るタイミングと前記第2の撮影に係るタイミングとを制御することを特徴とする請求項1乃至3のいずれか1項に記載の撮影装置。
  5. 前記検出手段は、前記動き情報として、前記第1の取得手段で取得された複数の第1画像間における前記被写体の画像全体に亘る並進移動または回転移動に係る情報を検出することを特徴とする請求項1乃至4のいずれか1項に記載の撮影装置。
  6. 前記検出手段は、前記動き情報として、前記第1の取得手段で取得された複数の第1画像間における前記被写体の画像領域ごとの並進移動または回転移動に係る情報を検出することを特徴とする請求項1乃至4のいずれか1項に記載の撮影装置。
  7. 前記生成手段は、前記第1の処理として、前記第2の取得手段で取得された複数の第2画像に対して前記画像全体に亘る並進移動または回転移動を補正して位置を合わせる処理を行うことを特徴とする請求項5に記載の撮影装置。
  8. 前記生成手段は、前記第1の処理として、前記第2の取得手段で取得された複数の第2画像に対して前記画像領域ごとの並進移動または回転移動を補正して位置を合わせる処理を行うことを特徴とする請求項6に記載の撮影装置。
  9. 前記生成手段は、前記第2の処理として、前記第1の処理を施した複数の第2画像に対して画像の加算処理または画像の平均化処理を行って、前記出力画像を生成することを特徴とする請求項1乃至8のいずれか1項に記載の撮影装置。
  10. 前記第1の照明光は、2次元的に符号化されたパターンの投影光であり、
    前記検出手段は、前記第1の取得手段で取得された複数の第1画像に基づいて複数の距離画像を算出し、当該複数の距離画像に基づいて前記被写体の3次元形状データとともに前記動き情報として前記被写体の全体または領域としての3次元的な並進運動または3次元的な回転運動に係る情報を検出することを特徴とする請求項1乃至4のいずれか1項に記載の撮影装置。
  11. 前記生成手段は、前記第1の処理として、前記第2の取得手段で取得された複数の第2画像を前記3次元形状データ上にマッピングし、前記動き情報に基づいて、当該3次元形状データの全体または領域に亘る並進移動または回転移動を補正して、前記複数の第2画像の3次元的な位置を合わせる処理を行うことを特徴とする請求項10に記載の撮影装置。
  12. 前記生成手段は、前記第2の処理として、前記第1の処理を施した複数の第2画像に対して画像の加算処理または画像の平均化処理を行って、前記出力画像を生成することを特徴とする請求項11に記載の撮影装置。
  13. 被写体の撮影を行って画像を得る撮像手段を備える撮影装置の制御方法であって、
    前記被写体に対して第1の照明光が照射されている状態で前記撮像手段において行われる第1の撮影に係るタイミングと、前記被写体に対して前記第1の照明光とは異なる第2の照明光が照射されている状態または前記第1の照明光および前記第2の照明光のいずれも照射されていない状態で前記撮像手段において行われる第2の撮影に係るタイミングとを制御するタイミング制御ステップと、
    前記撮像手段において前記第1の撮影を複数回行うことにより得られた複数の第1画像を取得する第1の取得ステップと、
    前記撮像手段において前記第2の撮影を複数回行うことにより得られた複数の第2画像を取得する第2の取得ステップと、
    前記第1の取得ステップで取得された複数の第1画像間における前記被写体の動きに係る動き情報を検出する検出ステップと、
    前記検出ステップで検出された動き情報に基づいて前記第2の取得ステップで取得された複数の第2画像に対して第1の処理を行い、当該第1の処理を施した複数の第2画像に対して第2の処理を行って1つの出力画像を生成する生成ステップと
    を有することを特徴とする撮影装置の制御方法。
  14. 被写体の撮影を行って画像を得る撮像手段を備える撮影装置の制御方法をコンピュータに実行させるためのプログラムであって、
    前記被写体に対して第1の照明光が照射されている状態で前記撮像手段において行われる第1の撮影に係るタイミングと、前記被写体に対して前記第1の照明光とは異なる第2の照明光が照射されている状態または前記第1の照明光および前記第2の照明光のいずれも照射されていない状態で前記撮像手段において行われる第2の撮影に係るタイミングとを制御するタイミング制御ステップと、
    前記撮像手段において前記第1の撮影を複数回行うことにより得られた複数の第1画像を取得する第1の取得ステップと、
    前記撮像手段において前記第2の撮影を複数回行うことにより得られた複数の第2画像を取得する第2の取得ステップと、
    前記第1の取得ステップで取得された複数の第1画像間における前記被写体の動きに係る動き情報を検出する検出ステップと、
    前記検出ステップで検出された動き情報に基づいて前記第2の取得ステップで取得された複数の第2画像に対して第1の処理を行い、当該第1の処理を施した複数の第2画像に対して第2の処理を行って1つの出力画像を生成する生成ステップと
    をコンピュータに実行させるためのプログラム。
JP2014178483A 2014-09-02 2014-09-02 撮影装置及びその制御方法、並びに、プログラム Active JP6452355B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2014178483A JP6452355B2 (ja) 2014-09-02 2014-09-02 撮影装置及びその制御方法、並びに、プログラム
US14/839,681 US20160058387A1 (en) 2014-09-02 2015-08-28 Imaging apparatus and control method therefor, and lighting system and control method therefor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014178483A JP6452355B2 (ja) 2014-09-02 2014-09-02 撮影装置及びその制御方法、並びに、プログラム

Publications (2)

Publication Number Publication Date
JP2016054352A true JP2016054352A (ja) 2016-04-14
JP6452355B2 JP6452355B2 (ja) 2019-01-16

Family

ID=55745370

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014178483A Active JP6452355B2 (ja) 2014-09-02 2014-09-02 撮影装置及びその制御方法、並びに、プログラム

Country Status (1)

Country Link
JP (1) JP6452355B2 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2018025457A1 (ja) * 2016-08-01 2019-05-30 ソニー株式会社 制御装置、制御システム、および制御方法
KR102312092B1 (ko) 2016-12-15 2021-10-14 아사히 인텍크 가부시키가이샤 3차원 자계 검출 소자 및 3차원 자계 검출 장치

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011124967A (ja) * 2009-11-11 2011-06-23 Casio Computer Co Ltd 撮像装置、撮像方法、及び撮像プログラム
JP2011205719A (ja) * 2011-07-22 2011-10-13 Sanyo Electric Co Ltd 撮像装置
JP2012119726A (ja) * 2009-03-27 2012-06-21 Panasonic Corp 撮像装置およびテレビドアホン装置
WO2012169270A1 (ja) * 2011-06-07 2012-12-13 オリンパスメディカルシステムズ株式会社 内視鏡装置及び蛍光観察の光量制御方法
JP2013225746A (ja) * 2012-04-20 2013-10-31 Canon Inc 画像処理装置及び画像処理方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012119726A (ja) * 2009-03-27 2012-06-21 Panasonic Corp 撮像装置およびテレビドアホン装置
JP2011124967A (ja) * 2009-11-11 2011-06-23 Casio Computer Co Ltd 撮像装置、撮像方法、及び撮像プログラム
WO2012169270A1 (ja) * 2011-06-07 2012-12-13 オリンパスメディカルシステムズ株式会社 内視鏡装置及び蛍光観察の光量制御方法
JP2011205719A (ja) * 2011-07-22 2011-10-13 Sanyo Electric Co Ltd 撮像装置
JP2013225746A (ja) * 2012-04-20 2013-10-31 Canon Inc 画像処理装置及び画像処理方法

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2018025457A1 (ja) * 2016-08-01 2019-05-30 ソニー株式会社 制御装置、制御システム、および制御方法
JP7070412B2 (ja) 2016-08-01 2022-05-18 ソニーグループ株式会社 制御装置、制御システム、および制御方法
KR102312092B1 (ko) 2016-12-15 2021-10-14 아사히 인텍크 가부시키가이샤 3차원 자계 검출 소자 및 3차원 자계 검출 장치

Also Published As

Publication number Publication date
JP6452355B2 (ja) 2019-01-16

Similar Documents

Publication Publication Date Title
JP7070412B2 (ja) 制御装置、制御システム、および制御方法
JP5968944B2 (ja) 内視鏡システム、プロセッサ装置、光源装置、内視鏡システムの作動方法、プロセッサ装置の作動方法、光源装置の作動方法
WO2013069644A1 (ja) 撮像装置
JP6450832B2 (ja) 蛍光画像生成装置及び蛍光画像生成方法
JPWO2018021035A1 (ja) 画像処理装置および方法、内視鏡システム、並びにプログラム
JP5675496B2 (ja) 医療機器及び医療用プロセッサ
JP6452355B2 (ja) 撮影装置及びその制御方法、並びに、プログラム
WO2016170604A1 (ja) 内視鏡装置
JP6246436B1 (ja) 内視鏡用プロセッサ及び内視鏡用プロセッサの作動方法
CN109565565A (zh) 信息处理装置、信息处理方法和信息处理程序
WO2021140923A1 (ja) 医療画像生成装置、医療画像生成方法および医療画像生成プログラム
JP6937902B2 (ja) 内視鏡システム
JP6508900B2 (ja) 撮影システム及びその制御方法
US10849482B2 (en) Endoscopic system, image processing apparatus, and image processing method
WO2019065219A1 (ja) 眼科装置
JP6655433B2 (ja) 電子内視鏡システム
JP2015139520A (ja) 電子内視鏡システム
US20160058387A1 (en) Imaging apparatus and control method therefor, and lighting system and control method therefor
US20220151460A1 (en) Medical control device and medical observation
JP2013094489A (ja) 内視鏡装置
JP6982677B2 (ja) 被検体観察システム、内視鏡用光源装置、被検体観察システムの作動方法、被検体観察システムの作動プログラム
US20200306002A1 (en) Medical observation control device and medical observation system
WO2020241651A1 (ja) 医療用画像処理装置、医療用画像処理装置の駆動方法、医療用撮像システム、及び医療用信号取得システム
JP6242558B2 (ja) 撮像システム及び画像処理装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170829

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180416

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180508

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180706

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20181113

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20181211

R151 Written notification of patent or utility model registration

Ref document number: 6452355

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151