JP2019057887A - Imaging apparatus, imaging method, and program - Google Patents

Imaging apparatus, imaging method, and program Download PDF

Info

Publication number
JP2019057887A
JP2019057887A JP2017182580A JP2017182580A JP2019057887A JP 2019057887 A JP2019057887 A JP 2019057887A JP 2017182580 A JP2017182580 A JP 2017182580A JP 2017182580 A JP2017182580 A JP 2017182580A JP 2019057887 A JP2019057887 A JP 2019057887A
Authority
JP
Japan
Prior art keywords
image
visible light
imaging
unit
infrared light
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017182580A
Other languages
Japanese (ja)
Other versions
JP7039906B2 (en
Inventor
石毛 善樹
Yoshiki Ishige
善樹 石毛
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2017182580A priority Critical patent/JP7039906B2/en
Publication of JP2019057887A publication Critical patent/JP2019057887A/en
Application granted granted Critical
Publication of JP7039906B2 publication Critical patent/JP7039906B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Exposure Control For Cameras (AREA)
  • Indication In Cameras, And Counting Of Exposures (AREA)
  • Studio Devices (AREA)

Abstract

To provide an imaging apparatus, an imaging method, and a program capable of capturing the appearance of a subject while an exposure time is not in a predetermined range.SOLUTION: The apparatus comprises: a visible light imaging unit (12, 14, 16) for capturing a visible light image of a subject with visible light; an infrared imaging unit (11, 13, 15) for capturing an infrared image of the subject with infrared light; an image processing unit 17 for determining the exposure time of the visible light imaging unit (12, 14, 16) on the basis of information of the infrared image obtained by the infrared imaging unit (11, 13, 15); and a control unit 20.SELECTED DRAWING: Figure 1

Description

本発明は、適正な撮像条件を得て撮像を実行する撮像装置、撮像方法及びプログラムに関する。   The present invention relates to an imaging apparatus, an imaging method, and a program for obtaining an appropriate imaging condition and executing imaging.

従来からデジタルカメラにおいては、各種条件下で適正な露出時間を算出した上で、撮像を実行する技術が提案されている。(例えば、特許文献1)   Conventionally, in a digital camera, a technique for performing imaging after calculating an appropriate exposure time under various conditions has been proposed. (For example, Patent Document 1)

特開2011−059499号公報JP 2011-059499 A

前記特許文献に記載された技術では、露出時間の範囲については撮像の高速性を保つために予め定められた範囲に決められている。このような従来の撮像の場合、露出時間が予め定められた範囲以外における被写体の様相は捉えることができないという問題がある。   In the technique described in the patent document, the range of the exposure time is determined to be a predetermined range in order to maintain high-speed imaging. In the case of such conventional imaging, there is a problem that it is impossible to capture the aspect of the subject when the exposure time is outside the predetermined range.

本発明は前記のような実情に鑑みてなされたもので、目的とするところは、露出時間が予め定められた範囲以外における被写体の様相を捉えることが可能な撮像装置、撮像方法及びプログラムを提供することにある。   The present invention has been made in view of the above circumstances, and an object of the present invention is to provide an imaging apparatus, an imaging method, and a program capable of capturing an aspect of a subject outside an exposure time within a predetermined range. There is to do.

前記目的を達成するため、本発明に係る撮像装置の一様態は、可視光で被写体の可視光画像を撮像する可視光撮像部と、赤外光で前記被写体の赤外光画像を撮像する赤外光撮像部と、前記赤外光撮像部で得た前記赤外光画像の情報に基づいて前記可視光撮像部の露出時間を決定する決定部と、を備える、ことを特徴とする。   In order to achieve the above object, an aspect of an imaging apparatus according to the present invention includes a visible light imaging unit that captures a visible light image of a subject with visible light, and a red that captures an infrared light image of the subject with infrared light. An external light imaging unit; and a determination unit that determines an exposure time of the visible light imaging unit based on information of the infrared light image obtained by the infrared light imaging unit.

前記目的を達成するため、本発明に係る撮像方法の一様態は、可視光で被写体の可視光画像を撮像する可視光撮像工程と、赤外光で前記被写体の赤外光画像を撮像する赤外光撮像工程と、前記赤外光撮像工程で得た前記赤外光画像の情報に基づいて前記可視光撮像工程の露出時間を決定する決定工程と、を含む、ことを特徴とする。   In order to achieve the above object, an aspect of the imaging method according to the present invention includes a visible light imaging step of capturing a visible light image of a subject with visible light, and red for capturing an infrared light image of the subject with infrared light. An external light imaging step; and a determination step of determining an exposure time of the visible light imaging step based on information of the infrared light image obtained in the infrared light imaging step.

前記目的を達成するため、本発明に係るプログラムの一様態は、撮像装置のコンピュータを、可視光で被写体の可視光画像を撮像する可視光撮像部、赤外光で前記被写体の赤外光画像を撮像する赤外光撮像部、前記赤外光撮像部で得た前記赤外光画像の情報に基づいて前記可視光撮像部の露出時間を決定する決定部、として機能させる、ことを特徴とする。   In order to achieve the above object, one aspect of the program according to the present invention is to provide a computer of an imaging apparatus, a visible light imaging unit that captures a visible light image of a subject with visible light, and an infrared light image of the subject with infrared light. An infrared light imaging unit that captures the image, and a determination unit that determines an exposure time of the visible light imaging unit based on information of the infrared light image obtained by the infrared light imaging unit. To do.

本発明によれば、露出時間が予め定められた範囲以外における被写体の様相を捉えることが可能な撮像装置、撮像方法及びプログラムを提供することができる。   According to the present invention, it is possible to provide an imaging device, an imaging method, and a program capable of capturing the appearance of a subject outside the predetermined exposure time range.

本発明の一実施形態に係るデジタルカメラの機能回路の構成を示すブロック図。1 is a block diagram showing a configuration of a functional circuit of a digital camera according to an embodiment of the present invention. 一実施形態に係るHDR(ハイダイナミックレンジ)撮像時の処理内容を抽出して示すフローチャート。6 is a flowchart showing extracted processing contents during HDR (high dynamic range) imaging according to an embodiment. 一実施形態に係る図2のキャリブレーション処理(S102)の詳細な処理内容を示すフローチャート。The flowchart which shows the detailed process content of the calibration process (S102) of FIG. 2 which concerns on one Embodiment. 一実施形態に係る可視光画像及び赤外光画像から取得したエッジ抽出画像を例示する図。The figure which illustrates the edge extraction image acquired from the visible light image and infrared light image which concern on one Embodiment. 一実施形態に係る赤外光画像から取得したエッジ画素領域の周辺と、黒つぶれ又は白飛びを生じている可視光画像から取得したエッジ画素領域の周辺をそれぞれ拡大した場合の概念を示す図。The figure which shows the concept at the time of each enlarging the periphery of the edge pixel area | region acquired from the infrared-light image which concerns on one Embodiment, and the edge pixel area | region acquired from the visible light image which has produced the black-out or white-out.

以下本発明をデジタルカメラに適用した場合の一実施形態について図面を参照して説明する。   An embodiment in which the present invention is applied to a digital camera will be described below with reference to the drawings.

図1は、一実施形態に係るデジタルカメラ10の機能回路の構成を示すブロック図である。図1において、11,12は共に撮像レンズ部であり、デジタルカメラ10の図示しない筐体の前面側に並設される。   FIG. 1 is a block diagram illustrating a configuration of a functional circuit of a digital camera 10 according to an embodiment. In FIG. 1, reference numerals 11 and 12 denote imaging lens units, which are arranged in parallel on the front side of a housing (not shown) of the digital camera 10.

撮像レンズ部11の合焦位置に、近赤外線透過フィルタを用いた赤外線イメージセンサ13が設けられる。また撮像レンズ部12の合焦位置に、可視光の原色カラーフィルタを用いたイメージセンサ14が設けられる。   An infrared image sensor 13 using a near infrared transmission filter is provided at the in-focus position of the imaging lens unit 11. An image sensor 14 using a primary color filter for visible light is provided at the in-focus position of the imaging lens unit 12.

本実施形態では、2系統の撮像レンズ光学系のパララックスを考慮して、撮像レンズ部11,12の各レンズ光軸が確実に平行に設定され、且つ可視光側の撮像レンズ部12の撮像画角に比して、赤外光側の撮像レンズ部11の撮像画角が若干広く、撮像レンズ部12での撮像範囲を確実に撮像レンズ部11の撮像範囲でカバーすることが可能であるものとする。   In the present embodiment, in consideration of the parallax of the two imaging lens optical systems, the lens optical axes of the imaging lens units 11 and 12 are reliably set in parallel and the imaging of the imaging lens unit 12 on the visible light side is performed. The imaging field angle of the imaging lens unit 11 on the infrared light side is slightly wider than the field angle, and the imaging range of the imaging lens unit 12 can be reliably covered with the imaging range of the imaging lens unit 11. Shall.

赤外線イメージセンサ13での受光により生成される赤外光画像信号は、A/D変換部15でデジタル化された後に画像処理部17へ送られる。   An infrared light image signal generated by light reception by the infrared image sensor 13 is digitized by the A / D conversion unit 15 and then sent to the image processing unit 17.

一方のイメージセンサ14での受信により生成される可視光画像信号は、A/D変換部16でデジタル化された後に、同じく前記画像処理部17へ送られる。   A visible light image signal generated by reception by one image sensor 14 is digitized by the A / D converter 16 and then sent to the image processor 17.

画像処理部17は、デジタルカメラ10の画像エンジンを構成するプロセッサであり、A/D変換部15,16を介して送られてきた赤外光画像データ及び可視光画像データに対する、必要な画像データ処理を実行し、実行結果をバスBへ出力する。   The image processing unit 17 is a processor constituting the image engine of the digital camera 10, and necessary image data for the infrared light image data and visible light image data transmitted via the A / D conversion units 15 and 16. The process is executed, and the execution result is output to the bus B.

バスBにはまた、フラッシュ駆動部18、音声処理部19、制御部20、モニタ表示部21、メモリカードインタフェイス(I/F)22が接続される。   Also connected to the bus B are a flash drive unit 18, an audio processing unit 19, a control unit 20, a monitor display unit 21, and a memory card interface (I / F) 22.

フラッシュ駆動部18は、共にデジタルカメラ10の筐体の前面に配置される赤外線発光用のLED(発光ダイオード)23、及び白色発光用のLED24を選択的、又は同時に発光駆動してフラッシュ撮像を実行させる。   The flash drive unit 18 performs flash imaging by selectively or simultaneously driving the infrared light emitting LED (light emitting diode) 23 and the white light emitting LED 24 arranged on the front surface of the housing of the digital camera 10. Let

音声処理部19は、デジタルカメラ10の筐体の前面に配置されるマイクロホン25から入力される音声信号をデジタル化し、必要によりデータ圧縮処理を施してバスBへ出力する。   The audio processing unit 19 digitizes an audio signal input from the microphone 25 disposed on the front surface of the housing of the digital camera 10, performs data compression processing as necessary, and outputs the data to the bus B.

制御部20は、デジタルカメラ10全体の動作制御を実行するもので、操作部26から直接入力されるキー操作信号を受け付けて、他の各回路を制御する。   The control unit 20 controls the operation of the entire digital camera 10 and receives key operation signals directly input from the operation unit 26 to control other circuits.

操作部26は、例えば電源キー、シャッタキー、ズームキー、撮像モードキー、ディスプレイキー、十字カーソルキー、エンターキー、キャンセルキー、ファンクションキー等を有するものとする。   The operation unit 26 includes, for example, a power key, a shutter key, a zoom key, an imaging mode key, a display key, a cross cursor key, an enter key, a cancel key, a function key, and the like.

モニタ表示部21は、デジタルカメラ10の筐体の背面側に設けられる、例えばチルト機構を備えた、バックライト内蔵のカラー液晶パネルとドライバ回路とを含む。モニタ表示部21は、撮像モード時には、赤外線イメージセンサ13及びイメージセンサ14の少なくとも一方で撮像している画像をモニタ表示する一方で、再生モード時には、後述するメモリカード27から読み出した画像データを用いて表示する。   The monitor display unit 21 includes a color liquid crystal panel with a built-in backlight and a driver circuit, which are provided on the back side of the housing of the digital camera 10 and have, for example, a tilt mechanism. The monitor display unit 21 monitors and displays an image captured by at least one of the infrared image sensor 13 and the image sensor 14 in the imaging mode, and uses image data read from a memory card 27 described later in the reproduction mode. To display.

メモリカードインタフェイス22は、前記制御部20による制御に従い、カードスロットCSを介してデジタルカメラ10に着脱自在に装着されたメモリカード27に対して、撮像モード時には撮像により得られた画像データファイルを書き込んで記録させる一方で、再生モード時にはメモリカード27から読み出して画像データファイルを画像処理部17へ送出する。   The memory card interface 22 stores an image data file obtained by imaging in the imaging mode with respect to the memory card 27 detachably attached to the digital camera 10 via the card slot CS according to the control of the control unit 20. While writing and recording, in the reproduction mode, the image data file is read from the memory card 27 and sent to the image processing unit 17.

次に前記実施形態の動作について説明する。
図2は、撮像モード時に制御部20が実行する、HDR画像撮像時の処理内容を抽出して示すフローチャートである。同図では、操作部26のシャッタキーの操作に応じて処理を開始すると、まず事前撮像用に赤外線イメージセンサ13及びイメージセンサ14の駆動周期を切り替えて、画像処理部17による赤外光画像と可視光画像のモニタリングを開始させる(ステップS101)。
Next, the operation of the embodiment will be described.
FIG. 2 is a flowchart showing extracted processing contents during HDR image capturing, which is executed by the control unit 20 in the image capturing mode. In this figure, when processing is started in response to the operation of the shutter key of the operation unit 26, first, the driving cycle of the infrared image sensor 13 and the image sensor 14 is switched for pre-imaging, and the infrared light image by the image processing unit 17 is changed. Monitoring of the visible light image is started (step S101).

モニタリング開始の状態で、イメージセンサ14でのHDR(ハイダイナミックレンジ)撮像時の適切な露出時間を取得するためのキャリブレーション処理を実行する(ステップS102)。   In a state where monitoring is started, a calibration process for acquiring an appropriate exposure time during HDR (high dynamic range) imaging with the image sensor 14 is executed (step S102).

キャリブレーション処理の終了後、制御部20は画像処理部17によりモニタリング中の可視光画像中の被写体に動きがないことを確認させる(ステップS103)。この処理は、画像処理部17が得られる可視光画像に対して輪郭抽出処理を実行して被写体となる画像部分を認識した上で、直前に得られた画像中の同一の被写体の画像部分と比較して位置の移動がないことを確認するものである。   After the end of the calibration process, the control unit 20 causes the image processing unit 17 to confirm that there is no movement in the subject in the visible light image being monitored (step S103). In this process, the contour extraction process is performed on the visible light image obtained by the image processing unit 17 to recognize the image portion to be the subject, and then the image portion of the same subject in the image obtained immediately before is recognized. In comparison, it is confirmed that there is no movement of the position.

ここで被写体の位置が移動していると判断した場合(ステップS103のNo)、制御部20は再度前記ステップS102からの処理に戻る。   If it is determined here that the position of the subject has moved (No in step S103), the control unit 20 returns to the processing from step S102 again.

こうしてステップS102、ステップS103の処理を繰返し実行することで、キャリブレーション処理により適切な露出時間を取得しながら、画像中の被写体が静止するのを待期する。   By repeatedly executing the processing of step S102 and step S103 in this way, it waits for the subject in the image to stand still while acquiring an appropriate exposure time by the calibration processing.

図3は、前記ステップS103でのキャリブレーション処理のサブルーチンの詳細な処理内容を示すフローチャートである。   FIG. 3 is a flowchart showing the detailed processing contents of the calibration processing subroutine in step S103.

当初に制御部20は、赤外線イメージセンサ13を走査駆動し、A/D変換部15を介して画像処理部17で赤外光画像を取得させる(ステップS201)。平行して制御部20は、イメージセンサ14を走査駆動し、A/D変換部16を介して画像処理部17で可視光画像を取得させる(ステップS202)。   Initially, the control unit 20 scans the infrared image sensor 13 and causes the image processing unit 17 to acquire an infrared light image via the A / D conversion unit 15 (step S201). In parallel, the control unit 20 scans and drives the image sensor 14, and causes the image processing unit 17 to acquire a visible light image via the A / D conversion unit 16 (step S202).

前記赤外光画像の取得と可視光画像の取得とは、タイミング上、できるだけ同時であることが望ましい。制御部20は、画像処理部17により前記赤外光画像と前記可視光画像との双方それぞれに対するエッジ(輪郭)抽出処理を実行させる(ステップS203)。   It is desirable that the acquisition of the infrared light image and the acquisition of the visible light image be as simultaneous as possible in terms of timing. The control unit 20 causes the image processing unit 17 to execute edge (contour) extraction processing for both the infrared light image and the visible light image (step S203).

制御部20の制御の下で画像処理部17は、こうして得られる、赤外光画像からのエッジ抽出画像と、可視光画像からのエッジ抽出画像と、をパターンマッチング処理により比較した上で、赤外光画像からのエッジ抽出画像には存在するものの、可視光画像からのエッジ抽出画像の同一画像領域には存在しないエッジがあるか否かを判断する(ステップS204)。   Under the control of the control unit 20, the image processing unit 17 compares the edge extraction image from the infrared light image and the edge extraction image from the visible light image thus obtained by pattern matching processing, It is determined whether there is an edge that exists in the edge extraction image from the external light image but does not exist in the same image region of the edge extraction image from the visible light image (step S204).

ここで赤外光画像からのエッジ抽出画像に存在するものの、可視光画像からのエッジ抽出画像の同一画像領域には存在しないエッジがあると判断した場合(ステップS204のYes)、画像処理部17は、可視光画像では抽出することができなかった少なくとも1つのエッジの該当領域が、可視光画像中の黒つぶれを生じている部分にあるか否か、すなわち少なくとも1つのエッジに該当する部分の各画素値のR,G,B成分が、いずれも「0(ゼロ)」階調であるか否かを判断する(ステップS205)。   If it is determined that there is an edge that exists in the edge extracted image from the infrared light image but does not exist in the same image area of the edge extracted image from the visible light image (Yes in step S204), the image processing unit 17 Is whether or not the corresponding region of at least one edge that could not be extracted in the visible light image is in a portion where the black-out occurs in the visible light image, that is, the portion corresponding to at least one edge. It is determined whether the R, G, and B components of each pixel value are all “0 (zero)” gradations (step S205).

図4(A)は、可視光画像から取得したエッジ抽出画像を例示するものである。一方、図4(B)は、赤外光画像から取得したエッジ抽出画像を例示するものである。図4(B)中の破線が囲んで示す範囲IV内が、可視光画像では大きく黒つぶれしていて、抽出できなかったエッジ部分を示している。   FIG. 4A illustrates an edge extraction image acquired from a visible light image. On the other hand, FIG. 4B illustrates an edge extraction image acquired from an infrared light image. A range IV surrounded by a broken line in FIG. 4B is largely blackened in the visible light image and indicates an edge portion that cannot be extracted.

このように黒つぶれにより可視光画像から抽出することできなかったエッジが存在すると判断した場合(ステップS205のYes)、前記ステップS202での標準的な可視光画像の撮像では黒つぶれ部分が発生していることから、画像処理部17の判断結果を受けた制御部20は、HDR撮像を行なう場合のうち、特に画像中の暗い部分の階調を取得するために露出時間を長く設定して、全体に暗い方向の画像を撮像する場合の露出時間を、予め設定された標準範囲を外れる値となるように長い値に設定する(ステップS206)。   When it is determined that there is an edge that cannot be extracted from the visible light image due to the blackout (Yes in step S205), a blackened portion occurs in the standard visible light image capturing in step S202. Therefore, the control unit 20 that has received the determination result of the image processing unit 17 sets the exposure time long in order to acquire the gradation of the dark portion in the image, particularly when performing HDR imaging, The exposure time when an image in the dark direction is captured as a whole is set to a long value so as to be a value outside the preset standard range (step S206).

また前記ステップS205において、黒つぶれにより可視光画像から抽出することができなかったエッジはなかったと判断した場合(ステップS205のNo)、制御部20は前記ステップS206での処理は実行しない。   In Step S205, if it is determined that there is no edge that cannot be extracted from the visible light image due to blackout (No in Step S205), the control unit 20 does not execute the process in Step S206.

次に制御部20の制御の下に画像処理部17は、可視光画像では抽出することができなかった少なくとも1つのエッジの該当領域が、可視光画像中の白飛びを生じている部分にあるか否か、すなわちその少なくとも1つのエッジに該当する部分の各画素値のR,G,B成分が、いずれもフル階調(例えば量子化ビット数が8の場合で255階調)であるか否かを判断する(ステップS207)。   Next, under the control of the control unit 20, the image processing unit 17 has a corresponding region of at least one edge that could not be extracted from the visible light image in a portion where whiteout occurs in the visible light image. Whether the R, G and B components of each pixel value corresponding to at least one of the edges are full gradation (for example, 255 gradations when the number of quantization bits is 8). It is determined whether or not (step S207).

白飛びにより可視光画像から抽出することできなかったエッジが存在すると判断した場合(ステップS207のYes)、前記ステップS202での標準的な可視光画像の撮像では白飛び部分が発生していることから、画像処理部17の判断結果を受けた制御部20は、HDR撮像を行なう場合のうち、特に画像中の明るい部分の階調を取得するために露出時間を短く設定して、全体に明るい方向の画像を撮像する場合の露出時間を、予め設定された標準範囲を外れる値となるように短い値に設定する(ステップS208)。   When it is determined that there is an edge that could not be extracted from the visible light image due to whiteout (Yes in step S207), a whiteout portion has occurred in the standard visible light image capturing in step S202. Then, the control unit 20 that has received the determination result of the image processing unit 17 sets the exposure time short in order to acquire the gradation of the bright part in the image, and is bright overall. The exposure time when capturing an image in the direction is set to a short value so as to be out of the preset standard range (step S208).

前記ステップS207において、白飛びにより可視光画像から抽出することができなかったエッジはなかったと判断した場合(ステップS207のNo)、制御部20は前記ステップS208での処理は実行しない。   If it is determined in step S207 that there is no edge that cannot be extracted from the visible light image due to whiteout (No in step S207), the control unit 20 does not execute the process in step S208.

また前記ステップS204において、赤外光画像からのエッジ抽出画像に存在するものの、可視光画像からのエッジ抽出画像の同一画像領域には存在しないエッジはなかったと画像処理部17が判断した場合(ステップS204のNo)、判断結果を受けた制御部20は、前記ステップS205〜S208の処理は実行しない。   In step S204, when the image processing unit 17 determines that there is no edge that exists in the edge extraction image from the infrared light image but does not exist in the same image region of the edge extraction image from the visible light image (step S204). The control unit 20 that has received the determination result does not execute the processes of steps S205 to S208.

図5(A)は、赤外光画像から取得したエッジ抽出画像中の、エッジ部分の該当画素周辺を拡大した場合の概念を示す図である。図5(A)ではエッジ部分がその周囲と比較してはっきりとしたコントラストとなって抽出できている場合を示す。   FIG. 5A is a diagram illustrating a concept when the periphery of a corresponding pixel in the edge portion in the edge extracted image acquired from the infrared light image is enlarged. FIG. 5A shows a case where the edge portion can be extracted with a clear contrast compared to the surrounding area.

これに対して、図5(B)は、可視光無画像から取得したエッジ抽出画像中の、エッジ部分の該当画素周辺を拡大した場合の概念を示す図である。図5(B)では、可視光画像中に黒つぶれにより、本来はエッジとして抽出できる筈の部分が抽出できない状態となっているものとして、露出時間を多少長くなるように設定するものとする。   On the other hand, FIG. 5B is a diagram illustrating a concept when the periphery of a corresponding pixel in the edge portion in the edge extracted image acquired from the visible light no-image is enlarged. In FIG. 5B, it is assumed that the exposure time is set to be a little longer, assuming that a wrinkle portion that can be extracted as an edge cannot be extracted due to blackening in the visible light image.

反対に、図5(C)は、可視光無画像から取得したエッジ抽出画像中の、エッジ部分の該当画素周辺を拡大した場合の概念を示す図である。図5(C)では、可視光画像中に白飛びにより、本来はエッジとして抽出できる筈の部分が抽出できない状態となっているものとして、露出時間を多少短くなるように設定するものとする。   On the other hand, FIG. 5C is a diagram showing a concept when the periphery of a corresponding pixel in the edge portion in the edge extracted image acquired from the visible light no image is enlarged. In FIG. 5C, it is assumed that the exposure time is set to be slightly shorter, assuming that a wrinkle portion that can be extracted as an edge cannot be extracted due to whiteout in a visible light image.

前記のような処理を終了した後、HDR撮像が例えば3枚の連続撮像により得た画像を合成して処理を行なうものとした場合、制御部20は、全体に暗い方向の画像を撮像する場合、標準画像の撮像の場合、及び全体に明るい方向の画像を撮像する場合についてそれぞれ露出時間を決定し(ステップS209)、以上でこの図3のサブルーチンを終了して、図2のメインルーチンに戻る。   After completion of the processing as described above, when the HDR imaging is performed by synthesizing, for example, three images obtained by continuous imaging, the control unit 20 captures an image in a dark direction as a whole. The exposure time is determined for each of the case of capturing a standard image and the case of capturing an image in a bright direction as a whole (step S209), and the subroutine of FIG. 3 is ended as described above, and the process returns to the main routine of FIG. .

なお、前記ステップS206又はステップS208の処理において、全体に暗い方向の画像を撮像する場合の露出時間と、全体に明るい方向の画像を撮像する場合の露出時間と、の一方のみを変更設定した場合には、露出時間を長く、又は、短く変更設定した段階に合わせて、標準画像撮像時の露出時間も半段階分程、変更設定するものとしても良い。   In the process of step S206 or step S208, only one of the exposure time when capturing an image in the dark direction and the exposure time when capturing an image in the bright direction is changed. Alternatively, the exposure time at the time of capturing the standard image may be changed and set by about half a stage in accordance with the stage where the exposure time is changed to be longer or shorter.

図2のメインルーチンにおいて、前記ステップS102、ステップS103の処理を繰返し実行し、必要によりキャリブレーション処理によって、黒つぶれ又は白飛びを少なくとも大きな範囲で生じずにHDR撮像が実行できるような露出時間の設定を終えた段階で、画像中の被写体が静止したと判断すると(ステップS103のYES)、制御部20は実際のHDR撮像を開始させ(ステップS104)、前記撮像レンズ部12、イメージセンサ14、A/D変換部16及び画像処理部17による可視光側の撮像系において、予め設定された複数画像を連写により撮像させる(ステップS105)。   In the main routine of FIG. 2, the processing of steps S102 and S103 is repeatedly executed, and if necessary, the exposure time is such that HDR imaging can be executed without causing blackout or whiteout at least in a large range by calibration processing. When it is determined that the subject in the image is stationary after the setting is completed (YES in step S103), the control unit 20 starts actual HDR imaging (step S104), and the imaging lens unit 12, the image sensor 14, In the imaging system on the visible light side by the A / D conversion unit 16 and the image processing unit 17, a plurality of preset images are captured by continuous shooting (step S105).

制御部20は、得られた、それぞれ露出時間の異なる複数の可視光画像により、画像処理部17で画像合成処理によりHDR画像を算出させる(ステップS106)。   The control unit 20 causes the image processing unit 17 to calculate an HDR image by image synthesis processing using the obtained plurality of visible light images having different exposure times (step S106).

なお、前記HDR画像の合成処理時には、標準となる中間露出の可視光画像から、輝度成分の分布を示す合成マップ画像を作成するものとしても良い。   Note that at the time of synthesizing the HDR image, a synthesized map image showing the distribution of luminance components may be created from a standard intermediate-exposure visible light image.

加えて、前記HDR画像の合成処理時には、可視光画像中の白飛びしている部分と黒飛びしている部分との間を複数のマスク領域に分割して、それぞれのマスク領域毎に白飛びしている領域から黒飛びしている領域までを合成比率が段階的に変化するようにしてHDR画像を合成するものとしても良い。   In addition, when synthesizing the HDR image, the portion of the visible light image that is white and black is divided into a plurality of mask areas, and each of the mask areas is white. It is also possible to synthesize an HDR image so that the composition ratio changes in a stepwise manner from the area where the image is blacked out to the area where the image is black.

以上の算出により得たHDR画像は、適宜予め設定されたデータフォーマットに従ってデータ圧縮を伴うファイルデータ化させた上で、メモリカードインタフェイス22を介してメモリカード27に記録させ、以上で一連のHDR画像の撮像処理を一旦終了する。   The HDR image obtained by the above calculation is converted into file data accompanied by data compression according to a data format set in advance as appropriate, and then recorded on the memory card 27 via the memory card interface 22. The image capturing process is temporarily terminated.

以上詳述した如く前記実施形態によれば、露出時間が予め定められた範囲以外における被写体の様相を捉えることが可能となる。   As described above in detail, according to the embodiment, it is possible to capture the aspect of the subject when the exposure time is outside the predetermined range.

また、前記実施形態では、赤外光画像と可視光画像とでそれぞれ事前に撮像した画像中からエッジ(輪郭)を抽出した画像を取得して、比較により可視光画像の不適切な撮像条件を判断するものとしたので、画像処理部17による演算処理の負担を比較的低いものとしながら、適切な露出時間を決定することができる。   In the above-described embodiment, an image obtained by extracting an edge (outline) from images captured in advance in an infrared light image and a visible light image is acquired, and inappropriate imaging conditions for the visible light image are determined by comparison. Since the determination is made, it is possible to determine an appropriate exposure time while making the calculation processing load by the image processing unit 17 relatively low.

更に、前記実施形態では、赤外光画像と可視光画像とを同時に撮像するものとしたので、画像中の被写体の動きや撮像者自身の撮像方向の変化等の影響を排除できる。   Furthermore, in the above-described embodiment, the infrared light image and the visible light image are captured at the same time, so that it is possible to eliminate the influence of the movement of the subject in the image and the change in the imaging direction of the photographer.

なお、前記実施形態では詳細に説明しなかったが、図3のステップS206及びステップS208において露出時間を変更設定するに当たっては、標準となる被写体に対して、赤外光画像を撮像するための赤外光露出時間と、赤外光画像と同じ輝度となる可視光画像を撮像するための可視光露出時間と、の対応関係を予め取得して記録しておき、記録内容に基づいて可視光画像を撮像する際の露出時間を決定するものとすれば、露出時間を決定するための処理を簡易化し、より短いタイムラグで本撮像に移行できる。   Although not described in detail in the above-described embodiment, when changing the exposure time in steps S206 and S208 in FIG. 3, red for capturing an infrared light image on a standard subject is used. A correspondence relationship between the external light exposure time and the visible light exposure time for capturing a visible light image having the same brightness as the infrared light image is acquired and recorded in advance, and the visible light image is based on the recorded content. If the exposure time at the time of imaging is determined, the process for determining the exposure time can be simplified, and the main imaging can be performed with a shorter time lag.

更に、前記赤外光画像を撮像するための赤外光露出時間と、赤外光画像と同じ輝度となる可視光画像を撮像するための可視光露出時間と、の対応関係を、対応テーブル又は関数式として取得し、記録するものとすれば、更に露出時間を決定するための処理を簡易化できると共に、装置のファームアップ等にも容易に対応させることができる。   Furthermore, the correspondence relationship between the infrared light exposure time for capturing the infrared light image and the visible light exposure time for capturing a visible light image having the same luminance as the infrared light image is represented by a correspondence table or If it is acquired and recorded as a function expression, the process for determining the exposure time can be further simplified, and the firmware of the apparatus can be easily dealt with.

また、前記対応関係を、標準となる被写体の複数の分割範囲毎に色温度の対応テーブル又は関数式として取得するものとすれば、被写体の画像に合わせて、より適切な露出時間を決定することができる。   Further, if the correspondence relationship is acquired as a color temperature correspondence table or a function expression for each of a plurality of division ranges of a standard subject, a more appropriate exposure time is determined according to the subject image. Can do.

なお、前記実施形態では、特に本撮像前の事前撮像で得た可視光画像中に白飛びが発生している場合には、露出時間を事前撮像時より短く設定することで、確実に白飛びの発生を抑制できる。   In the above-described embodiment, particularly when a whiteout occurs in the visible light image obtained by the pre-imaging before the main imaging, the exposure time is set to be shorter than that at the time of the pre-imaging to ensure the whiteout. Can be suppressed.

同様に、本撮像前の事前撮像で得た可視光画像中に黒つぶれが発生している場合に、露出時間を事前撮像時より長く設定することで、確実に黒つぶれの発生を抑制できる。   Similarly, when blackout occurs in a visible light image obtained by pre-imaging prior to main imaging, the occurrence of blackout can be reliably suppressed by setting the exposure time longer than that during pre-imaging.

また、前記実施形態では、本撮像時に露出時間の異なる複数の画像を連写して画像合成処理により階調のダイナミックレンジを拡げるHDR画像を得るものとしたので、本撮像時の露出時間の決定をより簡易、且つ、短時間で決定することにより、シャッタチャンスを逃さず、迅速に本撮像時の動作を開始させることができる。   Further, in the above embodiment, since the HDR image that expands the dynamic range of the gradation is obtained by continuous shooting of a plurality of images having different exposure times at the time of the main imaging, and the exposure time at the time of the main imaging is determined. By making the determination more simply and in a short time, the operation at the time of actual imaging can be started quickly without missing a photo opportunity.

なお、HDR画像の合成処理時には、標準となる中間露出の可視光画像から輝度成分の分布を示す合成マップ画像を作成し、分布領域毎で画像合成を行なっても良いものとした。これにより、画像合成時の演算処理をより簡易化することが可能となると共に、分布領域に応じた合成比率を設定することで、画像全体の階調のバランスを考慮したHDR画像を得ることができる。   Note that at the time of HDR image composition processing, a composition map image showing the distribution of luminance components may be created from a standard intermediate-exposure visible light image, and image composition may be performed for each distribution region. As a result, it is possible to further simplify the arithmetic processing at the time of image composition, and to obtain an HDR image in consideration of the balance of gradation of the entire image by setting a composition ratio according to the distribution region. it can.

また、前記HDR画像を得るに当たっては、可視光画像中の白飛びしている部分と黒飛びしている部分との間を複数の領域に分割し、領域毎に合成比率が段階的に変化するようにしてHDR画像を合成所定も良いものとした。これにより、少ない演算量で、きわめて自然に階調が変化するHDR画像を生成することができる。   Further, when obtaining the HDR image, a portion between the whiteout portion and the blackout portion in the visible light image is divided into a plurality of regions, and the composition ratio changes stepwise for each region. In this way, the HDR image is synthesized well. This makes it possible to generate an HDR image in which gradation changes very naturally with a small amount of calculation.

なお、前記実施形態では、赤外光画像を撮像する撮像レンズ光学系と、可視光画像を撮像する撮像レンズ光学系と、の2つの撮像レンズ光学系を独立して有するデジタルカメラ10について説明したが、本発明はこれに限ることなく、1つの撮像レンズ光学系とし、光軸中に赤外線透過フィルタ又は赤外線除去フィルタを装脱可能とする構成や、例えば、ダイクロイックミラー等を用いて周波数帯域によって光路を分岐し、赤外光用のイメージセンサと可視光用のイメージセンサに同時に受光させる構成、又は、光の波長帯域によって透過深度が異なることを利用して、複数の透過深度毎に感光層が多重に積層された固体撮像素子を用いる構成など、他の構成によっても実現可能である。   In the above embodiment, the digital camera 10 having two imaging lens optical systems, that is, an imaging lens optical system that captures an infrared light image and an imaging lens optical system that captures a visible light image, has been described. However, the present invention is not limited to this, and a single imaging lens optical system is used, and an infrared transmission filter or an infrared removal filter can be attached to and detached from the optical axis, for example, depending on the frequency band using a dichroic mirror or the like. A photosensitive layer for each of a plurality of transmission depths using a configuration in which the optical path is branched and the infrared light image sensor and the visible light image sensor receive light simultaneously, or the transmission depth varies depending on the wavelength band of light. It can be realized by other configurations such as a configuration using a solid-state imaging device in which multiple layers are stacked.

その他、本発明は、実施形態に限定されるものではなく、実施段階では要旨を逸脱しない範囲で種々に変形することが可能である。また、各実施形態は適宜組み合わせて実施してもよく、その場合、組み合わせた効果が得られる。更に、実施形態には種々の発明が含まれており、開示される複数の構成要件から選択された組み合わせにより種々の発明が抽出され得る。例えば、実施形態に示される全構成要件からいくつかの構成要件が削除されても、課題が解決でき、効果が得られる場合には、構成要件が削除された構成が発明として抽出され得る。   In addition, the present invention is not limited to the embodiments, and can be variously modified without departing from the scope in the implementation stage. Further, the embodiments may be implemented in combination as appropriate, and in that case, the combined effect can be obtained. Furthermore, various inventions are included in the embodiments, and various inventions can be extracted by combinations selected from a plurality of disclosed constituent elements. For example, even when several constituent requirements are deleted from all the constituent requirements shown in the embodiment, if the problem can be solved and an effect can be obtained, a configuration from which the constituent requirements are deleted can be extracted as an invention.

以下に、本願出願の当初の特許請求の範囲に記載された発明を付記する。
[付記1]
可視光で被写体の可視光画像を撮像する可視光撮像部と、
赤外光で前記被写体の赤外光画像を撮像する赤外光撮像部と、
前記赤外光撮像部で得た前記赤外光画像の情報に基づいて前記可視光撮像部の露出時間を決定する決定部と、
を備える、
ことを特徴とする撮像装置。
[付記2]
前記決定部は、前記赤外光撮像部により撮像された前記赤外光画像において前記被写体から輪郭を抽出することができ、前記可視光撮像部により撮像された前記可視光画像において前記被写体の前記輪郭が抽出できなかった場合に、前記赤外光画像の情報に基づいて前記可視光撮像部の露出時間を決定する、
ことを特徴とする付記1に記載の撮像装置。
[付記3]
前記可視光画像の撮像と前記赤外光画像の撮像とは1回の撮像指示に基づいて同時に実行される、
ことを特徴とする付記1又は2に記載の撮像装置。
[付記4]
標準となる被写体に対して、前記赤外光画像を撮像するための赤外光露出時間と、前記赤外光画像と同じ輝度となる前記可視光画像を撮像するための可視光露出時間と、の対応関係を予め取得しておく対応関係取得部と、
前記対応関係取得部により予め取得された対応関係を記録する記録部と、
を更に備え、
前記決定部は、前記赤外光画像の輝度と、前記赤外光露出時間と、前記記録部により読み出された前記対応関係と、から前記可視光露出時間を決定する、
ことを特徴とする付記1乃至3のいずれか1項に記載の撮像装置。
[付記5]
前記対応関係取得部は、前記対応関係を対応テーブル又は関数式として取得する、
ことを特徴とする付記4に記載の撮像装置。
[付記6]
前記対応関係取得部は、前記対応関係を前記標準となる被写体の色温度の複数分割範囲毎に前記対応テーブル又は前記関数式として取得する、
ことを特徴とする付記5に記載の撮像装置。
[付記7]
前記決定部は、前記可視光撮像部により第1の露出時間で撮像された画像において前記被写体の少なくとも1部が白飛びしており、前記赤外光撮像部により撮像された画像において前記可視光画像で白飛びしている前記被写体の少なくとも1部の輪郭が抽出できる場合に、前記可視光撮像部の露出時間を前記第1の露出時間よりも短く決定する、
ことを特徴とする付記1乃至6のいずれか1項に記載の撮像装置。
[付記8]
前記決定部は、前記可視光撮像部により第2の露出時間で撮像された画像において前記被写体の少なくとも1部が黒つぶれしており、前記赤外光撮像部により撮像された画像において前記可視光画像で黒つぶれしている前記被写体の少なくとも1部の輪郭が抽出できる場合に、前記可視光撮像部の露出時間を前記第2の露出時間よりも長く決定する、
ことを特徴とする付記1乃至7のいずれか1項に記載の撮像装置。
[付記9]
前記決定部により決定された露出時間で、前記可視光撮像部により撮像された複数の前記可視光画像に基づいて、ハイダイナミックレンジ画像を合成する合成部を更に備える、
ことを特徴とする付記1乃至8のいずれか1項に記載の撮像装置。
[付記10]
前記合成部は、前記ハイダイナミックレンジ画像を合成する過程で、中間露出の前記可視光画像の輝度成分の分布を示す合成マップ画像を作成する、
ことを特徴とする付記9に記載の撮像装置。
[付記11]
前記合成部は、前記合成マップ画像に基づいて前記複数の可視光画像の合成比率を求めて前記ハイダイナミックレンジ画像を合成する、
ことを特徴とする付記10に記載の撮像装置。
[付記12]
前記合成部は、前記可視光画像中の白飛びしている部分と黒飛びしている部分との間を複数の領域に分割し、前記領域毎に合成比率が段階的に変化するように前記ハイダイナミックレンジ画像を合成する、
ことを特徴とする付記9に記載の撮像装置。
[付記13]
可視光で被写体の可視光画像を撮像する可視光撮像工程と、
赤外光で前記被写体の赤外光画像を撮像する赤外光撮像工程と、
前記赤外光撮像工程で得た前記赤外光画像の情報に基づいて前記可視光撮像工程の露出時間を決定する決定工程と、
を含む、
ことを特徴とする撮像方法。
[付記14]
撮像装置のコンピュータを、
可視光で被写体の可視光画像を撮像する可視光撮像部、
赤外光で前記被写体の赤外光画像を撮像する赤外光撮像部、
前記赤外光撮像部で得た前記赤外光画像の情報に基づいて前記可視光撮像部の露出時間を決定する決定部、
として機能させる、
ことを特徴とするプログラム。
Hereinafter, the invention described in the scope of claims of the present application will be appended.
[Appendix 1]
A visible light imaging unit that captures a visible light image of a subject with visible light;
An infrared light imaging unit that captures an infrared light image of the subject with infrared light;
A determination unit that determines an exposure time of the visible light imaging unit based on information of the infrared light image obtained by the infrared light imaging unit;
Comprising
An imaging apparatus characterized by that.
[Appendix 2]
The determining unit can extract a contour from the subject in the infrared light image captured by the infrared light imaging unit, and the subject of the subject in the visible light image captured by the visible light imaging unit. When the contour could not be extracted, determine the exposure time of the visible light imaging unit based on the information of the infrared light image,
The imaging apparatus according to Supplementary Note 1, wherein
[Appendix 3]
The imaging of the visible light image and the imaging of the infrared light image are performed simultaneously based on one imaging instruction.
The imaging apparatus according to appendix 1 or 2, characterized in that:
[Appendix 4]
For a standard subject, an infrared light exposure time for capturing the infrared light image, and a visible light exposure time for capturing the visible light image having the same brightness as the infrared light image, A correspondence acquisition unit that acquires the correspondence of
A recording unit that records the correspondence acquired in advance by the correspondence acquisition unit;
Further comprising
The determining unit determines the visible light exposure time from the brightness of the infrared light image, the infrared light exposure time, and the correspondence read by the recording unit;
The imaging apparatus according to any one of supplementary notes 1 to 3, wherein:
[Appendix 5]
The correspondence acquisition unit acquires the correspondence as a correspondence table or a function expression.
The imaging apparatus according to appendix 4, wherein the imaging apparatus is characterized.
[Appendix 6]
The correspondence acquisition unit acquires the correspondence as the correspondence table or the function formula for each of a plurality of division ranges of the color temperature of the subject as a standard.
The imaging apparatus according to appendix 5, which is characterized in that.
[Appendix 7]
In the image captured by the visible light imaging unit with the first exposure time, at least a part of the subject is blown out, and the determination unit includes the visible light in the image captured by the infrared light imaging unit. Determining the exposure time of the visible light imaging unit to be shorter than the first exposure time when the outline of at least one part of the subject that is white in the image can be extracted;
The imaging apparatus according to any one of supplementary notes 1 to 6, wherein:
[Appendix 8]
In the image captured by the visible light imaging unit with the second exposure time, at least a part of the subject is blacked out, and the determining unit includes the visible light in the image captured by the infrared light imaging unit. Determining the exposure time of the visible light imaging unit to be longer than the second exposure time when the contour of at least a part of the subject that is blacked out in the image can be extracted;
The imaging apparatus according to any one of appendices 1 to 7, characterized in that:
[Appendix 9]
And further comprising a combining unit that combines a high dynamic range image based on the plurality of visible light images captured by the visible light imaging unit with the exposure time determined by the determining unit.
The imaging apparatus according to any one of appendices 1 to 8, wherein the imaging apparatus is characterized in that
[Appendix 10]
The synthesizing unit, in the process of synthesizing the high dynamic range image, creates a synthesized map image showing a distribution of luminance components of the visible light image of intermediate exposure;
The imaging apparatus according to appendix 9, characterized in that:
[Appendix 11]
The synthesis unit obtains a synthesis ratio of the plurality of visible light images based on the synthesis map image and synthesizes the high dynamic range image;
The imaging apparatus according to appendix 10, wherein the imaging apparatus is characterized.
[Appendix 12]
The synthesizing unit divides a portion between the whiteout portion and the blackout portion in the visible light image into a plurality of regions, and the synthesis ratio is changed stepwise for each region. Compositing high dynamic range images,
The imaging apparatus according to appendix 9, characterized in that:
[Appendix 13]
A visible light imaging step of capturing a visible light image of the subject with visible light;
An infrared imaging step of imaging an infrared image of the subject with infrared light; and
A determination step of determining an exposure time of the visible light imaging step based on information of the infrared light image obtained in the infrared light imaging step;
including,
An imaging method characterized by the above.
[Appendix 14]
The computer of the imaging device,
A visible light imaging unit that captures a visible light image of a subject with visible light,
An infrared light imaging unit that captures an infrared light image of the subject with infrared light;
A determination unit that determines an exposure time of the visible light imaging unit based on information of the infrared light image obtained by the infrared light imaging unit;
Function as
A program characterized by that.

10…デジタルカメラ
11,12…撮像レンズ部
13…赤外線イメージセンサ
14…(可視光用)イメージセンサ
15,16…A/D変換部
17…画像処理部
18…フラッシュ駆動部
19…音声処理部
20…制御部
21…モニタ表示部
22…メモリカードインタフェイス(I/F)
23…(赤外線(Ir))LED
24…(白色光(W))LED
25…マイクロホン
26…操作部
27…メモリカード
B…バス
CS…カードスロット
DESCRIPTION OF SYMBOLS 10 ... Digital camera 11, 12 ... Imaging lens part 13 ... Infrared image sensor 14 ... (For visible light) Image sensor 15, 16 ... A / D conversion part 17 ... Image processing part 18 ... Flash drive part 19 ... Sound processing part 20 ... Control unit 21 ... Monitor display unit 22 ... Memory card interface (I / F)
23 ... (Infrared (Ir)) LED
24 ... (white light (W)) LED
25 ... Microphone 26 ... Operation unit 27 ... Memory card B ... Bus CS ... Card slot

Claims (14)

可視光で被写体の可視光画像を撮像する可視光撮像部と、
赤外光で前記被写体の赤外光画像を撮像する赤外光撮像部と、
前記赤外光撮像部で得た前記赤外光画像の情報に基づいて前記可視光撮像部の露出時間を決定する決定部と、
を備える、
ことを特徴とする撮像装置。
A visible light imaging unit that captures a visible light image of a subject with visible light;
An infrared light imaging unit that captures an infrared light image of the subject with infrared light;
A determination unit that determines an exposure time of the visible light imaging unit based on information of the infrared light image obtained by the infrared light imaging unit;
Comprising
An imaging apparatus characterized by that.
前記決定部は、前記赤外光撮像部により撮像された前記赤外光画像において前記被写体から輪郭を抽出することができ、前記可視光撮像部により撮像された前記可視光画像において前記被写体の前記輪郭が抽出できなかった場合に、前記赤外光画像の情報に基づいて前記可視光撮像部の露出時間を決定する、
ことを特徴とする請求項1に記載の撮像装置。
The determining unit can extract a contour from the subject in the infrared light image captured by the infrared light imaging unit, and the subject of the subject in the visible light image captured by the visible light imaging unit. When the contour could not be extracted, determine the exposure time of the visible light imaging unit based on the information of the infrared light image,
The imaging apparatus according to claim 1.
前記可視光画像の撮像と前記赤外光画像の撮像とは1回の撮像指示に基づいて同時に実行される、
ことを特徴とする請求項1又は2に記載の撮像装置。
The imaging of the visible light image and the imaging of the infrared light image are performed simultaneously based on one imaging instruction.
The imaging apparatus according to claim 1 or 2, wherein
標準となる被写体に対して、前記赤外光画像を撮像するための赤外光露出時間と、前記赤外光画像と同じ輝度となる前記可視光画像を撮像するための可視光露出時間と、の対応関係を予め取得しておく対応関係取得部と、
前記対応関係取得部により予め取得された対応関係を記録する記録部と、
を更に備え、
前記決定部は、前記赤外光画像の輝度と、前記赤外光露出時間と、前記記録部により読み出された前記対応関係と、から前記可視光露出時間を決定する、
ことを特徴とする請求項1乃至3のいずれか1項に記載の撮像装置。
For a standard subject, an infrared light exposure time for capturing the infrared light image, and a visible light exposure time for capturing the visible light image having the same brightness as the infrared light image, A correspondence acquisition unit that acquires the correspondence of
A recording unit that records the correspondence acquired in advance by the correspondence acquisition unit;
Further comprising
The determining unit determines the visible light exposure time from the brightness of the infrared light image, the infrared light exposure time, and the correspondence read by the recording unit;
The imaging apparatus according to any one of claims 1 to 3, wherein
前記対応関係取得部は、前記対応関係を対応テーブル又は関数式として取得する、
ことを特徴とする請求項4に記載の撮像装置。
The correspondence acquisition unit acquires the correspondence as a correspondence table or a function expression.
The imaging apparatus according to claim 4.
前記対応関係取得部は、前記対応関係を前記標準となる被写体の色温度の複数分割範囲毎に前記対応テーブル又は前記関数式として取得する、
ことを特徴とする請求項5に記載の撮像装置。
The correspondence acquisition unit acquires the correspondence as the correspondence table or the function formula for each of a plurality of division ranges of the color temperature of the subject as a standard.
The imaging apparatus according to claim 5.
前記決定部は、前記可視光撮像部により第1の露出時間で撮像された画像において前記被写体の少なくとも1部が白飛びしており、前記赤外光撮像部により撮像された画像において前記可視光画像で白飛びしている前記被写体の少なくとも1部の輪郭が抽出できる場合に、前記可視光撮像部の露出時間を前記第1の露出時間よりも短く決定する、
ことを特徴とする請求項1乃至6のいずれか1項に記載の撮像装置。
In the image captured by the visible light imaging unit with the first exposure time, at least a part of the subject is blown out, and the determination unit includes the visible light in the image captured by the infrared light imaging unit. Determining the exposure time of the visible light imaging unit to be shorter than the first exposure time when the outline of at least one part of the subject that is white in the image can be extracted;
The image pickup apparatus according to claim 1, wherein the image pickup apparatus is an image pickup apparatus.
前記決定部は、前記可視光撮像部により第2の露出時間で撮像された画像において前記被写体の少なくとも1部が黒つぶれしており、前記赤外光撮像部により撮像された画像において前記可視光画像で黒つぶれしている前記被写体の少なくとも1部の輪郭が抽出できる場合に、前記可視光撮像部の露出時間を前記第2の露出時間よりも長く決定する、
ことを特徴とする請求項1乃至7のいずれか1項に記載の撮像装置。
In the image captured by the visible light imaging unit with the second exposure time, at least a part of the subject is blacked out, and the determining unit includes the visible light in the image captured by the infrared light imaging unit. Determining the exposure time of the visible light imaging unit to be longer than the second exposure time when the contour of at least a part of the subject that is blacked out in the image can be extracted;
The image pickup apparatus according to claim 1, wherein the image pickup apparatus is an image pickup apparatus.
前記決定部により決定された露出時間で、前記可視光撮像部により撮像された複数の前記可視光画像に基づいて、ハイダイナミックレンジ画像を合成する合成部を更に備える、
ことを特徴とする請求項1乃至8のいずれか1項に記載の撮像装置。
And further comprising a combining unit that combines a high dynamic range image based on the plurality of visible light images captured by the visible light imaging unit with the exposure time determined by the determining unit.
The image pickup apparatus according to claim 1, wherein the image pickup apparatus is an image pickup apparatus.
前記合成部は、前記ハイダイナミックレンジ画像を合成する過程で、中間露出の前記可視光画像の輝度成分の分布を示す合成マップ画像を作成する、
ことを特徴とする請求項9に記載の撮像装置。
The synthesizing unit, in the process of synthesizing the high dynamic range image, creates a synthesized map image showing a distribution of luminance components of the visible light image of intermediate exposure;
The imaging apparatus according to claim 9.
前記合成部は、前記合成マップ画像に基づいて前記複数の可視光画像の合成比率を求めて前記ハイダイナミックレンジ画像を合成する、
ことを特徴とする請求項10に記載の撮像装置。
The synthesis unit obtains a synthesis ratio of the plurality of visible light images based on the synthesis map image and synthesizes the high dynamic range image;
The imaging apparatus according to claim 10.
前記合成部は、前記可視光画像中の白飛びしている部分と黒飛びしている部分との間を複数の領域に分割し、前記領域毎に合成比率が段階的に変化するように前記ハイダイナミックレンジ画像を合成する、
ことを特徴とする請求項9に記載の撮像装置。
The synthesizing unit divides a portion between the whiteout portion and the blackout portion in the visible light image into a plurality of regions, and the synthesis ratio is changed stepwise for each region. Compositing high dynamic range images,
The imaging apparatus according to claim 9.
可視光で被写体の可視光画像を撮像する可視光撮像工程と、
赤外光で前記被写体の赤外光画像を撮像する赤外光撮像工程と、
前記赤外光撮像工程で得た前記赤外光画像の情報に基づいて前記可視光撮像工程の露出時間を決定する決定工程と、
を含む、
ことを特徴とする撮像方法。
A visible light imaging step of capturing a visible light image of the subject with visible light;
An infrared imaging step of imaging an infrared image of the subject with infrared light; and
A determination step of determining an exposure time of the visible light imaging step based on information of the infrared light image obtained in the infrared light imaging step;
including,
An imaging method characterized by the above.
撮像装置のコンピュータを、
可視光で被写体の可視光画像を撮像する可視光撮像部、
赤外光で前記被写体の赤外光画像を撮像する赤外光撮像部、
前記赤外光撮像部で得た前記赤外光画像の情報に基づいて前記可視光撮像部の露出時間を決定する決定部、
として機能させる、
ことを特徴とするプログラム。
The computer of the imaging device,
A visible light imaging unit that captures a visible light image of a subject with visible light,
An infrared light imaging unit that captures an infrared light image of the subject with infrared light;
A determination unit that determines an exposure time of the visible light imaging unit based on information of the infrared light image obtained by the infrared light imaging unit;
Function as
A program characterized by that.
JP2017182580A 2017-09-22 2017-09-22 Imaging device, imaging method and program Active JP7039906B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017182580A JP7039906B2 (en) 2017-09-22 2017-09-22 Imaging device, imaging method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017182580A JP7039906B2 (en) 2017-09-22 2017-09-22 Imaging device, imaging method and program

Publications (2)

Publication Number Publication Date
JP2019057887A true JP2019057887A (en) 2019-04-11
JP7039906B2 JP7039906B2 (en) 2022-03-23

Family

ID=66106326

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017182580A Active JP7039906B2 (en) 2017-09-22 2017-09-22 Imaging device, imaging method and program

Country Status (1)

Country Link
JP (1) JP7039906B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110336955A (en) * 2019-07-12 2019-10-15 易诚高科(大连)科技有限公司 A kind of adaptive visible light panoramic shooting system
CN111935423A (en) * 2020-08-02 2020-11-13 珠海市一微半导体有限公司 Method for acquiring depth image data by robot and control system thereof

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11144031A (en) * 1997-11-06 1999-05-28 Fuji Xerox Co Ltd Image reader
JP2004254269A (en) * 2002-12-25 2004-09-09 Iwane Kenkyusho:Kk Highlight suppressed picture photographing apparatus
JP2006180270A (en) * 2004-12-22 2006-07-06 Sony Corp Image processor, imaging device, image processing method, program, and recording medium
JP2014150470A (en) * 2013-02-04 2014-08-21 Hitachi Consumer Electronics Co Ltd Imaging apparatus
US20150097964A1 (en) * 2013-10-08 2015-04-09 Samsung Electronics Co., Ltd. Method of controlling exposure time by using infrared light, computer-readable storage medium having recorded thereon computer program codes for performing the method, and electronic apparatus having photographing function

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11144031A (en) * 1997-11-06 1999-05-28 Fuji Xerox Co Ltd Image reader
JP2004254269A (en) * 2002-12-25 2004-09-09 Iwane Kenkyusho:Kk Highlight suppressed picture photographing apparatus
JP2006180270A (en) * 2004-12-22 2006-07-06 Sony Corp Image processor, imaging device, image processing method, program, and recording medium
JP2014150470A (en) * 2013-02-04 2014-08-21 Hitachi Consumer Electronics Co Ltd Imaging apparatus
US20150097964A1 (en) * 2013-10-08 2015-04-09 Samsung Electronics Co., Ltd. Method of controlling exposure time by using infrared light, computer-readable storage medium having recorded thereon computer program codes for performing the method, and electronic apparatus having photographing function

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110336955A (en) * 2019-07-12 2019-10-15 易诚高科(大连)科技有限公司 A kind of adaptive visible light panoramic shooting system
CN111935423A (en) * 2020-08-02 2020-11-13 珠海市一微半导体有限公司 Method for acquiring depth image data by robot and control system thereof
CN111935423B (en) * 2020-08-02 2023-05-05 珠海一微半导体股份有限公司 Method for acquiring depth image data by robot and control system thereof

Also Published As

Publication number Publication date
JP7039906B2 (en) 2022-03-23

Similar Documents

Publication Publication Date Title
JP5898466B2 (en) Imaging device, control method thereof, and program
US20100225785A1 (en) Image processor and recording medium
JP5186021B2 (en) Imaging apparatus, image processing apparatus, and imaging method
KR20130069039A (en) Display apparatus and method and computer-readable storage medium
JP2012010048A (en) Image signal processing device
US8970764B2 (en) Digital image signal processing apparatus for displaying angle of view information, method of controlling the apparatus, and medium for recording the method
JP2019057887A (en) Imaging apparatus, imaging method, and program
KR20140106221A (en) Photographing method and apparatus using multiple image sensors
JPH07131718A (en) Picture synthesizer
JP2010124147A (en) Video display apparatus, image capturing apparatus, and method of displaying video
KR20130005883A (en) A digital photographing apparatus, a method for controlling the same, and a computer-readable storage medium for performing the method
US8537266B2 (en) Apparatus for processing digital image and method of controlling the same
JP2010273007A (en) Imaging device
US20210400192A1 (en) Image processing apparatus, image processing method, and storage medium
JP5284183B2 (en) Image processing apparatus and method
US11336802B2 (en) Imaging apparatus
JP6157274B2 (en) Imaging apparatus, information processing method, and program
JP2010268134A (en) Imaging device
JP2016208118A (en) Image processing apparatus, image processing method, and program
JP2020092288A (en) Image processing device, image processing method, and program
JP2015126299A (en) Image processing apparatus, control method of the same, and program
JP2019047436A (en) Image processing device, image processing method, image processing program, and imaging device
JP2004350192A (en) Digital camera and its control method
JP6025555B2 (en) Image processing apparatus, image processing method, and program
JP5676972B2 (en) Image processing apparatus, image processing method, image processing program, and storage medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200908

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210727

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210914

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211112

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211130

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220126

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220208

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220221

R150 Certificate of patent or registration of utility model

Ref document number: 7039906

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150