JP4012995B2 - Image capturing apparatus and method - Google Patents

Image capturing apparatus and method Download PDF

Info

Publication number
JP4012995B2
JP4012995B2 JP00822497A JP822497A JP4012995B2 JP 4012995 B2 JP4012995 B2 JP 4012995B2 JP 00822497 A JP00822497 A JP 00822497A JP 822497 A JP822497 A JP 822497A JP 4012995 B2 JP4012995 B2 JP 4012995B2
Authority
JP
Japan
Prior art keywords
light
image
subject
visible light
invisible
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP00822497A
Other languages
Japanese (ja)
Other versions
JPH10210486A (en
Inventor
洋 一木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP00822497A priority Critical patent/JP4012995B2/en
Publication of JPH10210486A publication Critical patent/JPH10210486A/en
Application granted granted Critical
Publication of JP4012995B2 publication Critical patent/JP4012995B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Transforming Light Signals Into Electric Signals (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Color Television Image Signal Generators (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、画像撮像装置および方法に関し、特に、可視光の光軸と同一の光軸で、不可視光の画像を得ることができるようにした画像撮像装置および方法に関する。
【0002】
【従来の技術】
例えば、森などにおいて、そこに生活する動物をビデオカメラで撮影し、観測する場合、所定の位置に餌を配置し、その餌を食べる動物を撮影することができる位置にビデオカメラを配置する。そして、そのビデオカメラにより、無人の状態で連続的に撮影を行う。このようにすると、その餌を動物が食べに来たとき、その動物が餌を食べるときの様子を撮影することができる。
【0003】
しかしながら、無人の状態で、撮影を連続的に行うようにするため、ほとんどの画像は、動物が撮影されていない無駄な画像となってしまうことになる。
【0004】
そこで、例えば、画像に動きがあったとき、画像の記録を開始するようにすることができる。このようにすれば、一般的に、動物は動き回るので、動物を確実に、効率的に撮影することができる。
【0005】
しかしながら、動きを検出して、画像の記録を開始するようにすると、例えば、風などにより、木々が揺れたり、落ち葉が飛んだような場合にも、記録が行われてしまうようなことがある。
【0006】
そこで、例えば、赤外線ビデオカメラを用いることも考えられる。しかしながら、赤外線ビデオカメラで撮像した画像は、通常の可視光による画像に較べて不鮮明であり、被写体を子細に観察することが困難となる。
【0007】
このようなことから、可視光によるビデオカメラと赤外線ビデオカメラの2台を用意し、赤外線ビデオカメラで動物が撮像されたとき、可視光のビデオカメラで動物の画像の記録を開始するようにすることも考えられる。
【0008】
【発明が解決しようとする課題】
しかしながら、このように、赤外線ビデオカメラと可視光のビデオカメラとを用いるようにすると、両者の光軸が異なり、正確に対応する画像を取り込むことが困難である課題があった。
【0009】
本発明はこのような状況に鑑みてなされたものであり、同一の光軸上の可視光の画像と不可視光の画像とを取り込むことができるようにするものである。
【0010】
【課題を解決するための手段】
請求項1に記載の画像撮像装置は、赤外線又は紫外線を不可視光として被写体に照射する不可視光照射手段と、入射された光から、可視光と不可視光とを分離する分離手段と、分離された可視光を受光する可視光受光手段と、分離された不可視光を受光する不可視光受光手段と、前記可視光受光手段と不可視光受光手段より出力された画像信号を出力する出力手段と、前記不可視光の画像信号から被写体の位置を判定し、前記被写体の位置に対応する前記可視光の画像信号から、前記被写体が登録されている被写体かどうかを判定する処理手段とを備えることを特徴とする。
【0011】
請求項2に記載の画像撮像方法は、赤外線又は紫外線を不可視光として被写体に照射する不可視光照射ステップと、入射された光から、可視光と不可視光とを分離する分離ステップと、分離された可視光を受光する可視光受光ステップと、分離された不可視光を受光する不可視光受光ステップと、前記可視光受光ステップと不可視光受光ステップで受光された結果得られた画像信号を出力する出力ステップと、前記不可視光の画像信号から被写体の位置を判定し、前記被写体の位置に対応する前記可視光の画像信号から、前記被写体が登録されている被写体かどうかを判定するステップとを備えることを特徴とする。
【0012】
請求項1に記載の画像撮像装置および請求項に記載の画像撮像方法においては、入射された光から、可視光と不可視光が分離される。そして、分離された可視光と不可視光がそれぞれ受光され、対応する画像信号が出力され、不可視光の画像信号から被写体の位置が判定され、被写体の位置に対応する可視光の画像信号から、被写体が登録されている被写体かどうかが判定される。
【0013】
【発明の実施の形態】
以下に本発明の実施の形態を説明するが、特許請求の範囲に記載の発明の各手段と以下の実施の形態との対応関係を明らかにするために、各手段の後の括弧内に、対応する実施の形態(但し一例)を付加して本発明の特徴を記述すると、次のようになる。但し勿論この記載は、各手段を記載したものに限定することを意味するものではない。
【0014】
請求項1に記載の画像撮像装置は、赤外線又は紫外線を不可視光として被写体に照射する不可視光照射手段(例えば、図1の赤外線照射装置21)と、入射された光から、可視光と不可視光とを分離する分離手段(例えば、図1のコールドミラー11)と、分離された可視光を受光する可視光受光手段(例えば、図1のCCD15,16,17)と、分離された不可視光を受光する不可視光受光手段(例えば、図1のCCD14)と、可視光受光手段と不可視光受光手段より出力された画像信号を出力する出力手段(例えば、図1の符号化器18)と、不可視光の画像信号から被写体の位置を判定し、被写体の位置に対応する可視光の画像信号から、被写体が登録されている被写体かどうかを判定する処理手段(例えば、図1の処理装置2)を備えることを特徴とする。
【0016】
図1は、本発明の画像撮像装置の構成例を示すブロック図である。この画像撮像装置は、基本的に、撮像部1と赤外線照射装置21とにより構成されている。赤外線照射装置21は、赤外線発生装置31とスリット光生成装置32とにより構成されている。赤外線発生装置31は、赤外線を発生し、スリット光生成装置32に入射させる。スリット光生成装置32は、赤外線発生装置31より入射された赤外線を、そのまま被写体に向けて照射するか、あるいは、所定のパターンに対応するスリット光に変換して、被写体に照射するようになされている。
【0017】
撮像部1には、被写体からの光がコールドミラー11に入射されるようになされている。コールドミラー11は、入射された光から、不可視光としての赤外線と可視光とを分離し、赤外線を反射して、CCD14に入射させるようになされている。コールドミラー11を透過した可視光は、ダイクロイックミラー12に入射されるようになされている。ダイクロイックミラー12は、入射された可視光から、赤の光の成分を反射し、CCD15に入射させるとともに、赤の成分より波長の短い成分を透過して、後段のダイクロイックミラー13に入射させるようになされている。
【0018】
ダイクロイックミラー13は、入射された可視光のうち、波長の長い緑の成分を反射し、CDD16に入射させるとともに、緑の成分より波長の短い青の成分を透過し、CCD17に入射させるようになされている。
【0019】
CCD14乃至17は、それぞれ入射された光に対応する画像信号を生成し、符号化器18に出力している。符号化器18は、入力された画像信号をD/A変換し、さらに所定の符号に符号化し、例えばパーソナルコンピュータなどにより構成される処理装置2に出力するようになされている。処理装置2は、入力された画像データを処理するとともに、その画像データをモニタ3に出力し、表示させるようになされている。
【0020】
次に、図2のフローチャートを参照して、例えば、この画像撮像装置を監視システムに用いた場合の処理動作について説明する。
【0021】
最初に、ステップS1において、赤外線画像を取り込む処理が実行される。すなわち、赤外線照射装置21の赤外線発生装置31は、赤外線を発生する。スリット光生成装置32は、いまの場合、赤外線発生装置31より出射された赤外線を、そのまま(スリット光にせず)被写体に向けて(監視すべき位置に向けて)照射する。
【0022】
被写体(監視すべき位置)からの光は、撮像部1に入射される。撮像部1への入射光のうち、赤外線は、コールドミラー11により反射され、CCD14に入射される。CCD14は、入射された赤外線の画像を光電変換し、画像信号に変換して、符号化器18に出力する。符号化器18は、入力された画像信号を符号化し、処理装置2に出力する。いま、例えば、監視すべき位置に人がいる場合には、例えば図3に示すような赤外線画像が処理装置2に取り込まれる。
【0023】
次に、ステップS2において、処理装置2は、被写体の顔の位置を判定する処理を行う。すなわち、赤外線による画像は、温度の高い部分と温度の低い部分との境界が、比較的鮮明に区分された画像となる。人の顔(人体)は、周囲の壁などに較べて温度が高いため、処理装置2は、この赤外線画像から、人の顔の位置を、周囲の壁などの画像と容易かつ明確に識別することができる。
【0024】
次に、ステップS3に進み、処理装置2は、可視光画像を取り込む処理を実行する。すなわち、被写体からの光のうち、可視光は、コールドミラー11を透過し、ダイクロイックミラー12に入射される。入射された可視光のうち、赤の成分は、ダイクロイックミラー12で反射され、CCD15に入射される。また、赤の成分より波長の短い緑の成分と青の成分は、ダイクロイックミラー12を透過し、ダイクロイックミラー13に入射される。そして、ダイクロイックミラー13は、緑の成分を反射して、CCD16に入射させ、青の成分を透過して、CCD17に入射させる。CCD15,16,17より出力された、それぞれ赤、緑および青の成分の画像信号は、符号化器18に入力され、符号化される。そして、符号化されたR,G,Bの画像データが、それぞれ処理装置2に供給される。これにより、例えば図4に示すような可視光の画像が処理装置2に取り込まれる。
【0025】
この図4に示す可視光の画像は、図3に示す赤外線の画像と同一の光軸上の画像であるから、両者の画像は、正確に対応した画像となっている。そこで、処理装置2は、ステップS4に進み、ステップS3で取り込んだ可視光の画像から、人物判定処理を実行する。すなわち、処理装置2は、ステップS2の判定処理で、顔(人体)の画像と判定された画素に対応する可視光の画素による画像を、予め登録されているデータベース上の顔の画像と比較し、いま取り込まれた画像が、どの人物の画像であるのかを判定する。そして、例えば、いま取り込まれた画像がデータベース上に登録されている人物の画像である場合には、ドアのロックを解除するなどの処理を行う。いま取り込まれた画像がデータベース上に登録されていない人物の画像である場合には、その画像を記憶するが、ドアのロックは解除しないようにする。
【0026】
なお、ステップS3における可視光の画像取り込み処理は、ステップS1における赤外線の画像の取り込み処理と、実際には同一のタイミングで取り込むことが可能である。
【0027】
次に、図5のフローチャートを参照して、画像を合成する場合の処理例について説明する。最初に、ステップS11において、処理装置2は、赤外線画像を取り込む処理を実行する。この処理は、図2のステップS1における場合と同様の処理となる。このようにして、例えば、図6に示すように、遠くの山を背景にした人物の赤外線画像が取り込まれる。但し、このとき、赤外線照射装置21のスリット光生成装置32は、赤外線発生装置31より発生された赤外線を所定のパターンのスリット光にして、被写体に照射する。処理装置2は、このようにして、所定のパターンのスリット光に基づく画像を取り込んだとき、例えば、時系列空間コード化法あるいはスキャン式符号化法に基づいて、各画像の各画素の撮像部1からの距離を演算する。この距離の演算方法については、例えば「電子情報通信学会論文誌D−II Vol.J76−D−II No.8 pp.1528−1535 1993年8月」に、「スキャン式符号化法による小型高速レンジファインダ」として紹介されている。
【0028】
次に、ステップS12に進み、処理装置2は、各画素の撮像部1からの距離をヒストグラムにする処理を実行する。これにより、例えば図7に示すようなヒストグラムが作成される。
【0029】
図7に示すヒストグラムは、図6に示す画像の各画素のヒストグラムであるから、各画素は、撮像部1に近い位置に位置する人物の画像(前景)の画素と、遠い位置に位置する山の画像(背景)とに大きく分類される。処理装置2は、ステップS13において、例えば図7において、距離LRより近い位置の画像を前景の画素として分離し、それより遠い位置の画素を背景の画素として分離する。
【0030】
以上のようにして、前景と背景が分離されたとき、ステップS14に進み、処理装置2は、画像を合成する処理を実行する。例えば、図8に示すように、前景(人物)と背景(山)の間に、木の画像を配置合成する処理を行う。このように合成された画像においては、木は、山より前に位置するため、木の後方の山の画像の一部は、木により隠れるように処理され、木の画像の一部は、それより前に位置する人物の画像により、その一部が隠れるように処理される。
【0031】
図9は、さらに他の処理例を表している。この図9のフローチャートにおけるステップS21乃至S23の処理は、図5のステップS11乃至S13の処理と同様の処理であるので、その説明は省略する。すなわち、これらの処理により、図5における場合と同様に、前景と背景を分離する。
【0032】
次に、ステップS24に進み、処理装置2は、背景を基準にして、手振れ補正処理を実行する。すなわち、例えば図6に示すような画像を取り込んでいる場合には、背景としての山に着目して、手振れがあったか否かを判定する。そして、手振れがあったと判定された場合には、それに対応する補正処理を行う。その結果、背景と前景の面積比が手振れ補正に影響を与えることが少なくなり、手振れを正確に補正することが可能となる。
【0033】
また、背景までの距離に応じた処理を選択することにより、さらに正確に手振れを補正することが可能となる。
【0034】
この他、撮像部1における画角、画面上の所定の2点間の距離、およびその2点の撮像部1からの距離から、撮像した被写体の実際の大きさを演算することができる。その結果、例えば、モニタ3の実際の大きさがわかれば、モニタ3に対して、実物大で被写体を表示させることができる。これにより、例えば、テレビショッピングやインターネットなどを介した通信販売において、視聴者に対して実際の商品を実物大で表示し、よりリアリティに富んだ情報を視聴者に提供することが可能となる。
【0035】
なお、このとき、撮影時に、撮影者は、視聴者の見ている画面の大きさを考慮する必要は全くない。
【0036】
さらに、各画素毎の撮像部1からの距離をより精密に測定することにより、被写体の立体的な形状を処理装置2に取り込むことができる。これにより、例えば、コンピュータグラフィックスやバーチャルリアリティの空間において、被写体を表示させることができる。
【0037】
なお、上記実施の形態においては、時系列空間コード化法あるいはスキャン式符号化法により距離を測定するようにしたが、その他の方法により距離を測定することも可能である。
【0038】
また、不可視光としては、赤外線以外に、紫外線を用いることも可能である。
【0039】
この他、本発明は、可視光の画像の被写体の温度をリアルタイムで計測したり、応力を計測したり、動体を効率的に記録したり、危険物を察知したりする場合に適用することができる。
【0040】
【発明の効果】
以上の如く、請求項1に記載の画像撮像装置および請求項に記載の画像撮像方法によれば、入射された光から、可視光と不可視光を分離し、それぞれを受光して、対応する画像信号を出力するようにしたので、同一の光軸の可視光と不可視光の画像を取り込むことが可能となる。
【図面の簡単な説明】
【図1】本発明の画像撮像装置の構成例を示すブロック図である。
【図2】図1の画像撮像装置の処理例を示すフローチャートである。
【図3】赤外線画像を説明する図である。
【図4】可視光画像を説明する図である。
【図5】図1の画像撮像装置の他の処理例を示すフローチャートである。
【図6】前景と背景を説明する図である。
【図7】前景と背景のヒストグラムを説明する図である。
【図8】画像の合成を説明する図である。
【図9】図1の画像撮像装置のさらに他の処理例を示すフローチャートである。
【符号の説明】
1 撮像部, 2 処理装置, 3 モニタ, 11 コールドミラー, 12,13 ダイクロイックミラー, 14乃至17 CCD, 18 符号化器, 21 赤外線照射装置, 31 赤外線発生装置, 32 スリット光生成装置
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to an image capturing apparatus and method, and more particularly, to an image capturing apparatus and method capable of obtaining an invisible light image with the same optical axis as that of visible light.
[0002]
[Prior art]
For example, when photographing and observing animals living in a forest or the like with a video camera, food is arranged at a predetermined position, and the video camera is arranged at a position where an animal that eats the food can be photographed. The video camera continuously shoots in an unattended state. In this way, when the animal comes to eat the food, it is possible to photograph the situation when the animal eats the food.
[0003]
However, since shooting is continuously performed in an unattended state, most images are useless images in which animals are not shot.
[0004]
Therefore, for example, when there is a motion in the image, it is possible to start recording the image. In this way, since the animal generally moves around, the animal can be photographed reliably and efficiently.
[0005]
However, if motion is detected and image recording is started, recording may occur even when trees are shaken or fallen leaves are flying due to wind, for example. .
[0006]
Therefore, for example, it is conceivable to use an infrared video camera. However, an image captured by an infrared video camera is unclear compared to a normal visible light image, and it is difficult to observe the subject in detail.
[0007]
For this reason, two cameras, a visible light video camera and an infrared video camera, are prepared, and when an animal is imaged by the infrared video camera, recording of the animal image is started by the visible light video camera. It is also possible.
[0008]
[Problems to be solved by the invention]
However, when an infrared video camera and a visible light video camera are used as described above, there is a problem that the optical axes of the two are different and it is difficult to accurately capture the corresponding image.
[0009]
The present invention has been made in view of such a situation, and makes it possible to capture a visible light image and an invisible light image on the same optical axis.
[0010]
[Means for Solving the Problems]
The image pickup apparatus according to claim 1 is separated from invisible light irradiation means for irradiating a subject with infrared or ultraviolet light as invisible light, and separation means for separating visible light and invisible light from incident light. Visible light receiving means for receiving visible light; invisible light receiving means for receiving separated invisible light; output means for outputting image signals output from the visible light receiving means and invisible light receiving means; Processing means for determining a position of a subject from a light image signal and determining whether the subject is a registered subject from the visible light image signal corresponding to the position of the subject. .
[0011]
The image capturing method according to claim 2, wherein an invisible light irradiation step of irradiating a subject with infrared or ultraviolet light as invisible light, and a separation step of separating visible light and invisible light from incident light are separated. A visible light receiving step for receiving visible light, an invisible light receiving step for receiving separated invisible light, and an output step for outputting an image signal obtained as a result of receiving the visible light and the invisible light receiving step. And determining a position of a subject from the invisible light image signal, and determining whether the subject is a registered subject from the visible light image signal corresponding to the position of the subject. Features.
[0012]
In the image capturing apparatus according to claim 1 and the image capturing method according to claim 2 , visible light and invisible light are separated from incident light. The separated visible light and invisible light are respectively received, the corresponding image signal is output , the position of the subject is determined from the invisible light image signal, and the subject is determined from the visible light image signal corresponding to the position of the subject. but whether or not the subject has been registered Ru is determined.
[0013]
DETAILED DESCRIPTION OF THE INVENTION
Embodiments of the present invention will be described below, but in order to clarify the correspondence between each means of the invention described in the claims and the following embodiments, in parentheses after each means, The features of the present invention will be described with the corresponding embodiment (however, an example) added. However, of course, this description does not mean that each means is limited to the description.
[0014]
The image pickup apparatus according to claim 1 is configured to irradiate a subject with infrared or ultraviolet light as invisible light (for example, the infrared irradiation device 21 in FIG. 1), and from incident light, visible light and invisible light. Separating means (for example, the cold mirror 11 in FIG. 1), visible light receiving means for receiving the separated visible light (for example, the CCDs 15, 16, and 17 in FIG. 1), and the separated invisible light. Invisible light receiving means for receiving light (for example, the CCD 14 in FIG. 1), output means for outputting image signals output from the visible light receiving means and the invisible light receiving means (for example, the encoder 18 in FIG. 1), and invisible Processing means for determining the position of the subject from the light image signal and determining whether the subject is a registered subject from the visible light image signal corresponding to the position of the subject (for example, the processing device 2 in FIG. 1) Characterized in that it comprises.
[0016]
FIG. 1 is a block diagram illustrating a configuration example of an image pickup apparatus of the present invention. This image pickup apparatus basically includes an image pickup unit 1 and an infrared irradiation device 21. The infrared irradiation device 21 includes an infrared generation device 31 and a slit light generation device 32. The infrared generator 31 generates infrared light and makes it incident on the slit light generator 32. The slit light generation device 32 is configured to irradiate the subject with the infrared light incident from the infrared generation device 31 as it is, or convert it into slit light corresponding to a predetermined pattern and irradiate the subject. Yes.
[0017]
Light from the subject is incident on the cold mirror 11 in the imaging unit 1. The cold mirror 11 separates infrared light and visible light as invisible light from incident light, reflects the infrared light, and enters the CCD 14. Visible light transmitted through the cold mirror 11 is incident on the dichroic mirror 12. The dichroic mirror 12 reflects the red light component from the incident visible light so as to be incident on the CCD 15 and transmits the component having a shorter wavelength than the red component so as to be incident on the subsequent dichroic mirror 13. Has been made.
[0018]
The dichroic mirror 13 reflects the green component having a longer wavelength in the incident visible light and makes it incident on the CDD 16 and transmits the blue component having a shorter wavelength than the green component and makes it incident on the CCD 17. ing.
[0019]
The CCDs 14 to 17 generate image signals corresponding to the incident light, respectively, and output them to the encoder 18. The encoder 18 performs D / A conversion on the inputted image signal, further encodes it into a predetermined code, and outputs it to the processing device 2 constituted by, for example, a personal computer. The processing device 2 processes input image data and outputs the image data to the monitor 3 for display.
[0020]
Next, with reference to a flowchart of FIG. 2, for example, a processing operation when this image pickup apparatus is used in a monitoring system will be described.
[0021]
First, in step S1, processing for capturing an infrared image is executed. That is, the infrared generator 31 of the infrared irradiation device 21 generates infrared rays. In this case, the slit light generating device 32 irradiates the infrared light emitted from the infrared light generating device 31 as it is (not to the slit light) toward the subject (to the position to be monitored).
[0022]
Light from the subject (position to be monitored) enters the imaging unit 1. Of the incident light to the imaging unit 1, infrared light is reflected by the cold mirror 11 and is incident on the CCD 14. The CCD 14 photoelectrically converts the incident infrared image, converts it into an image signal, and outputs it to the encoder 18. The encoder 18 encodes the input image signal and outputs it to the processing device 2. For example, when a person is present at a position to be monitored, an infrared image as shown in FIG.
[0023]
Next, in step S2, the processing device 2 performs processing for determining the position of the face of the subject. That is, the infrared image is an image in which the boundary between the high temperature portion and the low temperature portion is relatively clearly divided. Since the temperature of the human face (human body) is higher than that of the surrounding wall, the processing device 2 easily and clearly identifies the position of the human face from the image of the surrounding wall from the infrared image. be able to.
[0024]
Next, it progresses to step S3 and the processing apparatus 2 performs the process which takes in a visible light image. That is, of the light from the subject, visible light passes through the cold mirror 11 and enters the dichroic mirror 12. Of the incident visible light, the red component is reflected by the dichroic mirror 12 and is incident on the CCD 15. Further, the green component and the blue component having a wavelength shorter than that of the red component are transmitted through the dichroic mirror 12 and are incident on the dichroic mirror 13. The dichroic mirror 13 reflects the green component to enter the CCD 16, transmits the blue component, and enters the CCD 17. The image signals of red, green and blue components output from the CCDs 15, 16 and 17 are input to the encoder 18 and encoded. The encoded R, G, B image data is supplied to the processing device 2. Thereby, for example, an image of visible light as shown in FIG.
[0025]
The visible light image shown in FIG. 4 is an image on the same optical axis as that of the infrared image shown in FIG. 3, and thus both images are precisely corresponding images. Therefore, the processing device 2 proceeds to step S4, and executes a person determination process from the visible light image captured in step S3. That is, the processing device 2 compares the image of the visible light pixel corresponding to the pixel determined as the face (human body) image with the face image on the pre-registered database in the determination process of step S2. Then, it is determined which person's image is the currently captured image. For example, when the image that has been captured is an image of a person registered in the database, processing such as unlocking the door is performed. If the captured image is an image of a person not registered in the database, the image is stored, but the door is not unlocked.
[0026]
The visible light image capturing process in step S3 can actually be captured at the same timing as the infrared image capturing process in step S1.
[0027]
Next, an example of processing when images are combined will be described with reference to the flowchart of FIG. First, in step S11, the processing device 2 executes processing for capturing an infrared image. This process is the same as that in step S1 of FIG. In this way, for example, as shown in FIG. 6, an infrared image of a person against a background of a distant mountain is captured. However, at this time, the slit light generation device 32 of the infrared irradiation device 21 irradiates the subject with the infrared light generated by the infrared generation device 31 as slit light having a predetermined pattern. When the processing device 2 thus captures an image based on a predetermined pattern of slit light, for example, based on a time-series spatial encoding method or a scanning encoding method, the imaging unit for each pixel of each image The distance from 1 is calculated. The calculation method of this distance is described in, for example, “Small and High-Speed by Scanning Coding Method” in “The Institute of Electronics, Information and Communication Engineers Journal D-II Vol. J76-D-II No. 8 pp. It is introduced as a “range finder”.
[0028]
Next, it progresses to step S12 and the processing apparatus 2 performs the process which makes the distance from the imaging part 1 of each pixel a histogram. Thereby, for example, a histogram as shown in FIG. 7 is created.
[0029]
Since the histogram shown in FIG. 7 is a histogram of each pixel of the image shown in FIG. 6, each pixel is a pixel of a person image (foreground) located at a position close to the imaging unit 1 and a mountain located at a distant position. Image (background). In step S13, for example, in FIG. 7, the processing device 2 separates an image at a position closer than the distance L R as a foreground pixel, and separates a pixel at a position farther away as a background pixel.
[0030]
When the foreground and the background are separated as described above, the process proceeds to step S14, and the processing device 2 executes a process for synthesizing images. For example, as shown in FIG. 8, a process of arranging and synthesizing a tree image between the foreground (person) and the background (mountain) is performed. In the image synthesized in this way, the tree is located in front of the mountain, so a part of the image of the mountain behind the tree is processed so as to be hidden by the tree, and a part of the image of the tree is Processing is performed so that a part of the image is hidden by the image of the person positioned in front of the image.
[0031]
FIG. 9 shows still another processing example. The processing in steps S21 to S23 in the flowchart of FIG. 9 is the same as the processing in steps S11 to S13 in FIG. That is, by these processes, the foreground and the background are separated as in the case of FIG.
[0032]
Next, proceeding to step S24, the processing device 2 executes a camera shake correction process based on the background. That is, for example, when an image as shown in FIG. 6 is taken in, it is determined whether or not there is a camera shake by paying attention to a mountain as a background. When it is determined that there is a camera shake, a correction process corresponding to the camera shake is performed. As a result, the area ratio between the background and the foreground is less likely to affect the camera shake correction, and the camera shake can be accurately corrected.
[0033]
Further, by selecting a process according to the distance to the background, it is possible to correct camera shake more accurately.
[0034]
In addition, the actual size of the imaged subject can be calculated from the angle of view in the image capturing unit 1, the distance between two predetermined points on the screen, and the distance from the two image capturing units 1. As a result, for example, if the actual size of the monitor 3 is known, the subject can be displayed on the monitor 3 in actual size. As a result, for example, in online shopping via TV shopping or the Internet, it is possible to display actual products to the viewer in actual size and to provide viewers with more realistic information.
[0035]
At this time, at the time of shooting, the photographer need not consider the size of the screen viewed by the viewer.
[0036]
Furthermore, the three-dimensional shape of the subject can be taken into the processing device 2 by measuring the distance from the imaging unit 1 for each pixel more precisely. Thereby, for example, a subject can be displayed in a space of computer graphics or virtual reality.
[0037]
In the above embodiment, the distance is measured by the time-series space coding method or the scan-type coding method, but the distance can also be measured by other methods.
[0038]
Further, as the invisible light, ultraviolet rays can be used in addition to infrared rays.
[0039]
In addition, the present invention can be applied to the case where the temperature of a subject in a visible light image is measured in real time, the stress is measured, a moving object is efficiently recorded, or a dangerous object is detected. it can.
[0040]
【The invention's effect】
As described above, according to the image pickup device of claim 1 and the image pickup method of claim 2 , visible light and invisible light are separated from incident light, and each is received and corresponding. Since the image signal is output, it is possible to capture images of visible light and invisible light having the same optical axis.
[Brief description of the drawings]
FIG. 1 is a block diagram illustrating a configuration example of an image pickup apparatus of the present invention.
FIG. 2 is a flowchart illustrating a processing example of the image capturing apparatus in FIG. 1;
FIG. 3 is a diagram illustrating an infrared image.
FIG. 4 is a diagram illustrating a visible light image.
FIG. 5 is a flowchart illustrating another example of processing of the image capturing apparatus in FIG. 1;
FIG. 6 is a diagram illustrating a foreground and a background.
FIG. 7 is a diagram for explaining foreground and background histograms;
FIG. 8 is a diagram for explaining image composition;
FIG. 9 is a flowchart illustrating still another processing example of the image capturing apparatus in FIG. 1;
[Explanation of symbols]
DESCRIPTION OF SYMBOLS 1 Image pick-up part, 2 Processing apparatus, 3 Monitor, 11 Cold mirror, 12, 13 Dichroic mirror, 14 thru | or 17 CCD, 18 Encoder, 21 Infrared irradiation apparatus, 31 Infrared generator, 32 Slit light generation apparatus

Claims (2)

赤外線又は紫外線を不可視光として被写体に照射する不可視光照射手段と、
入射された光から、可視光と不可視光とを分離する分離手段と、
分離された可視光を受光する可視光受光手段と、
分離された不可視光を受光する不可視光受光手段と、
前記可視光受光手段と不可視光受光手段より出力された画像信号を出力する出力手段と、
前記不可視光の画像信号から被写体の位置を判定し、前記被写体の位置に対応する前記可視光の画像信号から、前記被写体が登録されている被写体かどうかを判定する処理手段と
を備えることを特徴とする画像撮像装置。
Invisible light irradiation means for irradiating a subject with infrared or ultraviolet light as invisible light ;
Separation means for separating visible light and invisible light from incident light;
Visible light receiving means for receiving the separated visible light;
Invisible light receiving means for receiving the separated invisible light; and
An output means for outputting an image signal output from the visible light receiving means and the invisible light receiving means;
Processing means for determining a position of a subject from the invisible light image signal and determining whether the subject is a registered subject from the visible light image signal corresponding to the position of the subject. An image pickup apparatus.
赤外線又は紫外線を不可視光として被写体に照射する不可視光照射ステップと、
入射された光から、可視光と不可視光とを分離する分離ステップと、
分離された可視光を受光する可視光受光ステップと、
分離された不可視光を受光する不可視光受光ステップと、
前記可視光受光ステップと不可視光受光ステップで受光された結果得られた画像信号を出力する出力ステップと、
前記不可視光の画像信号から被写体の位置を判定し、前記被写体の位置に対応する前記可視光の画像信号から、前記被写体が登録されている被写体かどうかを判定するステップと
を備えることを特徴とする画像撮像方法。
An invisible light irradiation step of irradiating the subject with infrared or ultraviolet light as invisible light ;
A separation step of separating visible light and invisible light from incident light;
A visible light receiving step for receiving the separated visible light;
An invisible light receiving step for receiving the separated invisible light;
An output step of outputting an image signal obtained as a result of light reception in the visible light reception step and the invisible light reception step;
Determining the position of a subject from the invisible light image signal, and determining whether the subject is a registered subject from the visible light image signal corresponding to the position of the subject. Image capturing method.
JP00822497A 1997-01-21 1997-01-21 Image capturing apparatus and method Expired - Fee Related JP4012995B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP00822497A JP4012995B2 (en) 1997-01-21 1997-01-21 Image capturing apparatus and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP00822497A JP4012995B2 (en) 1997-01-21 1997-01-21 Image capturing apparatus and method

Publications (2)

Publication Number Publication Date
JPH10210486A JPH10210486A (en) 1998-08-07
JP4012995B2 true JP4012995B2 (en) 2007-11-28

Family

ID=11687215

Family Applications (1)

Application Number Title Priority Date Filing Date
JP00822497A Expired - Fee Related JP4012995B2 (en) 1997-01-21 1997-01-21 Image capturing apparatus and method

Country Status (1)

Country Link
JP (1) JP4012995B2 (en)

Families Citing this family (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11143031A (en) * 1997-11-11 1999-05-28 Konica Corp Visible image output method using non-visible image information and visible image forming method
DE19924167B4 (en) * 1999-05-26 2006-05-24 Daimlerchrysler Ag Apparatus for reproducing color images
JP4658787B2 (en) * 2000-02-21 2011-03-23 シャープ株式会社 Image synthesizer
KR100373818B1 (en) * 2000-08-01 2003-02-26 삼성전자주식회사 Real size display system
US8139141B2 (en) * 2004-01-28 2012-03-20 Microsoft Corporation Single chip red, green, blue, distance (RGB-Z) sensor
WO2006014974A2 (en) * 2004-07-26 2006-02-09 Automotive Systems Laboratory, Inc. Vulnerable road user protection system
US7456384B2 (en) 2004-12-10 2008-11-25 Sony Corporation Method and apparatus for acquiring physical information, method for manufacturing semiconductor device including array of plurality of unit components for detecting physical quantity distribution, light-receiving device and manufacturing method therefor, and solid-state imaging device and manufacturing method therefor
JP4561400B2 (en) * 2005-02-24 2010-10-13 オムロン株式会社 Monitoring device
JP4839632B2 (en) * 2005-02-25 2011-12-21 ソニー株式会社 Imaging device
JP4984634B2 (en) 2005-07-21 2012-07-25 ソニー株式会社 Physical information acquisition method and physical information acquisition device
JP2007043579A (en) * 2005-08-04 2007-02-15 Advanced Telecommunication Research Institute International Object identification system and detection apparatus
JP4855192B2 (en) 2006-09-14 2012-01-18 富士フイルム株式会社 Image sensor and digital camera
KR100802525B1 (en) 2007-04-27 2008-02-13 주식회사 세다스미디어 Real time multi band camera
KR101441589B1 (en) 2008-10-07 2014-09-29 삼성전자 주식회사 Apparatus for combining visible images and far-infrared images optically
JP4702441B2 (en) 2008-12-05 2011-06-15 ソニー株式会社 Imaging apparatus and imaging method
KR102282218B1 (en) * 2015-01-30 2021-07-26 삼성전자주식회사 Imaging Optical System for 3D Image Acquisition Apparatus, and 3D Image Acquisition Apparatus Including the Imaging Optical system
CN105988215B (en) * 2015-02-15 2020-03-06 宁波舜宇光电信息有限公司 Multispectral module imaging system and manufacturing method and application thereof
JP2017139286A (en) 2016-02-02 2017-08-10 ソニー株式会社 Imaging element and camera system
CN107979723A (en) * 2017-11-30 2018-05-01 信利光电股份有限公司 A kind of method of camera imaging, system and its component
CN107861242B (en) * 2017-12-20 2019-07-05 嘉兴中润光学科技有限公司 Imaging system with multisensor
EP3962062A1 (en) * 2020-06-28 2022-03-02 Baidu Online Network Technology (Beijing) Co., Ltd Photographing method and apparatus, electronic device, and storage medium

Also Published As

Publication number Publication date
JPH10210486A (en) 1998-08-07

Similar Documents

Publication Publication Date Title
JP4012995B2 (en) Image capturing apparatus and method
CN108965732B (en) Image processing method, image processing device, computer-readable storage medium and electronic equipment
JP5545016B2 (en) Imaging device
CN109196850B (en) Image pickup apparatus and image pickup system
CN108052878B (en) Face recognition device and method
TWI311286B (en)
US9491440B2 (en) Depth-sensing camera system
WO2021073140A1 (en) Monocular camera, and image processing system and image processing method
US20090058878A1 (en) Method for displaying adjustment images in multi-view imaging system, and multi-view imaging system
JP2004181233A (en) Method of deciding major area of image and program thereof
JP2017011634A (en) Imaging device, control method for the same and program
US10268108B2 (en) Function enhancement device, attaching/detaching structure for function enhancement device, and function enhancement system
WO2014046184A1 (en) Device and method for measuring distances of multiple subjects
CN109190533B (en) Image processing method and device, electronic equipment and computer readable storage medium
US20220137555A1 (en) System and method for lightfield capture
KR101455071B1 (en) Method for enhancing night time image using digital compositing
JP2004219277A (en) Method and system, program, and recording medium for detection of human body
CN111783563A (en) Double-spectrum-based face snapshot and monitoring method, system and equipment
JP2005229317A (en) Image display system and imaging device
JP2006197034A (en) Image recognition system, imaging apparatus, and image recognition method
CN108449547B (en) Method for controlling a night vision system, storage medium and processor
KR20160129168A (en) Method for enhancing night time image using digital compositing
JPH0437383A (en) Method and apparatus for picture synthesis
CN111800605A (en) Gun-ball linkage based vehicle shape and license plate transmission method, system and equipment
JP2004350192A (en) Digital camera and its control method

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20051228

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060222

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070302

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070501

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20070815

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20070828

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100921

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100921

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100921

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110921

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110921

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120921

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120921

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130921

Year of fee payment: 6

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees