JP2024053482A - Imaging system, imaging method, and program - Google Patents
Imaging system, imaging method, and program Download PDFInfo
- Publication number
- JP2024053482A JP2024053482A JP2022159796A JP2022159796A JP2024053482A JP 2024053482 A JP2024053482 A JP 2024053482A JP 2022159796 A JP2022159796 A JP 2022159796A JP 2022159796 A JP2022159796 A JP 2022159796A JP 2024053482 A JP2024053482 A JP 2024053482A
- Authority
- JP
- Japan
- Prior art keywords
- image signal
- image
- imaging
- distance
- exposure time
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000003384 imaging method Methods 0.000 title claims abstract description 117
- 238000000034 method Methods 0.000 claims abstract description 38
- 230000015572 biosynthetic process Effects 0.000 claims abstract description 23
- 238000003786 synthesis reaction Methods 0.000 claims abstract description 23
- 230000010365 information processing Effects 0.000 claims description 2
- 238000005259 measurement Methods 0.000 abstract description 59
- 238000006243 chemical reaction Methods 0.000 description 70
- 238000010586 diagram Methods 0.000 description 20
- 238000011161 development Methods 0.000 description 17
- 230000003287 optical effect Effects 0.000 description 17
- 238000012545 processing Methods 0.000 description 16
- 210000001747 pupil Anatomy 0.000 description 12
- 238000000691 measurement method Methods 0.000 description 7
- 238000004364 calculation method Methods 0.000 description 3
- 238000004590 computer program Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 239000003086 colorant Substances 0.000 description 2
- 239000002131 composite material Substances 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 238000004891 communication Methods 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 230000004907 flux Effects 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
Images
Abstract
【課題】 撮像システムにおいて、明暗差が大きい場合でもステレオ測距可能範囲を狭めることを抑制できる方法を提供したい。
【解決手段】 第1の画像信号および第2の画像信号を出力する第1の撮像手段と、第3の画像信号を出力する第2の撮像手段と、各画像信号に基づいて画像情報を生成する現像手段と、前記第1の画像および前記第2の画像に基づいて第1の距離情報を生成するステレオ測距手段と、前記第1の画像信号および前記第2の画像信号に基づいて、画像の状態を判定する判定手段と、前記画像の状態に基づいて、撮像の露光時間を他方よりも長くなるように制御する制御手段と、前記露光時間の制御の後、前記画像情報および前記第1の距離情報に基づいて、距離画像情報を生成する画像合成手段とを有することを特徴とする撮像システム。
【選択図】 図4
An object is to provide a method for preventing the stereo distance measurement range from being narrowed even when there is a large difference in brightness in an imaging system.
[Solution] An imaging system comprising a first imaging means for outputting a first image signal and a second image signal, a second imaging means for outputting a third image signal, a developing means for generating image information based on each image signal, a stereo ranging means for generating first distance information based on the first image and the second image, a determination means for determining the state of an image based on the first image signal and the second image signal, a control means for controlling the exposure time for imaging to be longer than the other based on the state of the image, and an image synthesis means for generating distance image information based on the image information and the first distance information after controlling the exposure time.
[Selected figure] Figure 4
Description
本発明は、撮像装置を複数台用いた撮像システムにおけるダイナミックレンジ拡大手法に関するものである。 The present invention relates to a method for expanding the dynamic range in an imaging system that uses multiple imaging devices.
近年、車やロボットの目としてカメラが使われることが多くなっている。従来、カメラではCMOS(Complementary Metal Oxide Semiconductor)イメージセンサなどの撮像素子で、光の強さ(輝度情報)を検出し映像を出力している。一方で、通常の映像を取得するカメラだけでなく、被写体までの距離を検出する測距カメラも普及してきている。 In recent years, cameras are increasingly being used as the eyes of cars and robots. Traditionally, cameras use imaging elements such as CMOS (Complementary Metal Oxide Semiconductor) image sensors to detect the intensity of light (brightness information) and output images. Meanwhile, in addition to cameras that capture normal images, distance measuring cameras that detect the distance to a subject are also becoming more common.
イメージセンサを用いた測距カメラの方式として、2台のカメラの視差画像から対象物までの距離を算出するステレオ測距という技術が知られている。本技術を使用して、車両に設置した2台のカメラから障害物や対象物までの距離を算出し、車両の自動走行などに使用する目的で利用され始めている。また、他の測距方式としてデジタルカメラなどで使用される像面位相差測距方式のカメラがある。1画素内に二つの受光部を持つことで、視差のある2枚の画像を取得しステレオ測距を行うことができる。このイメージセンサを用いたカメラでは、単眼での測距が可能になる。 One known distance measurement method for cameras using image sensors is stereo ranging, which calculates the distance to an object from the parallax images of two cameras. This technology is being used to calculate the distance to obstacles or objects from two cameras installed in a vehicle, and is beginning to be used for purposes such as autonomous vehicle driving. Another distance measurement method is the image plane phase difference distance measurement method used in digital cameras. By having two light receiving parts within one pixel, it is possible to obtain two images with parallax and perform stereo distance measurement. Cameras using this image sensor enable distance measurement with a single eye.
ところで、カメラなどの撮像装置の性能の一つにダイナミックレンジがある。ダイナミックレンジとは、カメラが識別できる明るさの最大値と最小値の比率である。カメラのダイナミックレンジを超える明暗差がある被写体を撮像する場合、明部に露光を合わせると暗部が黒潰れしてしまい情報が取得できない。また、暗部に露光を合わせると明部が白飛びしてしまい情報を取得できなくなる。例えば、図1のようにトンネル内部からトンネルの出口のような場面で撮像するとき、トンネル内部100に露光を合わせると、トンネル外部101が白飛びし、トンネル外部101に露光を合わせると、トンネル内部100が黒潰れしてしまう。これは測距カメラも同様で、ダイナミックレンジを外れた明るさでは測距情報を取得できなくなるという問題がある。 Incidentally, one of the performance features of imaging devices such as cameras is the dynamic range. The dynamic range is the ratio between the maximum and minimum brightness values that a camera can distinguish. When capturing an image of a subject with a brightness difference that exceeds the dynamic range of a camera, if the exposure is adjusted to the bright parts, the dark parts will be crushed to black and no information can be obtained. Also, if the exposure is adjusted to the dark parts, the bright parts will be blown out and no information can be obtained. For example, when capturing an image of a scene such as the tunnel exit from inside the tunnel as shown in Figure 1, if the exposure is adjusted to the inside 100 of the tunnel, the outside 101 of the tunnel will be blown out, and if the exposure is adjusted to the outside 101 of the tunnel, the inside 100 of the tunnel will be crushed to black. The same is true for distance measuring cameras, and there is a problem that distance measuring information cannot be obtained with brightness outside the dynamic range.
このような明暗差が大きい場面で正常に情報を取得するには、カメラのダイナミックレンジを拡大する必要がある。 To properly capture information in scenes with such large differences in brightness, the camera's dynamic range needs to be expanded.
特許文献1では、撮像システムで明暗差の大きい場面を撮像した場合に左右のカメラで露光時間を変更し1枚の合成画像を作ることが提案されている。左右のカメラの露光時間を変更することで、片方のカメラが白飛びや黒潰れをしていても、もう片方のカメラで撮像した画像を合成することにより白飛び、黒潰れ部の補填をすることができる。 Patent Document 1 proposes that when an imaging system captures a scene with a large difference in brightness, the exposure times of the left and right cameras are changed to create a single composite image. By changing the exposure times of the left and right cameras, even if one of the cameras has blown out highlights or crushed shadows, the blown out highlights and crushed shadows can be compensated for by combining the image captured by the other camera.
この技術を用いることで、撮像システムにおける映像のダイナミックレンジを拡大することができる。 This technology can be used to expand the dynamic range of images in imaging systems.
しかしながら、上記特許文献1の技術を用いてダイナミックレンジの拡大を行った場合、通常の映像のダイナミックレンジは拡大されるものの、ステレオ測距可能な範囲が狭まってしまう。 However, when the dynamic range is expanded using the technology of Patent Document 1, although the dynamic range of normal images is expanded, the range in which stereo distance measurement is possible is narrowed.
本発明の目的は、撮像システムにおいて、明暗差が大きい場合でもステレオ測距可能範囲を狭めることを抑制できる方法を提供することである。 The object of the present invention is to provide a method for preventing the stereo ranging range from being narrowed even when there is a large difference in brightness in an imaging system.
上記の課題を解決するために、本発明は、
撮像により、互いに視差を有する第1の画像信号および第2の画像信号を出力する第1の撮像手段と、
撮像により、前記第1の画像信号および前記第2の画像信号との間に視差を有する第3の画像信号を出力する第2の撮像手段と、
前記第1の画像信号および前記第2の画像信号、前記第3の画像信号に基づいて画像情報を生成する現像手段と、
前記第1の画像および前記第2の画像に基づいて第1の距離情報を生成するステレオ測距手段と、
前記第1の画像信号および前記第2の画像信号に基づいて、前記第1の撮像手段により撮像された画像の状態を判定する判定手段と、
前記第1の撮像手段により撮像された画像の状態に基づいて、前記第1の画像信号の撮像および前記第2の画像信号の撮像のうち一方の露光時間を他方よりも長くなるように制御する制御手段と、
前記露光時間の制御の後、前記画像情報および前記第1の距離情報に基づいて、距離画像情報を生成する画像合成手段と
を有することを特徴とする撮像システム。
In order to solve the above problems, the present invention provides
a first imaging means for capturing an image and outputting a first image signal and a second image signal having a parallax therebetween;
a second imaging means for capturing an image and outputting a third image signal having a parallax between the first image signal and the second image signal;
a developing means for generating image information based on the first image signal, the second image signal, and the third image signal;
a stereo distance measuring means for generating first distance information based on the first image and the second image;
a determination means for determining a state of an image captured by the first imaging means based on the first image signal and the second image signal;
a control means for controlling an exposure time for one of the first image signal and the second image signal based on a state of an image captured by the first image capture means so that the exposure time for the other of the first image signal and the second image signal is longer than the exposure time for the other of the first image signal and the second image signal based on a state of an image captured by the first image capture means;
and an image synthesis unit that generates distance image information based on the image information and the first distance information after controlling the exposure time.
本発明によれば、撮像システムにおいて、明暗差が大きい場合でもステレオ測距可能範囲を狭めることを抑制できる。 According to the present invention, in an imaging system, it is possible to prevent the stereo ranging range from being narrowed even when there is a large difference in brightness.
以下、本発明の実施形態について、図面を参照しながら詳細に説明する。各図において、同一の部材については同一の参照番号を付し、重複する説明は省略する。 The following describes in detail an embodiment of the present invention with reference to the drawings. In each drawing, the same reference numbers are used for the same components, and duplicate descriptions are omitted.
<第1の実施形態>
以下、本発明の実施形態1について説明する。
First Embodiment
Hereinafter, a first embodiment of the present invention will be described.
撮像システムでは、左右のカメラでの撮像画像の視差を用いて測距を行う、ブロックマッチング法が用いられる。このブロックマッチング法を使用するには、左右のカメラ両方に映っている被写体しか測距をすることができない。 The imaging system uses a block matching method that measures distance using the parallax between images captured by the left and right cameras. To use this block matching method, distance can only be measured for subjects that are captured by both the left and right cameras.
図2、図3を用いて、合成画像のダイナミックレンジの拡大に対して、ステレオ測距可能な範囲が減少していることを説明する。図2、図3では、縦軸に被写体の明るさを示し、下に行くほど被写体が暗いことを示し、上に行くほど被写体が明るいことを示している。 Using Figures 2 and 3, we explain how the range in which stereo distance measurement is possible decreases as the dynamic range of the composite image expands. In Figures 2 and 3, the vertical axis indicates the brightness of the subject, with the subject becoming darker as it moves downwards and the subject becoming brighter as it moves upwards.
撮像システムを構成するカメラをそれぞれカメラA、カメラBとした時に、通常撮影時はどちらのカメラも同じ露光時間で制御されるため、適正露出で撮像されるのは図2の実線で示す撮像可能範囲202と撮像可能範囲205となる。また、白飛びもしくは黒飛びする部分は点線で示す、白飛び201、白飛び204、黒潰れ203、黒潰れ206となる。このとき、ステレオ測距が可能な範囲は斜線で示される測距可能範囲200となる。そこで、カメラAの露光時間を短く、カメラBの露光時間を長くすると、カメラAでは明るい被写体を、カメラBでは暗い被写体を適正露出で撮像可能となる。
When the cameras that make up the imaging system are camera A and camera B, both cameras are controlled with the same exposure time during normal shooting, so what is captured with proper exposure is the
そのように制御した際のカメラA、カメラBの撮像可能範囲は図3の実線で示される撮像可能範囲301、撮像可能範囲304、撮像不可領域は点線で示されている黒潰れ302、白飛び303となる。カメラA、カメラBの露光時間をずらすことで撮像可能範囲は撮像可能範囲301と撮像可能範囲304を合わせた部分となる。しかしブロックマッチング法で測距できる箇所は撮像可能範囲301と撮像可能範囲304の共通した部分である、測距可能範囲300のみとなってしまい測距可能範囲は狭くなってしまう。
When controlled in this way, the imageable ranges of cameras A and B are imageable range 301 and
図4は、本発明の実施形態に係る撮像システムの構成例を示すブロック図である。 Figure 4 is a block diagram showing an example of the configuration of an imaging system according to an embodiment of the present invention.
本撮像システムは、ステレオカメラ4000、処理部4100(情報処理装置)、表示部4200により構成されるシステムである。
This imaging system is a system composed of a
ステレオカメラ4000は、撮像装置4010(第1の撮像手段)および撮像装置4020(第2の撮像手段)で構成される。
The
撮像装置4010は、撮像光学系4011および撮像素子4012で構成される。
The
撮像光学系4011は、被写体の像(光学像)を撮像素子4012上に形成することができ、撮像素子4012から所定の距離だけ離れた位置に射出瞳を有する。
The imaging
撮像素子4012は、光電変換機能を有する画素を2次元状に配置した画素領域を備える。図示しない各画素領域は2つの光電変換部(第1の光電変換部、第2の光電変換部)を有し、撮像素子4012上に結像した被写体像を光電変換して被写体像に基づく画像信号を生成する。なお、撮像素子4012は、第1の光電変換部から出力された信号に基づく第1の画像信号を、第2の光電変換部から出力された信号に基づく第2の画像信号を、処理部4100内の現像部4101と位相差測距部4102に出力する。第1の画像信号と第2の画像信号とは互いに視差を有している。以上のように撮像素子4012が第1の画像信号および第2の画像信号を出力する構成であるため、本実施形態における撮像システムは、ステレオ測距だけでなく、後述する撮像面位相差測距方式を用いての測距も可能である。また、第1の光電変換部およびに第2の光電変換部の露光時間はそれぞれ異なる時間で制御することも可能なものとする。
The
撮像装置4020は、撮像光学系4021および撮像素子4022で構成される。
The
撮像光学系4021は、撮像光学系4011と同様のため説明を省略する。
The imaging optical system 4021 is similar to the imaging
撮像素子4022は、光電変換部を有する画素を2次元状に配置した画素領域を備え、各画素は1つの光電変換部を有し、撮像素子4022上に結像した被写体像を光電変換して被写体像に基づく画像信号(第3の画像信号)を生成する。第3の画像信号は、第1の画像信号および第2の画像信号と互いに視差を有している。なお、撮像素子4022は、光電変換部から出力された画像信号を、処理部4100内の現像部4101に出力する。
The
処理部4100は、現像部4101、位相差測距部4102、ステレオ測距部4103、白飛び/黒潰れ判定部4104、露出制御部4105、画像合成部4106により構成される。また、処理部4100は他に、図示しない演算や制御を行うCPU(Central Processing Unit)、主記憶装置であるROM(Read Only Memory)やRAM(Random Access Memory)も備えている。ROMには基本的な設定データや本実施形態に係るプログラムが記憶されている。CPUでは、処理内容に応じたプログラムをROMから呼び出して、RAMに展開し、各ブロックの動作を実行する。
The
現像部4101は、撮像素子4012より伝送された第1の画像信号および第2の画像信号に基づいて、画素ごとに赤、緑、青の各色の輝度情報を持つ画像データ(画像情報)を生成する。撮像素子4022より伝送された画像信号からも同様に、画素ごとに赤、緑、青の各色の輝度情報を持つ画像データを生成する。生成した画像データはステレオ測距部4103、白飛び/黒潰れ判定部4104、画像合成部4106に伝達される。
The developing
位相差測距部4102は、撮像素子4012より伝送された第1の画像信号と第2の画像信号に基づいて画素ごとの距離情報を示す距離データ(第2の距離情報)を生成する。生成された距離データは、画像合成部4106に伝達される。画像データと距離データは同一の画像信号から生成されるため、画像データと距離データは時間的に同期されている。
The phase difference
ステレオ測距部4103では、現像部4101にて現像された撮像装置4010と撮像装置4020の画像データを用いて、視差の算出を行い、その視差情報から距離情報(第1の距離情報)の算出を行う。視差の算出を行う方法としては例えば、ブロックマッチング法がある。ブロックマッチング法とは、一方の画像の選択されたある領域に対して、もう一方の画像から類似度の高い領域を探索し、その類似度の高い領域との位置のずれを視差とする方法である。生成された距離データは画像合成部4106に伝達される。
The stereo
判定部4104では、撮像装置4010にて撮像され、現像部4101にて現像された画像データ中に白飛び、黒潰れがないかの判定を行う。なお、白飛びしている状態というのは、画像信号中で輝度値が最大値(例えば、255)である部分または最大値付近である部分を指す。また黒潰れしている状態とは、画像信号中で輝度値が最小値(例えば、0もしくは撮像素子を遮光した時の輝度に相当する黒レベルなど)である部分または最小値付近である部分を指す。上記、輝度値が最大値付近というのは、輝度値が所定の閾値W1以上(第1の閾値以上、例えば240以上)である場合は白飛びであると決定するということである。また、最小値付近というのは輝度が閾値W1よりも小さい所定の閾値B1以下(第2の閾値以下、例えば15以下)である場合は黒潰れであると決定するということである。画像信号中に白飛びも黒潰れも検出されない場合は、通常モードでの制御を行うことを露出制御部4105に伝達する。また、画像信号中に白飛び、もしくは黒潰れ、もしくはそれらの両方を検出した場合は白飛び、黒潰れを抑制するためにHDRモードでの制御を行うことを露出制御部4105へ伝達する。
The
露出制御部4105では、判定部4104の判定結果に応じて、露出の制御を変更する。白飛び、黒潰れどちらも判定部4104にて検出されない場合は、通常モードで制御し、各撮像装置内の各画素内の光電変換部を同じ露出となるようにステレオカメラ4000を制御する。判定部4104にて白飛び、もしくは黒潰れ、もしくはそれらの両方を検出した際は、HDRモードに切り替え、各画素の光電変換部ごとに露光時間を変更するようにステレオカメラ4000の制御を行う。HDRモードの時撮像素子4012内のすべての画素(全画素)に対して同様に左右の光電変換部での露光時間の変更を制御してもよいし、白飛び/黒潰れが起きている箇所にのみ適用できるように調整可能としてもよい。
The
また、撮像素子4012における第1の光電変換部と第2の光電変化部のうち少なくとも一方の露光時間が他方よりも長くなるように制御してもよい。
In addition, the exposure time of at least one of the first photoelectric conversion unit and the second photoelectric conversion unit in the
画像合成部4106では、現像部4101にて出力された画像データと位相差測距部4102およびステレオ測距部4103にて生成された測距データを用いて表示部4200に映し出すための画像を合成する。(合成画像を生成する)画像合成部4106にて生成された画像(距離画像情報)は表示部4200に伝送される。
The
表示部4200は、液晶ディスプレイなどの表示手段で、画像合成部4106から伝送されてきた映像の表示を行う。
The
ここで、図5および図6を用いて、撮像素子4012、撮像素子4022を利用した像面位相差測距方式による測距原理について説明する。
Here, the principle of distance measurement using the image plane phase difference distance measurement method using the
図5は、例として撮像素子4012の構成を示す模式図である。図5(A)は、撮像素子4012を光の入射方向からみた上面図である。撮像素子4012は、2行×2列の画素群5000をマトリクス状に複数配列することで構成される。画素群5000は、緑色の光を検出する緑画素G1、緑画素G2、赤色の光を検出する赤画素R及び青色の光を検出する青画素Bを有する。画素群5000において、緑画素G1および緑画素G2は対角に配置される。また、各画素は、第1の光電変換部5001と、第2の光電変換部5002とを有する。第1の光電変換部5001、および第2の光電変換部5002の露光時間は先述の通り、それぞれ異なる時間で制御することも可能なものとする。
Figure 5 is a schematic diagram showing the configuration of the
図5(B)は、図5(A)における画素群5000のI-I’断面における断面図である。各画素は、マイクロレンズ5003、導光層5004、および受光層5005から構成される。
Figure 5 (B) is a cross-sectional view of the
導光層5004は、画素へ入射した光束を受光層5005へ効率良く導くためのマイクロレンズ5003、各画素が検出する光の色に対応する波長帯域の光を通過させるカラーフィルタ、および、画像読み出し用及び画素駆動用の配線を有する導光部材である。
The
受光層5005は、導光層5004を介して入射した光を光電変換して電気信号として出力する光電変換部である。受光層5005は、第1の光電変換部5001、および第2の光電変換部5002を有する。
The
図6は、像面位相差測距方式における被写体距離と入射光との関係を示す模式図である。図6(A)は、撮像光学系4011の射出瞳6000と、撮像素子4012の緑画素G1と、緑画素G1の各光源変換部に入射する光を示す模式図である。撮像素子4012は、複数の画素を有するが、簡略化のため、1つの緑画素G1について説明する。
Figure 6 is a schematic diagram showing the relationship between subject distance and incident light in the image plane phase difference ranging method. Figure 6 (A) is a schematic diagram showing the
緑画素G1のマイクロレンズ5003は、射出瞳6000と導光層5004とが光学的に共役関係になるように配置されている。その結果、射出瞳6000に内包される部分瞳領域である第1の瞳領域6010を通過した光束は第1の光電変換部5001に入射する。同様に部分瞳領域である第2の瞳領域6020を通過した光束は第2の光電変換部5002に入射する。
The
各画素の第1の光電変換部5001は、受光した光束を光電変換して信号を出力する。撮像素子4012に含まれる複数の第1の光電変換部5001から出力された信号から、第1の画像信号が生成される。第1の画像信号は、第1の瞳領域6010を主に通過した光束が撮像素子4012上に形成する像の強度分布を示す。
The first photoelectric conversion unit 5001 of each pixel performs photoelectric conversion on the received light beam and outputs a signal. A first image signal is generated from signals output from the multiple first photoelectric conversion units 5001 included in the
各画素の第2の光電変換部5002は、受光した光束を光電変換して信号を出力する。撮像素子4012に含まれる複数の第2の光電変換部5002から出力された信号から、第2の画像信号が生成される。第2の画像信号は、第2の瞳領域6020を主に通過した光束が撮像素子4012上に形成する像の強度分布を示す。
The second photoelectric conversion unit 5002 of each pixel performs photoelectric conversion on the received light beam and outputs a signal. A second image signal is generated from the signals output from the multiple second photoelectric conversion units 5002 included in the
第1の画像信号と第2の画像信号間の相対的な位置ズレ量(以下、視差量と呼ぶ)は、デフォーカス量に応じた量となる。視差量とデフォーカス量の関係について、図6(B)、(C)、(D)を用いて説明する。 The relative positional shift amount between the first image signal and the second image signal (hereinafter referred to as the parallax amount) is an amount that depends on the defocus amount. The relationship between the parallax amount and the defocus amount will be explained using Figures 6 (B), (C), and (D).
図6(B)、(C)、(D)は撮像素子4012、撮像光学系4011について示した概略図である。図中の6011は第1の瞳領域6010を通過する第1の光束を示し、6021は第2の瞳領域6020を通過する第2の光束を示す。
Figures 6(B), (C), and (D) are schematic diagrams showing the
図6(B)は、合焦時の状態を示しており、第1の光束6011と第2の光束6021が撮像素子4012上で収束している。この時、第1の光束6011により形成される第1の画像信号と第2の光束6021により形成される第2の画像信号間の視差量は0となる。
Figure 6 (B) shows the state when in focus, where the first light beam 6011 and the second light beam 6021 converge on the
図6(C)は、像側でw軸の負方向にデフォーカスした状態を示している。この時、第1の光束6011により形成される第1の画像信号と第2の光束6021により形成される第2の画像信号間の視差量は0とはならず、負の値を有する。 Figure 6 (C) shows a state where the image side is defocused in the negative direction of the w axis. At this time, the parallax amount between the first image signal formed by the first light beam 6011 and the second image signal formed by the second light beam 6021 is not 0, but has a negative value.
図6(D)は像側でw軸の正方向にデフォーカスした状態を示している。この時、第1の光束6011により形成される第1の画像信号と第2の光束6021により形成される第2の画像信号間の視差量は0とはならず、正の値を有する。 Figure 6 (D) shows a state where the image side is defocused in the positive direction of the w axis. At this time, the amount of parallax between the first image signal formed by the first light beam 6011 and the second image signal formed by the second light beam 6021 is not 0 but has a positive value.
図6(C)と(D)の比較から、デフォーカス量の正負に応じて、視差が生じる方向が入れ替わることが分かる。また、幾何関係から、デフォーカス量に応じた視差量が生じることが分かる。従って、第1の画像信号と第2の画像信号との間の視差量を領域ベースのマッチング手法により検出し、視差量を所定の変換係数を介してデフォーカス量に変換することができる。さらに、撮像光学系4011の結像公式を用いることで、像側のデフォーカス量を、物体までの距離に変換することができる。
Comparing Figures 6(C) and (D) reveals that the direction in which parallax occurs changes depending on whether the defocus amount is positive or negative. Furthermore, from the geometric relationship, it can be seen that the amount of parallax occurs according to the amount of defocus. Therefore, the amount of parallax between the first image signal and the second image signal can be detected by a region-based matching method, and the amount of parallax can be converted into the amount of defocus via a predetermined conversion coefficient. Furthermore, by using the imaging formula of the imaging
以上が、像面位相差測距方式による測距原理の説明である。本実施形態では、位相差測距部4102が、像面位相差測距方式により第1の画像信号と第2の画像信号から距離データを生成する。
The above is an explanation of the principle of distance measurement using the image plane phase difference distance measurement method. In this embodiment, the phase difference
図7は第1の実施形態に係る撮像システムの動作を示すフローチャートである。このフローチャートは、処理部4100の図示しないCPUにて実行される。
Figure 7 is a flowchart showing the operation of the imaging system according to the first embodiment. This flowchart is executed by a CPU (not shown) of the
ステップS1では、撮像素子4012の各画素を構成する第1の光電変換部と第2の光電変換部を同じ露出で制御する通常モードでの動作に切り替える。また、撮像素子4022に関しても、撮像素子4012と同じ露出設定になるように制御する。図8は、通常モード時の測距可能範囲及びに撮像可能範囲を示す。図2と同様に、縦軸に被写体の明るさを示し、下に行くほど被写体が暗いことを示し、上に行くほど被写体が明るいことを示している。撮像装置4010と撮像装置4020の撮像可能範囲はそれぞれ、撮像可能範囲802と撮像可能範囲805である。白飛びする範囲はそれぞれ、白飛び801と白飛び804であり、黒潰れする範囲は黒潰れ803、黒潰れ806である。また、測距可能範囲は、測距可能範囲800で示す。ステレオカメラ4000の各撮像装置で撮像した画像信号は現像部4101にて現像され、判定部4104に伝送し、ステップS2に移行する。
In step S1, the operation is switched to a normal mode in which the first photoelectric conversion unit and the second photoelectric conversion unit constituting each pixel of the
ステップS2では、ステップS1で撮像した画像信号を用いて、判定部4104にて白飛び、もしくは黒潰れ、もしくはそれらの両方が含まれていないかを判定する。白飛びや黒潰れが画像信号内にないと判定された場合は、ステップS3に移行する。白飛びや黒潰れが画像信号内にあると判定された場合は、ステップS5に移行する。
In step S2, the
ステップS3では、ステップS1にてステレオカメラ4000により撮像された画像データから距離情報の算出を行う。距離情報の算出は、位相差測距部4102とステレオ測距部4103にて行われる。それぞれの測距部での距離データの生成方法は先述の方法で行う。位相差測距部4102とステレオ測距部4103で共通する測距箇所に関しては、どちらかのみの測距情報優先して使用してもよいし、両方の情報に重み付けをして距離情報を算出するのでもよい。画像データの現像及びに距離情報の生成が完了したら、ステップS4に移行する。
In step S3, distance information is calculated from the image data captured by the
ステップS4では、ステップS3にて現像した画像と生成した距離情報を画像合成部4106にて合成して、表示部4200に表示するための画像を生成する。生成した合成画像は表示部4200に伝送したら、ステップS9に移行する。
In step S4, the image developed in step S3 and the distance information generated are synthesized in the
ステップS5では、ステレオカメラ4000の動作モードをHDRモードへ切り替える。露出制御部4105からステレオカメラ4000に対して、各画素の光電変換部ごとに露光時間を変更するように制御を行う。判定部4104より露出制御部4105に各光電変換部の露光時間の変更制御信号を伝送したらステップS6に移行する。
In step S5, the operation mode of the
ステップS6では、HDRモードでの動作のために各画素を構成する第1の光電変換部と第2の光電変換部とで露光時間を異ならせる制御を行う。この制御を行うことで広いダイナミックレンジの画像を生成することができる。図5(A)の緑画素G2を例にとると、第1の光電変換部5001と第2の光電変換部5002とで露光時間を異ならせる。第1の光電変換部5001の露光時間を長く、第2の光電変換部5002の露光時間を短くすることにより、露光期間の異なる2つの画像データを生成することができる。第1の光電変換部5001から出力される第1出力信号は撮像対象のうち暗部を明るく撮像した画像を出力し、第2の光電変換部5002から出力される第2出力信号は撮像対象のうち明部の飽和を抑制した画像を出力することができる。第1出力信号と第2出力信号を合成することにより、暗部を明るく表現しつつ、明部の飽和を抑制するような、広いダイナミックレンジの画像を取得することができる。HDRモードで出力された画像信号は現像部4101へと伝送され、ステップS7に移行する。
In step S6, control is performed to make the exposure times different between the first photoelectric conversion unit and the second photoelectric conversion unit constituting each pixel for operation in HDR mode. By performing this control, an image with a wide dynamic range can be generated. Taking the green pixel G2 in FIG. 5(A) as an example, the exposure times are made different between the first photoelectric conversion unit 5001 and the second photoelectric conversion unit 5002. By making the exposure time of the first photoelectric conversion unit 5001 longer and the exposure time of the second photoelectric conversion unit 5002 shorter, two image data with different exposure periods can be generated. The first output signal output from the first photoelectric conversion unit 5001 can output an image in which the dark areas of the imaging target are brightly imaged, and the second output signal output from the second photoelectric conversion unit 5002 can output an image in which the saturation of the bright areas of the imaging target is suppressed. By combining the first output signal and the second output signal, an image with a wide dynamic range can be obtained in which the dark areas are brightly expressed while the saturation of the bright areas is suppressed. The image signal output in HDR mode is transmitted to the
ステップS7では、現像部4101にてHDR画像の生成及び、生成されたHDR画像を用いてステレオ測距部4103にて距離情報の生成を行う。HDR画像を生成する際には、いずれか一方の画像を基準の画像とし、その基準の画像に対して露出が適切でない(白飛びや黒潰れが存在する)場合はもう一つの画像の該当領域の画素の輝度値を用いて画像合成を行う。このようにすることで、明部から暗部まで適切な露出で撮像された画像を得ることができる。また、出力されたHDR画像を用いて、ステレオ測距部4103にて、視差の算出を行い、その視差情報から距離情報の算出を行う。視差の算出を行う方法としては例えば、ブロックマッチング法がある。ブロックマッチング法とは、一方の画像の選択されたある領域に対して、もう一方の画像から類似度の高い領域を探索し、その類似度の高い領域との位置のずれを視差とする方法である。HDRモードでの動作時の撮像可能範囲およびに測距可能範囲を図9に示す。第1の光電変換部5001と第2の光電変換部5002とで露光時間を異ならせることで、撮像装置4010の撮像可能範囲は撮像可能範囲901で示される範囲となり撮像可能範囲802と比較してダイナミックレンジが広くなっていることがわかる。また、測距可能な範囲は測距可能範囲900となり、測距可能範囲800と比較して測距範囲は狭まっていないことがわかる。現像部4101でのHDR画像の生成及びに、ステレオ測距部4103での距離情報の生成が完了したら、ステップS8に移行する。
In step S7, the
ステップS8では、ステップS7にて生成したHDR画像と距離情報を画像合成部4106に伝送し、表示部4200に表示するための画像を画像合成部4106にて生成する。生成した合成画像は表示部4200に伝送し、表示部4200に表示したら、ステップS9に移行する。
In step S8, the HDR image and distance information generated in step S7 are transmitted to the
ステップS9では、撮像素子4012の各画素を構成する第1の光電変換部と第2の光電変換部を同じ露出で制御する通常モードでの動作に切り替える。ステレオカメラ4000の制御が通常モードの制御に切り替わったら一連の動作を終了する。
In step S9, the operation is switched to a normal mode in which the first photoelectric conversion unit and the second photoelectric conversion unit constituting each pixel of the
実施形態1では、撮像素子の各画素領域に2つの光電変換部を設けて、白飛び/黒潰れが発生した場合にそれぞれの光電変換部の露光時間をずらすことにより、ダイナミックレンジの拡大を行った。これにより、ダイナミックレンジを拡大した画像を用いてステレオ測距を行うことで、ステレオ測距可能範囲を狭めることを抑制しつつ、映像のダイナミックレンジを拡大できる。 In the first embodiment, two photoelectric conversion units are provided in each pixel area of the image sensor, and the dynamic range is expanded by shifting the exposure time of each photoelectric conversion unit when whiteout/blackout occurs. As a result, the dynamic range of the image can be expanded while preventing the stereo distance measurement range from being narrowed by performing stereo distance measurement using an image with an expanded dynamic range.
<第2の実施形態>
以下、本発明の実施形態2について説明する。
Second Embodiment
A second embodiment of the present invention will now be described.
図10は、本発明の実施形態に係る撮像システムの構成例を示すブロック図である。 Figure 10 is a block diagram showing an example of the configuration of an imaging system according to an embodiment of the present invention.
本撮像システムは、ステレオカメラ4300、処理部4100、表示部4200により構成されるシステムである。
This imaging system is a system composed of a
ステレオカメラ4300は、撮像装置4010および撮像装置4030(第2の撮像手段)で構成される。
The
撮像装置4010は、第1の実施形態と同様のため、説明は省略する。
The
撮像装置4030は、撮像光学系4021および撮像素子4032で構成される。
The
撮像光学系4021は、第1の実施形態と同様のため、説明は省略する。 The imaging optical system 4021 is the same as in the first embodiment, so a description thereof will be omitted.
撮像素子4032は、撮像素子4012と同様の構造をもつ撮像素子を使用する。撮像素子4032は、第1の光電変換部(第3の光電変換手段)から出力された信号に基づく第1の画像信号(第3の画像信号)を、処理部4100内の現像部4101と位相差測距部4102に出力する。また、第2の光電変換部(第4の光電変換手段)から出力された信号に基づく第2の画像信号(第4の画像信号)も、処理部4100内の現像部4101と位相差測距部4102に出力する。第4の画像信号は、第3の画像信号と互いに視差を有する。
The
処理部4100、表示部4200も、第1の実施形態と同様のため、省略する。
The
図11は第2の実施形態に係る撮像システムの動作を示すフローチャートである。このフローチャートは、処理部4100の図示しないCPUにて実行される。
Figure 11 is a flowchart showing the operation of the imaging system according to the second embodiment. This flowchart is executed by a CPU (not shown) of the
ステップS11では、撮像素子4012と撮像素子4032の各画素を構成する第1の光電変換部と第2の光電変換部を同じ露出で制御する通常モードでの動作に切り替える。図12は、通常モード時の測距可能範囲及びに撮像可能範囲を示す。図2と同様に、縦軸に被写体の明るさを示し、下に行くほど被写体が暗いことを示し、上に行くほど被写体が明るいことを示している。撮像装置4010と撮像装置4030の撮像可能範囲はそれぞれ、撮像可能範囲812と撮像可能範囲815である。白飛びする範囲はそれぞれ、白飛び811と白飛び814であり、黒潰れする範囲は黒潰れ813と黒潰れ816である。また、測距可能範囲は、測距可能範囲810で示す。ステレオカメラ4000の各撮像装置で撮像した画像信号は現像部4101にて現像され、判定部4104に伝送し、ステップS12に移行する。
In step S11, the operation is switched to a normal mode in which the first photoelectric conversion unit and the second photoelectric conversion unit constituting each pixel of the
ステップS12では、ステップS11で撮像した画像信号を用いて、判定部4104にて白飛び、もしくは黒潰れ、もしくはそれらの両方が含まれていないかを判定する。白飛びや黒潰れが画像信号内にないと判定された場合は、ステップS13に移行する。白飛びや黒潰れが画像信号内にあると判定された場合は、ステップS15に移行する。
In step S12, the
ステップS13では、ステップS11にてステレオカメラ4300により撮像された画像データから距離情報の算出を行う。距離情報の算出は、位相差測距部4102とステレオ測距部4103にて行われる。それぞれの測距部での距離データの生成方法は先述の方法で行う。位相差測距部4102とステレオ測距部4103で共通する測距箇所に関しては、位相差測距部4102による情報(第3の距離情報)とステレオ測距部4103による情報のどちらかのみの測距情報を優先して使用してもよい。また、両方の情報に重み付けをして距離情報を算出するのでもよい。画像データの現像及び、距離情報の生成が完了したら、ステップS14に移行する。
In step S13, distance information is calculated from the image data captured by the
ステップS14では、ステップS13にて現像した画像と生成した距離情報を画像合成部4106にて合成して、表示部4200に表示するための画像を生成する。生成した合成画像は表示部4200に伝送したら、ステップS19に移行する。
In step S14, the image developed in step S13 and the generated distance information are synthesized in the
ステップS15では、ステレオカメラ4300の動作モードをHDRモードへ切り替える。露出制御部4105からステレオカメラ4300に対して、各画素の光電変換部ごとに露光時間を変更するように制御を行う。判定部4104より露出制御部4105に各光電変換部の露光時間の変更制御信号を伝送したらステップS16に移行する。
In step S15, the operation mode of the
ステップS16では、HDRモードでの動作のために各画素を構成する第1の光電変換部と第2の光電変換部とで露光時間を異ならせる制御を行う。HDRモードで出力された画像信号は現像部4101へと伝送され、ステップS17に移行する。
In step S16, control is performed to make the exposure times different between the first photoelectric conversion unit and the second photoelectric conversion unit that constitute each pixel in order to operate in HDR mode. The image signal output in HDR mode is transmitted to the
ステップS17では、現像部4101にてHDR画像の生成及び、生成されたHDR画像を用いてステレオ測距部4103にて距離情報の生成を行う。さらに、出力されたHDR画像を用いて、ステレオ測距部4103にて、視差の算出を行い、その視差情報から距離情報の算出を行う。視差の算出を行う方法としては例えば、ブロックマッチング法がある。ブロックマッチング法とは、一方の画像の選択されたある領域に対して、もう一方の画像から類似度の高い領域を探索し、その類似度の高い領域との位置のずれを視差とする方法である。HDRモードでの動作時の撮像可能範囲およびに測距可能範囲を図13に示す。第1の光電変換部と第2の光電変換部とで露光時間を異ならせることで、撮像装置4010、撮像装置4030の撮像可能範囲は撮像可能範囲911、撮像可能範囲912で示される範囲となる。つまり撮像可能範囲812、撮像可能範囲815と比較してダイナミックレンジが広くなっていることがわかる。また、測距可能な範囲は測距可能範囲910となり、測距可能範囲810と比較して測距範囲が広くなっていることがわかる。現像部4101でのHDR画像の生成及びに、ステレオ測距部4103での距離情報の生成が完了したら、ステップS18に移行する。
In step S17, the
ステップS18では、ステップS17にて生成したHDR画像と距離情報を画像合成部4106に伝送し、表示部4200に表示するための画像を画像合成部4106にて生成する。生成した合成画像は表示部4200に伝送し、表示部4200に表示したら、ステップS19に移行する。
In step S18, the HDR image and distance information generated in step S17 are transmitted to the
ステップS19では、撮像素子4012と撮像素子4032の各画素を構成する第1の光電変換部と第2の光電変換部を同じ露出で制御する通常モードでの動作に切り替える。ステレオカメラ4300の制御が通常モードの制御に切り替わったら一連の動作を終了する。
In step S19, the operation is switched to a normal mode in which the first photoelectric conversion unit and the second photoelectric conversion unit constituting each pixel of the
実施形態2では、2つの撮像装置において撮像素子の各画素領域に2つの光電変換部を設けて、白飛び/黒潰れが発生した場合にそれぞれの光電変換部の露光時間をずらすことにより、ダイナミックレンジの拡大を行った。これにより、2つの撮像装置それぞれでダイナミックレンジを拡大した画像を用いてステレオ測距を行うことで、実施形態1と比べて、よりステレオ測距可能範囲を狭めることを抑制しつつ、映像のダイナミックレンジを拡大できる。 In the second embodiment, two photoelectric conversion units are provided in each pixel region of the image sensor in the two imaging devices, and the dynamic range is expanded by shifting the exposure time of each photoelectric conversion unit when whiteout/blackout occurs. As a result, by performing stereo ranging using images with expanded dynamic ranges in each of the two imaging devices, it is possible to expand the dynamic range of the image while suppressing the narrowing of the stereo ranging range compared to the first embodiment.
以上、本発明をその好適な実施形態に基づいて詳述してきたが、本発明はこれら特定の実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の様々な形態も本発明に含まれる。上述の実施形態の一部を適宜組み合わせてもよい。 The present invention has been described in detail above based on preferred embodiments, but the present invention is not limited to these specific embodiments, and various forms within the scope of the gist of the invention are also included in the present invention. Parts of the above-mentioned embodiments may be combined as appropriate.
また、上述の実施形態の機能を実現するソフトウェアのプログラムを、記録媒体から直接、或いは有線/無線通信を用いてプログラムを実行可能なコンピュータを有するシステム又は装置に供給し、そのプログラムを実行する場合も本発明に含む。 The present invention also includes cases where a software program that realizes the functions of the above-mentioned embodiments is supplied to a system or device having a computer capable of executing the program directly from a recording medium or via wired/wireless communication, and the program is executed.
従って、本発明の機能処理をコンピュータで実現するために、該コンピュータに供給、インストールされるプログラムコード自体も本発明を実現するものである。つまり、本発明の機能処理を実現するためのコンピュータプログラム自体も本発明に含まれる。 Therefore, the program code that is supplied to and installed on a computer to realize the functional processing of the present invention also realizes the present invention. In other words, the computer program itself for realizing the functional processing of the present invention is also included in the present invention.
その場合、プログラムの機能を有していれば、オブジェクトコード、インタプリタにより実行されるプログラム、OSに供給するスクリプトデータ等、プログラムの形態を問わない。 In this case, as long as it has the functionality of a program, the form of the program is not important, such as object code, a program executed by an interpreter, or script data supplied to the OS.
プログラムを供給するための記録媒体としては、例えば、ハードディスク、磁気テープ等の磁気記録媒体、光/光磁気記憶媒体、不揮発性の半導体メモリでもよい。 The recording medium for supplying the program may be, for example, a hard disk, a magnetic recording medium such as a magnetic tape, an optical/magnetic optical storage medium, or a non-volatile semiconductor memory.
また、プログラムの供給方法としては、コンピュータネットワーク上のサーバに本発明を形成するコンピュータプログラムを記憶し、接続のあったクライアントコンピュータがコンピュータプログラムをダウンロードしてプログラムするような方法も考えられる。 Another possible method for supplying the program is to store the computer program forming the present invention on a server on a computer network, and have connected client computers download and program the computer program.
4000、4300 ステレオカメラ
4010、4020、4030 撮像装置
4011、4021 撮像光学系
4012、4022、4032 撮像素子
4100 処理部
4101 現像部
4102 位相差測距部
4103 ステレオ測距部
4104 判定部
4105 露出制御部
4106 画像合成部
4200 表示部
5000 画素群
5001 第1の光電変換部
5002 第2の光電変換部
4000, 4300
Claims (10)
撮像により、前記第1の画像信号および前記第2の画像信号との間に視差を有する第3の画像信号を出力する第2の撮像手段と、
前記第1の画像信号および前記第2の画像信号、前記第3の画像信号に基づいて画像情報を生成する現像手段と、
第1の画像信号および前記第2の画像信号、第3の画像信号に基づいて第1の距離情報を生成するステレオ測距手段と、
前記第1の画像信号および前記第2の画像信号に基づいて、前記第1の撮像手段により撮像された画像の状態を判定する判定手段と、
前記第1の撮像手段により撮像された画像の状態に基づいて、前記第1の画像信号の撮像および前記第2の画像信号の撮像のうち一方の露光時間を他方よりも長くなるように制御する制御手段と、
前記露光時間の制御の後、前記画像情報および前記第1の距離情報に基づいて、距離画像情報を生成する画像合成手段と
を有することを特徴とする撮像システム。 a first imaging means for capturing an image and outputting a first image signal and a second image signal having a parallax therebetween;
a second imaging means for capturing an image and outputting a third image signal having a parallax between the first image signal and the second image signal;
a developing means for generating image information based on the first image signal, the second image signal, and the third image signal;
a stereo distance measuring means for generating first distance information based on a first image signal, the second image signal, and a third image signal;
a determination means for determining a state of an image captured by the first imaging means based on the first image signal and the second image signal;
a control means for controlling an exposure time for one of the first image signal and the second image signal based on a state of an image captured by the first image capture means so that the exposure time for the other of the first image signal and the second image signal is longer than the exposure time for the other of the first image signal and the second image signal based on a state of an image captured by the first image capture means;
and an image synthesis unit that generates distance image information based on the image information and the first distance information after controlling the exposure time.
ことを特徴とする請求項1に記載の撮像システム。 The imaging system according to claim 1 , wherein the determining means determines whether the image captured by the first imaging means has whiteout or blackout based on luminance values of the first image signal and the second image signal.
前記判定手段により白飛びおよび黒潰れの少なくとも一方がある場合に、前記制御手段は、白飛びおよび黒潰れの少なくとも一方を抑えるように露光時間を制御する
ことを特徴とする請求項2に記載の撮像システム。 the determination means determines that the image captured by the first imaging means has whiteout when a luminance value of at least one of the first image signal and the second image signal is equal to or greater than a first threshold, and determines that the image captured by the first imaging means has blackout when a luminance value of at least one of the first image signal and the second image signal is equal to or less than a second threshold that is smaller than the first threshold,
3. The imaging system according to claim 2, wherein, when the determining means determines that at least one of whiteout and blackout has occurred, the control means controls the exposure time so as to suppress at least one of whiteout and blackout.
前記露光時間の制御の後、前記画像合成手段は、前記第2の距離情報に基づいて前記距離画像情報を生成する
ことを特徴とする請求項1に記載の撮像システム。 a phase difference distance measuring means for generating second distance information based on the first image signal and the second image signal,
2. The imaging system according to claim 1, wherein after controlling the exposure time, the image synthesis means generates the distance image information based on the second distance information.
前記位相差測距手段は、前記第3の画像信号および前記第4の画像信号に基づいて第3の距離情報を生成し、
前記判定手段は、前記第3の画像信号および第4の画像信号に基づいて、前記第2の撮像手段により撮像された画像の状態を判定し、
前記制御手段は、前記判定手段により判定された前記第2の撮像手段により撮像された画像の状態に基づいて、前記第3の画像信号の撮像および前記第4の画像信号の撮像のうち一方の露光時間を他方よりも長くなるように制御する
ことを特徴とする請求項4に記載の撮像システム。 the second imaging means outputs a fourth image signal having a parallax with respect to the third image signal by imaging;
the phase difference distance measuring means generates third distance information based on the third image signal and the fourth image signal;
the determining means determines a state of the image captured by the second imaging means based on the third image signal and the fourth image signal;
5. The imaging system according to claim 4, wherein the control means controls, based on a state of the image captured by the second imaging means determined by the determination means, an exposure time for one of the imaging of the third image signal and the imaging of the fourth image signal so as to be longer than the other.
ことを特徴とする請求項4に記載の撮像システム。 5. The imaging system according to claim 4, wherein the control means is adjustable to control all pixels of the first imaging means or to control only some pixels.
ことを特徴とする請求項6に記載の撮像システム。 The imaging system according to claim 6, characterized in that, when generating the distance image information, the image synthesis means is capable of calculating distance information by weighting each distance data for a range commonly measured by the stereo ranging means and the phase difference ranging means.
前記第1の画像信号および前記第2の画像信号、前記第3の画像信号に基づいて第1の距離情報を生成するステレオ測距手段と、
前記第1の画像信号および前記第2の画像信号に基づいて、前記第1の撮像手段により撮像された画像の状態を判定する判定手段と、
前記第1の撮像手段により撮像された画像の状態に基づいて、前記第1の画像信号の撮像および前記第2の画像信号の撮像のうち一方の露光時間を他方よりも長くなるように制御する制御手段と、
前記露光時間の制御の後、前記画像情報および前記第1の距離情報に基づいて、距離画像情報を生成する画像合成手段と
を有することを特徴とする撮像システム。
を有することを特徴とする情報処理装置。 a developing means for generating image information based on a first image signal output from a first imaging means by imaging and a second image signal having a parallax with respect to the first image signal, and a third image signal output from a second imaging means by imaging and having a parallax with respect to the first image signal and the second image signal;
a stereo distance measuring means for generating first distance information based on the first image signal, the second image signal, and the third image signal;
a determination means for determining a state of an image captured by the first imaging means based on the first image signal and the second image signal;
a control means for controlling an exposure time for one of the first image signal and the second image signal based on a state of an image captured by the first image capture means so that the exposure time for the other of the first image signal and the second image signal is longer than the exposure time for the other of the first image signal and the second image signal based on a state of an image captured by the first image capture means;
and an image synthesis unit that generates distance image information based on the image information and the first distance information after controlling the exposure time.
13. An information processing device comprising:
撮像により、前記第1の画像信号および前記第2の画像信号との間に視差を有する第3の画像信号を出力する第2の撮像手段による第2の撮像工程と、
前記第1の画像信号および前記第2の画像信号、前記第3の画像信号に基づいて画像情報を生成する現像工程と、
前記第1の画像信号および前記第2の画像信号、前記第3の画像信号に基づいて第1の距離情報を生成するステレオ測距工程と、
前記第1の画像信号および前記第2の画像信号に基づいて、前記第1の撮像手段により撮像された画像の状態を判定する判定工程と、
前記第1の撮像手段により撮像された画像の状態に基づいて、前記第1の画像信号の撮像および前記第2の画像信号の撮像のうち一方の露光時間を他方よりも長くなるように制御する制御工程と、
前記制御工程の後、前記画像情報および前記第1の距離情報に基づいて、距離画像情報を生成する画像合成工程と
を有することを特徴とする撮像方法。 a first imaging step by a first imaging means for outputting a first image signal and a second image signal having a parallax with each other by imaging;
a second imaging step by a second imaging means for outputting a third image signal having a parallax between the first image signal and the second image signal by imaging;
a developing step of generating image information based on the first image signal, the second image signal, and the third image signal;
a stereo ranging process for generating first distance information based on the first image signal, the second image signal, and the third image signal;
a determination step of determining a state of an image captured by the first imaging means based on the first image signal and the second image signal;
a control step of controlling an exposure time for one of the first image signal and the second image signal based on a state of an image captured by the first imaging means so that the exposure time for the other of the first image signal and the second image signal is longer than the other;
an image synthesis step of generating distance image information based on the image information and the first distance information after the control step.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022159796A JP2024053482A (en) | 2022-10-03 | 2022-10-03 | Imaging system, imaging method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022159796A JP2024053482A (en) | 2022-10-03 | 2022-10-03 | Imaging system, imaging method, and program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2024053482A true JP2024053482A (en) | 2024-04-15 |
Family
ID=90667372
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022159796A Pending JP2024053482A (en) | 2022-10-03 | 2022-10-03 | Imaging system, imaging method, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2024053482A (en) |
-
2022
- 2022-10-03 JP JP2022159796A patent/JP2024053482A/en active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11822211B2 (en) | Imaging optical system storing information on its aberration, imaging apparatus, and control method thereof | |
JP6555863B2 (en) | IMAGING DEVICE AND IMAGING DEVICE CONTROL METHOD | |
US9077886B2 (en) | Image pickup apparatus and image processing apparatus | |
US9025060B2 (en) | Solid-state image sensor having a shielding unit for shielding some of photo-electric converters and image capturing apparatus including the solid-state image sensor | |
US9258545B2 (en) | Stereoscopic imaging apparatus | |
US9641769B2 (en) | Image capture apparatus and method for controlling the same | |
JP6249825B2 (en) | Imaging device, control method thereof, and control program | |
JP5753371B2 (en) | Imaging apparatus and control method thereof | |
JP2009031682A (en) | Imaging system and image signal processing program | |
JP7285791B2 (en) | Image processing device, output information control method, and program | |
JP4983271B2 (en) | Imaging device | |
CN104025574A (en) | Imaging apparatus and image processing method | |
US20160094776A1 (en) | Imaging apparatus and imaging method | |
JP4858179B2 (en) | Focus detection apparatus and imaging apparatus | |
WO2013171840A1 (en) | Imaging apparatus, and imaging apparatus control method | |
CN108156383B (en) | High-dynamic billion pixel video acquisition method and device based on camera array | |
JP6353233B2 (en) | Image processing apparatus, imaging apparatus, and image processing method | |
US10362214B2 (en) | Control apparatus, image capturing apparatus, control method, and non-transitory computer-readable storage medium | |
JP2017158018A (en) | Image processing apparatus, control method of the same, and imaging apparatus | |
JP2009044637A (en) | Imaging apparatus | |
JP6190119B2 (en) | Image processing apparatus, imaging apparatus, control method, and program | |
JP6362070B2 (en) | Image processing apparatus, imaging apparatus, image processing method, program, and storage medium | |
JP5183441B2 (en) | Imaging device | |
JP5245648B2 (en) | Image processing apparatus and program | |
JP2014215436A (en) | Image-capturing device, and control method and control program therefor |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD01 | Notification of change of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7421 Effective date: 20231213 |