JP2024053482A - Imaging system, imaging method, and program - Google Patents

Imaging system, imaging method, and program Download PDF

Info

Publication number
JP2024053482A
JP2024053482A JP2022159796A JP2022159796A JP2024053482A JP 2024053482 A JP2024053482 A JP 2024053482A JP 2022159796 A JP2022159796 A JP 2022159796A JP 2022159796 A JP2022159796 A JP 2022159796A JP 2024053482 A JP2024053482 A JP 2024053482A
Authority
JP
Japan
Prior art keywords
image signal
image
imaging
distance
exposure time
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022159796A
Other languages
Japanese (ja)
Inventor
壮也 藤森
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2022159796A priority Critical patent/JP2024053482A/en
Publication of JP2024053482A publication Critical patent/JP2024053482A/en
Pending legal-status Critical Current

Links

Images

Abstract

Figure 2024053482000001

【課題】 撮像システムにおいて、明暗差が大きい場合でもステレオ測距可能範囲を狭めることを抑制できる方法を提供したい。
【解決手段】 第1の画像信号および第2の画像信号を出力する第1の撮像手段と、第3の画像信号を出力する第2の撮像手段と、各画像信号に基づいて画像情報を生成する現像手段と、前記第1の画像および前記第2の画像に基づいて第1の距離情報を生成するステレオ測距手段と、前記第1の画像信号および前記第2の画像信号に基づいて、画像の状態を判定する判定手段と、前記画像の状態に基づいて、撮像の露光時間を他方よりも長くなるように制御する制御手段と、前記露光時間の制御の後、前記画像情報および前記第1の距離情報に基づいて、距離画像情報を生成する画像合成手段とを有することを特徴とする撮像システム。
【選択図】 図4

Figure 2024053482000001

An object is to provide a method for preventing the stereo distance measurement range from being narrowed even when there is a large difference in brightness in an imaging system.
[Solution] An imaging system comprising a first imaging means for outputting a first image signal and a second image signal, a second imaging means for outputting a third image signal, a developing means for generating image information based on each image signal, a stereo ranging means for generating first distance information based on the first image and the second image, a determination means for determining the state of an image based on the first image signal and the second image signal, a control means for controlling the exposure time for imaging to be longer than the other based on the state of the image, and an image synthesis means for generating distance image information based on the image information and the first distance information after controlling the exposure time.
[Selected figure] Figure 4

Description

本発明は、撮像装置を複数台用いた撮像システムにおけるダイナミックレンジ拡大手法に関するものである。 The present invention relates to a method for expanding the dynamic range in an imaging system that uses multiple imaging devices.

近年、車やロボットの目としてカメラが使われることが多くなっている。従来、カメラではCMOS(Complementary Metal Oxide Semiconductor)イメージセンサなどの撮像素子で、光の強さ(輝度情報)を検出し映像を出力している。一方で、通常の映像を取得するカメラだけでなく、被写体までの距離を検出する測距カメラも普及してきている。 In recent years, cameras are increasingly being used as the eyes of cars and robots. Traditionally, cameras use imaging elements such as CMOS (Complementary Metal Oxide Semiconductor) image sensors to detect the intensity of light (brightness information) and output images. Meanwhile, in addition to cameras that capture normal images, distance measuring cameras that detect the distance to a subject are also becoming more common.

イメージセンサを用いた測距カメラの方式として、2台のカメラの視差画像から対象物までの距離を算出するステレオ測距という技術が知られている。本技術を使用して、車両に設置した2台のカメラから障害物や対象物までの距離を算出し、車両の自動走行などに使用する目的で利用され始めている。また、他の測距方式としてデジタルカメラなどで使用される像面位相差測距方式のカメラがある。1画素内に二つの受光部を持つことで、視差のある2枚の画像を取得しステレオ測距を行うことができる。このイメージセンサを用いたカメラでは、単眼での測距が可能になる。 One known distance measurement method for cameras using image sensors is stereo ranging, which calculates the distance to an object from the parallax images of two cameras. This technology is being used to calculate the distance to obstacles or objects from two cameras installed in a vehicle, and is beginning to be used for purposes such as autonomous vehicle driving. Another distance measurement method is the image plane phase difference distance measurement method used in digital cameras. By having two light receiving parts within one pixel, it is possible to obtain two images with parallax and perform stereo distance measurement. Cameras using this image sensor enable distance measurement with a single eye.

ところで、カメラなどの撮像装置の性能の一つにダイナミックレンジがある。ダイナミックレンジとは、カメラが識別できる明るさの最大値と最小値の比率である。カメラのダイナミックレンジを超える明暗差がある被写体を撮像する場合、明部に露光を合わせると暗部が黒潰れしてしまい情報が取得できない。また、暗部に露光を合わせると明部が白飛びしてしまい情報を取得できなくなる。例えば、図1のようにトンネル内部からトンネルの出口のような場面で撮像するとき、トンネル内部100に露光を合わせると、トンネル外部101が白飛びし、トンネル外部101に露光を合わせると、トンネル内部100が黒潰れしてしまう。これは測距カメラも同様で、ダイナミックレンジを外れた明るさでは測距情報を取得できなくなるという問題がある。 Incidentally, one of the performance features of imaging devices such as cameras is the dynamic range. The dynamic range is the ratio between the maximum and minimum brightness values that a camera can distinguish. When capturing an image of a subject with a brightness difference that exceeds the dynamic range of a camera, if the exposure is adjusted to the bright parts, the dark parts will be crushed to black and no information can be obtained. Also, if the exposure is adjusted to the dark parts, the bright parts will be blown out and no information can be obtained. For example, when capturing an image of a scene such as the tunnel exit from inside the tunnel as shown in Figure 1, if the exposure is adjusted to the inside 100 of the tunnel, the outside 101 of the tunnel will be blown out, and if the exposure is adjusted to the outside 101 of the tunnel, the inside 100 of the tunnel will be crushed to black. The same is true for distance measuring cameras, and there is a problem that distance measuring information cannot be obtained with brightness outside the dynamic range.

このような明暗差が大きい場面で正常に情報を取得するには、カメラのダイナミックレンジを拡大する必要がある。 To properly capture information in scenes with such large differences in brightness, the camera's dynamic range needs to be expanded.

特許文献1では、撮像システムで明暗差の大きい場面を撮像した場合に左右のカメラで露光時間を変更し1枚の合成画像を作ることが提案されている。左右のカメラの露光時間を変更することで、片方のカメラが白飛びや黒潰れをしていても、もう片方のカメラで撮像した画像を合成することにより白飛び、黒潰れ部の補填をすることができる。 Patent Document 1 proposes that when an imaging system captures a scene with a large difference in brightness, the exposure times of the left and right cameras are changed to create a single composite image. By changing the exposure times of the left and right cameras, even if one of the cameras has blown out highlights or crushed shadows, the blown out highlights and crushed shadows can be compensated for by combining the image captured by the other camera.

この技術を用いることで、撮像システムにおける映像のダイナミックレンジを拡大することができる。 This technology can be used to expand the dynamic range of images in imaging systems.

特許第05411842号Patent No. 05411842

しかしながら、上記特許文献1の技術を用いてダイナミックレンジの拡大を行った場合、通常の映像のダイナミックレンジは拡大されるものの、ステレオ測距可能な範囲が狭まってしまう。 However, when the dynamic range is expanded using the technology of Patent Document 1, although the dynamic range of normal images is expanded, the range in which stereo distance measurement is possible is narrowed.

本発明の目的は、撮像システムにおいて、明暗差が大きい場合でもステレオ測距可能範囲を狭めることを抑制できる方法を提供することである。 The object of the present invention is to provide a method for preventing the stereo ranging range from being narrowed even when there is a large difference in brightness in an imaging system.

上記の課題を解決するために、本発明は、
撮像により、互いに視差を有する第1の画像信号および第2の画像信号を出力する第1の撮像手段と、
撮像により、前記第1の画像信号および前記第2の画像信号との間に視差を有する第3の画像信号を出力する第2の撮像手段と、
前記第1の画像信号および前記第2の画像信号、前記第3の画像信号に基づいて画像情報を生成する現像手段と、
前記第1の画像および前記第2の画像に基づいて第1の距離情報を生成するステレオ測距手段と、
前記第1の画像信号および前記第2の画像信号に基づいて、前記第1の撮像手段により撮像された画像の状態を判定する判定手段と、
前記第1の撮像手段により撮像された画像の状態に基づいて、前記第1の画像信号の撮像および前記第2の画像信号の撮像のうち一方の露光時間を他方よりも長くなるように制御する制御手段と、
前記露光時間の制御の後、前記画像情報および前記第1の距離情報に基づいて、距離画像情報を生成する画像合成手段と
を有することを特徴とする撮像システム。
In order to solve the above problems, the present invention provides
a first imaging means for capturing an image and outputting a first image signal and a second image signal having a parallax therebetween;
a second imaging means for capturing an image and outputting a third image signal having a parallax between the first image signal and the second image signal;
a developing means for generating image information based on the first image signal, the second image signal, and the third image signal;
a stereo distance measuring means for generating first distance information based on the first image and the second image;
a determination means for determining a state of an image captured by the first imaging means based on the first image signal and the second image signal;
a control means for controlling an exposure time for one of the first image signal and the second image signal based on a state of an image captured by the first image capture means so that the exposure time for the other of the first image signal and the second image signal is longer than the exposure time for the other of the first image signal and the second image signal based on a state of an image captured by the first image capture means;
and an image synthesis unit that generates distance image information based on the image information and the first distance information after controlling the exposure time.

本発明によれば、撮像システムにおいて、明暗差が大きい場合でもステレオ測距可能範囲を狭めることを抑制できる。 According to the present invention, in an imaging system, it is possible to prevent the stereo ranging range from being narrowed even when there is a large difference in brightness.

明暗差の大きいシチュエーションの例Example of a situation with a large difference in brightness 通常のステレオカメラにおける撮像可能な輝度範囲と測距可能範囲を示す図A diagram showing the image capture range and distance measurement range of a normal stereo camera. 左右のカメラで露光時間を変えた時の撮像可能な輝度範囲と測距可能範囲を示す図A diagram showing the imageable luminance range and distance measurement range when the exposure time is changed for the left and right cameras. 実施形態1に係る撮像システムの構成例を示すブロック図FIG. 1 is a block diagram showing an example of the configuration of an imaging system according to a first embodiment. (A)撮像素子の構成を光の入射方向から見た上面図、(B)画素群5000のI-I’断面における断面図(A) is a top view of the configuration of the image sensor as seen from the direction of light incidence, and (B) is a cross-sectional view of the pixel group 5000 taken along the line I-I'. (A)緑画素G1の各光源変換部に入射する光を示す模式図、(B)合焦時の撮像素子と撮像光学系について示した概略図、(C)負方向にデフォーカスした時の撮像素子と撮像光学系について示した概略図、(D)正方向にデフォーカスした時の撮像素子と撮像光学系について示した概略図(A) A schematic diagram showing light incident on each light source conversion unit of the green pixel G1; (B) A schematic diagram showing the image sensor and the image capturing optical system when in focus; (C) A schematic diagram showing the image sensor and the image capturing optical system when defocused in the negative direction; and (D) A schematic diagram showing the image sensor and the image capturing optical system when defocused in the positive direction. 実施形態1に係る撮像システムの動作フローを示す図FIG. 1 is a diagram showing an operation flow of the imaging system according to the first embodiment. 実施形態1に係る撮像システムの通常モード時の撮像可能な輝度範囲と測距可能範囲を示す図FIG. 1 is a diagram showing an imageable luminance range and a distance measurement range in a normal mode of the imaging system according to the first embodiment; 実施形態1に係る撮像システムのHDRモード時の撮像可能な輝度範囲と測距可能範囲を示す図FIG. 1 is a diagram showing an imageable luminance range and a distance measurement range in an HDR mode of an imaging system according to a first embodiment; 実施形態2に係る撮像システムに関わる制御システムのブロック図であるFIG. 11 is a block diagram of a control system related to an imaging system according to a second embodiment. 実施形態2に係る撮像システムの動作フローを示す図FIG. 11 is a diagram showing an operation flow of an imaging system according to a second embodiment. 実施形態2に係る撮像システムの通常モード時の撮像可能な輝度範囲と測距可能範囲を示す図FIG. 13 is a diagram showing an imageable luminance range and a distance measurement range in a normal mode of an imaging system according to a second embodiment; 実施形態2に係る撮像システムのHDRモード時の撮像可能な輝度範囲と測距可能範囲を示す図FIG. 13 is a diagram showing an imageable luminance range and a distance measurement range in an HDR mode of an imaging system according to a second embodiment;

以下、本発明の実施形態について、図面を参照しながら詳細に説明する。各図において、同一の部材については同一の参照番号を付し、重複する説明は省略する。 The following describes in detail an embodiment of the present invention with reference to the drawings. In each drawing, the same reference numbers are used for the same components, and duplicate descriptions are omitted.

<第1の実施形態>
以下、本発明の実施形態1について説明する。
First Embodiment
Hereinafter, a first embodiment of the present invention will be described.

撮像システムでは、左右のカメラでの撮像画像の視差を用いて測距を行う、ブロックマッチング法が用いられる。このブロックマッチング法を使用するには、左右のカメラ両方に映っている被写体しか測距をすることができない。 The imaging system uses a block matching method that measures distance using the parallax between images captured by the left and right cameras. To use this block matching method, distance can only be measured for subjects that are captured by both the left and right cameras.

図2、図3を用いて、合成画像のダイナミックレンジの拡大に対して、ステレオ測距可能な範囲が減少していることを説明する。図2、図3では、縦軸に被写体の明るさを示し、下に行くほど被写体が暗いことを示し、上に行くほど被写体が明るいことを示している。 Using Figures 2 and 3, we explain how the range in which stereo distance measurement is possible decreases as the dynamic range of the composite image expands. In Figures 2 and 3, the vertical axis indicates the brightness of the subject, with the subject becoming darker as it moves downwards and the subject becoming brighter as it moves upwards.

撮像システムを構成するカメラをそれぞれカメラA、カメラBとした時に、通常撮影時はどちらのカメラも同じ露光時間で制御されるため、適正露出で撮像されるのは図2の実線で示す撮像可能範囲202と撮像可能範囲205となる。また、白飛びもしくは黒飛びする部分は点線で示す、白飛び201、白飛び204、黒潰れ203、黒潰れ206となる。このとき、ステレオ測距が可能な範囲は斜線で示される測距可能範囲200となる。そこで、カメラAの露光時間を短く、カメラBの露光時間を長くすると、カメラAでは明るい被写体を、カメラBでは暗い被写体を適正露出で撮像可能となる。 When the cameras that make up the imaging system are camera A and camera B, both cameras are controlled with the same exposure time during normal shooting, so what is captured with proper exposure is the imageable range 202 and imageable range 205 shown by solid lines in Figure 2. Also, the areas that are blown out or blown out are shown by dotted lines as blown out highlights 201, blown out highlights 204, crushed shadows 203, and crushed shadows 206. At this time, the range where stereo distance measurement is possible is the measurable range 200 shown by diagonal lines. Therefore, if the exposure time of camera A is shortened and the exposure time of camera B is lengthened, it becomes possible to capture bright subjects with camera A and dark subjects with camera B with proper exposure.

そのように制御した際のカメラA、カメラBの撮像可能範囲は図3の実線で示される撮像可能範囲301、撮像可能範囲304、撮像不可領域は点線で示されている黒潰れ302、白飛び303となる。カメラA、カメラBの露光時間をずらすことで撮像可能範囲は撮像可能範囲301と撮像可能範囲304を合わせた部分となる。しかしブロックマッチング法で測距できる箇所は撮像可能範囲301と撮像可能範囲304の共通した部分である、測距可能範囲300のみとなってしまい測距可能範囲は狭くなってしまう。 When controlled in this way, the imageable ranges of cameras A and B are imageable range 301 and imageable range 304 shown by solid lines in Figure 3, and the unimageable areas are crushed blacks 302 and blown out highlights 303 shown by dotted lines. By shifting the exposure times of cameras A and B, the imageable range becomes the combined imageable range 301 and imageable range 304. However, the only locations that can be measured using the block matching method are measurable range 300, which is the common part of imageable range 301 and imageable range 304, and the measurable range becomes narrower.

図4は、本発明の実施形態に係る撮像システムの構成例を示すブロック図である。 Figure 4 is a block diagram showing an example of the configuration of an imaging system according to an embodiment of the present invention.

本撮像システムは、ステレオカメラ4000、処理部4100(情報処理装置)、表示部4200により構成されるシステムである。 This imaging system is a system composed of a stereo camera 4000, a processing unit 4100 (information processing device), and a display unit 4200.

ステレオカメラ4000は、撮像装置4010(第1の撮像手段)および撮像装置4020(第2の撮像手段)で構成される。 The stereo camera 4000 is composed of an imaging device 4010 (first imaging means) and an imaging device 4020 (second imaging means).

撮像装置4010は、撮像光学系4011および撮像素子4012で構成される。 The imaging device 4010 is composed of an imaging optical system 4011 and an imaging element 4012.

撮像光学系4011は、被写体の像(光学像)を撮像素子4012上に形成することができ、撮像素子4012から所定の距離だけ離れた位置に射出瞳を有する。 The imaging optical system 4011 can form an image (optical image) of a subject on the imaging element 4012, and has an exit pupil located a predetermined distance away from the imaging element 4012.

撮像素子4012は、光電変換機能を有する画素を2次元状に配置した画素領域を備える。図示しない各画素領域は2つの光電変換部(第1の光電変換部、第2の光電変換部)を有し、撮像素子4012上に結像した被写体像を光電変換して被写体像に基づく画像信号を生成する。なお、撮像素子4012は、第1の光電変換部から出力された信号に基づく第1の画像信号を、第2の光電変換部から出力された信号に基づく第2の画像信号を、処理部4100内の現像部4101と位相差測距部4102に出力する。第1の画像信号と第2の画像信号とは互いに視差を有している。以上のように撮像素子4012が第1の画像信号および第2の画像信号を出力する構成であるため、本実施形態における撮像システムは、ステレオ測距だけでなく、後述する撮像面位相差測距方式を用いての測距も可能である。また、第1の光電変換部およびに第2の光電変換部の露光時間はそれぞれ異なる時間で制御することも可能なものとする。 The image sensor 4012 has a pixel region in which pixels having a photoelectric conversion function are arranged two-dimensionally. Each pixel region (not shown) has two photoelectric conversion units (first photoelectric conversion unit, second photoelectric conversion unit) and photoelectrically converts the subject image formed on the image sensor 4012 to generate an image signal based on the subject image. The image sensor 4012 outputs a first image signal based on the signal output from the first photoelectric conversion unit and a second image signal based on the signal output from the second photoelectric conversion unit to the development unit 4101 and phase difference distance measurement unit 4102 in the processing unit 4100. The first image signal and the second image signal have a parallax. Since the image sensor 4012 is configured to output the first image signal and the second image signal as described above, the imaging system in this embodiment is capable of distance measurement using not only stereo distance measurement but also an imaging surface phase difference distance measurement method described later. In addition, the exposure times of the first photoelectric conversion unit and the second photoelectric conversion unit can be controlled to different times.

撮像装置4020は、撮像光学系4021および撮像素子4022で構成される。 The imaging device 4020 is composed of an imaging optical system 4021 and an imaging element 4022.

撮像光学系4021は、撮像光学系4011と同様のため説明を省略する。 The imaging optical system 4021 is similar to the imaging optical system 4011, so a description thereof will be omitted.

撮像素子4022は、光電変換部を有する画素を2次元状に配置した画素領域を備え、各画素は1つの光電変換部を有し、撮像素子4022上に結像した被写体像を光電変換して被写体像に基づく画像信号(第3の画像信号)を生成する。第3の画像信号は、第1の画像信号および第2の画像信号と互いに視差を有している。なお、撮像素子4022は、光電変換部から出力された画像信号を、処理部4100内の現像部4101に出力する。 The image sensor 4022 has a pixel region in which pixels having photoelectric conversion units are arranged two-dimensionally, and each pixel has one photoelectric conversion unit, and photoelectrically converts the subject image formed on the image sensor 4022 to generate an image signal (third image signal) based on the subject image. The third image signal has a parallax with respect to the first image signal and the second image signal. The image sensor 4022 outputs the image signal output from the photoelectric conversion unit to the development unit 4101 in the processing unit 4100.

処理部4100は、現像部4101、位相差測距部4102、ステレオ測距部4103、白飛び/黒潰れ判定部4104、露出制御部4105、画像合成部4106により構成される。また、処理部4100は他に、図示しない演算や制御を行うCPU(Central Processing Unit)、主記憶装置であるROM(Read Only Memory)やRAM(Random Access Memory)も備えている。ROMには基本的な設定データや本実施形態に係るプログラムが記憶されている。CPUでは、処理内容に応じたプログラムをROMから呼び出して、RAMに展開し、各ブロックの動作を実行する。 The processing unit 4100 is composed of a development unit 4101, a phase difference distance measurement unit 4102, a stereo distance measurement unit 4103, a highlight/shadow crush determination unit 4104, an exposure control unit 4105, and an image synthesis unit 4106. The processing unit 4100 also includes a CPU (Central Processing Unit) that performs calculations and control (not shown), and a ROM (Read Only Memory) and RAM (Random Access Memory) that serve as main storage devices. Basic setting data and the program according to this embodiment are stored in the ROM. The CPU calls up a program corresponding to the processing content from the ROM, expands it in the RAM, and executes the operation of each block.

現像部4101は、撮像素子4012より伝送された第1の画像信号および第2の画像信号に基づいて、画素ごとに赤、緑、青の各色の輝度情報を持つ画像データ(画像情報)を生成する。撮像素子4022より伝送された画像信号からも同様に、画素ごとに赤、緑、青の各色の輝度情報を持つ画像データを生成する。生成した画像データはステレオ測距部4103、白飛び/黒潰れ判定部4104、画像合成部4106に伝達される。 The developing unit 4101 generates image data (image information) having luminance information for each of the colors red, green, and blue for each pixel based on the first image signal and the second image signal transmitted from the image sensor 4012. Similarly, image data having luminance information for each of the colors red, green, and blue for each pixel is generated from the image signal transmitted from the image sensor 4022. The generated image data is transmitted to the stereo distance measurement unit 4103, the whiteout/blackout determination unit 4104, and the image synthesis unit 4106.

位相差測距部4102は、撮像素子4012より伝送された第1の画像信号と第2の画像信号に基づいて画素ごとの距離情報を示す距離データ(第2の距離情報)を生成する。生成された距離データは、画像合成部4106に伝達される。画像データと距離データは同一の画像信号から生成されるため、画像データと距離データは時間的に同期されている。 The phase difference distance measuring unit 4102 generates distance data (second distance information) indicating distance information for each pixel based on the first image signal and the second image signal transmitted from the image sensor 4012. The generated distance data is transmitted to the image synthesis unit 4106. Since the image data and the distance data are generated from the same image signal, the image data and the distance data are synchronized in time.

ステレオ測距部4103では、現像部4101にて現像された撮像装置4010と撮像装置4020の画像データを用いて、視差の算出を行い、その視差情報から距離情報(第1の距離情報)の算出を行う。視差の算出を行う方法としては例えば、ブロックマッチング法がある。ブロックマッチング法とは、一方の画像の選択されたある領域に対して、もう一方の画像から類似度の高い領域を探索し、その類似度の高い領域との位置のずれを視差とする方法である。生成された距離データは画像合成部4106に伝達される。 The stereo distance measurement unit 4103 calculates the parallax using the image data of the imaging device 4010 and the imaging device 4020 developed by the development unit 4101, and calculates distance information (first distance information) from the parallax information. One method for calculating parallax is the block matching method. The block matching method is a method in which a selected area of one image is searched for in the other image to find an area with high similarity to the other image, and the positional deviation from the area with high similarity is regarded as the parallax. The generated distance data is transmitted to the image synthesis unit 4106.

判定部4104では、撮像装置4010にて撮像され、現像部4101にて現像された画像データ中に白飛び、黒潰れがないかの判定を行う。なお、白飛びしている状態というのは、画像信号中で輝度値が最大値(例えば、255)である部分または最大値付近である部分を指す。また黒潰れしている状態とは、画像信号中で輝度値が最小値(例えば、0もしくは撮像素子を遮光した時の輝度に相当する黒レベルなど)である部分または最小値付近である部分を指す。上記、輝度値が最大値付近というのは、輝度値が所定の閾値W1以上(第1の閾値以上、例えば240以上)である場合は白飛びであると決定するということである。また、最小値付近というのは輝度が閾値W1よりも小さい所定の閾値B1以下(第2の閾値以下、例えば15以下)である場合は黒潰れであると決定するということである。画像信号中に白飛びも黒潰れも検出されない場合は、通常モードでの制御を行うことを露出制御部4105に伝達する。また、画像信号中に白飛び、もしくは黒潰れ、もしくはそれらの両方を検出した場合は白飛び、黒潰れを抑制するためにHDRモードでの制御を行うことを露出制御部4105へ伝達する。 The determination unit 4104 determines whether there is blown-out highlights or crushed blacks in the image data captured by the imaging device 4010 and developed by the development unit 4101. A blown-out highlight state refers to a portion in the image signal where the luminance value is the maximum value (e.g., 255) or near the maximum value. A crushed black state refers to a portion in the image signal where the luminance value is the minimum value (e.g., 0 or a black level equivalent to the luminance when the imaging element is shielded) or near the minimum value. The above-mentioned luminance value near the maximum value means that it is determined to be blown-out highlights when the luminance value is equal to or greater than a predetermined threshold value W1 (a first threshold value or greater, e.g., 240 or greater). Also, the vicinity of the minimum value means that it is determined to be crushed blacks when the luminance is equal to or less than a predetermined threshold value B1 (a second threshold value or less, e.g., 15 or less) that is smaller than the threshold value W1. If neither blown-out highlights nor crushed blacks are detected in the image signal, the exposure control unit 4105 is informed of control in normal mode. In addition, if blown-out highlights, crushed shadows, or both are detected in the image signal, the exposure control unit 4105 is notified to perform control in HDR mode to suppress blown-out highlights and crushed shadows.

露出制御部4105では、判定部4104の判定結果に応じて、露出の制御を変更する。白飛び、黒潰れどちらも判定部4104にて検出されない場合は、通常モードで制御し、各撮像装置内の各画素内の光電変換部を同じ露出となるようにステレオカメラ4000を制御する。判定部4104にて白飛び、もしくは黒潰れ、もしくはそれらの両方を検出した際は、HDRモードに切り替え、各画素の光電変換部ごとに露光時間を変更するようにステレオカメラ4000の制御を行う。HDRモードの時撮像素子4012内のすべての画素(全画素)に対して同様に左右の光電変換部での露光時間の変更を制御してもよいし、白飛び/黒潰れが起きている箇所にのみ適用できるように調整可能としてもよい。 The exposure control unit 4105 changes the exposure control depending on the judgment result of the judgment unit 4104. If neither blown-out nor crushed shadows are detected by the judgment unit 4104, control is performed in normal mode, and the stereo camera 4000 is controlled so that the photoelectric conversion units in each pixel in each imaging device have the same exposure. If the judgment unit 4104 detects blown-out or crushed shadows, or both, the stereo camera 4000 is switched to HDR mode and the exposure time is changed for each photoelectric conversion unit of each pixel. In HDR mode, the change in exposure time in the left and right photoelectric conversion units may be controlled in the same way for all pixels (all pixels) in the imaging element 4012, or it may be adjustable so that it can be applied only to areas where blown-out highlights/crushed shadows occur.

また、撮像素子4012における第1の光電変換部と第2の光電変化部のうち少なくとも一方の露光時間が他方よりも長くなるように制御してもよい。 In addition, the exposure time of at least one of the first photoelectric conversion unit and the second photoelectric conversion unit in the image sensor 4012 may be controlled to be longer than the other.

画像合成部4106では、現像部4101にて出力された画像データと位相差測距部4102およびステレオ測距部4103にて生成された測距データを用いて表示部4200に映し出すための画像を合成する。(合成画像を生成する)画像合成部4106にて生成された画像(距離画像情報)は表示部4200に伝送される。 The image synthesis unit 4106 synthesizes an image to be displayed on the display unit 4200 using the image data output by the development unit 4101 and the distance measurement data generated by the phase difference distance measurement unit 4102 and the stereo distance measurement unit 4103. The image (distance image information) generated by the image synthesis unit 4106 (which generates a synthetic image) is transmitted to the display unit 4200.

表示部4200は、液晶ディスプレイなどの表示手段で、画像合成部4106から伝送されてきた映像の表示を行う。 The display unit 4200 is a display means such as an LCD display, and displays the video transmitted from the image synthesis unit 4106.

ここで、図5および図6を用いて、撮像素子4012、撮像素子4022を利用した像面位相差測距方式による測距原理について説明する。 Here, the principle of distance measurement using the image plane phase difference distance measurement method using the image sensor 4012 and the image sensor 4022 will be explained using Figures 5 and 6.

図5は、例として撮像素子4012の構成を示す模式図である。図5(A)は、撮像素子4012を光の入射方向からみた上面図である。撮像素子4012は、2行×2列の画素群5000をマトリクス状に複数配列することで構成される。画素群5000は、緑色の光を検出する緑画素G1、緑画素G2、赤色の光を検出する赤画素R及び青色の光を検出する青画素Bを有する。画素群5000において、緑画素G1および緑画素G2は対角に配置される。また、各画素は、第1の光電変換部5001と、第2の光電変換部5002とを有する。第1の光電変換部5001、および第2の光電変換部5002の露光時間は先述の通り、それぞれ異なる時間で制御することも可能なものとする。 Figure 5 is a schematic diagram showing the configuration of the image sensor 4012 as an example. Figure 5 (A) is a top view of the image sensor 4012 seen from the light incidence direction. The image sensor 4012 is configured by arranging a plurality of pixel groups 5000 of 2 rows x 2 columns in a matrix shape. The pixel group 5000 has green pixels G1 and G2 that detect green light, red pixels R that detect red light, and blue pixels B that detect blue light. In the pixel group 5000, the green pixels G1 and G2 are arranged diagonally. Each pixel also has a first photoelectric conversion unit 5001 and a second photoelectric conversion unit 5002. As described above, the exposure times of the first photoelectric conversion unit 5001 and the second photoelectric conversion unit 5002 can be controlled to different times.

図5(B)は、図5(A)における画素群5000のI-I’断面における断面図である。各画素は、マイクロレンズ5003、導光層5004、および受光層5005から構成される。 Figure 5 (B) is a cross-sectional view of the pixel group 5000 in Figure 5 (A) along the line I-I'. Each pixel is composed of a microlens 5003, a light guide layer 5004, and a light receiving layer 5005.

導光層5004は、画素へ入射した光束を受光層5005へ効率良く導くためのマイクロレンズ5003、各画素が検出する光の色に対応する波長帯域の光を通過させるカラーフィルタ、および、画像読み出し用及び画素駆動用の配線を有する導光部材である。 The light guide layer 5004 is a light guide member that includes microlenses 5003 for efficiently guiding the light flux incident on the pixel to the light receiving layer 5005, color filters that pass light in the wavelength band corresponding to the color of light detected by each pixel, and wiring for reading out the image and driving the pixels.

受光層5005は、導光層5004を介して入射した光を光電変換して電気信号として出力する光電変換部である。受光層5005は、第1の光電変換部5001、および第2の光電変換部5002を有する。 The light receiving layer 5005 is a photoelectric conversion section that photoelectrically converts the light incident through the light guide layer 5004 and outputs it as an electrical signal. The light receiving layer 5005 has a first photoelectric conversion section 5001 and a second photoelectric conversion section 5002.

図6は、像面位相差測距方式における被写体距離と入射光との関係を示す模式図である。図6(A)は、撮像光学系4011の射出瞳6000と、撮像素子4012の緑画素G1と、緑画素G1の各光源変換部に入射する光を示す模式図である。撮像素子4012は、複数の画素を有するが、簡略化のため、1つの緑画素G1について説明する。 Figure 6 is a schematic diagram showing the relationship between subject distance and incident light in the image plane phase difference ranging method. Figure 6 (A) is a schematic diagram showing the exit pupil 6000 of the imaging optical system 4011, the green pixel G1 of the imaging element 4012, and the light incident on each light source conversion unit of the green pixel G1. The imaging element 4012 has multiple pixels, but for simplicity, one green pixel G1 will be described.

緑画素G1のマイクロレンズ5003は、射出瞳6000と導光層5004とが光学的に共役関係になるように配置されている。その結果、射出瞳6000に内包される部分瞳領域である第1の瞳領域6010を通過した光束は第1の光電変換部5001に入射する。同様に部分瞳領域である第2の瞳領域6020を通過した光束は第2の光電変換部5002に入射する。 The microlens 5003 of the green pixel G1 is arranged so that the exit pupil 6000 and the light guide layer 5004 are optically conjugate with each other. As a result, the light beam that passes through the first pupil region 6010, which is a partial pupil region contained in the exit pupil 6000, enters the first photoelectric conversion unit 5001. Similarly, the light beam that passes through the second pupil region 6020, which is also a partial pupil region, enters the second photoelectric conversion unit 5002.

各画素の第1の光電変換部5001は、受光した光束を光電変換して信号を出力する。撮像素子4012に含まれる複数の第1の光電変換部5001から出力された信号から、第1の画像信号が生成される。第1の画像信号は、第1の瞳領域6010を主に通過した光束が撮像素子4012上に形成する像の強度分布を示す。 The first photoelectric conversion unit 5001 of each pixel performs photoelectric conversion on the received light beam and outputs a signal. A first image signal is generated from signals output from the multiple first photoelectric conversion units 5001 included in the image sensor 4012. The first image signal indicates the intensity distribution of an image formed on the image sensor 4012 by the light beam that has mainly passed through the first pupil region 6010.

各画素の第2の光電変換部5002は、受光した光束を光電変換して信号を出力する。撮像素子4012に含まれる複数の第2の光電変換部5002から出力された信号から、第2の画像信号が生成される。第2の画像信号は、第2の瞳領域6020を主に通過した光束が撮像素子4012上に形成する像の強度分布を示す。 The second photoelectric conversion unit 5002 of each pixel performs photoelectric conversion on the received light beam and outputs a signal. A second image signal is generated from the signals output from the multiple second photoelectric conversion units 5002 included in the image sensor 4012. The second image signal indicates the intensity distribution of the image formed on the image sensor 4012 by the light beam that has mainly passed through the second pupil region 6020.

第1の画像信号と第2の画像信号間の相対的な位置ズレ量(以下、視差量と呼ぶ)は、デフォーカス量に応じた量となる。視差量とデフォーカス量の関係について、図6(B)、(C)、(D)を用いて説明する。 The relative positional shift amount between the first image signal and the second image signal (hereinafter referred to as the parallax amount) is an amount that depends on the defocus amount. The relationship between the parallax amount and the defocus amount will be explained using Figures 6 (B), (C), and (D).

図6(B)、(C)、(D)は撮像素子4012、撮像光学系4011について示した概略図である。図中の6011は第1の瞳領域6010を通過する第1の光束を示し、6021は第2の瞳領域6020を通過する第2の光束を示す。 Figures 6(B), (C), and (D) are schematic diagrams showing the image sensor 4012 and the image pickup optical system 4011. In the figures, 6011 indicates a first light beam passing through the first pupil region 6010, and 6021 indicates a second light beam passing through the second pupil region 6020.

図6(B)は、合焦時の状態を示しており、第1の光束6011と第2の光束6021が撮像素子4012上で収束している。この時、第1の光束6011により形成される第1の画像信号と第2の光束6021により形成される第2の画像信号間の視差量は0となる。 Figure 6 (B) shows the state when in focus, where the first light beam 6011 and the second light beam 6021 converge on the image sensor 4012. At this time, the parallax amount between the first image signal formed by the first light beam 6011 and the second image signal formed by the second light beam 6021 is 0.

図6(C)は、像側でw軸の負方向にデフォーカスした状態を示している。この時、第1の光束6011により形成される第1の画像信号と第2の光束6021により形成される第2の画像信号間の視差量は0とはならず、負の値を有する。 Figure 6 (C) shows a state where the image side is defocused in the negative direction of the w axis. At this time, the parallax amount between the first image signal formed by the first light beam 6011 and the second image signal formed by the second light beam 6021 is not 0, but has a negative value.

図6(D)は像側でw軸の正方向にデフォーカスした状態を示している。この時、第1の光束6011により形成される第1の画像信号と第2の光束6021により形成される第2の画像信号間の視差量は0とはならず、正の値を有する。 Figure 6 (D) shows a state where the image side is defocused in the positive direction of the w axis. At this time, the amount of parallax between the first image signal formed by the first light beam 6011 and the second image signal formed by the second light beam 6021 is not 0 but has a positive value.

図6(C)と(D)の比較から、デフォーカス量の正負に応じて、視差が生じる方向が入れ替わることが分かる。また、幾何関係から、デフォーカス量に応じた視差量が生じることが分かる。従って、第1の画像信号と第2の画像信号との間の視差量を領域ベースのマッチング手法により検出し、視差量を所定の変換係数を介してデフォーカス量に変換することができる。さらに、撮像光学系4011の結像公式を用いることで、像側のデフォーカス量を、物体までの距離に変換することができる。 Comparing Figures 6(C) and (D) reveals that the direction in which parallax occurs changes depending on whether the defocus amount is positive or negative. Furthermore, from the geometric relationship, it can be seen that the amount of parallax occurs according to the amount of defocus. Therefore, the amount of parallax between the first image signal and the second image signal can be detected by a region-based matching method, and the amount of parallax can be converted into the amount of defocus via a predetermined conversion coefficient. Furthermore, by using the imaging formula of the imaging optical system 4011, the amount of defocus on the image side can be converted into the distance to the object.

以上が、像面位相差測距方式による測距原理の説明である。本実施形態では、位相差測距部4102が、像面位相差測距方式により第1の画像信号と第2の画像信号から距離データを生成する。 The above is an explanation of the principle of distance measurement using the image plane phase difference distance measurement method. In this embodiment, the phase difference distance measurement unit 4102 generates distance data from the first image signal and the second image signal using the image plane phase difference distance measurement method.

図7は第1の実施形態に係る撮像システムの動作を示すフローチャートである。このフローチャートは、処理部4100の図示しないCPUにて実行される。 Figure 7 is a flowchart showing the operation of the imaging system according to the first embodiment. This flowchart is executed by a CPU (not shown) of the processing unit 4100.

ステップS1では、撮像素子4012の各画素を構成する第1の光電変換部と第2の光電変換部を同じ露出で制御する通常モードでの動作に切り替える。また、撮像素子4022に関しても、撮像素子4012と同じ露出設定になるように制御する。図8は、通常モード時の測距可能範囲及びに撮像可能範囲を示す。図2と同様に、縦軸に被写体の明るさを示し、下に行くほど被写体が暗いことを示し、上に行くほど被写体が明るいことを示している。撮像装置4010と撮像装置4020の撮像可能範囲はそれぞれ、撮像可能範囲802と撮像可能範囲805である。白飛びする範囲はそれぞれ、白飛び801と白飛び804であり、黒潰れする範囲は黒潰れ803、黒潰れ806である。また、測距可能範囲は、測距可能範囲800で示す。ステレオカメラ4000の各撮像装置で撮像した画像信号は現像部4101にて現像され、判定部4104に伝送し、ステップS2に移行する。 In step S1, the operation is switched to a normal mode in which the first photoelectric conversion unit and the second photoelectric conversion unit constituting each pixel of the image sensor 4012 are controlled with the same exposure. The image sensor 4022 is also controlled to have the same exposure setting as the image sensor 4012. FIG. 8 shows the measurable range and the imageable range in the normal mode. As in FIG. 2, the vertical axis shows the brightness of the subject, with the subject darker toward the bottom and brighter toward the top. The imageable ranges of the image sensor 4010 and the image sensor 4020 are the imageable range 802 and the imageable range 805, respectively. The ranges where whiteout occurs are whiteout 801 and whiteout 804, respectively, and the ranges where blackout occurs are blackout 803 and blackout 806. The measurable range is indicated by the measurable range 800. The image signals captured by each image sensor of the stereo camera 4000 are developed by the developing unit 4101 and transmitted to the determining unit 4104, and the process proceeds to step S2.

ステップS2では、ステップS1で撮像した画像信号を用いて、判定部4104にて白飛び、もしくは黒潰れ、もしくはそれらの両方が含まれていないかを判定する。白飛びや黒潰れが画像信号内にないと判定された場合は、ステップS3に移行する。白飛びや黒潰れが画像信号内にあると判定された場合は、ステップS5に移行する。 In step S2, the determination unit 4104 uses the image signal captured in step S1 to determine whether the image signal contains whiteout, blackout, or both. If it is determined that the image signal does not contain whiteout or blackout, the process proceeds to step S3. If it is determined that the image signal contains whiteout or blackout, the process proceeds to step S5.

ステップS3では、ステップS1にてステレオカメラ4000により撮像された画像データから距離情報の算出を行う。距離情報の算出は、位相差測距部4102とステレオ測距部4103にて行われる。それぞれの測距部での距離データの生成方法は先述の方法で行う。位相差測距部4102とステレオ測距部4103で共通する測距箇所に関しては、どちらかのみの測距情報優先して使用してもよいし、両方の情報に重み付けをして距離情報を算出するのでもよい。画像データの現像及びに距離情報の生成が完了したら、ステップS4に移行する。 In step S3, distance information is calculated from the image data captured by the stereo camera 4000 in step S1. The calculation of distance information is performed by the phase difference distance measurement unit 4102 and the stereo distance measurement unit 4103. The method of generating distance data in each distance measurement unit is as described above. For distance measurement locations common to the phase difference distance measurement unit 4102 and the stereo distance measurement unit 4103, distance measurement information from only one of them may be used preferentially, or both pieces of information may be weighted to calculate distance information. Once development of the image data and generation of distance information are completed, proceed to step S4.

ステップS4では、ステップS3にて現像した画像と生成した距離情報を画像合成部4106にて合成して、表示部4200に表示するための画像を生成する。生成した合成画像は表示部4200に伝送したら、ステップS9に移行する。 In step S4, the image developed in step S3 and the distance information generated are synthesized in the image synthesis unit 4106 to generate an image to be displayed on the display unit 4200. Once the generated synthesized image is transmitted to the display unit 4200, the process proceeds to step S9.

ステップS5では、ステレオカメラ4000の動作モードをHDRモードへ切り替える。露出制御部4105からステレオカメラ4000に対して、各画素の光電変換部ごとに露光時間を変更するように制御を行う。判定部4104より露出制御部4105に各光電変換部の露光時間の変更制御信号を伝送したらステップS6に移行する。 In step S5, the operation mode of the stereo camera 4000 is switched to HDR mode. The exposure control unit 4105 controls the stereo camera 4000 to change the exposure time for each photoelectric conversion unit of each pixel. When the determination unit 4104 transmits a control signal for changing the exposure time for each photoelectric conversion unit to the exposure control unit 4105, the process proceeds to step S6.

ステップS6では、HDRモードでの動作のために各画素を構成する第1の光電変換部と第2の光電変換部とで露光時間を異ならせる制御を行う。この制御を行うことで広いダイナミックレンジの画像を生成することができる。図5(A)の緑画素G2を例にとると、第1の光電変換部5001と第2の光電変換部5002とで露光時間を異ならせる。第1の光電変換部5001の露光時間を長く、第2の光電変換部5002の露光時間を短くすることにより、露光期間の異なる2つの画像データを生成することができる。第1の光電変換部5001から出力される第1出力信号は撮像対象のうち暗部を明るく撮像した画像を出力し、第2の光電変換部5002から出力される第2出力信号は撮像対象のうち明部の飽和を抑制した画像を出力することができる。第1出力信号と第2出力信号を合成することにより、暗部を明るく表現しつつ、明部の飽和を抑制するような、広いダイナミックレンジの画像を取得することができる。HDRモードで出力された画像信号は現像部4101へと伝送され、ステップS7に移行する。 In step S6, control is performed to make the exposure times different between the first photoelectric conversion unit and the second photoelectric conversion unit constituting each pixel for operation in HDR mode. By performing this control, an image with a wide dynamic range can be generated. Taking the green pixel G2 in FIG. 5(A) as an example, the exposure times are made different between the first photoelectric conversion unit 5001 and the second photoelectric conversion unit 5002. By making the exposure time of the first photoelectric conversion unit 5001 longer and the exposure time of the second photoelectric conversion unit 5002 shorter, two image data with different exposure periods can be generated. The first output signal output from the first photoelectric conversion unit 5001 can output an image in which the dark areas of the imaging target are brightly imaged, and the second output signal output from the second photoelectric conversion unit 5002 can output an image in which the saturation of the bright areas of the imaging target is suppressed. By combining the first output signal and the second output signal, an image with a wide dynamic range can be obtained in which the dark areas are brightly expressed while the saturation of the bright areas is suppressed. The image signal output in HDR mode is transmitted to the development unit 4101 and the process proceeds to step S7.

ステップS7では、現像部4101にてHDR画像の生成及び、生成されたHDR画像を用いてステレオ測距部4103にて距離情報の生成を行う。HDR画像を生成する際には、いずれか一方の画像を基準の画像とし、その基準の画像に対して露出が適切でない(白飛びや黒潰れが存在する)場合はもう一つの画像の該当領域の画素の輝度値を用いて画像合成を行う。このようにすることで、明部から暗部まで適切な露出で撮像された画像を得ることができる。また、出力されたHDR画像を用いて、ステレオ測距部4103にて、視差の算出を行い、その視差情報から距離情報の算出を行う。視差の算出を行う方法としては例えば、ブロックマッチング法がある。ブロックマッチング法とは、一方の画像の選択されたある領域に対して、もう一方の画像から類似度の高い領域を探索し、その類似度の高い領域との位置のずれを視差とする方法である。HDRモードでの動作時の撮像可能範囲およびに測距可能範囲を図9に示す。第1の光電変換部5001と第2の光電変換部5002とで露光時間を異ならせることで、撮像装置4010の撮像可能範囲は撮像可能範囲901で示される範囲となり撮像可能範囲802と比較してダイナミックレンジが広くなっていることがわかる。また、測距可能な範囲は測距可能範囲900となり、測距可能範囲800と比較して測距範囲は狭まっていないことがわかる。現像部4101でのHDR画像の生成及びに、ステレオ測距部4103での距離情報の生成が完了したら、ステップS8に移行する。 In step S7, the development unit 4101 generates an HDR image, and the stereo distance measurement unit 4103 generates distance information using the generated HDR image. When generating an HDR image, one of the images is used as a reference image, and if the exposure is not appropriate for the reference image (existence of white blowout or black crush), the image is synthesized using the luminance value of the pixels in the corresponding area of the other image. In this way, an image captured with appropriate exposure from light to dark areas can be obtained. In addition, the stereo distance measurement unit 4103 calculates parallax using the output HDR image, and calculates distance information from the parallax information. For example, a block matching method is used as a method for calculating parallax. The block matching method is a method in which a selected area of one image is searched for in the other image to find an area with high similarity, and the positional deviation from the area with high similarity is used as the parallax. Figure 9 shows the imaging range and distance measurement range during operation in HDR mode. By setting different exposure times between the first photoelectric conversion unit 5001 and the second photoelectric conversion unit 5002, the image capture range of the imaging device 4010 becomes the range indicated by the image capture range 901, which shows a wider dynamic range compared to the image capture range 802. Also, the range where distance measurement is possible becomes the distance measurement range 900, which shows that the distance measurement range is not narrower compared to the distance measurement range 800. When the generation of the HDR image by the development unit 4101 and the generation of distance information by the stereo distance measurement unit 4103 are completed, proceed to step S8.

ステップS8では、ステップS7にて生成したHDR画像と距離情報を画像合成部4106に伝送し、表示部4200に表示するための画像を画像合成部4106にて生成する。生成した合成画像は表示部4200に伝送し、表示部4200に表示したら、ステップS9に移行する。 In step S8, the HDR image and distance information generated in step S7 are transmitted to the image synthesis unit 4106, and the image synthesis unit 4106 generates an image to be displayed on the display unit 4200. The generated synthesis image is transmitted to the display unit 4200, and once it is displayed on the display unit 4200, the process proceeds to step S9.

ステップS9では、撮像素子4012の各画素を構成する第1の光電変換部と第2の光電変換部を同じ露出で制御する通常モードでの動作に切り替える。ステレオカメラ4000の制御が通常モードの制御に切り替わったら一連の動作を終了する。 In step S9, the operation is switched to a normal mode in which the first photoelectric conversion unit and the second photoelectric conversion unit constituting each pixel of the image sensor 4012 are controlled with the same exposure. When the control of the stereo camera 4000 is switched to the normal mode control, the series of operations is terminated.

実施形態1では、撮像素子の各画素領域に2つの光電変換部を設けて、白飛び/黒潰れが発生した場合にそれぞれの光電変換部の露光時間をずらすことにより、ダイナミックレンジの拡大を行った。これにより、ダイナミックレンジを拡大した画像を用いてステレオ測距を行うことで、ステレオ測距可能範囲を狭めることを抑制しつつ、映像のダイナミックレンジを拡大できる。 In the first embodiment, two photoelectric conversion units are provided in each pixel area of the image sensor, and the dynamic range is expanded by shifting the exposure time of each photoelectric conversion unit when whiteout/blackout occurs. As a result, the dynamic range of the image can be expanded while preventing the stereo distance measurement range from being narrowed by performing stereo distance measurement using an image with an expanded dynamic range.

<第2の実施形態>
以下、本発明の実施形態2について説明する。
Second Embodiment
A second embodiment of the present invention will now be described.

図10は、本発明の実施形態に係る撮像システムの構成例を示すブロック図である。 Figure 10 is a block diagram showing an example of the configuration of an imaging system according to an embodiment of the present invention.

本撮像システムは、ステレオカメラ4300、処理部4100、表示部4200により構成されるシステムである。 This imaging system is a system composed of a stereo camera 4300, a processing unit 4100, and a display unit 4200.

ステレオカメラ4300は、撮像装置4010および撮像装置4030(第2の撮像手段)で構成される。 The stereo camera 4300 is composed of an imaging device 4010 and an imaging device 4030 (second imaging means).

撮像装置4010は、第1の実施形態と同様のため、説明は省略する。 The imaging device 4010 is similar to that in the first embodiment, so a detailed description is omitted.

撮像装置4030は、撮像光学系4021および撮像素子4032で構成される。 The imaging device 4030 is composed of an imaging optical system 4021 and an imaging element 4032.

撮像光学系4021は、第1の実施形態と同様のため、説明は省略する。 The imaging optical system 4021 is the same as in the first embodiment, so a description thereof will be omitted.

撮像素子4032は、撮像素子4012と同様の構造をもつ撮像素子を使用する。撮像素子4032は、第1の光電変換部(第3の光電変換手段)から出力された信号に基づく第1の画像信号(第3の画像信号)を、処理部4100内の現像部4101と位相差測距部4102に出力する。また、第2の光電変換部(第4の光電変換手段)から出力された信号に基づく第2の画像信号(第4の画像信号)も、処理部4100内の現像部4101と位相差測距部4102に出力する。第4の画像信号は、第3の画像信号と互いに視差を有する。 The imaging element 4032 uses an imaging element having a structure similar to that of the imaging element 4012. The imaging element 4032 outputs a first image signal (third image signal) based on a signal output from the first photoelectric conversion unit (third photoelectric conversion means) to the development unit 4101 and phase difference distance measurement unit 4102 in the processing unit 4100. The imaging element 4032 also outputs a second image signal (fourth image signal) based on a signal output from the second photoelectric conversion unit (fourth photoelectric conversion means) to the development unit 4101 and phase difference distance measurement unit 4102 in the processing unit 4100. The fourth image signal has a parallax with respect to the third image signal.

処理部4100、表示部4200も、第1の実施形態と同様のため、省略する。 The processing unit 4100 and display unit 4200 are also omitted because they are similar to those in the first embodiment.

図11は第2の実施形態に係る撮像システムの動作を示すフローチャートである。このフローチャートは、処理部4100の図示しないCPUにて実行される。 Figure 11 is a flowchart showing the operation of the imaging system according to the second embodiment. This flowchart is executed by a CPU (not shown) of the processing unit 4100.

ステップS11では、撮像素子4012と撮像素子4032の各画素を構成する第1の光電変換部と第2の光電変換部を同じ露出で制御する通常モードでの動作に切り替える。図12は、通常モード時の測距可能範囲及びに撮像可能範囲を示す。図2と同様に、縦軸に被写体の明るさを示し、下に行くほど被写体が暗いことを示し、上に行くほど被写体が明るいことを示している。撮像装置4010と撮像装置4030の撮像可能範囲はそれぞれ、撮像可能範囲812と撮像可能範囲815である。白飛びする範囲はそれぞれ、白飛び811と白飛び814であり、黒潰れする範囲は黒潰れ813と黒潰れ816である。また、測距可能範囲は、測距可能範囲810で示す。ステレオカメラ4000の各撮像装置で撮像した画像信号は現像部4101にて現像され、判定部4104に伝送し、ステップS12に移行する。 In step S11, the operation is switched to a normal mode in which the first photoelectric conversion unit and the second photoelectric conversion unit constituting each pixel of the image sensor 4012 and the image sensor 4032 are controlled with the same exposure. FIG. 12 shows the measurable range and the imageable range in the normal mode. As in FIG. 2, the brightness of the subject is shown on the vertical axis, with the subject darker toward the bottom and brighter toward the top. The imageable ranges of the image sensor 4010 and the image sensor 4030 are the imageable range 812 and the imageable range 815, respectively. The ranges where whiteout occurs are whiteout 811 and whiteout 814, respectively, and the ranges where blackout occurs are blackout 813 and blackout 816. The measurable range is indicated by the measurable range 810. The image signals captured by each image sensor of the stereo camera 4000 are developed by the developing unit 4101 and transmitted to the determining unit 4104, and the process proceeds to step S12.

ステップS12では、ステップS11で撮像した画像信号を用いて、判定部4104にて白飛び、もしくは黒潰れ、もしくはそれらの両方が含まれていないかを判定する。白飛びや黒潰れが画像信号内にないと判定された場合は、ステップS13に移行する。白飛びや黒潰れが画像信号内にあると判定された場合は、ステップS15に移行する。 In step S12, the determination unit 4104 uses the image signal captured in step S11 to determine whether the image signal contains whiteout, blackout, or both. If it is determined that the image signal does not contain whiteout or blackout, the process proceeds to step S13. If it is determined that the image signal contains whiteout or blackout, the process proceeds to step S15.

ステップS13では、ステップS11にてステレオカメラ4300により撮像された画像データから距離情報の算出を行う。距離情報の算出は、位相差測距部4102とステレオ測距部4103にて行われる。それぞれの測距部での距離データの生成方法は先述の方法で行う。位相差測距部4102とステレオ測距部4103で共通する測距箇所に関しては、位相差測距部4102による情報(第3の距離情報)とステレオ測距部4103による情報のどちらかのみの測距情報を優先して使用してもよい。また、両方の情報に重み付けをして距離情報を算出するのでもよい。画像データの現像及び、距離情報の生成が完了したら、ステップS14に移行する。 In step S13, distance information is calculated from the image data captured by the stereo camera 4300 in step S11. The calculation of distance information is performed by the phase difference distance measurement unit 4102 and the stereo distance measurement unit 4103. The method of generating distance data in each distance measurement unit is as described above. For distance measurement locations common to the phase difference distance measurement unit 4102 and the stereo distance measurement unit 4103, distance measurement information from only one of the information from the phase difference distance measurement unit 4102 (third distance information) and the information from the stereo distance measurement unit 4103 may be used preferentially. Also, distance information may be calculated by weighting both pieces of information. Once development of the image data and generation of the distance information are completed, proceed to step S14.

ステップS14では、ステップS13にて現像した画像と生成した距離情報を画像合成部4106にて合成して、表示部4200に表示するための画像を生成する。生成した合成画像は表示部4200に伝送したら、ステップS19に移行する。 In step S14, the image developed in step S13 and the generated distance information are synthesized in the image synthesis unit 4106 to generate an image to be displayed on the display unit 4200. Once the generated synthesized image is transmitted to the display unit 4200, the process proceeds to step S19.

ステップS15では、ステレオカメラ4300の動作モードをHDRモードへ切り替える。露出制御部4105からステレオカメラ4300に対して、各画素の光電変換部ごとに露光時間を変更するように制御を行う。判定部4104より露出制御部4105に各光電変換部の露光時間の変更制御信号を伝送したらステップS16に移行する。 In step S15, the operation mode of the stereo camera 4300 is switched to HDR mode. The exposure control unit 4105 controls the stereo camera 4300 to change the exposure time for each photoelectric conversion unit of each pixel. When the determination unit 4104 transmits a control signal for changing the exposure time for each photoelectric conversion unit to the exposure control unit 4105, the process proceeds to step S16.

ステップS16では、HDRモードでの動作のために各画素を構成する第1の光電変換部と第2の光電変換部とで露光時間を異ならせる制御を行う。HDRモードで出力された画像信号は現像部4101へと伝送され、ステップS17に移行する。 In step S16, control is performed to make the exposure times different between the first photoelectric conversion unit and the second photoelectric conversion unit that constitute each pixel in order to operate in HDR mode. The image signal output in HDR mode is transmitted to the development unit 4101, and the process proceeds to step S17.

ステップS17では、現像部4101にてHDR画像の生成及び、生成されたHDR画像を用いてステレオ測距部4103にて距離情報の生成を行う。さらに、出力されたHDR画像を用いて、ステレオ測距部4103にて、視差の算出を行い、その視差情報から距離情報の算出を行う。視差の算出を行う方法としては例えば、ブロックマッチング法がある。ブロックマッチング法とは、一方の画像の選択されたある領域に対して、もう一方の画像から類似度の高い領域を探索し、その類似度の高い領域との位置のずれを視差とする方法である。HDRモードでの動作時の撮像可能範囲およびに測距可能範囲を図13に示す。第1の光電変換部と第2の光電変換部とで露光時間を異ならせることで、撮像装置4010、撮像装置4030の撮像可能範囲は撮像可能範囲911、撮像可能範囲912で示される範囲となる。つまり撮像可能範囲812、撮像可能範囲815と比較してダイナミックレンジが広くなっていることがわかる。また、測距可能な範囲は測距可能範囲910となり、測距可能範囲810と比較して測距範囲が広くなっていることがわかる。現像部4101でのHDR画像の生成及びに、ステレオ測距部4103での距離情報の生成が完了したら、ステップS18に移行する。 In step S17, the development unit 4101 generates an HDR image, and the stereo distance measurement unit 4103 generates distance information using the generated HDR image. Furthermore, the stereo distance measurement unit 4103 calculates parallax using the output HDR image, and calculates distance information from the parallax information. For example, a block matching method is used to calculate parallax. The block matching method is a method in which a selected area of one image is searched for in another image to find an area with high similarity, and the positional deviation between the area with high similarity is taken as the parallax. The imageable range and the distance measurement range during operation in HDR mode are shown in FIG. 13. By making the exposure times different between the first photoelectric conversion unit and the second photoelectric conversion unit, the imageable ranges of the image capture device 4010 and the image capture device 4030 are the ranges indicated by the imageable range 911 and the imageable range 912. In other words, it can be seen that the dynamic range is wider than the imageable range 812 and the imageable range 815. In addition, the range in which distance can be measured is the distance measurement range 910, which is wider than the distance measurement range 810. Once the generation of the HDR image by the development unit 4101 and the generation of distance information by the stereo distance measurement unit 4103 are completed, the process proceeds to step S18.

ステップS18では、ステップS17にて生成したHDR画像と距離情報を画像合成部4106に伝送し、表示部4200に表示するための画像を画像合成部4106にて生成する。生成した合成画像は表示部4200に伝送し、表示部4200に表示したら、ステップS19に移行する。 In step S18, the HDR image and distance information generated in step S17 are transmitted to the image synthesis unit 4106, and the image synthesis unit 4106 generates an image to be displayed on the display unit 4200. The generated synthesis image is transmitted to the display unit 4200, and once it is displayed on the display unit 4200, the process proceeds to step S19.

ステップS19では、撮像素子4012と撮像素子4032の各画素を構成する第1の光電変換部と第2の光電変換部を同じ露出で制御する通常モードでの動作に切り替える。ステレオカメラ4300の制御が通常モードの制御に切り替わったら一連の動作を終了する。 In step S19, the operation is switched to a normal mode in which the first photoelectric conversion unit and the second photoelectric conversion unit constituting each pixel of the image sensor 4012 and the image sensor 4032 are controlled with the same exposure. When the control of the stereo camera 4300 is switched to the normal mode control, the series of operations is terminated.

実施形態2では、2つの撮像装置において撮像素子の各画素領域に2つの光電変換部を設けて、白飛び/黒潰れが発生した場合にそれぞれの光電変換部の露光時間をずらすことにより、ダイナミックレンジの拡大を行った。これにより、2つの撮像装置それぞれでダイナミックレンジを拡大した画像を用いてステレオ測距を行うことで、実施形態1と比べて、よりステレオ測距可能範囲を狭めることを抑制しつつ、映像のダイナミックレンジを拡大できる。 In the second embodiment, two photoelectric conversion units are provided in each pixel region of the image sensor in the two imaging devices, and the dynamic range is expanded by shifting the exposure time of each photoelectric conversion unit when whiteout/blackout occurs. As a result, by performing stereo ranging using images with expanded dynamic ranges in each of the two imaging devices, it is possible to expand the dynamic range of the image while suppressing the narrowing of the stereo ranging range compared to the first embodiment.

以上、本発明をその好適な実施形態に基づいて詳述してきたが、本発明はこれら特定の実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の様々な形態も本発明に含まれる。上述の実施形態の一部を適宜組み合わせてもよい。 The present invention has been described in detail above based on preferred embodiments, but the present invention is not limited to these specific embodiments, and various forms within the scope of the gist of the invention are also included in the present invention. Parts of the above-mentioned embodiments may be combined as appropriate.

また、上述の実施形態の機能を実現するソフトウェアのプログラムを、記録媒体から直接、或いは有線/無線通信を用いてプログラムを実行可能なコンピュータを有するシステム又は装置に供給し、そのプログラムを実行する場合も本発明に含む。 The present invention also includes cases where a software program that realizes the functions of the above-mentioned embodiments is supplied to a system or device having a computer capable of executing the program directly from a recording medium or via wired/wireless communication, and the program is executed.

従って、本発明の機能処理をコンピュータで実現するために、該コンピュータに供給、インストールされるプログラムコード自体も本発明を実現するものである。つまり、本発明の機能処理を実現するためのコンピュータプログラム自体も本発明に含まれる。 Therefore, the program code that is supplied to and installed on a computer to realize the functional processing of the present invention also realizes the present invention. In other words, the computer program itself for realizing the functional processing of the present invention is also included in the present invention.

その場合、プログラムの機能を有していれば、オブジェクトコード、インタプリタにより実行されるプログラム、OSに供給するスクリプトデータ等、プログラムの形態を問わない。 In this case, as long as it has the functionality of a program, the form of the program is not important, such as object code, a program executed by an interpreter, or script data supplied to the OS.

プログラムを供給するための記録媒体としては、例えば、ハードディスク、磁気テープ等の磁気記録媒体、光/光磁気記憶媒体、不揮発性の半導体メモリでもよい。 The recording medium for supplying the program may be, for example, a hard disk, a magnetic recording medium such as a magnetic tape, an optical/magnetic optical storage medium, or a non-volatile semiconductor memory.

また、プログラムの供給方法としては、コンピュータネットワーク上のサーバに本発明を形成するコンピュータプログラムを記憶し、接続のあったクライアントコンピュータがコンピュータプログラムをダウンロードしてプログラムするような方法も考えられる。 Another possible method for supplying the program is to store the computer program forming the present invention on a server on a computer network, and have connected client computers download and program the computer program.

4000、4300 ステレオカメラ
4010、4020、4030 撮像装置
4011、4021 撮像光学系
4012、4022、4032 撮像素子
4100 処理部
4101 現像部
4102 位相差測距部
4103 ステレオ測距部
4104 判定部
4105 露出制御部
4106 画像合成部
4200 表示部
5000 画素群
5001 第1の光電変換部
5002 第2の光電変換部
4000, 4300 Stereo camera 4010, 4020, 4030 Imaging device 4011, 4021 Imaging optical system 4012, 4022, 4032 Imaging element 4100 Processing section 4101 Development section 4102 Phase difference distance measuring section 4103 Stereo distance measuring section 4104 Determination section 4105 Exposure control section 4106 Image synthesis section 4200 Display section 5000 Pixel group 5001 First photoelectric conversion section 5002 Second photoelectric conversion section

Claims (10)

撮像により、互いに視差を有する第1の画像信号および第2の画像信号を出力する第1の撮像手段と、
撮像により、前記第1の画像信号および前記第2の画像信号との間に視差を有する第3の画像信号を出力する第2の撮像手段と、
前記第1の画像信号および前記第2の画像信号、前記第3の画像信号に基づいて画像情報を生成する現像手段と、
第1の画像信号および前記第2の画像信号、第3の画像信号に基づいて第1の距離情報を生成するステレオ測距手段と、
前記第1の画像信号および前記第2の画像信号に基づいて、前記第1の撮像手段により撮像された画像の状態を判定する判定手段と、
前記第1の撮像手段により撮像された画像の状態に基づいて、前記第1の画像信号の撮像および前記第2の画像信号の撮像のうち一方の露光時間を他方よりも長くなるように制御する制御手段と、
前記露光時間の制御の後、前記画像情報および前記第1の距離情報に基づいて、距離画像情報を生成する画像合成手段と
を有することを特徴とする撮像システム。
a first imaging means for capturing an image and outputting a first image signal and a second image signal having a parallax therebetween;
a second imaging means for capturing an image and outputting a third image signal having a parallax between the first image signal and the second image signal;
a developing means for generating image information based on the first image signal, the second image signal, and the third image signal;
a stereo distance measuring means for generating first distance information based on a first image signal, the second image signal, and a third image signal;
a determination means for determining a state of an image captured by the first imaging means based on the first image signal and the second image signal;
a control means for controlling an exposure time for one of the first image signal and the second image signal based on a state of an image captured by the first image capture means so that the exposure time for the other of the first image signal and the second image signal is longer than the exposure time for the other of the first image signal and the second image signal based on a state of an image captured by the first image capture means;
and an image synthesis unit that generates distance image information based on the image information and the first distance information after controlling the exposure time.
前記判定手段は、前記第1の画像信号および前記第2の画像信号の輝度値に基づいて、前記第1の撮像手段により撮像された画像に白飛びもしくは黒潰れがあることを判定する
ことを特徴とする請求項1に記載の撮像システム。
The imaging system according to claim 1 , wherein the determining means determines whether the image captured by the first imaging means has whiteout or blackout based on luminance values of the first image signal and the second image signal.
前記判定手段は、前記第1の画像信号および前記第2の画像信号の少なくとも一方の輝度値が第1の閾値以上の場合に前記第1の撮像手段により撮像された画像に白飛びがあることを判定し、前記第1の画像信号および前記第2の画像信号の少なくとも一方の輝度値が前記第1の閾値よりも小さい第2の閾値以下の場合に前記第1の撮像手段により撮像された画像に黒潰れがあることを判定し、
前記判定手段により白飛びおよび黒潰れの少なくとも一方がある場合に、前記制御手段は、白飛びおよび黒潰れの少なくとも一方を抑えるように露光時間を制御する
ことを特徴とする請求項2に記載の撮像システム。
the determination means determines that the image captured by the first imaging means has whiteout when a luminance value of at least one of the first image signal and the second image signal is equal to or greater than a first threshold, and determines that the image captured by the first imaging means has blackout when a luminance value of at least one of the first image signal and the second image signal is equal to or less than a second threshold that is smaller than the first threshold,
3. The imaging system according to claim 2, wherein, when the determining means determines that at least one of whiteout and blackout has occurred, the control means controls the exposure time so as to suppress at least one of whiteout and blackout.
前記第1の画像信号および前記第2の画像信号に基づいて、第2の距離情報を生成する位相差測距手段を有し、
前記露光時間の制御の後、前記画像合成手段は、前記第2の距離情報に基づいて前記距離画像情報を生成する
ことを特徴とする請求項1に記載の撮像システム。
a phase difference distance measuring means for generating second distance information based on the first image signal and the second image signal,
2. The imaging system according to claim 1, wherein after controlling the exposure time, the image synthesis means generates the distance image information based on the second distance information.
前記第2の撮像手段は、撮像により、前記第3の画像信号と互いに視差を有する第4の画像信号を出力し、
前記位相差測距手段は、前記第3の画像信号および前記第4の画像信号に基づいて第3の距離情報を生成し、
前記判定手段は、前記第3の画像信号および第4の画像信号に基づいて、前記第2の撮像手段により撮像された画像の状態を判定し、
前記制御手段は、前記判定手段により判定された前記第2の撮像手段により撮像された画像の状態に基づいて、前記第3の画像信号の撮像および前記第4の画像信号の撮像のうち一方の露光時間を他方よりも長くなるように制御する
ことを特徴とする請求項4に記載の撮像システム。
the second imaging means outputs a fourth image signal having a parallax with respect to the third image signal by imaging;
the phase difference distance measuring means generates third distance information based on the third image signal and the fourth image signal;
the determining means determines a state of the image captured by the second imaging means based on the third image signal and the fourth image signal;
5. The imaging system according to claim 4, wherein the control means controls, based on a state of the image captured by the second imaging means determined by the determination means, an exposure time for one of the imaging of the third image signal and the imaging of the fourth image signal so as to be longer than the other.
前記制御手段は、前記第1の撮像手段の全画素に対して制御を行うか、一部の画素に対してのみ制御を行うか調整可能である
ことを特徴とする請求項4に記載の撮像システム。
5. The imaging system according to claim 4, wherein the control means is adjustable to control all pixels of the first imaging means or to control only some pixels.
前記画像合成手段は、前記距離画像情報を生成する場合に、前記ステレオ測距手段と前記位相差測距手段とで共通して測距した範囲に関しては、それぞれの距離データに対して重み付けを行い距離情報を算出することが可能である
ことを特徴とする請求項6に記載の撮像システム。
The imaging system according to claim 6, characterized in that, when generating the distance image information, the image synthesis means is capable of calculating distance information by weighting each distance data for a range commonly measured by the stereo ranging means and the phase difference ranging means.
撮像により第1の撮像手段から出力された第1の画像信号および前記第1の画像信号と互いに視差を有する第2の画像信号と、撮像により第2の撮像手段から出力され、前記第1の画像信号および前記第2の画像信号と互いに視差を有する第3の画像信号とに基づいて画像情報を生成する現像手段と、
前記第1の画像信号および前記第2の画像信号、前記第3の画像信号に基づいて第1の距離情報を生成するステレオ測距手段と、
前記第1の画像信号および前記第2の画像信号に基づいて、前記第1の撮像手段により撮像された画像の状態を判定する判定手段と、
前記第1の撮像手段により撮像された画像の状態に基づいて、前記第1の画像信号の撮像および前記第2の画像信号の撮像のうち一方の露光時間を他方よりも長くなるように制御する制御手段と、
前記露光時間の制御の後、前記画像情報および前記第1の距離情報に基づいて、距離画像情報を生成する画像合成手段と
を有することを特徴とする撮像システム。
を有することを特徴とする情報処理装置。
a developing means for generating image information based on a first image signal output from a first imaging means by imaging and a second image signal having a parallax with respect to the first image signal, and a third image signal output from a second imaging means by imaging and having a parallax with respect to the first image signal and the second image signal;
a stereo distance measuring means for generating first distance information based on the first image signal, the second image signal, and the third image signal;
a determination means for determining a state of an image captured by the first imaging means based on the first image signal and the second image signal;
a control means for controlling an exposure time for one of the first image signal and the second image signal based on a state of an image captured by the first image capture means so that the exposure time for the other of the first image signal and the second image signal is longer than the exposure time for the other of the first image signal and the second image signal based on a state of an image captured by the first image capture means;
and an image synthesis unit that generates distance image information based on the image information and the first distance information after controlling the exposure time.
13. An information processing device comprising:
撮像により、互いに視差を有する第1の画像信号および第2の画像信号を出力する第1の撮像手段による第1の撮像工程と、
撮像により、前記第1の画像信号および前記第2の画像信号との間に視差を有する第3の画像信号を出力する第2の撮像手段による第2の撮像工程と、
前記第1の画像信号および前記第2の画像信号、前記第3の画像信号に基づいて画像情報を生成する現像工程と、
前記第1の画像信号および前記第2の画像信号、前記第3の画像信号に基づいて第1の距離情報を生成するステレオ測距工程と、
前記第1の画像信号および前記第2の画像信号に基づいて、前記第1の撮像手段により撮像された画像の状態を判定する判定工程と、
前記第1の撮像手段により撮像された画像の状態に基づいて、前記第1の画像信号の撮像および前記第2の画像信号の撮像のうち一方の露光時間を他方よりも長くなるように制御する制御工程と、
前記制御工程の後、前記画像情報および前記第1の距離情報に基づいて、距離画像情報を生成する画像合成工程と
を有することを特徴とする撮像方法。
a first imaging step by a first imaging means for outputting a first image signal and a second image signal having a parallax with each other by imaging;
a second imaging step by a second imaging means for outputting a third image signal having a parallax between the first image signal and the second image signal by imaging;
a developing step of generating image information based on the first image signal, the second image signal, and the third image signal;
a stereo ranging process for generating first distance information based on the first image signal, the second image signal, and the third image signal;
a determination step of determining a state of an image captured by the first imaging means based on the first image signal and the second image signal;
a control step of controlling an exposure time for one of the first image signal and the second image signal based on a state of an image captured by the first imaging means so that the exposure time for the other of the first image signal and the second image signal is longer than the other;
an image synthesis step of generating distance image information based on the image information and the first distance information after the control step.
コンピュータを、請求項1~7のいずれか1項に記載の撮像システムの各手段として機能させるためのプログラム。 A program for causing a computer to function as each of the means of the imaging system described in any one of claims 1 to 7.
JP2022159796A 2022-10-03 2022-10-03 Imaging system, imaging method, and program Pending JP2024053482A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022159796A JP2024053482A (en) 2022-10-03 2022-10-03 Imaging system, imaging method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022159796A JP2024053482A (en) 2022-10-03 2022-10-03 Imaging system, imaging method, and program

Publications (1)

Publication Number Publication Date
JP2024053482A true JP2024053482A (en) 2024-04-15

Family

ID=90667372

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022159796A Pending JP2024053482A (en) 2022-10-03 2022-10-03 Imaging system, imaging method, and program

Country Status (1)

Country Link
JP (1) JP2024053482A (en)

Similar Documents

Publication Publication Date Title
US11822211B2 (en) Imaging optical system storing information on its aberration, imaging apparatus, and control method thereof
JP6555863B2 (en) IMAGING DEVICE AND IMAGING DEVICE CONTROL METHOD
US9077886B2 (en) Image pickup apparatus and image processing apparatus
US9025060B2 (en) Solid-state image sensor having a shielding unit for shielding some of photo-electric converters and image capturing apparatus including the solid-state image sensor
US9258545B2 (en) Stereoscopic imaging apparatus
US9641769B2 (en) Image capture apparatus and method for controlling the same
JP6249825B2 (en) Imaging device, control method thereof, and control program
JP5753371B2 (en) Imaging apparatus and control method thereof
JP2009031682A (en) Imaging system and image signal processing program
JP7285791B2 (en) Image processing device, output information control method, and program
JP4983271B2 (en) Imaging device
CN104025574A (en) Imaging apparatus and image processing method
US20160094776A1 (en) Imaging apparatus and imaging method
JP4858179B2 (en) Focus detection apparatus and imaging apparatus
WO2013171840A1 (en) Imaging apparatus, and imaging apparatus control method
CN108156383B (en) High-dynamic billion pixel video acquisition method and device based on camera array
JP6353233B2 (en) Image processing apparatus, imaging apparatus, and image processing method
US10362214B2 (en) Control apparatus, image capturing apparatus, control method, and non-transitory computer-readable storage medium
JP2017158018A (en) Image processing apparatus, control method of the same, and imaging apparatus
JP2009044637A (en) Imaging apparatus
JP6190119B2 (en) Image processing apparatus, imaging apparatus, control method, and program
JP6362070B2 (en) Image processing apparatus, imaging apparatus, image processing method, program, and storage medium
JP5183441B2 (en) Imaging device
JP5245648B2 (en) Image processing apparatus and program
JP2014215436A (en) Image-capturing device, and control method and control program therefor

Legal Events

Date Code Title Description
RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20231213