JP7206602B2 - Imaging device, vehicle, and imaging method - Google Patents

Imaging device, vehicle, and imaging method Download PDF

Info

Publication number
JP7206602B2
JP7206602B2 JP2018048740A JP2018048740A JP7206602B2 JP 7206602 B2 JP7206602 B2 JP 7206602B2 JP 2018048740 A JP2018048740 A JP 2018048740A JP 2018048740 A JP2018048740 A JP 2018048740A JP 7206602 B2 JP7206602 B2 JP 7206602B2
Authority
JP
Japan
Prior art keywords
image
pixel
parallax
distance
spatial resolution
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018048740A
Other languages
Japanese (ja)
Other versions
JP2019158776A (en
Inventor
聖也 天野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2018048740A priority Critical patent/JP7206602B2/en
Publication of JP2019158776A publication Critical patent/JP2019158776A/en
Application granted granted Critical
Publication of JP7206602B2 publication Critical patent/JP7206602B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Measurement Of Optical Distance (AREA)
  • Traffic Control Systems (AREA)

Description

本発明は、撮像装置、車両、及び撮像方法に関する。 The present invention relates to an imaging device, a vehicle, and an imaging method.

車載や監視などの用途では、ステレオカメラ等を用いて得ることができる3次元情報を利用した空間認識や環境認識が盛んになっている。ステレオカメラ等では、基準とする一方の画像内の画素群と、他方の画像の画素群とから、画像間の相対的な画素群のずれ量である視差を算出する。算出した視差に基づく三角測量により、被写体までの距離を測定する。 Space recognition and environment recognition using three-dimensional information that can be obtained using a stereo camera or the like has become popular in applications such as in-vehicle use and monitoring. In a stereo camera or the like, parallax, which is a relative deviation amount of pixel groups between images, is calculated from a pixel group in one reference image and a pixel group in the other image. The distance to the subject is measured by triangulation based on the calculated parallax.

ステレオカメラでは、視野の広さと距離の測定分解能はトレードオフの関係にあり、これらを両立させることは課題のひとつとなっている。視野が広く、高精度な距離測定を行うステレオカメラとして、例えば、空間分解能は低いが視野の広いカメラと、視野は狭いが空間分解能の高いカメラとを有するステレオカメラで距離を測定する技術が開示されている(例えば、特許文献1参照)。 Stereo cameras have a trade-off relationship between the wide field of view and the distance measurement resolution, and achieving both is one of the challenges. As a stereo camera that has a wide field of view and performs high-precision distance measurement, for example, a technology for measuring distance with a stereo camera that has a camera with a low spatial resolution but a wide field of view and a camera with a narrow field of view but a high spatial resolution is disclosed. (See Patent Document 1, for example).

しかしながら特許文献1のステレオカメラ等の異なる空間分解能の画像を取得する複数のカメラを有し、被写体との距離を測定する撮像装置では、一方のカメラの空間分解能が低いために、撮像装置で取得される距離画像の空間分解能が低くなってしまうという問題があった。 However, in an imaging device that has a plurality of cameras that acquire images with different spatial resolutions, such as a stereo camera in Patent Document 1, and that measures the distance to a subject, one of the cameras has a low spatial resolution. However, there is a problem that the spatial resolution of the range image to be processed becomes low.

本発明は、上記の点に鑑みてなされたものであって、異なる空間分解能の画像を取得する複数のカメラを有し、被写体との距離を測定して距離画像を形成する撮像装置において、距離画像の空間分解能を向上させることを課題とする。 The present invention has been made in view of the above points, and provides an imaging apparatus that has a plurality of cameras that acquire images with different spatial resolutions and measures the distance to an object to form a distance image. An object of the present invention is to improve the spatial resolution of an image.

開示の技術の一態様に係る撮像装置は、所定の視野で第1の空間分解能を有する第1の画像を取得するカメラと、前記第1の空間分解能より低い第2の空間分解能を有する第2の画像を取得するカメラと、が所定の配列方向に所定の間隔で配列され、前記第1の画像と、前記第2の画像と、に基づき測定された被写体との距離から、距離画像を形成する撮像装置であって、前記距離画像は、前記配列方向において、前記第2の空間分解能を有し、前記配列方向と交差する方向において、前記第1の空 間分解能を有することを特徴とする。 An imaging device according to an aspect of the disclosed technology includes a camera that acquires a first image having a first spatial resolution in a predetermined field of view, and a second image having a second spatial resolution that is lower than the first spatial resolution. and a camera that obtains an image of is arranged at a predetermined interval in a predetermined arrangement direction, and a distance image is formed from the distance to the subject measured based on the first image and the second image. wherein the range image has the second spatial resolution in the array direction and the first spatial resolution in a direction crossing the array direction. .

本発明の実施形態によれば、異なる空間分解能の画像を取得する複数のカメラを有し、被写体との距離を測定して距離画像を形成する撮像装置において、距離画像の空間分解能を向上させることができる。 According to an embodiment of the present invention, in an imaging apparatus that has a plurality of cameras that acquire images with different spatial resolutions and that measures the distance to a subject and forms a range image, the spatial resolution of the range image is improved. can be done.

第1の実施形態の撮像装置の構成の一例を示す図である。It is a figure showing an example of composition of an imaging device of a 1st embodiment. 第1の実施形態の撮像装置で取得される画像の一例を示す図である。4A and 4B are diagrams illustrating an example of an image acquired by the imaging device of the first embodiment; FIG. 第1の実施形態の画像処理基板の構成要素を機能ブロックで示す図である。3 is a diagram showing functional blocks of components of the image processing board of the first embodiment; FIG. 第1の実施形態の画像領域抽出部による処理の一例を説明する図である。It is a figure explaining an example of the process by the image area extraction part of 1st Embodiment. 第1の実施形態の画素数合わせ部による処理の一例を説明する図である。It is a figure explaining an example of the process by the pixel number matching part of 1st Embodiment. 視差の検出方法の概要を説明する図である。It is a figure explaining the outline|summary of the detection method of parallax. コストカーブの一例を説明する図である。It is a figure explaining an example of a cost curve. 第1の実施形態の視差検出部による処理の一例を説明する図である。It is a figure explaining an example of the process by the parallax detection part of 1st Embodiment. 第1の実施形態の視差検出部による処理の一例を示すフローチャートである。7 is a flowchart illustrating an example of processing by a parallax detection unit according to the first embodiment; 第1の実施形態の距離画像の一例を説明する図である。It is a figure explaining an example of the distance image of 1st Embodiment. 第1の実施形態の画像処理基板による処理の一例を示すフローチャートである。4 is a flow chart showing an example of processing by the image processing board of the first embodiment; 第2の実施形態の、撮像装置を搭載した車両の構成の一例を示す図である。It is a figure which shows an example of a structure of the vehicle which mounts the imaging device of 2nd Embodiment.

以下、図面を参照して発明を実施するための形態について説明する。各図面において、同一構成部分には同一符号を付し、重複した説明を省略する場合がある。 BEST MODE FOR CARRYING OUT THE INVENTION Hereinafter, embodiments for carrying out the invention will be described with reference to the drawings. In each drawing, the same components are denoted by the same reference numerals, and redundant description may be omitted.

[第1の実施形態]
図1は、本実施形態の撮像装置の構成の一例を示す図である。
[First Embodiment]
FIG. 1 is a diagram showing an example of the configuration of an imaging device according to this embodiment.

撮像装置100は、カメラ1と、カメラ2と、画像処理基板10とを有している。 The imaging device 100 has a camera 1 , a camera 2 and an image processing board 10 .

カメラ1は、レンズ31と、画像センサ32と、画像センサコントローラ33とを有している。カメラ2は、レンズ31と、画像センサ32と、画像センサコントローラ33とを有している。尚、以下では、レンズ31と31を単にレンズ31と称し、画像センサ32と32を単に画像センサ32と称し、画像センサコントローラ33~33を単に画像センサコントローラ33と称する場合がある。 The camera 1 has a lens 31-1, an image sensor 32-1, and an image sensor controller 33-1 . The camera 2 has a lens 31-2, an image sensor 32-2 , and an image sensor controller 33-2 . In the following description, the lenses 31 1 and 31 2 are simply referred to as the lens 31, the image sensors 32 1 and 32 2 are simply referred to as the image sensor 32, and the image sensor controllers 33 1 to 33 N are simply referred to as the image sensor controller 33. There is

カメラ1は、レンズ31による被写体50の像を、画像センサ32で撮像し、出力する。同様にカメラ2は、レンズ31による被写体50の像を画像センサ32で撮像し、出力する。 The camera 1 captures an image of the subject 50 through the lens 31-1 with the image sensor 32-1 and outputs it. Similarly, the camera 2 captures an image of the object 50 through the lens 31-2 with the image sensor 32-2 and outputs it.

カメラ1が備えるレンズ31の焦点距離f1と、カメラ2が備えるレンズ31の焦点距離fは異なっており、焦点距離fは焦点距離fより短い。これによりカメラ2の光学倍率は、カメラ1に対して低い。光学倍率が低いことで、カメラ2では、カメラ1に対し、視野が広い画像が取得される。またその反面で、カメラ2による画像の空間分解能は、カメラ1に対して低くなる。このような画像の視野と空間分解能については、別途詳述する。 The focal length f1 of the lens 31-1 of the camera 1 is different from the focal length f2 of the lens 31-2 of the camera 2 , and the focal length f2 is shorter than the focal length f1. As a result, the optical magnification of camera 2 is lower than that of camera 1 . Since the optical magnification is low, camera 2 acquires an image with a wider field of view than camera 1 . On the other hand, the spatial resolution of the image by camera 2 is lower than that of camera 1 . The field of view and spatial resolution of such images will be discussed in greater detail below.

カメラ1とカメラ2が備える画像センサ32と画像センサ32は同仕様のものが用いられている。同様にカメラ1が備える画像センサコントローラ33と画像センサコントローラ33も同仕様のものが用いられている。 The image sensors 32-1 and 32-2 provided in the cameras 1 and 2 have the same specifications. Similarly, the image sensor controller 33-1 and the image sensor controller 33-2 provided in the camera 1 have the same specifications.

画像センサ32は、例えば撮像素子であり、撮像素子としてCCD(Charge Coupled Device)やCMOS(Complementary Metal-Oxide-Semiconductor)を用いることができる。 The image sensor 32 is, for example, an imaging device, and a CCD (Charge Coupled Device) or CMOS (Complementary Metal-Oxide-Semiconductor) can be used as the imaging device.

カメラ1とカメラ2は、レンズ31の光軸と交差する方向に配列され、ベース板上に固定されている。レンズ31の光軸と、レンズ31の光軸は略平行である。カメラ1とカメラ2が配列する方向において、カメラ1の備えるレンズ31の光軸と、カメラ2の備えるレンズ31の光軸との間隔を、基線長Bと称する。 The cameras 1 and 2 are arranged in a direction intersecting the optical axis of the lens 31 and fixed on the base plate. The optical axis of the lens 31-1 and the optical axis of the lens 31-2 are substantially parallel. The distance between the optical axis of the lens 31-1 provided in the camera 1 and the optical axis of the lens 31-2 provided in the camera 2 in the direction in which the cameras 1 and 2 are arranged is referred to as a base line length B. FIG.

尚、カメラ1とカメラ2が配列する方向は、「配列方向」の一例であり、基線長Bは「所定の間隔」の一例である。カメラ1とカメラ2が配列する方向と交差する方向は、「配列方向と交差する方向」の一例である。配列方向は、カメラ1とカメラ2により取得される画像の水平方向に該当し、配列方向と交差する方向は、カメラ1とカメラ2により取得される画像の垂直方向に該当する。 The direction in which the cameras 1 and 2 are arranged is an example of the "arrangement direction", and the baseline length B is an example of the "predetermined interval". The direction crossing the direction in which the cameras 1 and 2 are arranged is an example of the "direction crossing the arrangement direction." The array direction corresponds to the horizontal direction of the images captured by cameras 1 and 2 , and the direction crossing the array direction corresponds to the vertical direction of the images captured by cameras 1 and 2 .

画像センサコントローラ33は,画像センサ32の露光制御、画像データの読み出し制御、外部回路との通信、及び画像データの送信等を行う。画像データは輝度画像データである。 The image sensor controller 33 performs exposure control of the image sensor 32, readout control of image data, communication with external circuits, transmission of image data, and the like. The image data is luminance image data.

カメラ1とカメラ2は、データバス20及びシリアルバス21を介して、それぞれ画像処理基板10と接続している。 Camera 1 and camera 2 are connected to image processing board 10 via data bus 20 and serial bus 21, respectively.

画像処理基板10は、CPU(Central Processing Unit)11と、FPGA(Field-Programmable Gate Array)12と、RAM(Random Access Memory)13と、ROM(ReadnOnly Memory)14と、シリアルIF(Interface)15と、データIF16とを有している。これらはデータバス20と、シリアルバス21を介して相互に接続されている。 The image processing board 10 includes a CPU (Central Processing Unit) 11, an FPGA (Field-Programmable Gate Array) 12, a RAM (Random Access Memory) 13, a ROM (Read Only Memory) 14, and a serial IF (Interface) 15. , data IF16. These are interconnected via a data bus 20 and a serial bus 21 .

CPU11は、画像処理基板10の動作を統括的に制御する。またCPU11は、カメラ1とカメラ2で撮像した画像の画像処理や画像認識処理等を実行する。CPU11は、RAM13をワークエリア(作業領域)としてROM14等に格納されたプログラムを実行することで、上記の制御及び処理を実行し、後述する各種機能を実現する。尚、CPU11の有する機能の一部、又は全部をワイヤードロジックによるハードウェアにより実現させてもよい。 The CPU 11 comprehensively controls the operation of the image processing board 10 . The CPU 11 also executes image processing, image recognition processing, and the like for images captured by the cameras 1 and 2 . The CPU 11 executes the programs stored in the ROM 14 or the like using the RAM 13 as a work area (work area), thereby executing the above-described control and processing, and realizing various functions described later. Some or all of the functions of the CPU 11 may be realized by hardware based on wired logic.

カメラ1とカメラ2による画像データは、データバス20を通じて画像センサ32から画像処理基板10のRAM13に転送される。 Image data from cameras 1 and 2 are transferred from the image sensor 32 to the RAM 13 of the image processing board 10 through the data bus 20 .

FPGA12は、RAM13に保存された画像データに対してリアルタイム性が要求される処理を実行する。リアルタイム性が要求される処理とは、例えばガンマ補正,ゆがみ補正(左右画像の平行化)等の画像処理である。またFPGA12は、カメラ1、カメラ2による画像データに対し、ブロックマッチングによる視差演算を行って視差画像を生成する。生成された視差画像は、RAM13に書き戻される。 The FPGA 12 executes processing that requires real-time processing on the image data stored in the RAM 13 . Processing that requires real-time processing includes, for example, image processing such as gamma correction and distortion correction (parallelization of left and right images). The FPGA 12 also performs parallax calculation by block matching on the image data from the cameras 1 and 2 to generate parallax images. The generated parallax image is written back to the RAM 13 .

CPU11、及びFPGA12は、シリアルバス21を通じて画像センサコントローラ33に対し、センサ露光制御値の変更、画像読み出しパラメータ変更、及び各種設定データの送受信を行う。 The CPU 11 and FPGA 12 change sensor exposure control values, change image reading parameters, and transmit/receive various setting data to/from the image sensor controller 33 via the serial bus 21 .

シリアルIF15は、デジタルデータを1ビットずつ順次伝送、または、そのような方式を用いる接続インターフェースである。データIF16は、画像処理基板10とPC(Personal Computer)等の外部機器を接続するためのインターフェースである。 The serial IF 15 is a connection interface that sequentially transmits digital data bit by bit or uses such a system. The data IF 16 is an interface for connecting the image processing board 10 and an external device such as a PC (Personal Computer).

図2は、カメラ1とカメラ2で取得される画像の一例を示す図である。(a)は実環境における被写体を示し、(b)はカメラ1で取得された画像1Imを示し、(c)はカメラ2で取得された画像2Imを示す。被写体50の像は、カメラ1では被写体像50Im1でとして、またカメラ2では被写体像50Im2として示されている。 FIG. 2 is a diagram showing an example of images acquired by cameras 1 and 2. As shown in FIG. (a) shows the subject in the real environment, (b) shows the image 1 Im acquired by the camera 1, and (c) shows the image 2 Im acquired by the camera 2. FIG. The image of the subject 50 is shown as subject image 50 Im1 in camera 1 and as subject image 50 Im2 in camera 2 .

図2に示されているように、カメラ2で取得された画像2Imは、カメラ1で取得された画像1Imに対して視野が広く、画像2Imの視野の一部に画像1Imの視野が含まれている。画像1Imと画像2Imとの間には、被写体までの距離と基線長Bに応じた視差が含まれている。尚、以下では、被写体までの距離を被写体距離と称する場合がある。 As shown in FIG. 2, image 2 Im captured by camera 2 has a wider field of view than image 1 Im captured by camera 1, and a portion of the field of view of image 2 Im has a larger field of view than image 1 Im . Includes field of view. A parallax corresponding to the distance to the subject and the base length B is included between the image 1 Im and the image 2 Im . In addition, below, the distance to an object may be called object distance.

一方、被写体像50Im2は被写体像50Im1より小さく撮像されている。これは、被写体像50Im2を構成する画素数が、同じ被写体50の像である被写体像50Im1より少なく、空間分解能が低いことを意味している。つまり画像2Imは画像1Imに対して空間分解能が低い。 On the other hand, the subject image 50 Im2 is imaged smaller than the subject image 50 Im1 . This means that the subject image 50 Im2 has fewer pixels than the subject image 50 Im1 , which is an image of the same subject 50, and has a lower spatial resolution. That is, image 2 Im has a lower spatial resolution than image 1 Im .

空間分解能は、画像センサ32の画素サイズをレンズ31の光学倍率で除した値である。光学倍率は、およそ、レンズ31の焦点距離を被写体距離で除した値である。従って、本実施形態では、画像1Imと画像2Imとの間の空間分解能の差は、レンズ31とレンズ31の焦点距離の差により決定されている。但し、これに限定はされない。カメラ1の画像センサ32とカメラ2の画像センサ32との間で画素サイズ、又は画素数等の仕様を異ならせて両者の空間分解能を異ならせてもよい。また、レンズ31の仕様と画像センサ32の仕様を組み合わせて異ならせてカメラ1とカメラ2の空間分解能を異ならせてもよい。 The spatial resolution is a value obtained by dividing the pixel size of the image sensor 32 by the optical magnification of the lens 31 . The optical magnification is approximately the focal length of the lens 31 divided by the subject distance. Therefore, in this embodiment, the difference in spatial resolution between Image 1 Im and Image 2 Im is determined by the difference in the focal lengths of lens 31 - 1 and lens 31 - 2 . However, it is not limited to this. The image sensor 32-1 of the camera 1 and the image sensor 32-2 of the camera 2 may have different specifications such as pixel size or number of pixels so as to have different spatial resolutions. Also, the spatial resolutions of the cameras 1 and 2 may be differentiated by combining the specifications of the lens 31 and the specifications of the image sensor 32 .

尚、本実施形態では「画素ピッチ」という用語を用いる場合があるが、「画素ピッチ」は、「画素サイズ」を光学倍率で除した空間分解能を表す用語として用いている。一方、「画素サイズ」という用語を用いる場合は、光学倍率は考慮せず、画像センサ32の単なる画素の大きさを表している。 Note that the term "pixel pitch" may be used in this embodiment, but the term "pixel pitch" is used to express spatial resolution obtained by dividing the "pixel size" by the optical magnification. On the other hand, when the term "pixel size" is used, it simply refers to the pixel size of the image sensor 32 without considering the optical magnification.

カメラ1は、「第1の空間分解能を有する第1の画像を取得するカメラ」の一例であり、画像1Imは「第1の画像」の一例であり、画像1Imの空間分解能は「第1の空間分解能」の一例である。またカメラ2は、「第1の空間分解能より低い第2の空間分解能を有する第2の画像を取得するカメラ」の一例であり、画像2Imは「第2の画像」の一例であり、画像2Imの空間分解能は「第2の空間分解能」の一例である。 Camera 1 is an example of "a camera that acquires a first image having a first spatial resolution", Image 1 Im is an example of a "first image", and the spatial resolution of Image 1 Im is a "first 1 spatial resolution”. Further, the camera 2 is an example of "a camera that acquires a second image having a second spatial resolution lower than the first spatial resolution", the image 2 Im is an example of a "second image", and the image A spatial resolution of 2 Im is an example of a "second spatial resolution."

以下では、画像1Imの空間分解能は、画像2Imの空間分解能の2倍である場合を例に説明する。この2倍は、水平方向に2倍、また垂直方向に2倍という意味である。 In the following, an example will be described in which the spatial resolution of image 1 Im is twice the spatial resolution of image 2 Im . This double means double in the horizontal direction and double in the vertical direction.

本実施形態の撮像装置100では、このような画像1Imと、画像2Imとを取得し、画像処理基板10により所定の処理を実行して距離画像を形成する。距離画像とは、距離が測定された画素、又は画素群を、二次元に配列して形成した画像である。 In the imaging apparatus 100 of the present embodiment, the image 1 Im and the image 2 Im are acquired, and the image processing board 10 executes predetermined processing to form a distance image. A distance image is an image formed by two-dimensionally arranging pixels or groups of pixels whose distances have been measured.

図3は、本実施形態の撮像装置100の有する画像処理基板10の構成要素を機能ブロックで示す図である。尚、図3に図示される各機能ブロックは概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。各機能ブロックの全部又は一部を、任意の単位で機能的又は物理的に分散・結合して構成することが可能である。各機能ブロックにて行われる各処理機能は、その全部又は任意の一部が、上述のCPU11にて実行されるプログラムにて実現され、或いはワイヤードロジックによるハードウェアとして実現されうる。尚、画像処理基板10は、「処理手段」の一例である。 FIG. 3 is a diagram showing functional blocks of components of the image processing board 10 included in the imaging apparatus 100 of the present embodiment. Each functional block shown in FIG. 3 is conceptual, and does not necessarily need to be physically configured as shown. All or part of each functional block can be functionally or physically distributed and combined in arbitrary units. All or any part of each processing function performed in each functional block can be realized by the program executed by the above-described CPU 11, or can be realized as hardware by wired logic. The image processing board 10 is an example of the "processing means".

画像処理基板10は、画像領域抽出部25と、画素数合わせ部26と、視差検出部27と、距離画像形成部28とを有している。 The image processing board 10 has an image region extracting section 25 , a pixel number adjusting section 26 , a parallax detecting section 27 and a distance image forming section 28 .

画像領域抽出部25は、カメラ2で取得された画像2Imから、カメラ1で取得された画像1Imの視野に該当する画像領域を抽出する。尚、画像領域抽出部25は、「画像領域抽出手段」の一例である。 The image area extraction unit 25 extracts an image area corresponding to the field of view of the image 1 Im acquired by the camera 1 from the image 2 Im acquired by the camera 2 . Note that the image area extracting unit 25 is an example of "image area extracting means".

図4は、本実施形態の画像領域抽出部25による上記のような画像領域の抽出の一例を説明する図である。(a)はカメラ1で取得された画像1Imを示し、(b)はカメラ2で取得された画像2Imを示している。(b)において破線で示されている画像領域2areaは、画像1Imの視野に該当する画像領域である。(c)は、このような画像領域2areaを、画像2Imから抽出した結果である画像領域22を示している。 FIG. 4 is a diagram for explaining an example of extraction of the image area as described above by the image area extraction unit 25 of this embodiment. (a) shows image 1 Im acquired by camera 1 and (b) shows image 2 Im acquired by camera 2 . An image area 2 area indicated by a dashed line in (b) is an image area corresponding to the field of view of the image 1 Im . (c) shows an image area 22 that is the result of extracting such an image area 2 area from the image 2 Im .

撮像装置100を組み付ける際に、カメラ1とカメラ2の相対位置関係は調整されており、画像1Imの視野に該当する画像領域は、画像2Imの所定の領域に決定されている。従って画像2Imの所定の領域を切り出すことで、画像領域22を抽出することができる。 When the imaging apparatus 100 is assembled, the relative positional relationship between the cameras 1 and 2 is adjusted, and the image area corresponding to the field of view of the image 1 Im is determined as a predetermined area of the image 2 Im . Therefore, the image area 22 can be extracted by cutting out a predetermined area of the image 2 Im .

図3に戻り、画素数合わせ部26は、画像領域22の画素数を画像2Imの画素数に合わせる処理を実行する。尚、画素数合わせ部26は、「画素数合わせ手段」の一例である。 Returning to FIG. 3, the pixel number matching unit 26 performs a process of matching the number of pixels of the image area 22 to the number of pixels of the image 2 Im . It should be noted that the pixel number matching unit 26 is an example of the "pixel number matching means".

図5は、本実施形態の画素数合わせ部26による画素数を合わせる処理の一例を説明する図である。図5において、(a)は画像1Imを示し、(b)は、画素数合わせ処理が実行された後の画素数合わせ画像22aを示している。(b)における画素数合わせ画像22aは、画像領域22が水平方向に2倍に拡大され、また垂直方向に2倍に拡大されたものである。拡大された結果、画像1Imを構成する画素数と画素数合わせ画像22aを構成する全体の画素数は一致している。 FIG. 5 is a diagram illustrating an example of processing for matching the number of pixels by the pixel number matching unit 26 of this embodiment. In FIG. 5, (a) shows the image 1 Im , and (b) shows the pixel number matching image 22a after the pixel number matching process is executed. The pixel number adjustment image 22a in (b) is obtained by enlarging the image area 22 by two times in the horizontal direction and by two times in the vertical direction. As a result of the enlargement, the number of pixels forming the image 1 Im and the total number of pixels forming the pixel number adjustment image 22a are the same.

画素数合わせ画像22aを構成する画素に注目すると、画像領域22を構成していた画素22pの輝度は、水平、垂直、及び斜め方向の隣接画素にコピーされ、(b)に破線で示し、灰色で塗り潰した画素22apは、4つの画素22pで構成されている。画像領域22を構成する全画素に対してこのような処理が実行されると、画素数合わせ画像22aは、画像領域22を、水平に2倍に拡大し、また垂直方向に2倍に拡大した画像になる。尚、カメラ1とカメラ2では同仕様の画像センサ32を用いているため、(a)に示される画像1Imの画素1pと、(b)に示される画素数合わせ画像22aの画素22pは同じ画素サイズである。 Focusing on the pixels forming the pixel number matching image 22a, the brightness of the pixel 22p forming the image area 22 is copied to the adjacent pixels in the horizontal, vertical and diagonal directions, and is shown by the dashed line in (b) and displayed in gray. A pixel 22ap filled with is composed of four pixels 22p. When such processing is executed for all the pixels forming the image area 22, the pixel count image 22a is obtained by expanding the image area 22 by two times in the horizontal direction and by two times in the vertical direction. become an image. Since the camera 1 and the camera 2 use the image sensor 32 of the same specification, the pixel 1p of the image 1 Im shown in (a) and the pixel 22p of the pixel number adjustment image 22a shown in (b) are the same. pixel size.

上述のように画素1pの画素サイズを光学倍率で除した画素ピッチは、「第1の空間分解能」を表し、「第1の空間分解能を表す第1の画素ピッチ」の一例である。一方、画素22ap(灰色で塗った領域を示す画素)の画素サイズを光学倍率で除した画素ピッチは、「第2の空間分解能」を表し、「第2の空間分解能を表す第2の画素ピッチ」の一例である。画素数合わせ画像22aは、「画素数合わせ画像」の一例である。 The pixel pitch obtained by dividing the pixel size of the pixel 1p by the optical magnification as described above represents the "first spatial resolution" and is an example of the "first pixel pitch representing the first spatial resolution". On the other hand, the pixel pitch obtained by dividing the pixel size of the pixel 22ap (the pixel indicating the area painted in gray) by the optical magnification represents the "second spatial resolution" and the "second pixel pitch representing the second spatial resolution". is an example of The pixel number adjustment image 22a is an example of the "pixel number adjustment image".

図3に戻り、視差検出部27は、画像1Imと画素数合わせ画像22aとの間で、視差を検出する。尚、視差検出部27は、「視差検出手段」の一例である。 Returning to FIG. 3, the parallax detection unit 27 detects parallax between the image 1 Im and the pixel count image 22a. Note that the parallax detection unit 27 is an example of a “parallax detection unit”.

ここで、視差の検出方法の概要を図6~8を用いて説明する。図6は、視差を有する画像41Imと画像42Imを示す図である。画像41Imと画像42Imには、それぞれ被写体像51Imが含まれている。画像42Imの被写体像51Imの位置は、視差により画像41Imの被写体像51Imの位置から視差dだけ画像の水平方向、すなわち配列方向にずれている。 Here, an overview of the parallax detection method will be described with reference to FIGS. FIG. 6 is a diagram showing an image 41 Im and an image 42 Im having parallax. The image 41 Im and the image 42 Im each include a subject image 51 Im . Due to parallax, the position of the subject image 51 Im in the image 42 Im is displaced from the position of the subject image 51 Im in the image 41 Im by the parallax d in the horizontal direction of the image, that is, in the arrangement direction.

例えば、図6において、画像41Imにおける被写体像51Imの周辺の画像領域を図中右方向、すなわち配列方向に1画素ずつシフトさせながら、シフト毎で画像41Imと画像42Imの被写体像50Imの周辺の画像領域の差分を計算する。画像領域の差分とは、画像領域を構成する各画素で2つの画像の輝度差を求め、この画像領域の全画素の輝度差の総和、又は平均を算出する処理である。被写体像51Imの視差dだけシフトさせた時に、このような画像領域の差分は最小になる。 For example, in FIG. 6, the image area around the subject image 51 Im in the image 41 Im is shifted rightward in the figure, that is, in the arrangement direction by one pixel, and the subject image 50 of the image 41 Im and the image 42 Im is shifted at each shift. Compute the difference of the image region around Im . The image area difference is a process of obtaining the luminance difference between two images for each pixel constituting the image area and calculating the sum or average of the luminance differences of all pixels in the image area. When the subject image 51 Im is shifted by the parallax d, such a difference in image regions is minimized.

図7は、被写体像51Imのシフトに伴う画像領域の差分の変化を説明する図である。画像41Imにおける被写体像51Imの周辺の画像領域をシフトさせると、図7に示されるように、画像領域の差分が最小になる時がある。この時のシフト値が、視差dの検出値となる。 FIG. 7 is a diagram for explaining the change in the difference of the image regions accompanying the shift of the subject image 51 Im . When the image area around the subject image 51 Im in the image 41 Im is shifted, the difference between the image areas is sometimes minimized as shown in FIG. The shift value at this time is the detected value of the parallax d.

画像領域の差分の最小値を求めるためには、差分が最小値となるシフト値が含まれるように、一定の範囲内で被写体像50Imの周辺の画像領域をシフトさせる必要があるが、この範囲を「視差探索範囲」と称する。図6、及び図7で「SW」で示されている範囲が「視差探索範囲」である。 In order to obtain the minimum value of the difference in the image area, it is necessary to shift the image area around the subject image 50 Im within a certain range so that the shift value that minimizes the difference is included. The range is called a “parallax search range”. The range indicated by "SW" in FIGS. 6 and 7 is the "parallax search range".

画像領域の差分は、「類似性の評価値」の一例である。以下では、「類似性の評価値」を「コスト」と称する場合がある。またシフトに伴う画像領域の差分の変化を「コストカーブ」と称する場合がある。このようなコストカーブを取得する処理は、「視差探索処理」の一例である。 The image region difference is an example of the “similarity evaluation value”. Below, the “similarity evaluation value” may be referred to as “cost”. Also, the change in the difference of the image area due to the shift may be referred to as a "cost curve". The process of acquiring such a cost curve is an example of "parallax search process".

上記では簡単に説明するために、被写体像51Imの周辺の画像領域をシフトさせる例を示したが、画像41Imにおける7×7画素や15×15画素等の微小ブロックをシフトさせ、画像42Imにおける同サイズの微小ブロックとの差分を求めてもよい。微小ブロックには1×1画素のブロックも含まれる。これによれば、微小ブロック毎で被写体距離を算出できる。被写体距離が算出された微小ブロックを二次元に配列して画像を形成することで、距離画像を形成することができる。尚、微小ブロックは、「画像の一部、又は全部の画素群」の一例である。微小ブロックを用いて類似性を評価する処理は、所謂ブロックマッチング処理である。 To simplify the explanation above, an example of shifting the image area around the subject image 51 Im was shown . A difference from a minute block of the same size in Im may be obtained. Micro blocks include blocks of 1×1 pixels. According to this, the object distance can be calculated for each minute block. A distance image can be formed by two-dimensionally arranging minute blocks for which subject distances have been calculated to form an image. Note that the minute block is an example of "a pixel group of part or all of an image". A process of evaluating similarity using minute blocks is a so-called block matching process.

「類似性の評価値」として、画像領域の差分の例を示したが、ブロックマッチングの「類似性の評価値」としては、公知の何れの類似性の評価値を用いても構わない。 Although an example of a difference between image regions is shown as the "similarity evaluation value", any known similarity evaluation value may be used as the "similarity evaluation value" for block matching.

上記では、画像41Imをシフトさせながら画像42Imとの間で「類似性の評価値」、すなわちコストを算出する例を説明したが、このようなシフトさせる画像を基準画像と称し、基準画像との間でコストを算出するための画像を比較画像と称する。上記の例では、画像41Imは基準画像であり、画像42Imは比較画像である。 In the above, an example of calculating the "similarity evaluation value", that is, the cost between the image 42 Im while shifting the image 41 Im has been described. An image for calculating the cost between is referred to as a comparative image. In the above example, image 41 Im is the reference image and image 42 Im is the comparison image.

画像領域を1画素ずつシフトさせるため、視差の検出値は画素数の整数値で得られる。しかし、例えばシフトに伴うコストの変化を多項式に近似し、多項式を用いて最小値を算出したりすれば、小数単位で視差を算出することも可能である。このように、視差の検出値を小数単位、すなわちサブピクセルのオーダーで求めることにより、被写体距離の測定分解能を向上させることができる。 Since the image area is shifted by one pixel, the parallax detection value is obtained as an integer value of the number of pixels. However, it is also possible to calculate the parallax in decimal units by, for example, approximating the change in cost associated with the shift to a polynomial and calculating the minimum value using the polynomial. In this way, by obtaining the parallax detection value in decimal units, that is, in the order of sub-pixels, it is possible to improve the measurement resolution of the subject distance.

図8は、本実施形態の視差検出部27による処理の一例を説明する図である。(a)は画像1Imを示し、(b)は画素数合わせ画像22aを示している。図中矢印で示されているX方向は画像の水平方向であり、Y方向は画像の垂直方向である。従って、X方向は配列方向に該当し、Y方向は配列方向と交差する方向に該当する。 FIG. 8 is a diagram illustrating an example of processing by the parallax detection unit 27 of this embodiment. (a) shows the image 1 Im , and (b) shows the pixel count image 22a. The X direction indicated by the arrow in the figure is the horizontal direction of the image, and the Y direction is the vertical direction of the image. Therefore, the X direction corresponds to the arrangement direction, and the Y direction corresponds to the direction crossing the arrangement direction.

(a)における画素1p(i、j)、1p(i+3、j)、及び1p(i、j+1)は画像1Imの画素を示し、括弧内の表示のうち、iはX座標、jはY座標を示している。画素1p(i+3、j)は、画素1p(i、j)に対しX方向に3画素ずれていることを表し、画素1p(i、j+1)は、画素1p(i、j)に対しY方向に1画素ずれていることを表している。 Pixels 1p(i,j), 1p(i+3,j), and 1p(i,j+1) in (a) denote pixels of image 1 Im , where i is the X coordinate and j is the Y coordinate in parenthesis. showing the coordinates. The pixel 1p(i+3,j) is shifted from the pixel 1p(i,j) by 3 pixels in the X direction, and the pixel 1p(i,j+1) is shifted from the pixel 1p(i,j) in the Y direction. It means that the position is shifted by 1 pixel.

(b)における画素22ap(m、n)、22ap(m+1、n)も(a)と同様に、画素数合わせ画像22aの画素を示し、括弧内の表示のうち、mはX座標、nはY座標を示している。画素22ap(m+1、n)は、画素22ap(m、n)に対しX方向に1画素ずれていることを表している。 Pixels 22ap (m, n) and 22ap (m+1, n) in (b) also indicate pixels of the pixel number adjustment image 22a, similarly to (a). Y coordinates are indicated. The pixel 22ap(m+1,n) is shifted by one pixel in the X direction from the pixel 22ap(m,n).

本実施形態では、画素数合わせ画像22aを基準画像とし、画像1Imは比較画像とする。 In this embodiment, the pixel count image 22a is used as a reference image, and the image 1 Im is used as a comparison image.

(c)は、比較画像である画像1Imとの間でコストを算出するために、基準画像である画素数合わせ画像22aの画素22ap(m,n)を、画像1Imの左上の画像領域に適用した例を示している。この場合の微小ブロックは1×1画素のブロックサイズである。微小ブロックは、「画素数合わせ画像の一部」の一例である。 In (c), the pixel 22ap(m, n) of the pixel number matching image 22a, which is the reference image, is added to the upper left image area of the image 1 Im in order to calculate the cost with the image 1 Im , which is the comparison image. shows an example applied to The minute block in this case has a block size of 1×1 pixels. A minute block is an example of "a portion of a pixel-count adjusted image".

(c)において、画素1p(i、j)、1p(i+1、j)、1p(i、j+1)、及び1p(i+1、j+1)の輝度の平均値と、画素22ap(m、n)の輝度値との間でコストを算出する。 In (c), the average luminance of pixels 1p(i, j), 1p(i+1, j), 1p(i, j+1), and 1p(i+1, j+1) and the luminance of pixel 22ap(m, n) Calculate the cost between the values.

次に(d)は、(c)に対して画素22ap(m,n)をX方向にシフトさせた例を示している。この場合、コストは、画素1p(i+1、j)、1p(i+2、j)、1p(i+1、j+1)、及び1p(i+2、j+1)の輝度の平均値と、画素22ap(m、n)の輝度値との間で算出される。視差検出部27はこのようにX方向にシフトさせながら、コストを算出してコストカーブを算出する。すなわち視差検出部27は視差探索処理を実行する。 Next, (d) shows an example in which the pixel 22ap(m, n) is shifted in the X direction with respect to (c). In this case, the cost is the average luminance of pixels 1p(i+1,j), 1p(i+2,j), 1p(i+1,j+1), and 1p(i+2,j+1) and the luminance of pixel 22ap(m,n) It is calculated between the brightness value. The parallax detection unit 27 calculates the cost curve while shifting in the X direction in this manner. That is, the parallax detection unit 27 executes parallax search processing.

次に(e)は、(c)に対して画素22ap(m,n)をY方向に、画素1p分ずらした例を示している。この場合、コストは、画素1p(i、j+1)、1p(i+1、j+1)、1p(i、j+2)、及び1p(i+1、j+2)の輝度の平均値と、画素22ap(m、n)の輝度値との間で算出される。 Next, (e) shows an example in which the pixel 22ap(m,n) is shifted in the Y direction by a pixel 1p with respect to (c). In this case, the cost is the average luminance of pixels 1p(i,j+1), 1p(i+1,j+1), 1p(i,j+2), and 1p(i+1,j+2) and the average luminance of pixel 22ap(m,n). It is calculated between the brightness value.

次に(f)は、(e)に対して画素22ap(m,n)をX方向にシフトさせた例を示している。この場合、コストは、画素1p(i+1、j+1)、1p(i+2、j+1)、1p(i+1、j+2)、及び1p(i+2、j+2)の輝度の平均値と、画素22ap(m、n)の輝度値との間で算出される。視差検出部27はこのように、Y方向に画素1p分ずらした領域において、X方向にシフトさせながら、コストを算出してコストカーブを算出する。すなわち視差検出部27は、Y方向に画素1p分ずらした領域において、視差探索処理を実行する。 Next, (f) shows an example in which the pixel 22ap(m, n) is shifted in the X direction with respect to (e). In this case, the cost is the average luminance of pixels 1p(i+1,j+1), 1p(i+2,j+1), 1p(i+1,j+2), and 1p(i+2,j+2) and the average luminance of pixel 22ap(m,n). It is calculated between the brightness value. In this manner, the parallax detection unit 27 calculates the cost curve while shifting in the X direction in the region shifted by 1p pixels in the Y direction. That is, the parallax detection unit 27 executes parallax search processing in a region shifted by 1p pixels in the Y direction.

以上のように、本実施形態の視差検出部27は、基準画像である画素数合わせ画像22aの微小ブロックを、画素1pの画素ピッチでシフトさせ、シフト毎で、画素22apの画素ピッチで構成された画像に対してコストを算出する。すなわち視差探索処理を実行する。また視差検出部27は、Y方向に画素1pの画素ピッチずつずらして、視差探索処理を実行する。 As described above, the parallax detection unit 27 of the present embodiment shifts the minute blocks of the pixel number matching image 22a, which is the reference image, by the pixel pitch of the pixels 1p, and for each shift, the small blocks are configured by the pixel pitch of the pixels 22ap. Calculate the cost for the image That is, parallax search processing is executed. Further, the parallax detection unit 27 performs parallax search processing by shifting the pixel pitch of the pixel 1p in the Y direction.

上述のように画素1pは第1の空間分解能を表す第1の画素ピッチであり、画素22apは第2の空間分解能を表す第2の画素ピッチである。そのため、本実施形態の視差検出部27は、画素数合わせ画像22aの一部、又は全部の画素群を、配列方向に第1の画素ピッチでシフトさせ、シフト毎で、コストを算出する視差探索処理を実行している。 As described above, pixels 1p have a first pixel pitch representing a first spatial resolution and pixels 22ap have a second pixel pitch representing a second spatial resolution. Therefore, the parallax detection unit 27 of the present embodiment shifts a part or all of the pixel groups of the pixel number adjustment image 22a in the arrangement direction by the first pixel pitch, and calculates the cost for each shift. processing is running.

また視差検出部27は、画素数合わせ画像22aの一部、又は全部の画素群を、配列方向と交差する方向に、第1の画素ピッチでずらしながら、視差探索処理を実行している。 Further, the parallax detection unit 27 performs parallax search processing while shifting a part or all of the pixel groups of the pixel number adjustment image 22a by the first pixel pitch in the direction intersecting with the arrangement direction.

さらに視差検出部27は、視差探索処理においては、第2の画素ピッチで構成される画像に対してコストを算出している。 Furthermore, in the parallax search process, the parallax detection unit 27 calculates the cost for the image configured with the second pixel pitch.

基準画像の微小ブロックをシフトさせながらコストを算出することで、微小ブロック毎で、図7に示されるようなコストカーブが得られる。コストが最小となる時のシフト量から視差が算出される。 By calculating the cost while shifting the minute blocks of the reference image, a cost curve as shown in FIG. 7 is obtained for each minute block. The parallax is calculated from the shift amount when the cost is minimized.

尚、視差探索処理では、コストの最小値が得られるシフトが視差探索範囲内に含まれるように、視差探索処理を実行する度に視差探索範囲(画素数)を適正化する処理を行う場合がある。本実施形態において、図8(c)及び(d)の視差探索処理と、図8(e)及び(f)の視差探索処理は、Y方向に画素1pだけずれた画素に対する処理である。比較画像において、図8(c)及び(d)で対象とする画素と、図8(e)及び(f)で対象とする画素は、第2の画素ピッチで視差探索処理を行う場合には同一の画素であり、視差探索範囲はほぼ一致すると考えられる。そのため、図8で示した例のようなケースでは、図8(e)及び(f)のようなY方向のシフト量が奇数になる行の視差探索処理の探索範囲を図8(c)及び図8(d)で図示されているような偶数行(Y方向±1行)で算出した視差から決定することで視差探索範囲を適正化し、処理を効率化する。 In the parallax search process, the parallax search range (the number of pixels) may be optimized each time the parallax search process is executed so that the shift that provides the minimum cost value is included in the parallax search range. be. In the present embodiment, the parallax search processing of FIGS. 8C and 8D and the parallax search processing of FIGS. In the comparison image, the target pixels in FIGS. 8C and 8D and the target pixels in FIGS. The pixels are the same, and the parallax search ranges are considered to be substantially the same. Therefore, in the case of the example shown in FIG. 8, the search range of the parallax search process for the rows where the shift amount in the Y direction is an odd number as shown in FIGS. The parallax search range is optimized by determining from the parallax calculated in the even rows (±1 rows in the Y direction) as shown in FIG. 8D, and the processing is efficient.

また上記では、画素1p(i、j)、1p(i+1、j)、1p(i、j+1)、及び1p(i+1、j+1)の4つの画素の輝度の平均値をコストの算出に用いる例を示したが、これに限定はされない。例えば4つの画素の輝度の総和を用いてもよいし、4つの画素のうちの1つの画素の輝度を、4つの画素の輝度の代表値として用いても構わない。 In the above description, an example is given in which the average value of the brightness of four pixels 1p(i, j), 1p(i+1, j), 1p(i, j+1), and 1p(i+1, j+1) is used to calculate the cost. Although shown, it is not limited to this. For example, the sum of the luminances of four pixels may be used, or the luminance of one of the four pixels may be used as the representative value of the luminances of the four pixels.

図9は、本実施形態の視差検出部27による処理の一例を示すフローチャートである。 FIG. 9 is a flowchart showing an example of processing by the parallax detection unit 27 of this embodiment.

先ず、視差検出部27は、基準画像である画素数合わせ画像22aの微小ブロックをシフトさせながら、比較画像である画像1Imとの間でコストを算出し、コストカーブを算出する(ステップS1001)。 First, the parallax detection unit 27 shifts the minute blocks of the pixel number adjustment image 22a, which is the reference image, and calculates the cost between the image 1 Im , which is the comparison image, and the cost curve (step S1001). .

次に、視差検出部27は、算出したコストカーブから、コストが最小となる時のシフトの整数値を求める(ステップS1003)。本実施形態では、このシフトは、第1の画素ピッチで求めることができる。 Next, from the calculated cost curve, the parallax detection unit 27 obtains the integer value of the shift when the cost is minimized (step S1003). In this embodiment, this shift can be determined at the first pixel pitch.

次に、視差検出部27は、コストカーブとシフトの整数値に基づき、サブピクセル推定を行う(ステップS1005)。すなわち、コストが最小となる時、及びその前後のシフトの整数値及びコスト値から、等角直線法やパラボラフィッティング法等を用いてサブピクセル推定を行う。またEEC(サブピクセル推定誤差低減手法;Estimation Error Cancel method)法や、これに等角直線法、又はパラボラフィッティング法組み合わせた等角直線EEC法やパラボラEEC法を用いてもよい。 Next, the parallax detection unit 27 performs sub-pixel estimation based on the cost curve and the integer value of the shift (step S1005). That is, sub-pixel estimation is performed using the equiangular straight line method, the parabolic fitting method, or the like from the integer value and the cost value of the shift when the cost is the minimum and before and after that time. An EEC (sub-pixel estimation error reduction method; Estimation Error Cancel method) method, an equiangular straight line EEC method or a parabolic EEC method combining this with the equiangular straight line method, or a parabolic fitting method may also be used.

所定の注目画素において、最小のコスト値をCostminとし、その近傍のコスト値をCostmin+1、Costmin―1とすると、パラボラフィッティングのサブピクセル推定により、視差dparaは以下の(1)式から算出することができる。 Let Cost min be the minimum cost value in a predetermined pixel of interest, and Cost min+1 and Cost min−1 be the cost values in the vicinity thereof. can be calculated.

d_para=(Costmin-1-Costmin+1)/{2×(Costmin-1-2×Costmin+Costmin+1)} (1)
尚、視差検出部27は、画素数合わせ画像22aをシフトさせる際、画素数合わせ画像22aの微小ブロックをシフトさせる場合は、微小ブロックとなる領域をずらしながら、コストカーブを算出する。視差検出部27は、画素数合わせ画像22aを構成する全ての微小ブロックに対してコストカーブを算出し、サブピクセル推定して視差を算出する。
d_para=(Cost min−1 −Cost min+1 )/{2×(Cost min−1 −2×Cost min +Cost min+1 )} (1)
When shifting the pixel number adjustment image 22a, the parallax detection unit 27 calculates the cost curve while shifting the area to be the minute block when shifting the minute blocks of the pixel number adjustment image 22a. The parallax detector 27 calculates a cost curve for all minute blocks forming the pixel count image 22a, performs sub-pixel estimation, and calculates parallax.

第1の空間分解能を表す第1の画素ピッチで視差探索処理を実行するため、第1の画素ピッチで視差が検出され、またサブピクセル推定される。 To perform the parallax search process at a first pixel pitch representing a first spatial resolution, parallax is detected and sub-pixel estimated at the first pixel pitch.

図3に戻り、距離画像形成部28は、このようにして検出された視差dと基線長Bに基づき、次の(2)式を用いて被写体距離Dを算出する。 Returning to FIG. 3, the distance image forming unit 28 calculates the object distance D using the following equation (2) based on the parallax d and the baseline length B thus detected.

D=(B×f)/(d×Δ) (2)
但し、fはレンズ31の焦点距離、Δは、画像センサ32の画素サイズである。尚、距離画像形成部28は、「距離画像形成手段」の一例である。
D=(B×f 2 )/(d×Δ) (2)
where f 2 is the focal length of the lens 312 and Δ is the pixel size of the image sensor 32 . The distance image forming unit 28 is an example of "distance image forming means".

本実施形態では、第1の画素ピッチで視差探索処理を行うため、距離分解能は、第1の空間分解能で測定した場合の距離の測定分解能が得られる。つまり、カメラ2で取得される画像は、焦点距離がfのレンズを用いて取得される画像となる。しかし、上述の視差探索処理を実行することで、fの2倍である焦点距離fのレンズを用いて取得される画像により距離を測定した場合と同等の測定分解能が得られる。 In the present embodiment, since the parallax search process is performed at the first pixel pitch, the distance resolution is the distance measurement resolution when measured at the first spatial resolution. That is, the image acquired by the camera 2 is an image acquired using a lens with a focal length of f2. However, by executing the parallax search process described above, it is possible to obtain a measurement resolution equivalent to that obtained by measuring a distance using an image acquired using a lens with a focal length f1 that is twice f2.

距離画像形成部28は、距離を例えば画素輝度に置き換え、微小ブロック毎の距離を表す画素輝度を、二次元に配列して距離画像を形成し、出力する。 The distance image forming unit 28 replaces the distance with pixel brightness, for example, and arranges the pixel brightness representing the distance of each minute block two-dimensionally to form and output a distance image.

図10は、本実施形態の距離画像の一例を説明する図である。破線で示されている画素22apは、第2の空間分解能を表す第2の画素ピッチを示している。横線ハッチングで示されている画素23と、斜線ハッチングで示されている画素24は、視差が算出され、(2)式により距離が算出された画素を示している。 FIG. 10 is a diagram illustrating an example of a distance image according to this embodiment. Pixels 22ap indicated by dashed lines indicate a second pixel pitch representing a second spatial resolution. Pixels 23 hatched with horizontal lines and pixels 24 hatched with oblique lines are pixels for which the parallax is calculated and the distance is calculated by the formula (2).

本実施形態では、Y方向に画素1p、すなわち第1の画素ピッチずつずらして、視差探索処理を実行する。そのため、図示されているように、画素23と画素24は、Y方向において画素22apに対して半分の画素ピッチ、つまり第1の画素ピッチとなっている。従って距離画像は、Y方向、すなわち配列方向と交差する方向において、第1の空間分解能を有しており、第2の空間分解能に対して空間分解能が向上している。 In this embodiment, the parallax search process is executed by shifting the pixels 1p in the Y direction, that is, by the first pixel pitch. Therefore, as illustrated, pixels 23 and 24 have half the pixel pitch of pixel 22ap in the Y direction, that is, the first pixel pitch. Therefore, the range image has a first spatial resolution in the Y direction, that is, a direction intersecting with the arrangement direction, and the spatial resolution is improved with respect to the second spatial resolution.

また算出した視差はそのまま用いるだけでなく多項式フィッティングなどを用いて算出してもよい。 Further, the calculated parallax may not only be used as it is, but may be calculated using polynomial fitting or the like.

上述では図8(a)のj+1のラインは図8(b)のn行のラインと視差探索しているが、それに加えてn+1行のラインと視差探索し、j+1のラインの位置を重みとして加重平均などを用いて視差値を求めてもよい。このようにすることで、空間分解能差が2倍以上になったときにより精度のよい視差算出ができる。 In the above description, the j+1 line in FIG. 8(a) is parallax-searched with the n-row line in FIG. 8(b). A parallax value may be obtained using a weighted average or the like. By doing so, more accurate parallax calculation can be performed when the spatial resolution difference is doubled or more.

図11は、本実施形態の画像処理基板10による処理の一例を示すフローチャートである。 FIG. 11 is a flow chart showing an example of processing by the image processing board 10 of this embodiment.

先ず、カメラ1とカメラ2はそれぞれ被写体の画像を取得する(ステップS1201)。 First, camera 1 and camera 2 each acquire an image of a subject (step S1201).

次に、画像領域抽出部25は、カメラ2で取得された画像2Imから、カメラ1で取得された画像1Imの視野に該当する画像領域2areaを抽出し、画像領域22を取得する。画像領域抽出部25は、画像領域22を画素数合わせ部26に出力する(ステップS1203)。 Next, the image area extraction unit 25 extracts an image area 2 area corresponding to the field of view of the image 1 Im acquired by the camera 1 from the image 2 Im acquired by the camera 2 to acquire an image area 22 . The image area extraction unit 25 outputs the image area 22 to the pixel count adjustment unit 26 (step S1203).

次に、画素数合わせ部26は、画像領域22の画素数を画像2Imの画素数に合わせる処理を実行する。画素数合わせ部26は、画像1Imと画素数合わせ画像22aを視差検出部27に出力する(ステップS1205)。 Next, the pixel number matching unit 26 performs a process of matching the number of pixels of the image area 22 with the number of pixels of the image 2 Im . The pixel number adjustment unit 26 outputs the image 1 Im and the pixel number adjustment image 22a to the parallax detection unit 27 (step S1205).

次に、視差検出部27は、画像1Imと画素数合わせ画像22aとの間で、視差を検出する。視差検出部27は、検出した視差を距離画像形成部28に出力する(ステップS1207)。 Next, the parallax detection unit 27 detects parallax between the image 1 Im and the pixel number adjusted image 22a. The parallax detection unit 27 outputs the detected parallax to the distance image formation unit 28 (step S1207).

距離画像形成部28は、検出された視差dと基線長Bに基づき、(2)式を用いて被写体距離Dを算出する。距離画像形成部28は、距離を例えば画素輝度に置き換え、置き換えられた画素を二次元に配列して距離画像を形成し、出力する(ステップS1209)。 Based on the detected parallax d and the baseline length B, the distance image forming unit 28 calculates the subject distance D using the equation (2). The distance image forming unit 28 replaces the distance with pixel brightness, for example, arranges the replaced pixels two-dimensionally to form a distance image, and outputs the image (step S1209).

このように画像処理基板10は、カメラ1とカメラ2により取得した画像に基づき、距離画像を出力することができる。 Thus, the image processing board 10 can output a distance image based on the images acquired by the cameras 1 and 2. FIG.

以上説明してきたように、本実施形態によれば、異なる空間分解能の画像を取得する複数のカメラを有し、被写体との距離を測定する撮像装置において、取得される距離画像の空間分解能を向上させることができる。 As described above, according to this embodiment, in an imaging device that has a plurality of cameras that acquire images with different spatial resolutions and that measures the distance to a subject, the spatial resolution of the acquired range image is improved. can be made

また本実施形態によれば、第1の画素ピッチで視差探索処理を行うため、第1の空間分解能で測定した場合と同等の距離測定分解能が得られる。つまり、カメラ2で取得される画像は、焦点距離がfのレンズを用いて取得される画像となるが、視差探索処理を実行することで、fの2倍の焦点距離fを有するレンズを用いたステレオカメラ等で、距離測定した場合と同等の測定分解能が得られる。 Further, according to the present embodiment, since parallax search processing is performed at the first pixel pitch, distance measurement resolution equivalent to the case of measurement at the first spatial resolution can be obtained. In other words, the image acquired by the camera 2 is an image acquired using a lens with a focal length of f2, but by executing the parallax search process, it has a focal length of f1 that is twice f2. A stereo camera or the like using a lens provides the same measurement resolution as distance measurement.

本実施形態において、距離画像と併せて第2の画像、すなわち視野が広い画像を出力するようにしてもよい。これにより距離画像とともに視野の広い輝度画像を利用することができる。例えば図2(a)に示されている場面において、道路の前方の走行車両である被写体50が含まれる距離画像を出力し、図2(c)に示されている輝度画像を出力する。これにより前方の走行車両との距離とともに、道路脇の植栽等の障害物を認識することが可能となる。車両の安全性の確保等に利用できる。 In this embodiment, a second image, that is, an image with a wide field of view, may be output together with the distance image. This makes it possible to use the luminance image with a wide field of view together with the distance image. For example, in the scene shown in FIG. 2(a), the distance image including the subject 50, which is the vehicle traveling ahead on the road, is output, and the luminance image shown in FIG. 2(c) is output. This makes it possible to recognize obstacles such as plants on the side of the road as well as the distance to the vehicle traveling ahead. It can be used to ensure the safety of vehicles.

[第2の実施形態]
次に、第2の実施形態における画像形成装置の一例を、図12を用いて説明する。尚、第1の実施形態において、既に説明した実施形態と同一構成部分についての説明は省略する場合がある。
[Second embodiment]
Next, an example of the image forming apparatus according to the second embodiment will be explained using FIG. In addition, in the first embodiment, the description of the same components as those of the already described embodiment may be omitted.

図12は、本実施形態の撮像装置を搭載した車両の構成の一例を示す図である。 FIG. 12 is a diagram showing an example of the configuration of a vehicle equipped with the imaging device of this embodiment.

図12は、車両400のルームミラー401に、撮像装置100が設置された例を示す概略図である。図12に示されているように、撮像装置100は、車両400のルームミラー401の前側、すなわち図中黒矢印で示される車両400の進行方向側に設置されている。車両400は運転者402により運転されている。撮像装置100は、車両400の進行方向に向いて画像を取得する。尚、撮像装置100を設置する位置は、上記に限定はされず、任意の位置で構わない。 FIG. 12 is a schematic diagram showing an example in which the imaging device 100 is installed in the rearview mirror 401 of the vehicle 400. As shown in FIG. As shown in FIG. 12, the imaging device 100 is installed on the front side of the rearview mirror 401 of the vehicle 400, that is, on the traveling direction side of the vehicle 400 indicated by the black arrow in the figure. Vehicle 400 is driven by driver 402 . The imaging device 100 acquires an image facing the traveling direction of the vehicle 400 . Note that the position where the imaging device 100 is installed is not limited to the above, and may be any position.

撮像装置100により取得された距離画像は、車両400の有する車載コントローラに転送される。車載コントローラは、例えば距離画像から車両400の前方の先行車両を認識し、先行車両との距離が規定値より短くなった場合に、車両400にブレーキをかけるように制御する。これにより、例えば車両400の運転の安全性を確保すること等が可能となる。 A distance image acquired by the imaging device 100 is transferred to an in-vehicle controller of the vehicle 400 . The in-vehicle controller recognizes a preceding vehicle in front of the vehicle 400 from the distance image, for example, and controls the vehicle 400 to brake when the distance to the preceding vehicle becomes shorter than a specified value. As a result, for example, it is possible to ensure the safety of driving the vehicle 400 .

本実施形態の撮像装置100を車両400に設置する場合、画像処理基板10の有する機能の一部、又は全部を車両400の有する車載コントローラに実現させてもよい。また車両400の有する車載コントローラの有する機能の一部を画像処理基板10に実現させてもよい。 When the imaging device 100 of the present embodiment is installed in the vehicle 400 , some or all of the functions of the image processing board 10 may be realized by an in-vehicle controller of the vehicle 400 . Also, part of the functions of the on-vehicle controller of the vehicle 400 may be realized by the image processing board 10 .

尚、これ以外の効果は、第1の実施形態で説明したものと同様である。 Other effects are the same as those described in the first embodiment.

以上、実施形態に係る画像形成装置、及び画像形成方法について説明したが、本発明は上記実施形態に限定されるものではなく、本発明の範囲内で種々の変形及び改良が可能である。 Although the image forming apparatus and the image forming method according to the embodiments have been described above, the present invention is not limited to the above embodiments, and various modifications and improvements are possible within the scope of the present invention.

1、2 カメラ
10 画像処理基板(処理手段の一例)
11 CPU
12 FPGA
13 RAM
14 ROM
15 シリアルIF
16 データIF
20 データバス
21 シリアルバス
22a 画素数合わせ画像
25 画像領域抽出部(画像領域抽出手段の一例)
26 画素数合わせ部(画素数合わせ手段の一例)
27 視差検出部(視差検出手段の一例)
28 距離画像形成部(距離画像形成手段の一例)
31 レンズ
32 画像センサ
33 画像センサコントローラ
50 被写体
100 撮像装置(撮像装置の一例)
400 車両(車両の一例)
401 ルームミラー
402 運転者
B 基線長
D 被写体距離
SW 探索視差範囲
1, 2 Camera 10 Image processing board (an example of processing means)
11 CPUs
12 FPGAs
13 RAM
14 ROMs
15 serial interface
16 data interface
20 data bus 21 serial bus 22a pixel count image 25 image area extractor (an example of image area extractor)
26 pixel number matching unit (an example of pixel number matching means)
27 parallax detection unit (an example of parallax detection means)
28 distance image forming unit (an example of distance image forming means)
31 lens 32 image sensor 33 image sensor controller 50 subject 100 imaging device (an example of imaging device)
400 vehicle (an example of a vehicle)
401 rearview mirror 402 driver B baseline length D object distance SW search parallax range

特許2998791号公報Japanese Patent No. 2998791

Claims (7)

所定の視野で第1の空間分解能を有する第1の画像を取得するカメラと、前記第1の空間分解能より低い第2の空間分解能を有する第2の画像を取得するカメラと、が所定の配列方向に所定の間隔で配列され、
前記第1の画像と、前記第2の画像と、に基づき測定された被写体との距離から、距離画像を形成する撮像装置であって、
前記距離画像は、
前記配列方向において、前記第2の空間分解能を有し、
前記配列方向と交差する方向において、前記第1の空間分解能を有する
ことを特徴とする撮像装置。
A camera that acquires a first image having a first spatial resolution in a predetermined field of view and a camera that acquires a second image having a second spatial resolution lower than the first spatial resolution in a predetermined array. are arranged at predetermined intervals in the direction,
An imaging device that forms a distance image from a distance to a subject measured based on the first image and the second image,
The distance image is
having the second spatial resolution in the array direction;
An imaging device having the first spatial resolution in a direction intersecting with the arrangement direction.
前記第1の画像と、前記第2の画像と、に基づき、前記距離画像を形成する処理手段を有し、
前記処理手段は、
前記第2の画像において、前記第1の画像の前記視野に該当する画像領域を抽出する画像領域抽出手段と、
前記画像領域の画素数を前記第1の画像の前記画素数に合わせた、画素数合わせ画像を形成する画素数合わせ手段と、
前記画素数合わせ画像と、前記第1の画像との間で前記配列方向の視差を検出する視差検出手段と、
前記視差と、前記間隔とに基づいて算出された前記距離から前記距離画像を形成する距離画像形成手段と、を有する
ことを特徴とする請求項1に記載の撮像装置。
processing means for forming the distance image based on the first image and the second image;
The processing means
image region extracting means for extracting an image region corresponding to the field of view of the first image in the second image;
a pixel number matching means for forming a pixel number matching image in which the number of pixels of the image area is matched with the number of pixels of the first image;
parallax detection means for detecting a parallax in the arrangement direction between the pixel number adjusted image and the first image;
2. The imaging apparatus according to claim 1, further comprising distance image forming means for forming the distance image from the distance calculated based on the parallax and the distance.
前記第1の画像は、前記第1の空間分解能を表す第1の画素ピッチで構成され、
前記第2の画像は、前記第2の空間分解能を表す第2の画素ピッチで構成され、
前記視差検出手段は、前記画素数合わせ画像の一部、又は全部の画素群を、前記配列方向に前記第1の画素ピッチでシフトさせ、シフト毎で、前記画素数合わせ画像と前記第1の画像の類似性の評価値を算出する視差探索処理を実行し、
前記視差検出手段は、前記画素数合わせ画像の前記画素群を、前記配列方向と交差する方向に、前記第1の画素ピッチでずらしながら、前記視差探索処理を実行し、
前記評価値は、前記第2の画素ピッチで構成される画像に対して算出され、
前記配列方向と交差する方向において、前記第1の空間分解能を有する
ことを特徴とする請求項2に記載の撮像装置。
The first image is configured with a first pixel pitch representing the first spatial resolution,
The second image is configured with a second pixel pitch representing the second spatial resolution,
The parallax detection means shifts a part or all of the pixel groups of the pixel number adjusted image by the first pixel pitch in the arrangement direction, and for each shift, the pixel number adjusted image and the first pixel group are shifted. Execute parallax search processing for calculating an evaluation value of image similarity,
The parallax detection means performs the parallax search process while shifting the pixel group of the pixel number adjusted image by the first pixel pitch in a direction intersecting with the arrangement direction,
The evaluation value is calculated for an image configured with the second pixel pitch,
3. The imaging apparatus according to claim 2, wherein the imaging apparatus has the first spatial resolution in a direction intersecting with the arrangement direction.
前記第2の画像と、前記距離画像とを出力する
ことを特徴とする請求項1乃至3の何れか1項に記載の撮像装置。
4. The imaging apparatus according to any one of claims 1 to 3, wherein the second image and the distance image are output.
請求項1乃至4の何れか1項に記載の撮像装置を有する
ことを特徴とする車両。
A vehicle comprising the imaging device according to any one of claims 1 to 4.
所定の視野で第1の空間分解能を有する第1の画像を取得するカメラと、前記第1の空間分解能より低い第2の空間分解能を有する第2の画像を取得するカメラと、が所定の配列方向に所定の間隔で配列され、
前記第1の画像と、前記第2の画像と、に基づき測定された被写体との距離から、距離画像を形成する撮像方法であって、
前記第2の画像において、前記第1の画像の前記視野に該当する画像領域を抽出する画像領域抽出工程と、
前記画像領域の画素数を前記第1の画像の前記画素数に合わせた、画素数合わせ画像を形成する画素数合わせ工程と、
前記画素数合わせ画像と、前記第1の画像との間で前記配列方向の視差を検出する視差検出工程と、
前記視差と、前記間隔とに基づいて算出された距離から距離画像を形成する距離画像形成工程と、を有し、
前記距離画像は、
前記配列方向において、前記第2の空間分解能を有し、
前記配列方向と交差する方向において、前記第1の空間分解能を有する
ことを特徴とする撮像方法。
A camera that acquires a first image having a first spatial resolution in a predetermined field of view and a camera that acquires a second image having a second spatial resolution lower than the first spatial resolution in a predetermined array. are arranged at predetermined intervals in the direction,
An imaging method for forming a distance image from a distance to a subject measured based on the first image and the second image,
an image region extracting step of extracting an image region corresponding to the field of view of the first image in the second image;
a pixel number matching step of forming a pixel number matching image in which the number of pixels of the image area is matched to the number of pixels of the first image;
a parallax detection step of detecting a parallax in the arrangement direction between the pixel number adjustment image and the first image;
a distance image forming step of forming a distance image from a distance calculated based on the parallax and the distance;
The distance image is
having the second spatial resolution in the array direction;
An imaging method, wherein the first spatial resolution is obtained in a direction intersecting with the arrangement direction.
前記第1の画像は、前記第1の空間分解能を表す第1の画素ピッチで構成され、
前記第2の画像は、前記第2の空間分解能を表す第2の画素ピッチで構成され、
前記視差検出手段は、前記画素数合わせ画像の一部、又は全部の画素群を、前記配列方向に前記第1の画素ピッチでシフトさせ、シフト毎で、前記画素数合わせ画像と前記第1の画像の類似性の評価値を算出する視差探索処理を実行し、
前記視差検出手段は、前記画素数合わせ画像の前記画素群を、前記配列方向と交差する方向に、前記第1の画素ピッチで上下にずらしながら、前記視差探索処理を実行し、記第2の画素ピッチで構成される画像の画素に対し、前記第1の画素ピッチで上下にずらすことにより算出された複数の評価値から該当位置の視差を検出する
ことを特徴とする請求項2に記載の撮像装置。
The first image is configured with a first pixel pitch representing the first spatial resolution,
The second image is configured with a second pixel pitch representing the second spatial resolution,
The parallax detection means shifts a part or all of the pixel groups of the pixel number adjusted image by the first pixel pitch in the arrangement direction, and for each shift, the pixel number adjusted image and the first pixel group are shifted. Execute parallax search processing for calculating an evaluation value of image similarity,
The parallax detection means performs the parallax search process while shifting the pixel group of the pixel number adjusted image vertically by the first pixel pitch in a direction intersecting the array direction, and performing the second parallax search process. 3. The parallax of the corresponding position is detected from a plurality of evaluation values calculated by vertically shifting the pixels of the image configured with the pixel pitch of the first pixel pitch. The imaging device described.
JP2018048740A 2018-03-16 2018-03-16 Imaging device, vehicle, and imaging method Active JP7206602B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018048740A JP7206602B2 (en) 2018-03-16 2018-03-16 Imaging device, vehicle, and imaging method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018048740A JP7206602B2 (en) 2018-03-16 2018-03-16 Imaging device, vehicle, and imaging method

Publications (2)

Publication Number Publication Date
JP2019158776A JP2019158776A (en) 2019-09-19
JP7206602B2 true JP7206602B2 (en) 2023-01-18

Family

ID=67996849

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018048740A Active JP7206602B2 (en) 2018-03-16 2018-03-16 Imaging device, vehicle, and imaging method

Country Status (1)

Country Link
JP (1) JP7206602B2 (en)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005210217A (en) 2004-01-20 2005-08-04 Olympus Corp Stereoscopic camera
JP2008107290A (en) 2006-10-27 2008-05-08 Konica Minolta Holdings Inc Distance image generator, distance image generation method, and program
US20110169921A1 (en) 2010-01-12 2011-07-14 Samsung Electronics Co., Ltd. Method for performing out-focus using depth information and camera using the same
JP2014102265A (en) 2011-03-17 2014-06-05 Panasonic Corp 3d imaging apparatus
JP2016169989A (en) 2015-03-11 2016-09-23 株式会社リコー Parallax image generation system and parallax image generation method
JP2017129543A (en) 2016-01-22 2017-07-27 京セラ株式会社 Stereo camera device and vehicle

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2998791B2 (en) * 1996-10-31 2000-01-11 日本電気株式会社 3D structure estimation device

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005210217A (en) 2004-01-20 2005-08-04 Olympus Corp Stereoscopic camera
JP2008107290A (en) 2006-10-27 2008-05-08 Konica Minolta Holdings Inc Distance image generator, distance image generation method, and program
US20110169921A1 (en) 2010-01-12 2011-07-14 Samsung Electronics Co., Ltd. Method for performing out-focus using depth information and camera using the same
JP2014102265A (en) 2011-03-17 2014-06-05 Panasonic Corp 3d imaging apparatus
JP2016169989A (en) 2015-03-11 2016-09-23 株式会社リコー Parallax image generation system and parallax image generation method
JP2017129543A (en) 2016-01-22 2017-07-27 京セラ株式会社 Stereo camera device and vehicle

Also Published As

Publication number Publication date
JP2019158776A (en) 2019-09-19

Similar Documents

Publication Publication Date Title
JP6167525B2 (en) Distance measuring device and vehicle
JP5468426B2 (en) Stereo camera device
JP4440341B2 (en) Calibration method, calibration apparatus, and calibration system including the apparatus
CN108692719B (en) Object detection device
JP5760559B2 (en) Stereo camera device and parallax image generation method
JP4782899B2 (en) Parallax detection device, distance measuring device, and parallax detection method
WO2009101798A1 (en) Compound eye imaging device, distance measurement device, parallax calculation method and distance measurement method
JP2006053890A (en) Obstacle detection apparatus and method therefor
JP2007263669A (en) Three-dimensional coordinates acquisition system
JP6515650B2 (en) Calibration apparatus, distance measuring apparatus and calibration method
WO2016063545A1 (en) Stereo camera apparatus and vehicle provided with stereo camera apparatus
US20200082556A1 (en) Image processing apparatus, image processing program, and driving assistance system
EP3208773B1 (en) Disparity-to-depth calibration for plenoptic imaging systems
JP6589313B2 (en) Parallax value deriving apparatus, device control system, moving body, robot, parallax value deriving method, and program
JP6337504B2 (en) Image processing apparatus, moving body, robot, device control method and program
JP6543935B2 (en) PARALLEL VALUE DERIVING DEVICE, DEVICE CONTROL SYSTEM, MOBILE OBJECT, ROBOT, PARALLEL VALUE DERIVING METHOD, AND PROGRAM
JP2023184572A (en) Electronic apparatus, movable body, imaging apparatus, and control method for electronic apparatus, program, and storage medium
JP6040782B2 (en) Image processing apparatus and program
JP2021051347A (en) Distance image generation apparatus and distance image generation method
CN112602117A (en) Image processing apparatus and three-dimensional measurement system
JP6473769B2 (en) Correction amount calculation device, correction device, and correction amount calculation method
JP2009092551A (en) Method, apparatus and system for measuring obstacle
JP7206602B2 (en) Imaging device, vehicle, and imaging method
KR20180102080A (en) A method and apparatus for displaying a front-view around a vehicle,
US10726528B2 (en) Image processing apparatus and image processing method for image picked up by two cameras

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210208

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220121

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220201

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220401

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220726

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220922

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221206

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221219

R151 Written notification of patent or utility model registration

Ref document number: 7206602

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151