JP2022143387A - Imaging device and program - Google Patents

Imaging device and program Download PDF

Info

Publication number
JP2022143387A
JP2022143387A JP2021043866A JP2021043866A JP2022143387A JP 2022143387 A JP2022143387 A JP 2022143387A JP 2021043866 A JP2021043866 A JP 2021043866A JP 2021043866 A JP2021043866 A JP 2021043866A JP 2022143387 A JP2022143387 A JP 2022143387A
Authority
JP
Japan
Prior art keywords
imaging
imaging unit
captured image
unit
imaging device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021043866A
Other languages
Japanese (ja)
Inventor
恭也 廣藤
Kyoya Hirofuji
康紘 野村
Yasuhiro Nomura
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Industrial Solutions Inc
Original Assignee
Ricoh Industrial Solutions Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Industrial Solutions Inc filed Critical Ricoh Industrial Solutions Inc
Priority to JP2021043866A priority Critical patent/JP2022143387A/en
Publication of JP2022143387A publication Critical patent/JP2022143387A/en
Pending legal-status Critical Current

Links

Images

Abstract

To reduce the deviation of scanning timing occurring in left and right imaging units having different angles of view.SOLUTION: An imaging device includes a first imaging unit having a rolling shutter type imaging element, a second imaging unit having a rolling shutter type imaging element with a resolution different from that of the first imaging unit, and a delay instructing unit that delays the scanning start timing of either the first imaging unit or the second imaging unit by a delay time which is the deviation of the scanning completion timing of the first imaging unit and the second imaging unit in an arbitrary region in the first captured image captured by the first imaging unit and an arbitrary region in the second captured image captured by the second imaging unit.SELECTED DRAWING: Figure 11

Description

本発明は、撮像装置およびプログラムに関する。 The present invention relates to an imaging device and a program.

従来、左右に2つのカメラを並べたステレオカメラは、自動車等の車両に搭載することで、車両から対象物までの距離情報の計測に用いられている。また、ステレオカメラは、距離情報の他に、車両周辺の様々な対象物の認識に用いられている。このようなステレオカメラは、車両の運転支援時の安全性の向上に寄与するものである。 Conventionally, a stereo camera in which two cameras are arranged on the left and right sides is mounted on a vehicle such as an automobile and used to measure distance information from the vehicle to an object. In addition to distance information, stereo cameras are used to recognize various objects around the vehicle. Such a stereo camera contributes to improvement of safety during driving assistance of a vehicle.

なお、対象物の認識は、距離情報が無くとも、1つのカメラで撮像した画像だけでも行える。そこで、ステレオカメラを広角カメラと狭角カメラという画角の異なるカメラで構成することが考えられている。このようなステレオカメラによれば、広角カメラで広い範囲の物体認識を行い、狭角カメラと広角カメラの撮像範囲が重なる部分で対象物への距離測定を行うことができる。 It should be noted that object recognition can be performed using only an image captured by a single camera without distance information. Therefore, it has been considered to configure the stereo camera with cameras having different angles of view such as a wide-angle camera and a narrow-angle camera. According to such a stereo camera, it is possible to perform object recognition in a wide range with the wide-angle camera, and to measure the distance to the object in the portion where the imaging ranges of the narrow-angle camera and the wide-angle camera overlap.

特許文献1には、左右画像のトリミング位置のずれ量からずれを矯正するための垂直タイミングの遅延時間を算出し、垂直タイミング調整器に対して調整を指示することにより、垂直方向のずれが空間的に0に近づくように調整する技術が開示されている。このように調整することで、左右カメラ間でずれのない良品質な立体画像を得ることができる。 In Patent Document 1, a delay time of vertical timing for correcting the deviation is calculated from the amount of deviation of the trimming position of the left and right images, and a vertical timing adjuster is instructed to adjust the deviation in the vertical direction. A technique is disclosed for adjusting so as to approach zero. By adjusting in this way, it is possible to obtain a high-quality stereoscopic image without deviation between the left and right cameras.

しかしながら、従来のような画角の異なるカメラを搭載した車載用ステレオカメラにおいて、シャッタ方式としてローリングシャッタ方式を採用した場合、車載用ステレオカメラの左右のカメラで走査タイミングがずれてしまうという問題がある。 However, when the rolling shutter method is used in a stereo camera mounted with cameras having different angles of view, as in conventional cameras, there is a problem that the scanning timings of the left and right cameras of the stereo camera do not match. .

より詳細には、ローリングシャッタ方式は、センサ内の画素を順に走査する方式である。このため、左右のカメラの画角(走査する画素の量)が異なる場合、同時に走査を開始しても、走査中にタイミングのずれが生じてしまう。このように走査中にタイミングのずれが生じてしまうと、同じ対象物が左右で異なるタイミングで撮像されることになり、距離情報への誤差が発生することになる。 More specifically, the rolling shutter method is a method of sequentially scanning pixels in the sensor. For this reason, when the angles of view (the amount of pixels to be scanned) of the left and right cameras are different, even if the scanning is started at the same time, a timing shift occurs during the scanning. If a timing shift occurs during scanning in this way, the same object will be imaged at different timings on the left and right sides, and an error will occur in the distance information.

本発明は、上記に鑑みてなされたものであって、画角の異なる左右の撮像部で発生する走査タイミングのずれを軽減することを目的とする。 SUMMARY OF THE INVENTION The present invention has been made in view of the above, and it is an object of the present invention to reduce the deviation in scanning timing that occurs in left and right imaging units having different angles of view.

上述した課題を解決し、目的を達成するために、本発明は、ローリングシャッタ方式の撮像素子を有する第1撮像部と、前記第1撮像部と解像度が異なるローリングシャッタ方式の撮像素子を有する第2撮像部と、前記第1撮像部で撮像された第1撮像画像における任意の領域と前記第2撮像部で撮像された第2撮像画像における任意の領域とにおける、前記第1撮像部と前記第2撮像部との走査完了タイミングのずれである遅延時間分だけ、前記第1撮像部と前記第2撮像部とのいずれか一方について走査開始タイミングを遅延させる遅延指示部と、を備えることを特徴とする。 In order to solve the above-described problems and achieve the object, the present invention provides a first imaging unit having a rolling shutter imaging device, and a rolling shutter imaging device having a resolution different from that of the first imaging unit. 2 imaging units, and the first imaging unit and the a delay instructing unit that delays the scanning start timing of either the first imaging unit or the second imaging unit by a delay time that is a difference in scanning completion timing with the second imaging unit. Characterized by

本発明によれば、画角の異なる左右の撮像部で発生する走査タイミングのずれを軽減することができる、という効果を奏する。 ADVANTAGE OF THE INVENTION According to this invention, it is effective in the ability to reduce the deviation of the scanning timing which generate|occur|produces in the left-right imaging part from which an angle of view differs.

図1は、第1の実施の形態にかかる撮像装置の構成を示す概要平面図である。FIG. 1 is a schematic plan view showing the configuration of an imaging device according to a first embodiment; FIG. 図2は、第1撮像部および第2撮像部の構成を示す概要平面図である。FIG. 2 is a schematic plan view showing the configuration of the first imaging section and the second imaging section. 図3は、撮像装置の制御系のハードウェア構成を示すブロック図である。FIG. 3 is a block diagram showing the hardware configuration of the control system of the imaging apparatus. 図4は、補正部における倍率調整とトリミングの一例を示す図である。FIG. 4 is a diagram illustrating an example of magnification adjustment and trimming in the correction unit. 図5は、撮像装置の距離計測例を示す図である。FIG. 5 is a diagram showing an example of distance measurement by the imaging device. 図6は、Z軸を光軸方向として配置した場合における第1撮像部及び第2撮像部の水平画角の一例を示す図である。FIG. 6 is a diagram showing an example of horizontal angles of view of the first imaging unit and the second imaging unit when the Z axis is arranged as the optical axis direction. 図7は、Z軸を光軸方向として配置した場合における第1撮像部及び第2撮像部の垂直画角の一例を示す図である。FIG. 7 is a diagram showing an example of the vertical angle of view of the first imaging unit and the second imaging unit when the Z axis is arranged along the optical axis. 図8は、第1撮像部の撮像素子及び第2撮像部の撮像素子における走査タイミングの差を例示的に示す図である。FIG. 8 is a diagram exemplifying the difference in scanning timing between the imaging element of the first imaging section and the imaging element of the second imaging section. 図9は、被写体に対する前後ラインにおける走査タイミングの差を例示的に示す図である。FIG. 9 is a diagram exemplifying the difference in scanning timing between the lines before and after the subject. 図10は、被写体に対する走査タイミングが第1撮像部と第2撮像部とでずれている場合について示す図である。FIG. 10 is a diagram showing a case where the scanning timings for the subject are shifted between the first imaging section and the second imaging section. 図11は、第1撮像部と第2撮像部とでの被写体に対する走査タイミングの差をゼロに近づける場合について示す図である。FIG. 11 is a diagram showing a case where the difference in scanning timing for the object between the first imaging unit and the second imaging unit is brought close to zero. 図12は、走査タイミングを遅延させた例を示す図である。FIG. 12 is a diagram showing an example in which scanning timing is delayed. 図13は、第2の実施の形態にかかる撮像装置の制御系のハードウェア構成を示すブロック図である。FIG. 13 is a block diagram of a hardware configuration of a control system of an imaging apparatus according to the second embodiment; 図14は、消失点を例示的に示す図である。FIG. 14 is a diagram exemplifying a vanishing point. 図15は、消失点から遅延時間反映を行う処理の流れを示すフローチャートである。FIG. 15 is a flow chart showing the flow of processing for reflecting the delay time from the vanishing point. 図16は、自動車の物体検出装置に対して実施の形態の撮像装置を設けた例を示す図である。FIG. 16 is a diagram showing an example in which the imaging device of the embodiment is provided for an object detection device for a vehicle. 図17は、実施の形態の撮像装置を適用した自動車の物体検出装置の概略構成を示す図である。FIG. 17 is a diagram showing a schematic configuration of an automobile object detection device to which the imaging device of the embodiment is applied. 図18は、実施の形態の撮像装置を適用した自動車の物体検出装置の構成例を示す図である。FIG. 18 is a diagram showing a configuration example of an automobile object detection device to which the imaging device of the embodiment is applied. 図19は、実施の形態の撮像装置が設けられた飛行体の上面図である。FIG. 19 is a top view of an aircraft provided with an imaging device according to an embodiment. 図20は、実施の形態の撮像装置が設けられた飛行体の正面図である。FIG. 20 is a front view of an aircraft provided with an imaging device according to an embodiment.

以下に添付図面を参照して、撮像装置およびプログラムの実施の形態を詳細に説明する。 Embodiments of an imaging device and a program will be described in detail below with reference to the accompanying drawings.

(第1の実施の形態)
図1は、第1の実施の形態にかかる撮像装置10の構成を示す概要平面図、図2は、第1撮像部1および第2撮像部2の構成を示す概要平面図である。ステレオ方式の撮像装置10は、被写体を撮像するステレオカメラとしての第1撮像部1と、第2撮像部2とを有している。
(First embodiment)
FIG. 1 is a schematic plan view showing the configuration of an imaging device 10 according to the first embodiment, and FIG. 2 is a schematic plan view showing the configurations of a first imaging section 1 and a second imaging section 2. As shown in FIG. A stereo imaging apparatus 10 has a first imaging section 1 and a second imaging section 2 as stereo cameras for imaging a subject.

第1撮像部1と第2撮像部2は、所定の間隔としての基線長B(例えば、60mm)を空けて配置されている。撮像装置10は、走査タイミングを同期して、第1撮像部1及び第2撮像部2により、同一の被写体を撮像することができる。 The first imaging unit 1 and the second imaging unit 2 are arranged with a base line length B (for example, 60 mm) as a predetermined interval. The image pickup apparatus 10 can image the same subject with the first image pickup section 1 and the second image pickup section 2 by synchronizing the scanning timing.

図2に示すように、第1撮像部1および第2撮像部2は、光学レンズ8(8a、8b)と、撮像素子9(9a、9b)と、を備えている。第1撮像部1および第2撮像部2は、ステー部材12によって基線長Bを空けて保持された状態で一体に固定されている。 As shown in FIG. 2, the first imaging section 1 and the second imaging section 2 are provided with optical lenses 8 (8a, 8b) and imaging elements 9 (9a, 9b). The first imaging unit 1 and the second imaging unit 2 are integrally fixed in a state where they are held with a baseline length B therebetween by a stay member 12 .

光学レンズ8aは、例えば、焦点距離f:2.5mmのレンズである。光学レンズ8bは、例えば、焦点距離f:5mmのレンズである。 The optical lens 8a is, for example, a lens with a focal length f of 2.5 mm. The optical lens 8b is, for example, a lens with a focal length f of 5 mm.

第1撮像部1は、広角カメラである。第2撮像部2は、狭角カメラである。すなわち、第1撮像部1と第2撮像部2とは、解像度を異ならせることによって画角が異なるものであり、焦点距離も異なる。 The first imaging unit 1 is a wide-angle camera. The second imaging unit 2 is a narrow-angle camera. That is, the first imaging unit 1 and the second imaging unit 2 have different angles of view and different focal lengths due to different resolutions.

第1撮像部1の撮像素子9aは、ローリングシャッタ方式の高解像度のCMOSイメージセンサである。撮像素子9aは、ピクセルピッチppを3μmとする。ローリングシャッタ方式は、センサ内の画素を順に走査する方式である。 The imaging device 9a of the first imaging unit 1 is a CMOS image sensor of a rolling shutter type with high resolution. The image sensor 9a has a pixel pitch pp of 3 μm. The rolling shutter method is a method of sequentially scanning pixels in the sensor.

第2撮像部2の撮像素子9bは、ローリングシャッタ方式の低解像度のCMOSイメージセンサである。撮像素子9bは、ピクセルピッチppを3μmとする。 The imaging device 9b of the second imaging unit 2 is a rolling shutter low-resolution CMOS image sensor. The image sensor 9b has a pixel pitch pp of 3 μm.

次に、制御系について説明する。 Next, the control system will be explained.

撮像装置10は、CPU(Central Processing Unit)などの制御装置と、ROM(Read Only Memory)やRAM(Random Access Memory)などの記憶装置と、制御プログラムを記憶するHDDなどの外部記憶装置とを備えており、通常のコンピュータを利用したハードウェア構成となっている。 The imaging device 10 includes a control device such as a CPU (Central Processing Unit), a storage device such as a ROM (Read Only Memory) or a RAM (Random Access Memory), and an external storage device such as an HDD for storing control programs. It has a hardware configuration using a normal computer.

撮像装置10のCPUは、制御プログラムを実行することにより、図3に示すような記憶部3と、補正部6と、視差算出部7と、遅延指示部5と、として機能する。 The CPU of the imaging device 10 functions as the storage unit 3, the correction unit 6, the parallax calculation unit 7, and the delay instruction unit 5 as shown in FIG. 3 by executing the control program.

なお、本実施形態の撮像装置10で実行される制御プログラムを、インターネット等のネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせることにより提供するように構成しても良い。また、本実施形態の撮像装置10で実行される制御プログラムをインターネット等のネットワーク経由で提供または配布するように構成しても良い。 Note that the control program executed by the imaging apparatus 10 of this embodiment may be stored in a computer connected to a network such as the Internet, and may be provided by being downloaded via the network. Also, the control program executed by the imaging apparatus 10 of this embodiment may be provided or distributed via a network such as the Internet.

また、本実施形態の撮像装置10で実行される制御プログラムを、ROM等に予め組み込んで提供するように構成してもよい。 Also, the control program executed by the imaging apparatus 10 of the present embodiment may be configured to be pre-installed in a ROM or the like and provided.

図3は、撮像装置10の制御系のハードウェア構成を示すブロック図である。図3に示すように、撮像装置10は、記憶部3と、補正部6と、視差算出部7と、遅延指示部5と、を備える。 FIG. 3 is a block diagram showing the hardware configuration of the control system of the imaging device 10. As shown in FIG. As shown in FIG. 3 , the imaging device 10 includes a storage section 3 , a correction section 6 , a parallax calculation section 7 and a delay instruction section 5 .

記憶部3は、撮像画像11と、補正画像14と、視差画像15と、遅延時間17と、を記憶する。 Storage unit 3 stores captured image 11 , corrected image 14 , parallax image 15 , and delay time 17 .

ここで、第1撮像部1が撮像した撮像画像を「第1撮像画像」という。また、第2撮像部2が撮像した撮像画像を「第2撮像画像」という。また、第1撮像画像及び第2撮像画像を区別しない場合は、単に「撮像画像」という。撮像画像11は、第1撮像画像又は第2撮像画像である。 Here, the captured image captured by the first imaging unit 1 is referred to as a "first captured image". A captured image captured by the second imaging unit 2 is referred to as a "second captured image". Also, when the first captured image and the second captured image are not distinguished, they are simply referred to as "captured images". The captured image 11 is the first captured image or the second captured image.

補正部6は、第1撮像画像と第2撮像画像とが見かけ上同じ焦点距離で撮像した画像となるように倍率調整とトリミングを行い、第1撮像部1(第2撮像部2)の位置ずれに起因する第1撮像画像(第2撮像画像)の座標ずれを補正する。 The correction unit 6 performs magnification adjustment and trimming so that the first captured image and the second captured image appear to be images captured at the same focal length, and adjusts the position of the first imaging unit 1 (second imaging unit 2). A coordinate deviation of the first captured image (second captured image) caused by the deviation is corrected.

上述したように、広角カメラである第1撮像部1と狭角カメラである第2撮像部2とは、解像度を異ならせることによって画角が異なるものであり、焦点距離も異なる。そのため、後述する被写体に対する距離を求めるために焦点距離を合わせる必要がある。補正部6は、焦点距離を合わせるために、倍率調整およびトリミングを行う。 As described above, the first imaging unit 1, which is a wide-angle camera, and the second imaging unit 2, which is a narrow-angle camera, have different angles of view and different focal lengths due to different resolutions. Therefore, it is necessary to adjust the focal length in order to obtain the distance to the subject, which will be described later. The correction unit 6 performs magnification adjustment and trimming to match the focal length.

図4は、補正部6における倍率調整とトリミングの一例を示す図である。図4においては、広角カメラである第1撮像部1が撮像した撮像画像を第1撮像画像11-1、狭角カメラである第2撮像部2が撮像した撮像画像を第2撮像画像11-2とする。 FIG. 4 is a diagram showing an example of magnification adjustment and trimming in the corrector 6. As shown in FIG. In FIG. 4, a first captured image 11-1 is an image captured by the first imaging unit 1, which is a wide-angle camera, and a second captured image 11-1 is an image captured by the second imaging unit 2, which is a narrow-angle camera. 2.

図4においては、第1撮像部1の焦点距離をf、第2撮像部2の焦点距離をfとする。倍率は焦点距離の比率で求められることが知られており、第1撮像画像11-1に対する第2撮像画像11-2の倍率mは、(f/f)となる。そこで、補正部6は、第1撮像画像11-1をm倍で拡大し、第2撮像画像11-2のサイズX,Yと同じサイズX’,Y’にトリミングすることで、第2撮像画像11-2と同じ倍率と画像サイズの第1補正画像14-1を作成する。 In FIG. 4, the focal length of the first imaging section 1 is f 1 , and the focal length of the second imaging section 2 is f 2 . It is known that the magnification is obtained by the focal length ratio, and the magnification m of the second captured image 11-2 with respect to the first captured image 11-1 is (f 2 /f 1 ). Therefore, the correction unit 6 enlarges the first captured image 11-1 by m times and trims it to the same sizes X 1 ' and Y 1 ' as the sizes X 2 and Y 2 of the second captured image 11-2. , a first corrected image 14-1 having the same magnification and image size as those of the second captured image 11-2.

本実施形態においては、上述したように、第1撮像部1の光学レンズ8aの焦点距離fは2.5mm、第2撮像部2の光学レンズ8bの焦点距離fは5mmである。このような場合には、倍率調整およびトリミングによって、例えば撮像した画像の焦点距離を見かけ上下記のように合わせることになる。
第1撮像部1で撮像した画像の見かけ上の焦点距離:5mm
第2撮像部2で撮像した画像の見かけ上の焦点距離:5mm
In this embodiment, as described above, the focal length f1 of the optical lens 8a of the first imaging section 1 is 2.5 mm, and the focal length f2 of the optical lens 8b of the second imaging section 2 is 5 mm. In such a case, for example, the focal length of the captured image is apparently adjusted as follows by adjusting the magnification and trimming.
Apparent focal length of the image captured by the first imaging unit 1: 5 mm
Apparent focal length of the image captured by the second imaging unit 2: 5 mm

視差算出部7は、補正部6により第1撮像画像を補正した第1補正画像及び第2撮像画像から視差を算出する。そして、視差算出部7は、当該視差を利用して、撮像画像11の座標の視差の情報を含む視差画像15を生成する。具体的な視差算出方法は、周知の平行等位ステレオカメラと同様である。 The parallax calculator 7 calculates parallax from the first corrected image obtained by correcting the first captured image by the corrector 6 and the second captured image. Then, the parallax calculator 7 uses the parallax to generate a parallax image 15 including parallax information of the coordinates of the captured image 11 . A specific parallax calculation method is the same as that of a well-known parallel coordinate stereo camera.

視差算出部7は、基準となる撮像画像から抽出される特徴点周辺の画像領域と、比較される撮像画像上で1画素単位に対応候補領域をずらしながら相関を計算し、相関最大値付近での相関値を放物線などで補間することにより、画素単位以下の精度で視差を算出する。本実施の形態の視差算出部7は、精度1/10画素以下の視差画像15を生成する。 The parallax calculation unit 7 calculates the correlation between the image area around the feature points extracted from the reference imaged image and the corresponding candidate area on the imaged image to be compared while shifting the corresponding candidate area by one pixel unit. By interpolating the correlation value of with a parabola or the like, the parallax is calculated with an accuracy of a pixel unit or less. The parallax calculator 7 of the present embodiment generates a parallax image 15 with an accuracy of 1/10 pixel or less.

ここで、第1撮像部1及び第2撮像部2による撮像装置10における距離計測原理について説明する。 Here, the principle of distance measurement in the imaging device 10 using the first imaging unit 1 and the second imaging unit 2 will be described.

ここで、図5は撮像装置10の距離計測例を示す図である。図5に示すように、第1撮像部1は、光学レンズ8aの焦点距離f、光学レンズ8aの光学中心O、撮像素子9aの撮像面Sとし、Z軸を光軸方向とする。第2撮像部2は、光学レンズ8bの焦点距離f、光学レンズ8bの光学中心O、撮像素子9bの撮像面Sとし、Z軸を光軸方向とする。 Here, FIG. 5 is a diagram showing an example of distance measurement by the imaging device 10. In FIG. As shown in FIG. 5, the first imaging unit 1 has a focal length f of the optical lens 8a, an optical center O 0 of the optical lens 8a, an imaging surface S 0 of the imaging device 9a, and an optical axis direction of the Z axis. The second imaging unit 2 has a focal length f of the optical lens 8b, an optical center O 1 of the optical lens 8b, an imaging surface S 1 of the imaging element 9b, and the Z axis as the optical axis direction.

第1撮像部1及び第2撮像部2は、X軸に対して平行に、基線長B(例えば、60mm)だけ離れた位置に配置される。 The first imaging unit 1 and the second imaging unit 2 are arranged parallel to the X-axis and separated by a base line length B (for example, 60 mm).

被写体Aは、第1撮像部1の光学中心Oから光軸方向に距離dだけ離れた位置にあるものとする。 It is assumed that the subject A is located at a distance d in the optical axis direction from the optical center O0 of the first imaging unit 1 .

第1撮像部1は、被写体Aに対して、直線A-Oと撮像面Sの交点であるPに像を結ぶ。一方、第2撮像部2は、被写体Aに対して、直線A-Oと撮像面Sの交点であるPに像を結ぶ。 The first imaging unit 1 forms an image of the subject A at P 0 which is the intersection of the straight line AO 0 and the imaging surface S 0 . On the other hand, the second imaging unit 2 forms an image of the subject A at P1, which is the intersection of the straight line AO1 and the imaging surface S1.

ここで、第2撮像部2の光学中心Oを通り、直線A-Oと平行な直線と、撮像面Sとの交点をP’とする。また、P’とPの距離をpとする。視差算出部7は、同じ被写体Aの像を第1撮像部1及び第2撮像部2で撮像した画像上での位置のずれ量である距離pを、視差として算出する。そして、視差算出部7は、当該視差を利用して、撮像画像11の座標の視差の情報を含む視差画像15を生成する。 Here, the intersection of a straight line passing through the optical center O 1 of the second imaging unit 2 and parallel to the straight line AO 0 and the imaging surface S 1 is defined as P 0 ′. Also, let p be the distance between P 0 ′ and P 1 . The parallax calculator 7 calculates, as a parallax, the distance p, which is the amount of positional deviation between the images of the same subject A captured by the first imaging unit 1 and the second imaging unit 2 . Then, the parallax calculator 7 uses the parallax to generate a parallax image 15 including parallax information of the coordinates of the captured image 11 .

図5に示されるように、三角形A-O-Oと、三角形O-P’-Pは相似である。そのため、被写体Aまでの距離dは、下記式のように、基線長B、焦点距離f及び視差pから求めることができる。
d=B×f/p
As shown in FIG. 5, triangle AO 0 -O 1 and triangle O 1 -P 0 ′-P 1 are similar. Therefore, the distance d to the subject A can be obtained from the base line length B, the focal length f, and the parallax p, as in the following formula.
d=B×f/p

撮像装置10は、上述の各部(第1撮像部1、第2撮像部2、記憶部3、補正部6及び視差算出部7)により、周期的に繰り返して撮像画像の撮像、補正及び視差計算を実行し、視差画像15を生成し続ける。 The imaging device 10 periodically and repeatedly performs imaging, correction, and parallax calculation of the captured image by the above-described units (the first imaging unit 1, the second imaging unit 2, the storage unit 3, the correction unit 6, and the parallax calculation unit 7). to continue generating the parallax image 15 .

ところで、本実施形態のように、画角(走査する画素の量)の異なる第1撮像部1及び第2撮像部2を搭載した撮像装置10において、シャッタ方式としてローリングシャッタ方式を採用した場合、同時に走査を開始しても、第1撮像部1及び第2撮像部2で走査中にタイミングのずれが生じてしまう、という問題がある。このように走査中にタイミングのずれが生じてしまうと、同じ被写体が左右で異なるタイミングで撮像されることになり、距離情報に誤差が発生することになる。 By the way, as in the present embodiment, in the imaging apparatus 10 equipped with the first imaging unit 1 and the second imaging unit 2 having different angles of view (the amount of pixels to be scanned), when the rolling shutter method is adopted as the shutter method, Even if the scanning is started at the same time, there is a problem that the first image pickup unit 1 and the second image pickup unit 2 are out of timing during the scanning. If a timing shift occurs during scanning in this way, the same subject will be imaged at different timings on the left and right sides, resulting in an error in distance information.

ここで、画角の異なる第1撮像部1及び第2撮像部2を搭載した撮像装置10において、シャッタ方式としてローリングシャッタ方式を採用した場合、距離情報に誤差が発生する例について説明する。 Here, an example in which an error occurs in distance information when a rolling shutter method is adopted as a shutter method in the imaging apparatus 10 equipped with the first imaging unit 1 and the second imaging unit 2 having different angles of view will be described.

ここで、図6はZ軸を光軸方向として配置した場合における第1撮像部1及び第2撮像部2の水平画角の一例を示す図である。図6に示すように、Z軸を光軸方向として配置した場合、広角カメラである第1撮像部1の水平画角は符号1aで表され、狭角カメラである第2撮像部2の水平画角は符号2aで表される。 Here, FIG. 6 is a diagram showing an example of the horizontal angle of view of the first imaging section 1 and the second imaging section 2 when the Z axis is arranged as the optical axis direction. As shown in FIG. 6, when the Z-axis is arranged as the optical axis direction, the horizontal angle of view of the first imaging section 1, which is a wide-angle camera, is represented by reference numeral 1a, and the horizontal angle of view of the second imaging section 2, which is a narrow-angle camera. The angle of view is denoted by reference numeral 2a.

また、図7はZ軸を光軸方向として配置した場合における第1撮像部1及び第2撮像部2の垂直画角の一例を示す図である。図7に示すように、Z軸を光軸方向として配置した場合、広角カメラである第1撮像部1の垂直画角は符号1bで表され、狭角カメラである第2撮像部2の垂直画角は符号2bで表される。 FIG. 7 is a diagram showing an example of the vertical angle of view of the first imaging section 1 and the second imaging section 2 when the Z axis is arranged along the optical axis. As shown in FIG. 7, when the Z-axis is arranged as the optical axis direction, the vertical angle of view of the first imaging section 1, which is a wide-angle camera, is represented by reference numeral 1b, and the vertical angle of view of the second imaging section 2, which is a narrow-angle camera. The angle of view is denoted by reference numeral 2b.

また、図8は第1撮像部1の撮像素子9a及び第2撮像部2の撮像素子9bにおける走査タイミングの差を例示的に示す図である。図8は、広角カメラである第1撮像部1の撮像素子9aと、狭角カメラである第2撮像部2の撮像素子9bとの走査タイミングを合わせた場合における、被写体Aに対する走査タイミングの差Δtvを説明するものである。 Further, FIG. 8 is a diagram illustrating the difference in scanning timing between the imaging device 9a of the first imaging unit 1 and the imaging device 9b of the second imaging unit 2. As shown in FIG. FIG. 8 shows the difference in scanning timing with respect to the subject A when the scanning timings of the imaging device 9a of the first imaging unit 1, which is a wide-angle camera, and the imaging device 9b of the second imaging unit 2, which is a narrow-angle camera, are matched. It explains Δtv.

ローリングシャッタ方式の撮像素子9(9a、9b)は、画面上から画面下にかけて、ライン毎に画像の走査を行う。図8に示すように、第1撮像部1の撮像素子9aにおいて被写体Aまで走査する垂直ラインをv1とし、第2撮像部2の撮像素子9bにおいて被写体Aまで走査する垂直ラインをv2とする。図8に示すように、被写体Aまで走査する垂直ライン数は、v1>v2となる。 The rolling shutter imaging device 9 (9a, 9b) scans an image line by line from the top to the bottom of the screen. As shown in FIG. 8, the vertical line scanned up to the object A by the imaging device 9a of the first imaging unit 1 is v1, and the vertical line scanned up to the object A by the imaging device 9b of the second imaging unit 2 is v2. As shown in FIG. 8, the number of vertical lines scanned up to the subject A is v1>v2.

また、図8に示すように、第1撮像部1の撮像素子9aにおけるライン当たりの走査時間をth1とし、第2撮像部2の撮像素子9bにおけるライン当たりの走査時間をth2とする。したがって、第1撮像部1の撮像素子9aにおける被写体Aまでの走査時間tv1は(th1×v1)で表され、第2撮像部2の撮像素子9bにおける被写体Aまでの走査時間tv2は(th2×v2)で表される。 Further, as shown in FIG. 8, the scanning time per line in the imaging device 9a of the first imaging unit 1 is th1, and the scanning time per line in the imaging device 9b of the second imaging unit 2 is th2. Therefore, the scanning time tv1 up to the object A in the imaging device 9a of the first imaging unit 1 is represented by (th1×v1), and the scanning time tv2 up to the object A in the imaging device 9b of the second imaging unit 2 is (th2×v1). v2).

すなわち、図8に示すように、第1撮像部1の撮像素子9aにおけるライン当たりの走査時間th1と、第2撮像部2の撮像素子9bにおけるライン当たりの走査時間th2とが異なる場合、被写体Aの走査タイミングにおいては、下記式(1)に示すような時間差Δtvが生じる。
Δtv=tv1-tv2=(th1×v1)-(th2×v2) ・・(1)
That is, as shown in FIG. 8, when the scanning time th1 per line in the imaging device 9a of the first imaging unit 1 and the scanning time th2 per line in the imaging device 9b of the second imaging unit 2 are different, the subject A , there is a time difference .DELTA.tv as shown in the following equation (1).
Δtv=tv1−tv2=(th1×v1)−(th2×v2) (1)

以下においては、th1<th2となる場合を例に説明する。 In the following, a case where th1<th2 is satisfied will be described as an example.

図9は、被写体Aに対する前後ラインにおける走査タイミングの差を例示的に示す図である。図9は、広角カメラである第1撮像部1の撮像素子9aと、狭角カメラである第2撮像部2の撮像素子9bとの走査タイミングを合わせた場合における、被写体Aに対する前後ラインにおける走査タイミングの差を説明するものである。図9に示すように、第1撮像部1の撮像素子9aにおけるライン当たりの走査時間th1と、第2撮像部2の撮像素子9bにおけるライン当たりの走査時間th2とが、th1<th2の関係であるため、走査を進める毎に被写体Aの走査タイミングの時間差Δtvが小さくなる。 FIG. 9 is a diagram exemplifying the difference in scanning timing between lines before and after subject A. In FIG. FIG. 9 shows scanning of the subject A in the front and rear lines when the scanning timing of the imaging device 9a of the first imaging unit 1, which is a wide-angle camera, and the imaging device 9b of the second imaging unit 2, which is a narrow-angle camera, are matched. This explains the difference in timing. As shown in FIG. 9, the scanning time th1 per line in the imaging device 9a of the first imaging unit 1 and the scanning time th2 per line in the imaging device 9b of the second imaging unit 2 have a relationship of th1<th2. Therefore, the time difference Δtv in the scanning timing of the subject A becomes smaller each time the scanning is advanced.

ここで、被写体Aに対する走査タイミングが第1撮像部1と第2撮像部2とでずれている場合に発生する問題を説明する。 Here, a problem that occurs when the scanning timings of the first imaging unit 1 and the second imaging unit 2 are different from each other will be described.

図10は、被写体Aに対する走査タイミングが第1撮像部1と第2撮像部2とでずれている場合について示す図である。図10は、第1撮像部1の撮像面S’、第2撮像部2の撮像面S’として、第1撮像部1が被写体Aを撮像後、時間Δthの間に、被写体Aが左方向に距離gの移動をした場合、第2撮像部2は移動後の被写体Aを撮像することを示している。そして、図10に示すように、結果として、視差が大きくなり、実際の被写体Aの距離より近い、被写体A’の位置の距離d’が求められる。 FIG. 10 is a diagram showing a case where the scanning timings for the subject A are shifted between the first imaging unit 1 and the second imaging unit 2. In FIG. FIG. 10 shows an imaging plane S′ 0 of the first imaging unit 1 and an imaging plane S′ 1 of the second imaging unit 2 , during the time Δth after the first imaging unit 1 has captured the object A. When the object is moved leftward by a distance g, the second imaging unit 2 images the object A2 after the movement. Then, as shown in FIG. 10, as a result, the parallax becomes large, and the distance d' of the position of the subject A', which is closer than the actual distance of the subject A, is obtained.

なお、上述したように、焦点距離を合わせるトリミングを行った後の光学レンズ8(8a、8b)の見かけ上の焦点距離fを5mm、第1撮像部1と第2撮像部2の間隔である基線長Bを60mm、ピクセルピッチppを3μmとする。 As described above, the apparent focal length f of the optical lens 8 (8a, 8b) after trimming to match the focal length is 5 mm, and the distance between the first imaging unit 1 and the second imaging unit 2 is Assume that the base line length B is 60 mm and the pixel pitch pp is 3 μm.

また、第1撮像部1の1ライン当たりの走査時間th1を20μs、被写体Aまで走査するライン数tv1を480、第2撮像部2の1ライン当たりの走査時間th2を50μs、被写体Aまで走査するライン数tv2を240とする。 Further, the scanning time th1 per line of the first imaging unit 1 is 20 μs, the number of lines tv1 scanned up to the object A is 480, the scanning time th2 per line of the second imaging unit 2 is 50 μs, and the object A is scanned. It is assumed that the number of lines tv2 is 240.

被写体Aにおける走査タイミングの差Δtvは、上記式(1)から-2.4msとなる。 The scanning timing difference Δtv for the subject A is −2.4 ms from the above equation (1).

ここで、被写体Aまでの距離dを30m、被写体Aが速度60km/hで左に移動している場合を想定する。 Here, it is assumed that the distance d to the subject A is 30 m, and the subject A is moving to the left at a speed of 60 km/h.

第1撮像部1が被写体Aを走査後、第2撮像部2が被写体Aを撮像するまでの2.4msの間に、被写体Aが移動する距離gは、
g=60km/h×2.4ms=0.04m
となる。
The distance g that the subject A moves in 2.4 ms after the first imaging unit 1 scans the subject A and before the second imaging unit 2 captures an image of the subject A is
g=60km/h×2.4ms=0.04m
becomes.

ここで、距離gだけ移動したことによる視差の増分をGとする。また、三角形A-A-Oと三角形O-P-P’は相似である。そのため、視差の増分Gは、下記式により、約2.2画素となる。
G=(((f×g)/d))/pp
Here, let G be the parallax increment due to movement by the distance g. Also, triangle AA 2 -O 1 and triangle O 1 -P 1 -P 1 ′ are similar. Therefore, the parallax increment G is about 2.2 pixels according to the following formula.
G=(((f×g)/d))/pp

ところで、本来の被写体Aへの距離30mに対する視差値pは、三角形A-O-Oと、三角形O-P’-Pが相似である関係から、P=((B×f)/d)/ppとして、約3.3画素である。このため、視差値p’は、約5.5画素となる。 By the way, the parallax value p for the distance 30 m to the original subject A is P = ((B × f )/d)/pp is about 3.3 pixels. Therefore, the parallax value p' is about 5.5 pixels.

ここで、図10に示すように、三角形A’-O-Oと、三角形O-P’-Pは相似である。そのため、d’=B×f/(p’×pp)であり、被写体A’への距離d’は約18mとなる。 Here, as shown in FIG. 10, the triangle A'-O 0 -O 1 and the triangle O 1 -P 0 '-P 1 are similar. Therefore, d'=B*f/(p'*pp), and the distance d' to the subject A' is approximately 18 m.

つまり、撮像装置10は、実際には距離30mに存在している被写体Aを、18mの距離にあるように計測する。自車両が走行しており制動距離が仮に20mであった場合において、撮像装置10を設けた自動車の物体検出装置は、この結果のみから制動距離以内に物体が存在するため衝突すると予測する。すなわち、制御システムは、緊急制動又は回避等の操作が必要と判断してしまう可能性がある。 That is, the imaging device 10 measures the subject A, which is actually at a distance of 30 m, as if it were at a distance of 18 m. Assuming that the own vehicle is running and the braking distance is 20 m, the object detection device of the automobile provided with the imaging device 10 predicts that there will be an object within the braking distance from this result alone, and that a collision will occur. That is, the control system may determine that an operation such as emergency braking or avoidance is necessary.

しかしながら、通常、自動車の物体検出装置では、制御開始には複数回の衝突判定を必要とする等のマージンを設けている。そのため、上記の状況では必ずしも誤制御が発生するとは限らないが、ステレオカメラモジュール単体での信頼性が高い方が望ましいのは当然である。このように、広角カメラである第1撮像部1と狭角カメラである第2撮像部2との組み合わせによって、被写体が見かけ上、移動しているように見えてしまう問題が起こりうる。 However, in the object detection device for automobiles, a margin is usually provided such that multiple times of collision determination are required before control is started. Therefore, although erroneous control does not necessarily occur in the above situation, it is naturally desirable that the stereo camera module itself is highly reliable. In this way, the combination of the first imaging unit 1, which is a wide-angle camera, and the second imaging unit 2, which is a narrow-angle camera, can cause the problem that the subject appears to be moving.

そこで、本実施形態においては、撮像装置10は、走査タイミング調整を行うようにする。具体的には、図3に示すように、撮像装置10は、遅延指示部5を備える。また、図3に示すように、撮像装置10は、記憶部3に遅延時間17を記憶する。 Therefore, in the present embodiment, the imaging device 10 adjusts the scanning timing. Specifically, as shown in FIG. 3 , the imaging device 10 includes a delay instructing section 5 . Further, as shown in FIG. 3 , the imaging device 10 stores the delay time 17 in the storage section 3 .

遅延指示部5は、詳細は後述するが、記憶部3から遅延時間17を読み出し、第1撮像部1および第2撮像部2の走査開始タイミングの遅延を撮像装置10に指示する。 Although details will be described later, the delay instruction unit 5 reads the delay time 17 from the storage unit 3 and instructs the imaging device 10 to delay the scanning start timings of the first imaging unit 1 and the second imaging unit 2 .

ここで、図11は第1撮像部1と第2撮像部2とでの被写体Aに対する走査タイミングの差をゼロに近づける場合について示す図である。図11においては、広角カメラである第1撮像部1の撮像素子9aと狭角カメラである第2撮像部2の撮像素子9bで、被写体Aにおける走査タイミングの差をゼロに近づけた場合の、走査開始タイミングの遅延時間Δtvを説明する。 Here, FIG. 11 is a diagram showing a case where the difference in scanning timing with respect to the object A between the first imaging unit 1 and the second imaging unit 2 is brought close to zero. In FIG. 11, when the difference in scanning timing of the subject A between the imaging device 9a of the first imaging unit 1, which is a wide-angle camera, and the imaging device 9b of the second imaging unit 2, which is a narrow-angle camera, is brought close to zero, The delay time Δtv of the scanning start timing will be explained.

図8に示されるように、同じ走査タイミングで走査を開始した場合、被写体Aを走査するまでの時間は、第1撮像部1の撮像素子9aでは、
tv1=th1×v1
第2撮像部2の撮像素子9bでは、
tv2=th2×v2
となる。そして、第1撮像部1と第2撮像部2とでの被写体Aに対する走査タイミングのずれΔtvは、
Δtv=tv1-tv2=(th1×v1)-(th2×v2)
であることが分かる。
As shown in FIG. 8, when scanning is started at the same scanning timing, the time required to scan the subject A is:
tv1=th1×v1
In the imaging element 9b of the second imaging unit 2,
tv2=th2×v2
becomes. Then, the difference Δtv in scanning timing with respect to the object A between the first imaging unit 1 and the second imaging unit 2 is
Δtv=tv1−tv2=(th1×v1)−(th2×v2)
It turns out that

したがって、図11に示されるように、第1撮像部1の撮像素子9aと第2撮像部2の撮像素子9bの走査開始タイミングをΔtv分ずらすことで、被写体Aの走査タイミングずれを軽減することができる。 Therefore, as shown in FIG. 11, by shifting the scanning start timings of the imaging device 9a of the first imaging unit 1 and the imaging device 9b of the second imaging unit 2 by Δtv, the scanning timing deviation of the subject A can be reduced. can be done.

すなわち、撮像装置10は、遅延時間17として、第1撮像部1と第2撮像部2とでの被写体Aに対する走査タイミングのずれΔtvを記憶部3に記憶する。 That is, the imaging apparatus 10 stores the scanning timing difference Δtv with respect to the subject A between the first imaging unit 1 and the second imaging unit 2 in the storage unit 3 as the delay time 17 .

そして、撮像装置10の遅延指示部5は、記憶部3から遅延時間17を読み出し、第1撮像部1および第2撮像部2の走査タイミングの遅延を指示する。 Then, the delay instruction unit 5 of the imaging device 10 reads out the delay time 17 from the storage unit 3 and instructs the delay of the scanning timing of the first imaging unit 1 and the second imaging unit 2 .

図12は、走査タイミングを遅延させた例を示す図である。図12に示すように、撮像装置10の遅延指示部5は、記憶部3から読み出した遅延時間17である走査タイミングのずれΔtvに基づき、広角カメラである第1撮像部1の撮像素子9aの走査タイミングと、狭角カメラの第2撮像部2の撮像素子9bの走査タイミングとの差がゼロに近づくように遅延させる。 FIG. 12 is a diagram showing an example in which scanning timing is delayed. As shown in FIG. 12 , the delay instructing unit 5 of the imaging device 10 delays the scanning timing shift Δtv, which is the delay time 17 read from the storage unit 3, to the image sensor 9a of the first imaging unit 1, which is a wide-angle camera. The scanning timing is delayed so that the difference between the scanning timing and the scanning timing of the imaging element 9b of the second imaging section 2 of the narrow-angle camera approaches zero.

図12に示す例によれば、第1撮像部1の撮像素子9aにおけるライン当たりの走査時間th1と、第2撮像部2の撮像素子9bにおけるライン当たりの走査時間th2とが、th1<th2の関係であるため、走査を進める毎に走査タイミングの差が大きくなる。しかしながら、図12に示す例によれば、図9に示した例と比較して、被写体Aの前後のラインの走査タイミングずれが軽減している。 According to the example shown in FIG. 12, the scanning time th1 per line in the imaging device 9a of the first imaging unit 1 and the scanning time th2 per line in the imaging device 9b of the second imaging unit 2 satisfy th1<th2. Because of the relationship, the difference in scanning timing increases as scanning progresses. However, according to the example shown in FIG. 12, the scanning timing deviation of the lines before and after the object A is reduced compared to the example shown in FIG.

このように本実施形態によれば、解像度が異なる撮像素子を持つ広角カメラ(第1撮像部1)および狭角カメラ(第2撮像部2)の走査開始タイミングに際して、予め、左右の撮像素子の走査完了タイミングの差から、一方の撮像素子を走査完了タイミングのずれ時間分遅延させ、任意の領域(同一の被写体が存在する領域)で左右の撮像素子の走査するタイミングが同一となるように、撮像素子の走査開始トリガを変更する。これにより、画角の異なる左右の撮像部で発生する走査タイミングのずれを軽減することができる。 As described above, according to the present embodiment, at the scanning start timing of the wide-angle camera (first imaging unit 1) and the narrow-angle camera (second imaging unit 2) having imaging elements with different resolutions, the left and right imaging elements are adjusted in advance. Based on the difference in scanning completion timing, one of the imaging elements is delayed by the time difference between the scanning completion timings so that the left and right imaging elements scan at the same timing in an arbitrary area (area where the same subject exists). Change the scan start trigger of the image sensor. As a result, it is possible to reduce the deviation in scanning timing that occurs in the left and right imaging units having different angles of view.

なお、上記説明では、被写体Aの場合を例にして説明したが、走査タイミングずれを軽減する対象を任意の領域に合わせてもよいことはいうまでもない。 In the above description, the case of the subject A was described as an example, but it goes without saying that the target for reducing the scanning timing deviation may be adjusted to any region.

また、上記説明では、th1<th2となる場合を例に説明したが、th1>th2となる場合でも被写体Aの走査タイミングにΔtvの時間差が生じ、第1撮像部1の撮像素子9aと第2撮像部2の撮像素子9bの走査開始タイミングをΔtv分ずらすことで、被写体Aを走査タイミングのずれを軽減することができる。 In the above description, the case where th1<th2 holds is explained as an example. By shifting the scanning start timing of the imaging element 9b of the imaging unit 2 by Δtv, the deviation of the scanning timing of the subject A can be reduced.

(第2の実施の形態)
次に、第2の実施形態について説明する。第1の実施形態では、撮像画像における任意の領域として同一の被写体が存在する領域を適用するようにしたが、第2の実施形態では、撮像画像における任意の領域として撮像画像上で静止物体が移動する方向が収束する消失点が存在する領域を適用する点が、第1の実施形態と異なる。以下、第2の実施形態の説明では、第1の実施形態と同一部分の説明については省略し、第1の実施形態と異なる箇所について説明する。
(Second embodiment)
Next, a second embodiment will be described. In the first embodiment, an area in which the same subject exists is applied as an arbitrary area in the captured image. This embodiment differs from the first embodiment in that it applies an area in which there is a vanishing point where the directions of movement converge. Hereinafter, in the description of the second embodiment, the description of the same portions as those of the first embodiment will be omitted, and the portions that differ from the first embodiment will be described.

図13は、第2の実施の形態にかかる撮像装置10の制御系のハードウェア構成を示すブロック図である。図13に示すように、撮像装置10は、図3に示した撮像装置10に対して、消失点の検出などを行う消失点検出部4をさらに備える。 FIG. 13 is a block diagram showing the hardware configuration of the control system of the imaging device 10 according to the second embodiment. As shown in FIG. 13, the imaging device 10 further includes a vanishing point detection unit 4 that detects vanishing points and the like, compared to the imaging device 10 shown in FIG.

ここで、消失点について説明する。 Here, the vanishing point will be explained.

図14は、消失点を例示的に示す図である。図14に示す例は、広角カメラである第1撮像部1と狭角カメラである第2撮像部2とについて、光軸方向をZ軸に対して俯角を付けて配置した場合を示すものである。この場合、広角カメラである第1撮像部1の垂直画角は符号1cで表され、狭角カメラである第2撮像部2の垂直画角は符号2cで表される。 FIG. 14 is a diagram exemplifying a vanishing point. The example shown in FIG. 14 shows a case in which the first imaging unit 1, which is a wide-angle camera, and the second imaging unit 2, which is a narrow-angle camera, are arranged with the optical axis direction having a depression angle with respect to the Z axis. be. In this case, the vertical angle of view of the first imaging section 1, which is a wide-angle camera, is denoted by 1c, and the vertical angle of view of the second imaging section 2, which is a narrow-angle camera, is denoted by 2c.

トラックなど車高の高い車両ではカメラ取付位置が高くなり、近方側の路面の映り込みが減ることから、図14に示すように、俯角を付けることで路面が映り込むようにすることが考えられる。 In vehicles with a high vehicle height, such as trucks, the camera mounting position is high, and the reflection of the road surface on the near side is reduced. be done.

通常、車輌制御システムでの衝突判定は、進行方向の物体に対して行う。このため、図14に示すように、撮像装置10の進行方向D上に映る被写体Aに対して、走査タイミングを合わせることが重要になる。 Normally, collision determination in a vehicle control system is performed with respect to an object in the traveling direction. For this reason, as shown in FIG. 14, it is important to match the scanning timing with respect to the subject A imaged in the traveling direction D of the imaging device 10 .

図14に示すように、撮像装置10の進行方向D上に映る被写体Aは、撮像画像上で静止物体が移動する方向が収束する消失点と同じ位置に映ることになる。そのため、撮像装置10は、撮像画像上の消失点に走査タイミングを合わせるようにすればよい。 As shown in FIG. 14, the subject A appearing in the traveling direction D of the imaging device 10 appears at the same position as the vanishing point where the moving directions of the stationary objects converge on the captured image. Therefore, the imaging apparatus 10 should adjust the scanning timing to the vanishing point on the captured image.

消失点検出部4は、第1撮像部1が撮像した第1撮像画像11-1と、第2撮像部2が撮像した第2撮像画像11-2を読み出し、消失点を検出する。撮像画像からの消失点検出方法は、例えば、下記の文献に記載のような手法が知られている。
文献:山本宗・金子邦彦(2011). 移動カメラ画像データベースからの消失点軌跡推定処理のMapReduceによる並列化,3-4.https://db-event.jpn.org/deim2011/proceedings/pdf/e9-2.pdf
The vanishing point detection unit 4 reads the first captured image 11-1 captured by the first imaging unit 1 and the second captured image 11-2 captured by the second imaging unit 2, and detects the vanishing point. As a method for detecting a vanishing point from a captured image, for example, a method described in the following literature is known.
Reference: So Yamamoto and Kunihiko Kaneko (2011). Parallelization of vanishing point trajectory estimation processing from moving camera image database by MapReduce, 3-4.https://db-event.jpn.org/deim2011/proceedings/pdf/ e9-2.pdf

そして、消失点検出部4は、第1撮像部1、第2撮像部2の撮像画像上の消失点における走査タイミングが一致する遅延時間を、記憶部3に対して遅延時間17として書き込む。 Then, the vanishing point detection unit 4 writes the delay time at which the scanning timings of the vanishing points on the captured images of the first imaging unit 1 and the second imaging unit 2 match to the storage unit 3 as the delay time 17 .

なお、上記説明では、撮像画像上の消失点を使用して車両進行方向を検出することを説明したが、これに限るものではなく、撮像画像上の消失点以外を使用して車両進行方向を検出するようにしてもよい。 In the above description, the vanishing point on the captured image is used to detect the traveling direction of the vehicle. However, the present invention is not limited to this. You may make it detect.

次に、消失点検出部4が消失点から遅延時間反映を行う処理について詳述する。 Next, the process of reflecting the delay time from the vanishing point by the vanishing point detector 4 will be described in detail.

図15は、消失点から遅延時間反映を行う処理の流れを示すフローチャートである。図15に示すように、消失点検出部4は、第1撮像部1が撮像した第1撮像画像11-1を読み出し、消失点F1を検出する(ステップS1)。 FIG. 15 is a flow chart showing the flow of processing for reflecting the delay time from the vanishing point. As shown in FIG. 15, the vanishing point detection unit 4 reads out the first captured image 11-1 captured by the first imaging unit 1 and detects a vanishing point F1 (step S1).

次に、消失点検出部4は、第2撮像部2が撮像した第2撮像画像11-2を読み出し、消失点F2を検出する(ステップS2)。 Next, the vanishing point detection unit 4 reads out the second captured image 11-2 captured by the second imaging unit 2, and detects the vanishing point F2 (step S2).

なお、第1撮像部1の消失点F1の検出と、第2撮像部2の消失点F2の検出とは、並列に処理してもよい。 Note that the detection of the vanishing point F1 of the first imaging unit 1 and the detection of the vanishing point F2 of the second imaging unit 2 may be processed in parallel.

次に、消失点検出部4は、消失点F1の垂直ライン数v1、消失点F2の垂直ライン数v2から、走査タイミングの遅延時間Δtvを算出する(ステップS3)。
Δtv=tv1-tv2=(th1×v1)-(th2×v2)
Next, the vanishing point detector 4 calculates the delay time Δtv of the scanning timing from the vertical line number v1 of the vanishing point F1 and the vertical line number v2 of the vanishing point F2 (step S3).
Δtv=tv1−tv2=(th1×v1)−(th2×v2)

そして、消失点検出部4は、走査タイミングの遅延時間Δtvを記憶部3に対して遅延時間17として書き込む(ステップS4)。 Then, the vanishing point detection unit 4 writes the delay time Δtv of the scanning timing into the storage unit 3 as the delay time 17 (step S4).

このように本実施形態によれば、解像度が異なる撮像素子を持つ広角カメラ(第1撮像部1)および狭角カメラ(第2撮像部2)の走査開始タイミングに際して、予め、左右の撮像素子の走査完了タイミングの差から、一方の撮像素子を走査完了タイミングのずれ時間分遅延させ、任意の領域(静止物体が移動する方向が収束する消失点が存在する領域)で左右の撮像素子の走査するタイミングが同一となるように、撮像素子の走査開始トリガを変更する。これにより、画角の異なる左右の撮像部で発生する走査タイミングのずれを軽減することができる。 As described above, according to the present embodiment, at the scanning start timing of the wide-angle camera (first imaging unit 1) and the narrow-angle camera (second imaging unit 2) having imaging elements with different resolutions, the left and right imaging elements are adjusted in advance. Based on the difference in scan completion timing, one of the image sensors is delayed by the amount of the time difference between the scan completion timings, and the left and right image sensors scan an arbitrary area (an area with a vanishing point where the moving direction of a stationary object converges). The scanning start trigger of the image sensor is changed so that the timing becomes the same. As a result, it is possible to reduce the deviation in scanning timing that occurs in the left and right imaging units having different angles of view.

(実施例)
(自動車への適用例)
次に、上記各実施形態の撮像装置10は、ロボット装置、自動車、飛行体又は船舶等の移動体に設けることができる。以下、移動体に対して撮像装置10を適用した適用例を説明する。
(Example)
(Example of application to automobiles)
Next, the imaging device 10 of each of the embodiments described above can be installed in a mobile device such as a robot device, an automobile, an aircraft, or a ship. An application example in which the imaging device 10 is applied to a moving object will be described below.

まず、図16は、自動車の物体検出装置に対して実施の形態の撮像装置10を設けた例を示す図である。この図16に示すように、撮像装置10を備えた物体検出装置は、自動車のフロントガラス等に設けられ、進行方向前側の所定の撮像範囲の歩行者、道路標識、路面、先行車両、ガードレール等を撮像する。撮像装置10は、上述のようにステレオカメラの構成を有しており、左目視界と右目視界の2つの画像を撮像する。 First, FIG. 16 is a diagram showing an example in which the imaging device 10 of the embodiment is provided for an object detection device for an automobile. As shown in FIG. 16, the object detection device including the imaging device 10 is installed on the windshield of an automobile or the like, and detects pedestrians, road signs, road surfaces, preceding vehicles, guardrails, etc. in a predetermined imaging range in front of the traveling direction. is imaged. The imaging device 10 has the configuration of a stereo camera as described above, and captures two images of the left-eye field of view and the right-eye field of view.

図17は、物体検出装置の概略的な構成を示す図である。物体検出装置は、撮像装置10で撮像した2つの画像を車両ECU(Engine Control Unit)50に対して出力する。車両ECU50は、撮像装置10からの各画像に基づいて視差画像を解析し、この解析結果に基づいて、例えば自動車のエンジン制御、制動制御、及び走行レーンキープアシスト、操舵アシスト等の制御を行う。 FIG. 17 is a diagram showing a schematic configuration of an object detection device. The object detection device outputs two images captured by the imaging device 10 to a vehicle ECU (Engine Control Unit) 50 . The vehicle ECU 50 analyzes the parallax image based on each image from the imaging device 10, and performs control such as engine control, braking control, lane keeping assist, steering assist, etc. of the automobile based on the analysis results.

図18は、物体検出装置の構成を示す図である。この図18に示すように、第1撮像部1および第2撮像部2を備えた撮像装置10は、画像処理装置30に接続される。第1撮像部1および第2撮像部2は、それぞれレンズ8a,8b、撮像素子9a,9b、及びセンサコントローラ23a,23bを備えている。センサコントローラ23は、各撮像素子9a,9bの例えば露光制御、画像読み出し制御、外部回路との通信、及び画像データの送信制御等を行う。 FIG. 18 is a diagram showing the configuration of an object detection device. As shown in FIG. 18 , an imaging device 10 including a first imaging section 1 and a second imaging section 2 is connected to an image processing device 30 . The first imaging section 1 and the second imaging section 2 are provided with lenses 8a and 8b, imaging elements 9a and 9b, and sensor controllers 23a and 23b, respectively. The sensor controller 23 performs, for example, exposure control, image readout control, communication with external circuits, image data transmission control, and the like for each of the imaging elements 9a and 9b.

画像処理装置30は、例えば図17に示した車両ECU50内に設けられる。画像処理装置30は、例えばデータバスライン300、シリアルバスライン302、CPU(Central Processing Unit)304、FPGA(Field-Programmable Gate Array)306、ROM(Read Only Memory)308、RAM(Random Access Memory)310、シリアルIF(Interface)312、及びデータIF(Interface)314を有する。 The image processing device 30 is provided in the vehicle ECU 50 shown in FIG. 17, for example. The image processing device 30 includes, for example, a data bus line 300 , a serial bus line 302 , a CPU (Central Processing Unit) 304 , an FPGA (Field-Programmable Gate Array) 306 , a ROM (Read Only Memory) 308 , a RAM (Random Access Memory) 310 . , a serial IF (Interface) 312 and a data IF (Interface) 314 .

撮像装置10は、データバスライン300及びシリアルバスライン302を介して画像処理装置30と接続されている。CPU304は、画像処理装置30全体の動作を制御し、画像処理及び画像認識処理を実行する。第1撮像部1および第2撮像部2それぞれの撮像素子9a,9bで撮像された撮像画像は、データバスライン300を介して画像処理装置30のRAM310に書き込まれる。CPU304又はFPGA306からのセンサ露光値の変更制御データ、画像読み出しパラメータの変更制御データ、及び各種設定データ等は、シリアルバスライン302を介して送受信される。 The imaging device 10 is connected to the image processing device 30 via a data bus line 300 and a serial bus line 302 . The CPU 304 controls the overall operation of the image processing apparatus 30 and executes image processing and image recognition processing. The captured images captured by the image sensors 9 a and 9 b of the first imaging section 1 and the second imaging section 2 are written to the RAM 310 of the image processing device 30 via the data bus line 300 . Sensor exposure value change control data, image read parameter change control data, various setting data, and the like from the CPU 304 or FPGA 306 are transmitted and received via the serial bus line 302 .

FPGA306は、RAM310に保存された画像データに対してリアルタイム性が要求される処理である、例えばガンマ補正、ゆがみ補正(左右画像の平行化)、ブロックマッチングによる視差演算を行って上述の視差画像を生成し、RAM310に再度書き込む。なお、視差画像は、物体の縦方向位置、横方向位置、及び、奥行方向位置が対応付けられた情報となっている。 The FPGA 306 performs processing that requires real-time processing on the image data stored in the RAM 310, such as gamma correction, distortion correction (parallelization of left and right images), and parallax calculation by block matching to generate the parallax image. Generate and write to RAM 310 again. Note that the parallax image is information in which the vertical position, horizontal position, and depth direction position of an object are associated with each other.

CPU304は、撮像装置10の各センサコントローラ23a,23bの制御、及び画像処理装置30の全体的な制御を行う。CPU304は、データIF314を介して、例えば自車両のCAN(Controller Area Network)情報をパラメータ(車速、加速度、舵角、ヨーレート等)として取得する。 The CPU 304 controls the sensor controllers 23 a and 23 b of the imaging device 10 and the overall control of the image processing device 30 . The CPU 304 acquires, for example, CAN (Controller Area Network) information of the own vehicle as parameters (vehicle speed, acceleration, steering angle, yaw rate, etc.) via the data IF 314 .

先行車両、人間、ガードレール、路面等の物体の認識データである車両制御データは、シリアルIF312を介して、車両ECU50に供給され、車両ECU50の制御機能として設けられた例えば自動ブレーキシステム又は走行アシストシステム等で用いられる。自動ブレーキシステムは、自動車のブレーキ制御を行う。また、走行アシストシステムは、自動車の走行レーンキープアシスト及び操舵アシスト等を行う。 Vehicle control data, which is recognition data of objects such as preceding vehicles, people, guardrails, road surfaces, etc., is supplied to the vehicle ECU 50 via the serial IF 312, and is provided as a control function of the vehicle ECU 50, such as an automatic braking system or a driving assist system. etc. The automatic braking system performs brake control of the automobile. In addition, the driving assist system performs driving lane keeping assist, steering assist, and the like of the automobile.

(飛行体への適用例)
次に、図19及び図20は、飛行体に対する実施の形態の撮像装置10の設置例を示す図である。図19は、実施の形態の撮像装置が設けられた飛行体の上面図を、図20は、実施の形態の撮像装置が設けられた飛行体の正面図を示している。この図19及び図20に示すように、飛行体は、フレーム101、駆動装置102、回転翼103及び脚部104を有する遠隔操作可能な飛行体である。また、飛行体は、被写体となる対象物の静止画像又は動画像を撮像する撮像装置10を有する。
(Example of application to an aircraft)
Next, FIGS. 19 and 20 are diagrams showing an installation example of the imaging device 10 of the embodiment with respect to an aircraft. FIG. 19 shows a top view of the flying object provided with the imaging device of the embodiment, and FIG. 20 shows a front view of the flying object provided with the imaging device of the embodiment. As shown in FIGS. 19 and 20, the flying object is a remotely controllable flying object having a frame 101, a driving device 102, rotors 103 and legs 104. FIG. The aircraft also has an imaging device 10 that captures a still image or a moving image of an object, which is a subject.

フレーム101は、例えば図19に示すように、ウエブ部101aと、ウエブ部101aの両端部に配置されたフランジ部101bとが平面視においてH型の形状となるように配置されている。なお、フレーム101の形状はこの限りではない。例えば、フレーム101は、飛行体の中心から放射状に伸び、互いに直角をなすようにX字状に設けられた4本のアームを有する構成としてよい。また、フレーム101は、駆動装置102と回転翼103の数だけ中心から放射状にアームが伸びた構造等でもよい。 For example, as shown in FIG. 19, the frame 101 is arranged such that a web portion 101a and flange portions 101b arranged at both ends of the web portion 101a form an H shape in plan view. Note that the shape of the frame 101 is not limited to this. For example, the frame 101 may be configured to have four arms extending radially from the center of the flying vehicle and provided in an X shape so as to form mutually perpendicular angles. Also, the frame 101 may have a structure in which arms radially extend from the center in the number corresponding to the number of the driving devices 102 and the rotor blades 103 .

駆動装置102は、回転翼103を回転させるモータである。一例として、駆動装置102としては、ブラシレスモータを用いることができる。駆動装置102は、2本のフランジ部101bの先端部にそれぞれ取り付けられ、回転翼103の回転軸と連結されている。各駆動装置102は、制御装置100により、互いに独立して制御される。 The driving device 102 is a motor that rotates the rotor blades 103 . As an example, drive device 102 may be a brushless motor. The driving device 102 is attached to the tip of each of the two flange portions 101 b and connected to the rotating shaft of the rotor blade 103 . Each drive device 102 is controlled independently of each other by the control device 100 .

回転翼103は、各駆動装置102にそれぞれに取り付けられており、駆動装置102が駆動されることで回転する。回転翼103は、各駆動装置102の駆動が独立して制御されることで、その回転速度が調整される。なお、図19には、飛行体は、4つの回転翼103を有することとして図示したが、回転翼103は、3つ以上であれば飛行体として安定した飛行が可能である。さらには、回転翼103は、4つ、6つ、8つのような偶数分設けることが好ましい。また、回転翼103は、図19及び図20に示すように、略同一平面上に複数の回転翼103を配置した形態に限定されるものではなく、略同一平面上に配置された複数の回転翼103が多段に積層される形態でもよい。 The rotor blades 103 are attached to the respective driving devices 102 and rotate when the driving devices 102 are driven. The rotation speed of the rotor blades 103 is adjusted by independently controlling the drive of each drive device 102 . Note that FIG. 19 illustrates the flying object as having four rotor blades 103, but if the number of rotor blades 103 is three or more, the flying object can fly stably. Furthermore, it is preferable to provide an even number of rotor blades 103, such as four, six, or eight. 19 and 20, the rotor blades 103 are not limited to a form in which a plurality of rotor blades 103 are arranged substantially on the same plane, and a plurality of rotor blades arranged substantially on the same plane. A configuration in which the blades 103 are laminated in multiple stages may also be used.

脚部104は、フレーム101の略中央位置の下面と連結されている。脚部104は、下側部が逆V字形状に形成されており、飛行体が地面に着陸した際の衝撃等から飛行体を保護する。 The leg portion 104 is connected to the bottom surface of the frame 101 at a substantially central position. The leg portion 104 has an inverted V-shaped lower portion to protect the flying object from impact when the flying object lands on the ground.

制御装置100は、例えばフレーム101のウエブ部101a内に設けられている。制御装置100は、目的に応じて飛行体に設けられた各種センサからの信号、及び、外部から送信される操作信号に応じて各駆動装置102等を制御する。 The control device 100 is provided in the web portion 101a of the frame 101, for example. The control device 100 controls each driving device 102 and the like according to signals from various sensors provided on the flying object according to purposes and operation signals transmitted from the outside.

また、制御装置100は、各駆動装置102の駆動を独立して制御することで各回転翼103の回転速度を独立に制御し、飛行体の上昇、下降、前進、後退の他、ヨー軸(Z軸)周りの回転、及び、空中へ移動してホバリング(停止飛行)等の動作を制御する。また、制御装置100は、飛行体の姿勢を左右に傾けることで、前進及び後退と同様に飛行体を左右方向に移動制御する。 In addition, the control device 100 independently controls the rotation speed of each rotor blade 103 by independently controlling the driving of each drive device 102, and controls the ascent, descent, forward movement, and retreat of the aircraft, as well as the yaw axis ( Z-axis), and moves into the air to control actions such as hovering (stop flight). In addition, the control device 100 tilts the attitude of the flying object to the left and right to control the movement of the flying object in the left and right direction in the same manner as forward movement and backward movement.

撮像装置10は、フレーム101のウエブ部101aを介して伝達される振動を吸収するスペーサを介してウエブ部101a上に設けられている。これにより、フレーム101及びウエブ部101aの振動が、構造物との間の距離の測定に与える影響を軽減することができる。また、後述するが、撮像装置10の支持部材(筐体)は、繊維の方向を調整した炭素繊維強化プラスチック部材(CFRP:Carbon Fiber Reinforced Plastic)で形成されている。 The imaging device 10 is provided on the web portion 101a of the frame 101 via a spacer that absorbs vibrations transmitted through the web portion 101a. This can reduce the influence of the vibration of the frame 101 and the web portion 101a on the measurement of the distance to the structure. Also, as will be described later, the supporting member (housing) of the imaging device 10 is formed of a carbon fiber reinforced plastic member (CFRP: Carbon Fiber Reinforced Plastic) in which the fiber direction is adjusted.

これにより、撮像装置10は、風及び接触等の直接的な外的要因で加わる、例えば撓み、ねじれ、伸び等の外的負荷の影響を軽減するようになっている。このため、撮像装置10は、上述のスペーサ及び繊維の方向を調整したCFRPにより、測定対象(物体)を高精度で測定可能となっている。 As a result, the imaging device 10 reduces the effects of external loads such as bending, twisting, and elongation, which are applied by direct external factors such as wind and contact. For this reason, the imaging device 10 can measure the measurement target (object) with high accuracy by using the spacer and the CFRP in which the directions of the fibers are adjusted.

このような撮像装置10は、飛行体の周囲を撮像する。一例として、撮像装置10は、撮像素子9を備えた、いわゆるステレオカメラ装置となっている。撮像装置10は、フレーム101のウエブ部101aに固定されている。撮像装置10は、飛行体が地面と平行となる水平飛行時に光軸が水平になるように、ウエブ部101aに設けられている。また、撮像装置10は、撮像方向が、飛行体の前進方向に一致するように、ウエブ部101aに設けられている。 Such an imaging device 10 images the surroundings of an aircraft. As an example, the imaging device 10 is a so-called stereo camera device having an imaging device 9 . The imaging device 10 is fixed to the web portion 101 a of the frame 101 . The imaging device 10 is provided on the web portion 101a so that the optical axis is horizontal during horizontal flight in which the aircraft is parallel to the ground. Further, the imaging device 10 is provided on the web portion 101a so that the imaging direction coincides with the advancing direction of the aircraft.

なお、撮像装置10を複数設けることで、飛行体の周囲の全天球(360°)パノラマ画像を撮像可能としてもよい(全天球カメラ装置)。 By providing a plurality of imaging devices 10, it may be possible to capture an omnidirectional (360°) panoramic image around the aircraft (omnidirectional camera device).

このように実施の形態の撮像装置10は、自動車、飛行体等の移動体に設けることができる。また、工業用のロボット等にも適用可能である。いずれの場合も、上述と同様の効果を得ることができる。 As described above, the imaging device 10 of the embodiment can be installed in a mobile object such as an automobile or an aircraft. It is also applicable to industrial robots and the like. In either case, the same effect as described above can be obtained.

このような新規な実施の形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことも可能である。実施の形態及び実施の形態の変形は、発明の範囲や要旨に含まれると共に、特許請求の範囲に記載された発明とその均等の範囲に含まれるものである。 Such novel embodiments can be embodied in various other forms, and various omissions, replacements, and modifications can be made without departing from the scope of the invention. The embodiments and modifications of the embodiments are included in the scope and gist of the invention, as well as the invention described in the claims and the scope of equivalents thereof.

1 第1撮像部
2 第2撮像部
4 消失点検出部
5 遅延指示部
10 撮像装置
1 first imaging unit 2 second imaging unit 4 vanishing point detection unit 5 delay instruction unit 10 imaging device

特許第5683025号公報Japanese Patent No. 5683025

Claims (8)

ローリングシャッタ方式の撮像素子を有する第1撮像部と、
前記第1撮像部と解像度が異なるローリングシャッタ方式の撮像素子を有する第2撮像部と、
前記第1撮像部で撮像された第1撮像画像における任意の領域と前記第2撮像部で撮像された第2撮像画像における任意の領域とにおける、前記第1撮像部と前記第2撮像部との走査完了タイミングのずれである遅延時間分だけ、前記第1撮像部と前記第2撮像部とのいずれか一方について走査開始タイミングを遅延させる遅延指示部と、
を備えることを特徴とする撮像装置。
a first imaging unit having a rolling shutter type imaging element;
a second imaging unit having a rolling shutter imaging device with a resolution different from that of the first imaging unit;
the first imaging unit and the second imaging unit in an arbitrary area in the first captured image captured by the first imaging unit and an arbitrary area in the second captured image captured by the second imaging unit; a delay instruction unit that delays the scanning start timing of either the first imaging unit or the second imaging unit by a delay time that is the deviation of the scanning completion timing;
An imaging device comprising:
前記第1撮像画像における任意の領域と前記第2撮像画像における任意の領域とは、同一の被写体が存在する領域である、
ことを特徴とする請求項1に記載の撮像装置。
An arbitrary region in the first captured image and an arbitrary region in the second captured image are regions in which the same subject exists,
2. The imaging device according to claim 1, wherein:
前記第1撮像画像における任意の領域と前記第2撮像画像における任意の領域とは、前記第1撮像画像および前記第2撮像画像上で静止物体が移動する方向が収束する消失点が存在する領域である、
ことを特徴とする請求項1に記載の撮像装置。
The arbitrary region in the first captured image and the arbitrary region in the second captured image are regions in which there exists a vanishing point where the moving direction of the stationary object converges on the first captured image and the second captured image. is
2. The imaging device according to claim 1, wherein:
前記第1撮像画像および前記第2撮像画像上で静止物体が移動する方向が収束する消失点を検出する消失点検出部を備える、
ことを特徴とする請求項3に記載の撮像装置。
A vanishing point detection unit that detects a vanishing point where the moving direction of the stationary object converges on the first captured image and the second captured image,
4. The imaging device according to claim 3, characterized in that:
ローリングシャッタ方式の撮像素子を有する第1撮像部と、
前記第1撮像部と解像度が異なるローリングシャッタ方式の撮像素子を有する第2撮像部と、
を備える撮像装置を制御するコンピュータを、
前記第1撮像部で撮像された第1撮像画像における任意の領域と、前記第2撮像部で撮像された第2撮像画像における任意の領域とにおける、前記第1撮像部と前記第2撮像部との走査完了タイミングのずれである遅延時間分だけ、前記第1撮像部と前記第2撮像部とのいずれか一方について走査開始タイミングを遅延させる遅延指示手段として機能させるためのプログラム。
a first imaging unit having a rolling shutter type imaging element;
a second imaging unit having a rolling shutter imaging device with a resolution different from that of the first imaging unit;
a computer that controls an imaging device comprising
The first imaging unit and the second imaging unit in an arbitrary region in the first captured image captured by the first imaging unit and an arbitrary region in the second captured image captured by the second imaging unit A program for functioning as delay instructing means for delaying the scanning start timing of either the first imaging section or the second imaging section by a delay time, which is the difference in scanning completion timing between the first imaging section and the second imaging section.
前記第1撮像画像における任意の領域と前記第2撮像画像における任意の領域とは、同一の被写体が存在する領域である、
ことを特徴とする請求項5に記載のプログラム。
An arbitrary region in the first captured image and an arbitrary region in the second captured image are regions in which the same subject exists,
6. The program according to claim 5, characterized by:
前記第1撮像画像における任意の領域と前記第2撮像画像における任意の領域とは、前記第1撮像画像および前記第2撮像画像上で静止物体が移動する方向が収束する消失点が存在する領域である、
ことを特徴とする請求項5に記載のプログラム。
The arbitrary region in the first captured image and the arbitrary region in the second captured image are regions in which there exists a vanishing point where the moving direction of the stationary object converges on the first captured image and the second captured image. is
6. The program according to claim 5, characterized by:
前記第1撮像画像および前記第2撮像画像上で静止物体が移動する方向が収束する消失点を検出する消失点検出手段として前記コンピュータを機能させる、
ことを特徴とする請求項7に記載のプログラム。
causing the computer to function as vanishing point detection means for detecting a vanishing point at which the moving direction of the stationary object converges on the first captured image and the second captured image;
8. The program according to claim 7, characterized by:
JP2021043866A 2021-03-17 2021-03-17 Imaging device and program Pending JP2022143387A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021043866A JP2022143387A (en) 2021-03-17 2021-03-17 Imaging device and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021043866A JP2022143387A (en) 2021-03-17 2021-03-17 Imaging device and program

Publications (1)

Publication Number Publication Date
JP2022143387A true JP2022143387A (en) 2022-10-03

Family

ID=83455048

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021043866A Pending JP2022143387A (en) 2021-03-17 2021-03-17 Imaging device and program

Country Status (1)

Country Link
JP (1) JP2022143387A (en)

Similar Documents

Publication Publication Date Title
US11962903B2 (en) Aerial camera system
JP6409680B2 (en) Driving support device and driving support method
JP3898709B2 (en) Vehicle lane marking recognition device
CN110308556B (en) Image forming system, image correcting system, image displaying method, moving object, and non-transitory computer-readable medium
JP2014228943A (en) Vehicular external environment sensing device, and axial shift correction program and method therefor
JP2019152617A (en) Object recognition device and vehicle travelling control system
JP6471522B2 (en) Camera parameter adjustment device
JP6032034B2 (en) Object detection device
US11968448B2 (en) Imaging support device, imaging apparatus, imaging system, imaging support system, imaging support method, and program
JP4682830B2 (en) In-vehicle image processing device
US9967438B2 (en) Image processing apparatus
JP2006012191A (en) Lane marking recognition device for vehicle
US20180338095A1 (en) Imaging system and moving body control system
JP6768554B2 (en) Calibration device
JP2022143387A (en) Imaging device and program
US20230245468A1 (en) Image processing device, mobile object control device, image processing method, and storage medium
JP2014177143A (en) Driving support device for vehicle
JP2020109559A (en) Traffic signal recognition method and traffic signal recognition device
WO2022153795A1 (en) Signal processing device, signal processing method, and signal processing system
JP7436331B2 (en) Image processing device
JP6620962B2 (en) Parking assistance device
JP4652260B2 (en) Obstacle recognition device
WO2023243310A1 (en) Image processing system, image processing device, image processing method, and image processing program
JP7276262B2 (en) vehicle display
WO2002096708A1 (en) Vehicle-mounted camera and circumference monitor of vehicle

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20240126