JP2022143387A - Imaging device and program - Google Patents
Imaging device and program Download PDFInfo
- Publication number
- JP2022143387A JP2022143387A JP2021043866A JP2021043866A JP2022143387A JP 2022143387 A JP2022143387 A JP 2022143387A JP 2021043866 A JP2021043866 A JP 2021043866A JP 2021043866 A JP2021043866 A JP 2021043866A JP 2022143387 A JP2022143387 A JP 2022143387A
- Authority
- JP
- Japan
- Prior art keywords
- imaging
- imaging unit
- captured image
- unit
- imaging device
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000003384 imaging method Methods 0.000 title claims abstract description 320
- 238000005096 rolling process Methods 0.000 claims abstract description 16
- 230000001934 delay Effects 0.000 claims abstract description 4
- 238000001514 detection method Methods 0.000 claims description 21
- 238000010586 diagram Methods 0.000 description 31
- 230000003287 optical effect Effects 0.000 description 25
- 238000012545 processing Methods 0.000 description 16
- 238000000034 method Methods 0.000 description 13
- 238000012937 correction Methods 0.000 description 10
- 238000004364 calculation method Methods 0.000 description 7
- 238000009966 trimming Methods 0.000 description 7
- 230000003111 delayed effect Effects 0.000 description 5
- 238000005259 measurement Methods 0.000 description 5
- 239000004918 carbon fiber reinforced polymer Substances 0.000 description 4
- 230000008859 change Effects 0.000 description 3
- 238000013459 approach Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 239000000835 fiber Substances 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 125000006850 spacer group Chemical group 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 1
- 238000005452 bending Methods 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 230000008569 process Effects 0.000 description 1
Images
Abstract
Description
本発明は、撮像装置およびプログラムに関する。 The present invention relates to an imaging device and a program.
従来、左右に2つのカメラを並べたステレオカメラは、自動車等の車両に搭載することで、車両から対象物までの距離情報の計測に用いられている。また、ステレオカメラは、距離情報の他に、車両周辺の様々な対象物の認識に用いられている。このようなステレオカメラは、車両の運転支援時の安全性の向上に寄与するものである。 Conventionally, a stereo camera in which two cameras are arranged on the left and right sides is mounted on a vehicle such as an automobile and used to measure distance information from the vehicle to an object. In addition to distance information, stereo cameras are used to recognize various objects around the vehicle. Such a stereo camera contributes to improvement of safety during driving assistance of a vehicle.
なお、対象物の認識は、距離情報が無くとも、1つのカメラで撮像した画像だけでも行える。そこで、ステレオカメラを広角カメラと狭角カメラという画角の異なるカメラで構成することが考えられている。このようなステレオカメラによれば、広角カメラで広い範囲の物体認識を行い、狭角カメラと広角カメラの撮像範囲が重なる部分で対象物への距離測定を行うことができる。 It should be noted that object recognition can be performed using only an image captured by a single camera without distance information. Therefore, it has been considered to configure the stereo camera with cameras having different angles of view such as a wide-angle camera and a narrow-angle camera. According to such a stereo camera, it is possible to perform object recognition in a wide range with the wide-angle camera, and to measure the distance to the object in the portion where the imaging ranges of the narrow-angle camera and the wide-angle camera overlap.
特許文献1には、左右画像のトリミング位置のずれ量からずれを矯正するための垂直タイミングの遅延時間を算出し、垂直タイミング調整器に対して調整を指示することにより、垂直方向のずれが空間的に0に近づくように調整する技術が開示されている。このように調整することで、左右カメラ間でずれのない良品質な立体画像を得ることができる。
In
しかしながら、従来のような画角の異なるカメラを搭載した車載用ステレオカメラにおいて、シャッタ方式としてローリングシャッタ方式を採用した場合、車載用ステレオカメラの左右のカメラで走査タイミングがずれてしまうという問題がある。 However, when the rolling shutter method is used in a stereo camera mounted with cameras having different angles of view, as in conventional cameras, there is a problem that the scanning timings of the left and right cameras of the stereo camera do not match. .
より詳細には、ローリングシャッタ方式は、センサ内の画素を順に走査する方式である。このため、左右のカメラの画角(走査する画素の量)が異なる場合、同時に走査を開始しても、走査中にタイミングのずれが生じてしまう。このように走査中にタイミングのずれが生じてしまうと、同じ対象物が左右で異なるタイミングで撮像されることになり、距離情報への誤差が発生することになる。 More specifically, the rolling shutter method is a method of sequentially scanning pixels in the sensor. For this reason, when the angles of view (the amount of pixels to be scanned) of the left and right cameras are different, even if the scanning is started at the same time, a timing shift occurs during the scanning. If a timing shift occurs during scanning in this way, the same object will be imaged at different timings on the left and right sides, and an error will occur in the distance information.
本発明は、上記に鑑みてなされたものであって、画角の異なる左右の撮像部で発生する走査タイミングのずれを軽減することを目的とする。 SUMMARY OF THE INVENTION The present invention has been made in view of the above, and it is an object of the present invention to reduce the deviation in scanning timing that occurs in left and right imaging units having different angles of view.
上述した課題を解決し、目的を達成するために、本発明は、ローリングシャッタ方式の撮像素子を有する第1撮像部と、前記第1撮像部と解像度が異なるローリングシャッタ方式の撮像素子を有する第2撮像部と、前記第1撮像部で撮像された第1撮像画像における任意の領域と前記第2撮像部で撮像された第2撮像画像における任意の領域とにおける、前記第1撮像部と前記第2撮像部との走査完了タイミングのずれである遅延時間分だけ、前記第1撮像部と前記第2撮像部とのいずれか一方について走査開始タイミングを遅延させる遅延指示部と、を備えることを特徴とする。 In order to solve the above-described problems and achieve the object, the present invention provides a first imaging unit having a rolling shutter imaging device, and a rolling shutter imaging device having a resolution different from that of the first imaging unit. 2 imaging units, and the first imaging unit and the a delay instructing unit that delays the scanning start timing of either the first imaging unit or the second imaging unit by a delay time that is a difference in scanning completion timing with the second imaging unit. Characterized by
本発明によれば、画角の異なる左右の撮像部で発生する走査タイミングのずれを軽減することができる、という効果を奏する。 ADVANTAGE OF THE INVENTION According to this invention, it is effective in the ability to reduce the deviation of the scanning timing which generate|occur|produces in the left-right imaging part from which an angle of view differs.
以下に添付図面を参照して、撮像装置およびプログラムの実施の形態を詳細に説明する。 Embodiments of an imaging device and a program will be described in detail below with reference to the accompanying drawings.
(第1の実施の形態)
図1は、第1の実施の形態にかかる撮像装置10の構成を示す概要平面図、図2は、第1撮像部1および第2撮像部2の構成を示す概要平面図である。ステレオ方式の撮像装置10は、被写体を撮像するステレオカメラとしての第1撮像部1と、第2撮像部2とを有している。
(First embodiment)
FIG. 1 is a schematic plan view showing the configuration of an
第1撮像部1と第2撮像部2は、所定の間隔としての基線長B(例えば、60mm)を空けて配置されている。撮像装置10は、走査タイミングを同期して、第1撮像部1及び第2撮像部2により、同一の被写体を撮像することができる。
The
図2に示すように、第1撮像部1および第2撮像部2は、光学レンズ8(8a、8b)と、撮像素子9(9a、9b)と、を備えている。第1撮像部1および第2撮像部2は、ステー部材12によって基線長Bを空けて保持された状態で一体に固定されている。
As shown in FIG. 2, the
光学レンズ8aは、例えば、焦点距離f:2.5mmのレンズである。光学レンズ8bは、例えば、焦点距離f:5mmのレンズである。
The
第1撮像部1は、広角カメラである。第2撮像部2は、狭角カメラである。すなわち、第1撮像部1と第2撮像部2とは、解像度を異ならせることによって画角が異なるものであり、焦点距離も異なる。
The
第1撮像部1の撮像素子9aは、ローリングシャッタ方式の高解像度のCMOSイメージセンサである。撮像素子9aは、ピクセルピッチppを3μmとする。ローリングシャッタ方式は、センサ内の画素を順に走査する方式である。
The
第2撮像部2の撮像素子9bは、ローリングシャッタ方式の低解像度のCMOSイメージセンサである。撮像素子9bは、ピクセルピッチppを3μmとする。
The
次に、制御系について説明する。 Next, the control system will be explained.
撮像装置10は、CPU(Central Processing Unit)などの制御装置と、ROM(Read Only Memory)やRAM(Random Access Memory)などの記憶装置と、制御プログラムを記憶するHDDなどの外部記憶装置とを備えており、通常のコンピュータを利用したハードウェア構成となっている。
The
撮像装置10のCPUは、制御プログラムを実行することにより、図3に示すような記憶部3と、補正部6と、視差算出部7と、遅延指示部5と、として機能する。
The CPU of the
なお、本実施形態の撮像装置10で実行される制御プログラムを、インターネット等のネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせることにより提供するように構成しても良い。また、本実施形態の撮像装置10で実行される制御プログラムをインターネット等のネットワーク経由で提供または配布するように構成しても良い。
Note that the control program executed by the
また、本実施形態の撮像装置10で実行される制御プログラムを、ROM等に予め組み込んで提供するように構成してもよい。
Also, the control program executed by the
図3は、撮像装置10の制御系のハードウェア構成を示すブロック図である。図3に示すように、撮像装置10は、記憶部3と、補正部6と、視差算出部7と、遅延指示部5と、を備える。
FIG. 3 is a block diagram showing the hardware configuration of the control system of the
記憶部3は、撮像画像11と、補正画像14と、視差画像15と、遅延時間17と、を記憶する。
Storage unit 3 stores captured image 11 , corrected image 14 , parallax image 15 , and delay
ここで、第1撮像部1が撮像した撮像画像を「第1撮像画像」という。また、第2撮像部2が撮像した撮像画像を「第2撮像画像」という。また、第1撮像画像及び第2撮像画像を区別しない場合は、単に「撮像画像」という。撮像画像11は、第1撮像画像又は第2撮像画像である。
Here, the captured image captured by the
補正部6は、第1撮像画像と第2撮像画像とが見かけ上同じ焦点距離で撮像した画像となるように倍率調整とトリミングを行い、第1撮像部1(第2撮像部2)の位置ずれに起因する第1撮像画像(第2撮像画像)の座標ずれを補正する。 The correction unit 6 performs magnification adjustment and trimming so that the first captured image and the second captured image appear to be images captured at the same focal length, and adjusts the position of the first imaging unit 1 (second imaging unit 2). A coordinate deviation of the first captured image (second captured image) caused by the deviation is corrected.
上述したように、広角カメラである第1撮像部1と狭角カメラである第2撮像部2とは、解像度を異ならせることによって画角が異なるものであり、焦点距離も異なる。そのため、後述する被写体に対する距離を求めるために焦点距離を合わせる必要がある。補正部6は、焦点距離を合わせるために、倍率調整およびトリミングを行う。
As described above, the
図4は、補正部6における倍率調整とトリミングの一例を示す図である。図4においては、広角カメラである第1撮像部1が撮像した撮像画像を第1撮像画像11-1、狭角カメラである第2撮像部2が撮像した撮像画像を第2撮像画像11-2とする。
FIG. 4 is a diagram showing an example of magnification adjustment and trimming in the corrector 6. As shown in FIG. In FIG. 4, a first captured image 11-1 is an image captured by the
図4においては、第1撮像部1の焦点距離をf1、第2撮像部2の焦点距離をf2とする。倍率は焦点距離の比率で求められることが知られており、第1撮像画像11-1に対する第2撮像画像11-2の倍率mは、(f2/f1)となる。そこで、補正部6は、第1撮像画像11-1をm倍で拡大し、第2撮像画像11-2のサイズX2,Y2と同じサイズX1’,Y1’にトリミングすることで、第2撮像画像11-2と同じ倍率と画像サイズの第1補正画像14-1を作成する。
In FIG. 4, the focal length of the
本実施形態においては、上述したように、第1撮像部1の光学レンズ8aの焦点距離f1は2.5mm、第2撮像部2の光学レンズ8bの焦点距離f2は5mmである。このような場合には、倍率調整およびトリミングによって、例えば撮像した画像の焦点距離を見かけ上下記のように合わせることになる。
第1撮像部1で撮像した画像の見かけ上の焦点距離:5mm
第2撮像部2で撮像した画像の見かけ上の焦点距離:5mm
In this embodiment, as described above, the focal length f1 of the
Apparent focal length of the image captured by the first imaging unit 1: 5 mm
Apparent focal length of the image captured by the second imaging unit 2: 5 mm
視差算出部7は、補正部6により第1撮像画像を補正した第1補正画像及び第2撮像画像から視差を算出する。そして、視差算出部7は、当該視差を利用して、撮像画像11の座標の視差の情報を含む視差画像15を生成する。具体的な視差算出方法は、周知の平行等位ステレオカメラと同様である。
The
視差算出部7は、基準となる撮像画像から抽出される特徴点周辺の画像領域と、比較される撮像画像上で1画素単位に対応候補領域をずらしながら相関を計算し、相関最大値付近での相関値を放物線などで補間することにより、画素単位以下の精度で視差を算出する。本実施の形態の視差算出部7は、精度1/10画素以下の視差画像15を生成する。
The
ここで、第1撮像部1及び第2撮像部2による撮像装置10における距離計測原理について説明する。
Here, the principle of distance measurement in the
ここで、図5は撮像装置10の距離計測例を示す図である。図5に示すように、第1撮像部1は、光学レンズ8aの焦点距離f、光学レンズ8aの光学中心O0、撮像素子9aの撮像面S0とし、Z軸を光軸方向とする。第2撮像部2は、光学レンズ8bの焦点距離f、光学レンズ8bの光学中心O1、撮像素子9bの撮像面S1とし、Z軸を光軸方向とする。
Here, FIG. 5 is a diagram showing an example of distance measurement by the
第1撮像部1及び第2撮像部2は、X軸に対して平行に、基線長B(例えば、60mm)だけ離れた位置に配置される。
The
被写体Aは、第1撮像部1の光学中心O0から光軸方向に距離dだけ離れた位置にあるものとする。 It is assumed that the subject A is located at a distance d in the optical axis direction from the optical center O0 of the first imaging unit 1 .
第1撮像部1は、被写体Aに対して、直線A-O0と撮像面S0の交点であるP0に像を結ぶ。一方、第2撮像部2は、被写体Aに対して、直線A-O1と撮像面S1の交点であるP1に像を結ぶ。
The
ここで、第2撮像部2の光学中心O1を通り、直線A-O0と平行な直線と、撮像面S1との交点をP0’とする。また、P0’とP1の距離をpとする。視差算出部7は、同じ被写体Aの像を第1撮像部1及び第2撮像部2で撮像した画像上での位置のずれ量である距離pを、視差として算出する。そして、視差算出部7は、当該視差を利用して、撮像画像11の座標の視差の情報を含む視差画像15を生成する。
Here, the intersection of a straight line passing through the optical center O 1 of the
図5に示されるように、三角形A-O0-O1と、三角形O1-P0’-P1は相似である。そのため、被写体Aまでの距離dは、下記式のように、基線長B、焦点距離f及び視差pから求めることができる。
d=B×f/p
As shown in FIG. 5, triangle AO 0 -O 1 and triangle O 1 -P 0 ′-P 1 are similar. Therefore, the distance d to the subject A can be obtained from the base line length B, the focal length f, and the parallax p, as in the following formula.
d=B×f/p
撮像装置10は、上述の各部(第1撮像部1、第2撮像部2、記憶部3、補正部6及び視差算出部7)により、周期的に繰り返して撮像画像の撮像、補正及び視差計算を実行し、視差画像15を生成し続ける。
The
ところで、本実施形態のように、画角(走査する画素の量)の異なる第1撮像部1及び第2撮像部2を搭載した撮像装置10において、シャッタ方式としてローリングシャッタ方式を採用した場合、同時に走査を開始しても、第1撮像部1及び第2撮像部2で走査中にタイミングのずれが生じてしまう、という問題がある。このように走査中にタイミングのずれが生じてしまうと、同じ被写体が左右で異なるタイミングで撮像されることになり、距離情報に誤差が発生することになる。
By the way, as in the present embodiment, in the
ここで、画角の異なる第1撮像部1及び第2撮像部2を搭載した撮像装置10において、シャッタ方式としてローリングシャッタ方式を採用した場合、距離情報に誤差が発生する例について説明する。
Here, an example in which an error occurs in distance information when a rolling shutter method is adopted as a shutter method in the
ここで、図6はZ軸を光軸方向として配置した場合における第1撮像部1及び第2撮像部2の水平画角の一例を示す図である。図6に示すように、Z軸を光軸方向として配置した場合、広角カメラである第1撮像部1の水平画角は符号1aで表され、狭角カメラである第2撮像部2の水平画角は符号2aで表される。
Here, FIG. 6 is a diagram showing an example of the horizontal angle of view of the
また、図7はZ軸を光軸方向として配置した場合における第1撮像部1及び第2撮像部2の垂直画角の一例を示す図である。図7に示すように、Z軸を光軸方向として配置した場合、広角カメラである第1撮像部1の垂直画角は符号1bで表され、狭角カメラである第2撮像部2の垂直画角は符号2bで表される。
FIG. 7 is a diagram showing an example of the vertical angle of view of the
また、図8は第1撮像部1の撮像素子9a及び第2撮像部2の撮像素子9bにおける走査タイミングの差を例示的に示す図である。図8は、広角カメラである第1撮像部1の撮像素子9aと、狭角カメラである第2撮像部2の撮像素子9bとの走査タイミングを合わせた場合における、被写体Aに対する走査タイミングの差Δtvを説明するものである。
Further, FIG. 8 is a diagram illustrating the difference in scanning timing between the
ローリングシャッタ方式の撮像素子9(9a、9b)は、画面上から画面下にかけて、ライン毎に画像の走査を行う。図8に示すように、第1撮像部1の撮像素子9aにおいて被写体Aまで走査する垂直ラインをv1とし、第2撮像部2の撮像素子9bにおいて被写体Aまで走査する垂直ラインをv2とする。図8に示すように、被写体Aまで走査する垂直ライン数は、v1>v2となる。
The rolling shutter imaging device 9 (9a, 9b) scans an image line by line from the top to the bottom of the screen. As shown in FIG. 8, the vertical line scanned up to the object A by the
また、図8に示すように、第1撮像部1の撮像素子9aにおけるライン当たりの走査時間をth1とし、第2撮像部2の撮像素子9bにおけるライン当たりの走査時間をth2とする。したがって、第1撮像部1の撮像素子9aにおける被写体Aまでの走査時間tv1は(th1×v1)で表され、第2撮像部2の撮像素子9bにおける被写体Aまでの走査時間tv2は(th2×v2)で表される。
Further, as shown in FIG. 8, the scanning time per line in the
すなわち、図8に示すように、第1撮像部1の撮像素子9aにおけるライン当たりの走査時間th1と、第2撮像部2の撮像素子9bにおけるライン当たりの走査時間th2とが異なる場合、被写体Aの走査タイミングにおいては、下記式(1)に示すような時間差Δtvが生じる。
Δtv=tv1-tv2=(th1×v1)-(th2×v2) ・・(1)
That is, as shown in FIG. 8, when the scanning time th1 per line in the
Δtv=tv1−tv2=(th1×v1)−(th2×v2) (1)
以下においては、th1<th2となる場合を例に説明する。 In the following, a case where th1<th2 is satisfied will be described as an example.
図9は、被写体Aに対する前後ラインにおける走査タイミングの差を例示的に示す図である。図9は、広角カメラである第1撮像部1の撮像素子9aと、狭角カメラである第2撮像部2の撮像素子9bとの走査タイミングを合わせた場合における、被写体Aに対する前後ラインにおける走査タイミングの差を説明するものである。図9に示すように、第1撮像部1の撮像素子9aにおけるライン当たりの走査時間th1と、第2撮像部2の撮像素子9bにおけるライン当たりの走査時間th2とが、th1<th2の関係であるため、走査を進める毎に被写体Aの走査タイミングの時間差Δtvが小さくなる。
FIG. 9 is a diagram exemplifying the difference in scanning timing between lines before and after subject A. In FIG. FIG. 9 shows scanning of the subject A in the front and rear lines when the scanning timing of the
ここで、被写体Aに対する走査タイミングが第1撮像部1と第2撮像部2とでずれている場合に発生する問題を説明する。
Here, a problem that occurs when the scanning timings of the
図10は、被写体Aに対する走査タイミングが第1撮像部1と第2撮像部2とでずれている場合について示す図である。図10は、第1撮像部1の撮像面S’0、第2撮像部2の撮像面S’1として、第1撮像部1が被写体Aを撮像後、時間Δthの間に、被写体Aが左方向に距離gの移動をした場合、第2撮像部2は移動後の被写体A2を撮像することを示している。そして、図10に示すように、結果として、視差が大きくなり、実際の被写体Aの距離より近い、被写体A’の位置の距離d’が求められる。
FIG. 10 is a diagram showing a case where the scanning timings for the subject A are shifted between the
なお、上述したように、焦点距離を合わせるトリミングを行った後の光学レンズ8(8a、8b)の見かけ上の焦点距離fを5mm、第1撮像部1と第2撮像部2の間隔である基線長Bを60mm、ピクセルピッチppを3μmとする。
As described above, the apparent focal length f of the optical lens 8 (8a, 8b) after trimming to match the focal length is 5 mm, and the distance between the
また、第1撮像部1の1ライン当たりの走査時間th1を20μs、被写体Aまで走査するライン数tv1を480、第2撮像部2の1ライン当たりの走査時間th2を50μs、被写体Aまで走査するライン数tv2を240とする。
Further, the scanning time th1 per line of the
被写体Aにおける走査タイミングの差Δtvは、上記式(1)から-2.4msとなる。 The scanning timing difference Δtv for the subject A is −2.4 ms from the above equation (1).
ここで、被写体Aまでの距離dを30m、被写体Aが速度60km/hで左に移動している場合を想定する。 Here, it is assumed that the distance d to the subject A is 30 m, and the subject A is moving to the left at a speed of 60 km/h.
第1撮像部1が被写体Aを走査後、第2撮像部2が被写体Aを撮像するまでの2.4msの間に、被写体Aが移動する距離gは、
g=60km/h×2.4ms=0.04m
となる。
The distance g that the subject A moves in 2.4 ms after the
g=60km/h×2.4ms=0.04m
becomes.
ここで、距離gだけ移動したことによる視差の増分をGとする。また、三角形A-A2-O1と三角形O1-P1-P1’は相似である。そのため、視差の増分Gは、下記式により、約2.2画素となる。
G=(((f×g)/d))/pp
Here, let G be the parallax increment due to movement by the distance g. Also, triangle AA 2 -O 1 and triangle O 1 -P 1 -P 1 ′ are similar. Therefore, the parallax increment G is about 2.2 pixels according to the following formula.
G=(((f×g)/d))/pp
ところで、本来の被写体Aへの距離30mに対する視差値pは、三角形A-O0-O1と、三角形O1-P0’-P1が相似である関係から、P=((B×f)/d)/ppとして、約3.3画素である。このため、視差値p’は、約5.5画素となる。 By the way, the parallax value p for the distance 30 m to the original subject A is P = ((B × f )/d)/pp is about 3.3 pixels. Therefore, the parallax value p' is about 5.5 pixels.
ここで、図10に示すように、三角形A’-O0-O1と、三角形O1-P0’-P1は相似である。そのため、d’=B×f/(p’×pp)であり、被写体A’への距離d’は約18mとなる。 Here, as shown in FIG. 10, the triangle A'-O 0 -O 1 and the triangle O 1 -P 0 '-P 1 are similar. Therefore, d'=B*f/(p'*pp), and the distance d' to the subject A' is approximately 18 m.
つまり、撮像装置10は、実際には距離30mに存在している被写体Aを、18mの距離にあるように計測する。自車両が走行しており制動距離が仮に20mであった場合において、撮像装置10を設けた自動車の物体検出装置は、この結果のみから制動距離以内に物体が存在するため衝突すると予測する。すなわち、制御システムは、緊急制動又は回避等の操作が必要と判断してしまう可能性がある。
That is, the
しかしながら、通常、自動車の物体検出装置では、制御開始には複数回の衝突判定を必要とする等のマージンを設けている。そのため、上記の状況では必ずしも誤制御が発生するとは限らないが、ステレオカメラモジュール単体での信頼性が高い方が望ましいのは当然である。このように、広角カメラである第1撮像部1と狭角カメラである第2撮像部2との組み合わせによって、被写体が見かけ上、移動しているように見えてしまう問題が起こりうる。
However, in the object detection device for automobiles, a margin is usually provided such that multiple times of collision determination are required before control is started. Therefore, although erroneous control does not necessarily occur in the above situation, it is naturally desirable that the stereo camera module itself is highly reliable. In this way, the combination of the
そこで、本実施形態においては、撮像装置10は、走査タイミング調整を行うようにする。具体的には、図3に示すように、撮像装置10は、遅延指示部5を備える。また、図3に示すように、撮像装置10は、記憶部3に遅延時間17を記憶する。
Therefore, in the present embodiment, the
遅延指示部5は、詳細は後述するが、記憶部3から遅延時間17を読み出し、第1撮像部1および第2撮像部2の走査開始タイミングの遅延を撮像装置10に指示する。
Although details will be described later, the delay instruction unit 5 reads the
ここで、図11は第1撮像部1と第2撮像部2とでの被写体Aに対する走査タイミングの差をゼロに近づける場合について示す図である。図11においては、広角カメラである第1撮像部1の撮像素子9aと狭角カメラである第2撮像部2の撮像素子9bで、被写体Aにおける走査タイミングの差をゼロに近づけた場合の、走査開始タイミングの遅延時間Δtvを説明する。
Here, FIG. 11 is a diagram showing a case where the difference in scanning timing with respect to the object A between the
図8に示されるように、同じ走査タイミングで走査を開始した場合、被写体Aを走査するまでの時間は、第1撮像部1の撮像素子9aでは、
tv1=th1×v1
第2撮像部2の撮像素子9bでは、
tv2=th2×v2
となる。そして、第1撮像部1と第2撮像部2とでの被写体Aに対する走査タイミングのずれΔtvは、
Δtv=tv1-tv2=(th1×v1)-(th2×v2)
であることが分かる。
As shown in FIG. 8, when scanning is started at the same scanning timing, the time required to scan the subject A is:
tv1=th1×v1
In the
tv2=th2×v2
becomes. Then, the difference Δtv in scanning timing with respect to the object A between the
Δtv=tv1−tv2=(th1×v1)−(th2×v2)
It turns out that
したがって、図11に示されるように、第1撮像部1の撮像素子9aと第2撮像部2の撮像素子9bの走査開始タイミングをΔtv分ずらすことで、被写体Aの走査タイミングずれを軽減することができる。
Therefore, as shown in FIG. 11, by shifting the scanning start timings of the
すなわち、撮像装置10は、遅延時間17として、第1撮像部1と第2撮像部2とでの被写体Aに対する走査タイミングのずれΔtvを記憶部3に記憶する。
That is, the
そして、撮像装置10の遅延指示部5は、記憶部3から遅延時間17を読み出し、第1撮像部1および第2撮像部2の走査タイミングの遅延を指示する。
Then, the delay instruction unit 5 of the
図12は、走査タイミングを遅延させた例を示す図である。図12に示すように、撮像装置10の遅延指示部5は、記憶部3から読み出した遅延時間17である走査タイミングのずれΔtvに基づき、広角カメラである第1撮像部1の撮像素子9aの走査タイミングと、狭角カメラの第2撮像部2の撮像素子9bの走査タイミングとの差がゼロに近づくように遅延させる。
FIG. 12 is a diagram showing an example in which scanning timing is delayed. As shown in FIG. 12 , the delay instructing unit 5 of the
図12に示す例によれば、第1撮像部1の撮像素子9aにおけるライン当たりの走査時間th1と、第2撮像部2の撮像素子9bにおけるライン当たりの走査時間th2とが、th1<th2の関係であるため、走査を進める毎に走査タイミングの差が大きくなる。しかしながら、図12に示す例によれば、図9に示した例と比較して、被写体Aの前後のラインの走査タイミングずれが軽減している。
According to the example shown in FIG. 12, the scanning time th1 per line in the
このように本実施形態によれば、解像度が異なる撮像素子を持つ広角カメラ(第1撮像部1)および狭角カメラ(第2撮像部2)の走査開始タイミングに際して、予め、左右の撮像素子の走査完了タイミングの差から、一方の撮像素子を走査完了タイミングのずれ時間分遅延させ、任意の領域(同一の被写体が存在する領域)で左右の撮像素子の走査するタイミングが同一となるように、撮像素子の走査開始トリガを変更する。これにより、画角の異なる左右の撮像部で発生する走査タイミングのずれを軽減することができる。 As described above, according to the present embodiment, at the scanning start timing of the wide-angle camera (first imaging unit 1) and the narrow-angle camera (second imaging unit 2) having imaging elements with different resolutions, the left and right imaging elements are adjusted in advance. Based on the difference in scanning completion timing, one of the imaging elements is delayed by the time difference between the scanning completion timings so that the left and right imaging elements scan at the same timing in an arbitrary area (area where the same subject exists). Change the scan start trigger of the image sensor. As a result, it is possible to reduce the deviation in scanning timing that occurs in the left and right imaging units having different angles of view.
なお、上記説明では、被写体Aの場合を例にして説明したが、走査タイミングずれを軽減する対象を任意の領域に合わせてもよいことはいうまでもない。 In the above description, the case of the subject A was described as an example, but it goes without saying that the target for reducing the scanning timing deviation may be adjusted to any region.
また、上記説明では、th1<th2となる場合を例に説明したが、th1>th2となる場合でも被写体Aの走査タイミングにΔtvの時間差が生じ、第1撮像部1の撮像素子9aと第2撮像部2の撮像素子9bの走査開始タイミングをΔtv分ずらすことで、被写体Aを走査タイミングのずれを軽減することができる。
In the above description, the case where th1<th2 holds is explained as an example. By shifting the scanning start timing of the
(第2の実施の形態)
次に、第2の実施形態について説明する。第1の実施形態では、撮像画像における任意の領域として同一の被写体が存在する領域を適用するようにしたが、第2の実施形態では、撮像画像における任意の領域として撮像画像上で静止物体が移動する方向が収束する消失点が存在する領域を適用する点が、第1の実施形態と異なる。以下、第2の実施形態の説明では、第1の実施形態と同一部分の説明については省略し、第1の実施形態と異なる箇所について説明する。
(Second embodiment)
Next, a second embodiment will be described. In the first embodiment, an area in which the same subject exists is applied as an arbitrary area in the captured image. This embodiment differs from the first embodiment in that it applies an area in which there is a vanishing point where the directions of movement converge. Hereinafter, in the description of the second embodiment, the description of the same portions as those of the first embodiment will be omitted, and the portions that differ from the first embodiment will be described.
図13は、第2の実施の形態にかかる撮像装置10の制御系のハードウェア構成を示すブロック図である。図13に示すように、撮像装置10は、図3に示した撮像装置10に対して、消失点の検出などを行う消失点検出部4をさらに備える。
FIG. 13 is a block diagram showing the hardware configuration of the control system of the
ここで、消失点について説明する。 Here, the vanishing point will be explained.
図14は、消失点を例示的に示す図である。図14に示す例は、広角カメラである第1撮像部1と狭角カメラである第2撮像部2とについて、光軸方向をZ軸に対して俯角を付けて配置した場合を示すものである。この場合、広角カメラである第1撮像部1の垂直画角は符号1cで表され、狭角カメラである第2撮像部2の垂直画角は符号2cで表される。
FIG. 14 is a diagram exemplifying a vanishing point. The example shown in FIG. 14 shows a case in which the
トラックなど車高の高い車両ではカメラ取付位置が高くなり、近方側の路面の映り込みが減ることから、図14に示すように、俯角を付けることで路面が映り込むようにすることが考えられる。 In vehicles with a high vehicle height, such as trucks, the camera mounting position is high, and the reflection of the road surface on the near side is reduced. be done.
通常、車輌制御システムでの衝突判定は、進行方向の物体に対して行う。このため、図14に示すように、撮像装置10の進行方向D上に映る被写体Aに対して、走査タイミングを合わせることが重要になる。
Normally, collision determination in a vehicle control system is performed with respect to an object in the traveling direction. For this reason, as shown in FIG. 14, it is important to match the scanning timing with respect to the subject A imaged in the traveling direction D of the
図14に示すように、撮像装置10の進行方向D上に映る被写体Aは、撮像画像上で静止物体が移動する方向が収束する消失点と同じ位置に映ることになる。そのため、撮像装置10は、撮像画像上の消失点に走査タイミングを合わせるようにすればよい。
As shown in FIG. 14, the subject A appearing in the traveling direction D of the
消失点検出部4は、第1撮像部1が撮像した第1撮像画像11-1と、第2撮像部2が撮像した第2撮像画像11-2を読み出し、消失点を検出する。撮像画像からの消失点検出方法は、例えば、下記の文献に記載のような手法が知られている。
文献:山本宗・金子邦彦(2011). 移動カメラ画像データベースからの消失点軌跡推定処理のMapReduceによる並列化,3-4.https://db-event.jpn.org/deim2011/proceedings/pdf/e9-2.pdf
The vanishing point detection unit 4 reads the first captured image 11-1 captured by the
Reference: So Yamamoto and Kunihiko Kaneko (2011). Parallelization of vanishing point trajectory estimation processing from moving camera image database by MapReduce, 3-4.https://db-event.jpn.org/deim2011/proceedings/pdf/ e9-2.pdf
そして、消失点検出部4は、第1撮像部1、第2撮像部2の撮像画像上の消失点における走査タイミングが一致する遅延時間を、記憶部3に対して遅延時間17として書き込む。
Then, the vanishing point detection unit 4 writes the delay time at which the scanning timings of the vanishing points on the captured images of the
なお、上記説明では、撮像画像上の消失点を使用して車両進行方向を検出することを説明したが、これに限るものではなく、撮像画像上の消失点以外を使用して車両進行方向を検出するようにしてもよい。 In the above description, the vanishing point on the captured image is used to detect the traveling direction of the vehicle. However, the present invention is not limited to this. You may make it detect.
次に、消失点検出部4が消失点から遅延時間反映を行う処理について詳述する。 Next, the process of reflecting the delay time from the vanishing point by the vanishing point detector 4 will be described in detail.
図15は、消失点から遅延時間反映を行う処理の流れを示すフローチャートである。図15に示すように、消失点検出部4は、第1撮像部1が撮像した第1撮像画像11-1を読み出し、消失点F1を検出する(ステップS1)。
FIG. 15 is a flow chart showing the flow of processing for reflecting the delay time from the vanishing point. As shown in FIG. 15, the vanishing point detection unit 4 reads out the first captured image 11-1 captured by the
次に、消失点検出部4は、第2撮像部2が撮像した第2撮像画像11-2を読み出し、消失点F2を検出する(ステップS2)。
Next, the vanishing point detection unit 4 reads out the second captured image 11-2 captured by the
なお、第1撮像部1の消失点F1の検出と、第2撮像部2の消失点F2の検出とは、並列に処理してもよい。
Note that the detection of the vanishing point F1 of the
次に、消失点検出部4は、消失点F1の垂直ライン数v1、消失点F2の垂直ライン数v2から、走査タイミングの遅延時間Δtvを算出する(ステップS3)。
Δtv=tv1-tv2=(th1×v1)-(th2×v2)
Next, the vanishing point detector 4 calculates the delay time Δtv of the scanning timing from the vertical line number v1 of the vanishing point F1 and the vertical line number v2 of the vanishing point F2 (step S3).
Δtv=tv1−tv2=(th1×v1)−(th2×v2)
そして、消失点検出部4は、走査タイミングの遅延時間Δtvを記憶部3に対して遅延時間17として書き込む(ステップS4)。 Then, the vanishing point detection unit 4 writes the delay time Δtv of the scanning timing into the storage unit 3 as the delay time 17 (step S4).
このように本実施形態によれば、解像度が異なる撮像素子を持つ広角カメラ(第1撮像部1)および狭角カメラ(第2撮像部2)の走査開始タイミングに際して、予め、左右の撮像素子の走査完了タイミングの差から、一方の撮像素子を走査完了タイミングのずれ時間分遅延させ、任意の領域(静止物体が移動する方向が収束する消失点が存在する領域)で左右の撮像素子の走査するタイミングが同一となるように、撮像素子の走査開始トリガを変更する。これにより、画角の異なる左右の撮像部で発生する走査タイミングのずれを軽減することができる。 As described above, according to the present embodiment, at the scanning start timing of the wide-angle camera (first imaging unit 1) and the narrow-angle camera (second imaging unit 2) having imaging elements with different resolutions, the left and right imaging elements are adjusted in advance. Based on the difference in scan completion timing, one of the image sensors is delayed by the amount of the time difference between the scan completion timings, and the left and right image sensors scan an arbitrary area (an area with a vanishing point where the moving direction of a stationary object converges). The scanning start trigger of the image sensor is changed so that the timing becomes the same. As a result, it is possible to reduce the deviation in scanning timing that occurs in the left and right imaging units having different angles of view.
(実施例)
(自動車への適用例)
次に、上記各実施形態の撮像装置10は、ロボット装置、自動車、飛行体又は船舶等の移動体に設けることができる。以下、移動体に対して撮像装置10を適用した適用例を説明する。
(Example)
(Example of application to automobiles)
Next, the
まず、図16は、自動車の物体検出装置に対して実施の形態の撮像装置10を設けた例を示す図である。この図16に示すように、撮像装置10を備えた物体検出装置は、自動車のフロントガラス等に設けられ、進行方向前側の所定の撮像範囲の歩行者、道路標識、路面、先行車両、ガードレール等を撮像する。撮像装置10は、上述のようにステレオカメラの構成を有しており、左目視界と右目視界の2つの画像を撮像する。
First, FIG. 16 is a diagram showing an example in which the
図17は、物体検出装置の概略的な構成を示す図である。物体検出装置は、撮像装置10で撮像した2つの画像を車両ECU(Engine Control Unit)50に対して出力する。車両ECU50は、撮像装置10からの各画像に基づいて視差画像を解析し、この解析結果に基づいて、例えば自動車のエンジン制御、制動制御、及び走行レーンキープアシスト、操舵アシスト等の制御を行う。
FIG. 17 is a diagram showing a schematic configuration of an object detection device. The object detection device outputs two images captured by the
図18は、物体検出装置の構成を示す図である。この図18に示すように、第1撮像部1および第2撮像部2を備えた撮像装置10は、画像処理装置30に接続される。第1撮像部1および第2撮像部2は、それぞれレンズ8a,8b、撮像素子9a,9b、及びセンサコントローラ23a,23bを備えている。センサコントローラ23は、各撮像素子9a,9bの例えば露光制御、画像読み出し制御、外部回路との通信、及び画像データの送信制御等を行う。
FIG. 18 is a diagram showing the configuration of an object detection device. As shown in FIG. 18 , an
画像処理装置30は、例えば図17に示した車両ECU50内に設けられる。画像処理装置30は、例えばデータバスライン300、シリアルバスライン302、CPU(Central Processing Unit)304、FPGA(Field-Programmable Gate Array)306、ROM(Read Only Memory)308、RAM(Random Access Memory)310、シリアルIF(Interface)312、及びデータIF(Interface)314を有する。
The
撮像装置10は、データバスライン300及びシリアルバスライン302を介して画像処理装置30と接続されている。CPU304は、画像処理装置30全体の動作を制御し、画像処理及び画像認識処理を実行する。第1撮像部1および第2撮像部2それぞれの撮像素子9a,9bで撮像された撮像画像は、データバスライン300を介して画像処理装置30のRAM310に書き込まれる。CPU304又はFPGA306からのセンサ露光値の変更制御データ、画像読み出しパラメータの変更制御データ、及び各種設定データ等は、シリアルバスライン302を介して送受信される。
The
FPGA306は、RAM310に保存された画像データに対してリアルタイム性が要求される処理である、例えばガンマ補正、ゆがみ補正(左右画像の平行化)、ブロックマッチングによる視差演算を行って上述の視差画像を生成し、RAM310に再度書き込む。なお、視差画像は、物体の縦方向位置、横方向位置、及び、奥行方向位置が対応付けられた情報となっている。
The
CPU304は、撮像装置10の各センサコントローラ23a,23bの制御、及び画像処理装置30の全体的な制御を行う。CPU304は、データIF314を介して、例えば自車両のCAN(Controller Area Network)情報をパラメータ(車速、加速度、舵角、ヨーレート等)として取得する。
The CPU 304 controls the
先行車両、人間、ガードレール、路面等の物体の認識データである車両制御データは、シリアルIF312を介して、車両ECU50に供給され、車両ECU50の制御機能として設けられた例えば自動ブレーキシステム又は走行アシストシステム等で用いられる。自動ブレーキシステムは、自動車のブレーキ制御を行う。また、走行アシストシステムは、自動車の走行レーンキープアシスト及び操舵アシスト等を行う。 Vehicle control data, which is recognition data of objects such as preceding vehicles, people, guardrails, road surfaces, etc., is supplied to the vehicle ECU 50 via the serial IF 312, and is provided as a control function of the vehicle ECU 50, such as an automatic braking system or a driving assist system. etc. The automatic braking system performs brake control of the automobile. In addition, the driving assist system performs driving lane keeping assist, steering assist, and the like of the automobile.
(飛行体への適用例)
次に、図19及び図20は、飛行体に対する実施の形態の撮像装置10の設置例を示す図である。図19は、実施の形態の撮像装置が設けられた飛行体の上面図を、図20は、実施の形態の撮像装置が設けられた飛行体の正面図を示している。この図19及び図20に示すように、飛行体は、フレーム101、駆動装置102、回転翼103及び脚部104を有する遠隔操作可能な飛行体である。また、飛行体は、被写体となる対象物の静止画像又は動画像を撮像する撮像装置10を有する。
(Example of application to an aircraft)
Next, FIGS. 19 and 20 are diagrams showing an installation example of the
フレーム101は、例えば図19に示すように、ウエブ部101aと、ウエブ部101aの両端部に配置されたフランジ部101bとが平面視においてH型の形状となるように配置されている。なお、フレーム101の形状はこの限りではない。例えば、フレーム101は、飛行体の中心から放射状に伸び、互いに直角をなすようにX字状に設けられた4本のアームを有する構成としてよい。また、フレーム101は、駆動装置102と回転翼103の数だけ中心から放射状にアームが伸びた構造等でもよい。
For example, as shown in FIG. 19, the
駆動装置102は、回転翼103を回転させるモータである。一例として、駆動装置102としては、ブラシレスモータを用いることができる。駆動装置102は、2本のフランジ部101bの先端部にそれぞれ取り付けられ、回転翼103の回転軸と連結されている。各駆動装置102は、制御装置100により、互いに独立して制御される。
The
回転翼103は、各駆動装置102にそれぞれに取り付けられており、駆動装置102が駆動されることで回転する。回転翼103は、各駆動装置102の駆動が独立して制御されることで、その回転速度が調整される。なお、図19には、飛行体は、4つの回転翼103を有することとして図示したが、回転翼103は、3つ以上であれば飛行体として安定した飛行が可能である。さらには、回転翼103は、4つ、6つ、8つのような偶数分設けることが好ましい。また、回転翼103は、図19及び図20に示すように、略同一平面上に複数の回転翼103を配置した形態に限定されるものではなく、略同一平面上に配置された複数の回転翼103が多段に積層される形態でもよい。
The
脚部104は、フレーム101の略中央位置の下面と連結されている。脚部104は、下側部が逆V字形状に形成されており、飛行体が地面に着陸した際の衝撃等から飛行体を保護する。
The
制御装置100は、例えばフレーム101のウエブ部101a内に設けられている。制御装置100は、目的に応じて飛行体に設けられた各種センサからの信号、及び、外部から送信される操作信号に応じて各駆動装置102等を制御する。
The
また、制御装置100は、各駆動装置102の駆動を独立して制御することで各回転翼103の回転速度を独立に制御し、飛行体の上昇、下降、前進、後退の他、ヨー軸(Z軸)周りの回転、及び、空中へ移動してホバリング(停止飛行)等の動作を制御する。また、制御装置100は、飛行体の姿勢を左右に傾けることで、前進及び後退と同様に飛行体を左右方向に移動制御する。
In addition, the
撮像装置10は、フレーム101のウエブ部101aを介して伝達される振動を吸収するスペーサを介してウエブ部101a上に設けられている。これにより、フレーム101及びウエブ部101aの振動が、構造物との間の距離の測定に与える影響を軽減することができる。また、後述するが、撮像装置10の支持部材(筐体)は、繊維の方向を調整した炭素繊維強化プラスチック部材(CFRP:Carbon Fiber Reinforced Plastic)で形成されている。
The
これにより、撮像装置10は、風及び接触等の直接的な外的要因で加わる、例えば撓み、ねじれ、伸び等の外的負荷の影響を軽減するようになっている。このため、撮像装置10は、上述のスペーサ及び繊維の方向を調整したCFRPにより、測定対象(物体)を高精度で測定可能となっている。
As a result, the
このような撮像装置10は、飛行体の周囲を撮像する。一例として、撮像装置10は、撮像素子9を備えた、いわゆるステレオカメラ装置となっている。撮像装置10は、フレーム101のウエブ部101aに固定されている。撮像装置10は、飛行体が地面と平行となる水平飛行時に光軸が水平になるように、ウエブ部101aに設けられている。また、撮像装置10は、撮像方向が、飛行体の前進方向に一致するように、ウエブ部101aに設けられている。
Such an
なお、撮像装置10を複数設けることで、飛行体の周囲の全天球(360°)パノラマ画像を撮像可能としてもよい(全天球カメラ装置)。
By providing a plurality of
このように実施の形態の撮像装置10は、自動車、飛行体等の移動体に設けることができる。また、工業用のロボット等にも適用可能である。いずれの場合も、上述と同様の効果を得ることができる。
As described above, the
このような新規な実施の形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことも可能である。実施の形態及び実施の形態の変形は、発明の範囲や要旨に含まれると共に、特許請求の範囲に記載された発明とその均等の範囲に含まれるものである。 Such novel embodiments can be embodied in various other forms, and various omissions, replacements, and modifications can be made without departing from the scope of the invention. The embodiments and modifications of the embodiments are included in the scope and gist of the invention, as well as the invention described in the claims and the scope of equivalents thereof.
1 第1撮像部
2 第2撮像部
4 消失点検出部
5 遅延指示部
10 撮像装置
1
Claims (8)
前記第1撮像部と解像度が異なるローリングシャッタ方式の撮像素子を有する第2撮像部と、
前記第1撮像部で撮像された第1撮像画像における任意の領域と前記第2撮像部で撮像された第2撮像画像における任意の領域とにおける、前記第1撮像部と前記第2撮像部との走査完了タイミングのずれである遅延時間分だけ、前記第1撮像部と前記第2撮像部とのいずれか一方について走査開始タイミングを遅延させる遅延指示部と、
を備えることを特徴とする撮像装置。 a first imaging unit having a rolling shutter type imaging element;
a second imaging unit having a rolling shutter imaging device with a resolution different from that of the first imaging unit;
the first imaging unit and the second imaging unit in an arbitrary area in the first captured image captured by the first imaging unit and an arbitrary area in the second captured image captured by the second imaging unit; a delay instruction unit that delays the scanning start timing of either the first imaging unit or the second imaging unit by a delay time that is the deviation of the scanning completion timing;
An imaging device comprising:
ことを特徴とする請求項1に記載の撮像装置。 An arbitrary region in the first captured image and an arbitrary region in the second captured image are regions in which the same subject exists,
2. The imaging device according to claim 1, wherein:
ことを特徴とする請求項1に記載の撮像装置。 The arbitrary region in the first captured image and the arbitrary region in the second captured image are regions in which there exists a vanishing point where the moving direction of the stationary object converges on the first captured image and the second captured image. is
2. The imaging device according to claim 1, wherein:
ことを特徴とする請求項3に記載の撮像装置。 A vanishing point detection unit that detects a vanishing point where the moving direction of the stationary object converges on the first captured image and the second captured image,
4. The imaging device according to claim 3, characterized in that:
前記第1撮像部と解像度が異なるローリングシャッタ方式の撮像素子を有する第2撮像部と、
を備える撮像装置を制御するコンピュータを、
前記第1撮像部で撮像された第1撮像画像における任意の領域と、前記第2撮像部で撮像された第2撮像画像における任意の領域とにおける、前記第1撮像部と前記第2撮像部との走査完了タイミングのずれである遅延時間分だけ、前記第1撮像部と前記第2撮像部とのいずれか一方について走査開始タイミングを遅延させる遅延指示手段として機能させるためのプログラム。 a first imaging unit having a rolling shutter type imaging element;
a second imaging unit having a rolling shutter imaging device with a resolution different from that of the first imaging unit;
a computer that controls an imaging device comprising
The first imaging unit and the second imaging unit in an arbitrary region in the first captured image captured by the first imaging unit and an arbitrary region in the second captured image captured by the second imaging unit A program for functioning as delay instructing means for delaying the scanning start timing of either the first imaging section or the second imaging section by a delay time, which is the difference in scanning completion timing between the first imaging section and the second imaging section.
ことを特徴とする請求項5に記載のプログラム。 An arbitrary region in the first captured image and an arbitrary region in the second captured image are regions in which the same subject exists,
6. The program according to claim 5, characterized by:
ことを特徴とする請求項5に記載のプログラム。 The arbitrary region in the first captured image and the arbitrary region in the second captured image are regions in which there exists a vanishing point where the moving direction of the stationary object converges on the first captured image and the second captured image. is
6. The program according to claim 5, characterized by:
ことを特徴とする請求項7に記載のプログラム。 causing the computer to function as vanishing point detection means for detecting a vanishing point at which the moving direction of the stationary object converges on the first captured image and the second captured image;
8. The program according to claim 7, characterized by:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021043866A JP2022143387A (en) | 2021-03-17 | 2021-03-17 | Imaging device and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021043866A JP2022143387A (en) | 2021-03-17 | 2021-03-17 | Imaging device and program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2022143387A true JP2022143387A (en) | 2022-10-03 |
Family
ID=83455048
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021043866A Pending JP2022143387A (en) | 2021-03-17 | 2021-03-17 | Imaging device and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2022143387A (en) |
-
2021
- 2021-03-17 JP JP2021043866A patent/JP2022143387A/en active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11962903B2 (en) | Aerial camera system | |
JP6409680B2 (en) | Driving support device and driving support method | |
JP3898709B2 (en) | Vehicle lane marking recognition device | |
CN110308556B (en) | Image forming system, image correcting system, image displaying method, moving object, and non-transitory computer-readable medium | |
JP2014228943A (en) | Vehicular external environment sensing device, and axial shift correction program and method therefor | |
JP2019152617A (en) | Object recognition device and vehicle travelling control system | |
JP6471522B2 (en) | Camera parameter adjustment device | |
JP6032034B2 (en) | Object detection device | |
US11968448B2 (en) | Imaging support device, imaging apparatus, imaging system, imaging support system, imaging support method, and program | |
JP4682830B2 (en) | In-vehicle image processing device | |
US9967438B2 (en) | Image processing apparatus | |
JP2006012191A (en) | Lane marking recognition device for vehicle | |
US20180338095A1 (en) | Imaging system and moving body control system | |
JP6768554B2 (en) | Calibration device | |
JP2022143387A (en) | Imaging device and program | |
US20230245468A1 (en) | Image processing device, mobile object control device, image processing method, and storage medium | |
JP2014177143A (en) | Driving support device for vehicle | |
JP2020109559A (en) | Traffic signal recognition method and traffic signal recognition device | |
WO2022153795A1 (en) | Signal processing device, signal processing method, and signal processing system | |
JP7436331B2 (en) | Image processing device | |
JP6620962B2 (en) | Parking assistance device | |
JP4652260B2 (en) | Obstacle recognition device | |
WO2023243310A1 (en) | Image processing system, image processing device, image processing method, and image processing program | |
JP7276262B2 (en) | vehicle display | |
WO2002096708A1 (en) | Vehicle-mounted camera and circumference monitor of vehicle |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20240126 |