JP7169075B2 - Imaging control device and imaging control method - Google Patents

Imaging control device and imaging control method Download PDF

Info

Publication number
JP7169075B2
JP7169075B2 JP2018043119A JP2018043119A JP7169075B2 JP 7169075 B2 JP7169075 B2 JP 7169075B2 JP 2018043119 A JP2018043119 A JP 2018043119A JP 2018043119 A JP2018043119 A JP 2018043119A JP 7169075 B2 JP7169075 B2 JP 7169075B2
Authority
JP
Japan
Prior art keywords
vehicle
road surface
imaging device
estimated
travel
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018043119A
Other languages
Japanese (ja)
Other versions
JP2019029986A (en
Inventor
洋平 中田
慎史 大山
拓也 山口
一真 竹内
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Corp of America
Original Assignee
Panasonic Intellectual Property Corp of America
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Intellectual Property Corp of America filed Critical Panasonic Intellectual Property Corp of America
Priority to US16/034,332 priority Critical patent/US10536646B2/en
Priority to CN201810817409.0A priority patent/CN109309785B/en
Priority to EP18185374.8A priority patent/EP3435286B1/en
Publication of JP2019029986A publication Critical patent/JP2019029986A/en
Application granted granted Critical
Publication of JP7169075B2 publication Critical patent/JP7169075B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本開示は、車両に配置されている撮像装置を制御する撮像制御装置および撮像制御方法に関する。 The present disclosure relates to an imaging control device and an imaging control method for controlling an imaging device arranged in a vehicle.

従来、特許文献1には、車両の前方を撮像装置により撮像し、これにより得られた撮像画像から特定の標示物を認識する報知処理装置が開示されている。特許文献1のように、車両の周囲を撮像することにより得られた画像を用いて、当該車両の自動運転または自動運転支援のために路面上の物体を認識することが知られている。 Conventionally, Patent Literature 1 discloses a notification processing device that captures an image in front of a vehicle with an imaging device and recognizes a specific sign from the captured image thus obtained. As in Patent Document 1, it is known to use an image obtained by capturing an image of the surroundings of a vehicle to recognize an object on the road surface for automatic driving or automatic driving support of the vehicle.

特開2017-102007号公報JP 2017-102007 A

しかしながら、上記従来技術では、車両に配置されている撮像装置により得られた画像から物体を容易に認識することが難しかった。 However, with the conventional technology described above, it is difficult to easily recognize an object from an image obtained by an imaging device installed in a vehicle.

そこで、本開示では、物体の認識が容易である画像を撮像装置に撮像させることができる撮像制御装置などを提供することを目的とする。 Therefore, an object of the present disclosure is to provide an imaging control device and the like that can cause an imaging device to capture an image in which an object can be easily recognized.

本開示の一態様に係る撮像制御装置は、車両に配置された撮像装置に前記車両の周囲を撮像させる撮像制御装置であって、前記車両の進行方向および前記進行方向に沿って走行する前記車両の速さを示す速度ベクトルまたは前記車両が走行する経路を示す経路データを取得し、取得した前記速度ベクトルまたは前記経路データを用いて前記車両が将来走行する位置を推定する第1位置推定部と、前記車両に配置されたセンサにより検出された前記車両が将来走行すると推定された位置を含む路面の形状または前記路面の状態を推定するための路面情報、または、前記撮像装置により撮像された前記車両が将来走行すると推定される位置の路面を含む画像を取得し、取得した前記路面情報または前記画像を用いて、前記第1位置推定部により推定された前記車両が将来走行する位置における前記路面の前記進行方向に沿った高さの変化率または前記路面の状態を推定する路面推定部と、前記路面推定部によって推定された前記路面の前記進行方向に沿った高さの変化率または前記路面の状態に応じて、前記撮像装置のシャッタースピード、および、前記撮像装置の感度の少なくとも一方である前記撮像装置のパラメータを変更する変更部と、前記第1位置推定部により推定された前記車両が将来走行する位置を前記車両が通過するタイミングで、前記変更部によって変更された前記パラメータを用いて前記撮像装置に撮像させる制御部と、を備える。 An imaging control device according to an aspect of the present disclosure is an imaging control device that causes an imaging device arranged in a vehicle to capture an image of the surroundings of the vehicle, wherein the vehicle travels in a traveling direction of the vehicle and along the traveling direction. a first position estimating unit that obtains a speed vector indicating the speed of the vehicle or route data indicating a route that the vehicle travels, and estimates a position where the vehicle will travel in the future using the obtained speed vector or the route data; , the road surface information for estimating the shape of the road surface or the state of the road surface including the estimated position where the vehicle will travel in the future detected by the sensor arranged in the vehicle, or the road surface information captured by the imaging device Acquiring an image including a road surface at a position where the vehicle is estimated to travel in the future, and using the acquired road surface information or the image, the road surface at the position where the vehicle will travel in the future estimated by the first position estimating unit. A road surface estimation unit for estimating the rate of change in height along the direction of travel or the condition of the road surface, and the rate of change in height along the direction of travel of the road surface estimated by the road surface estimation unit or the road surface a changing unit that changes a parameter of the imaging device, which is at least one of the shutter speed of the imaging device and the sensitivity of the imaging device, and the vehicle estimated by the first position estimating unit according to the state of and a control unit that causes the imaging device to capture an image using the parameter changed by the change unit at a timing when the vehicle passes a position where the vehicle will travel in the future.

なお、これらの全般的または具体的な態様は、システム、方法、集積回路、コンピュータプログラムまたはコンピュータ読み取り可能なCD-ROMなどの記録媒体で実現されてもよく、システム、方法、集積回路、コンピュータプログラムおよび記録媒体の任意な組み合わせで実現されてもよい。 In addition, these general or specific aspects may be realized by a system, method, integrated circuit, computer program, or a recording medium such as a computer-readable CD-ROM. and any combination of recording media.

本開示に係る撮像制御装置によれば、物体の認識が容易である画像を撮像装置に撮像させることができる。 According to the imaging control device according to the present disclosure, it is possible to cause the imaging device to capture an image in which the object can be easily recognized.

図1は、実施の形態に係る車両の外観図を示す図である。FIG. 1 is an external view of a vehicle according to an embodiment. 図2は、実施の形態に係る撮像制御装置を備える車両のハードウェア構成の一例を示すブロック図である。FIG. 2 is a block diagram showing an example of a hardware configuration of a vehicle provided with the imaging control device according to the embodiment. 図3は、実施の形態に係る撮像制御装置を備える車両の機能構成の一例を示すブロック図である。FIG. 3 is a block diagram showing an example of a functional configuration of a vehicle provided with the imaging control device according to the embodiment. 図4は、異なる複数のシャッタースピードのそれぞれを実現可能なノイズレベルおよび露出の組合せを示すイメージ図である。FIG. 4 is an image diagram showing combinations of noise levels and exposures that can be achieved with a plurality of different shutter speeds. 図5は、所定の認識アルゴリズムを用いて画像を認識させた場合の認識率と、ノイズレベルおよび露出の組合せとを示すイメージ図である。FIG. 5 is an image diagram showing the recognition rate and combinations of noise level and exposure when an image is recognized using a predetermined recognition algorithm. 図6は、実施の形態に係る撮像制御装置による撮像制御方法の一例を示すフローチャートである。FIG. 6 is a flowchart illustrating an example of an imaging control method by the imaging control device according to the embodiment. 図7は、撮像制御装置による撮像制御方法を説明するための図である。FIG. 7 is a diagram for explaining the imaging control method by the imaging control device. 図8は、変形例1に係る撮像制御装置を備える車両の機能構成の一例を示すブロック図である。FIG. 8 is a block diagram showing an example of a functional configuration of a vehicle provided with an imaging control device according to Modification 1. As shown in FIG. 図9は、変形例1に係る撮像制御装置による撮像制御方法の一例を示すフローチャートである。9 is a flowchart illustrating an example of an imaging control method by an imaging control device according to Modification 1. FIG. 図10は、物体の複数の画像間での物体の移動速度について説明するための図である。FIG. 10 is a diagram for explaining the moving speed of an object between a plurality of images of the object. 図11は、変形例2に係る撮像制御装置を備える車両の機能構成の一例を示すブロック図である。FIG. 11 is a block diagram showing an example of a functional configuration of a vehicle provided with an imaging control device according to Modification 2. As shown in FIG. 図12は、変形例2に係る撮像制御装置による撮像制御方法の一例を示すフローチャートである。12 is a flowchart illustrating an example of an imaging control method by an imaging control device according to Modification 2. FIG.

(本発明の基礎となった知見)
本発明者は、「背景技術」の欄において記載した、報知処理装置に関し、以下の問題が生じることを見出した。
(Knowledge on which the present invention is based)
The inventors of the present invention have found that the following problems occur in the information processing apparatus described in the "Background Art" section.

特許文献1の技術では、砂利面、石畳などの悪路、凹凸、段差などの路面を車両が走行することによって、車両の姿勢に急激な変化が生じた場合、車両に配置されている撮像装置の姿勢も急激に変化する。このため、撮像装置により得られた画像にブレ、歪みなどが生じ、当該画像中に映り込んでいる物体(人を含む)を認識することが難しい。 In the technique disclosed in Patent Document 1, when the vehicle runs on rough roads such as gravel and cobblestones, road surfaces with unevenness and steps, and the posture of the vehicle suddenly changes, an imaging device installed in the vehicle is detected. attitude changes rapidly. For this reason, an image obtained by the imaging device is blurred or distorted, and it is difficult to recognize an object (including a person) reflected in the image.

本開示の一態様に係る撮像制御装置は、車両に配置されている撮像装置に前記車両の周囲を撮像させる撮像制御装置であって、前記車両の進行方向および前記進行方向に沿って走行する前記車両の速さを示す速度ベクトルまたは前記車両が走行する経路を示す経路データを取得し、取得した前記速度ベクトルまたは前記経路データを用いて前記車両が将来走行する位置を推定する第1位置推定部と、前記車両に配置されたセンサにより検出された前記車両が将来走行すると推定された位置を含む路面の形状または前記路面の状態を推定するための路面情報、または、前記撮像装置により撮像された前記車両が将来走行すると推定される位置の路面を含む画像を取得し、取得した前記路面情報または前記画像を用いて、前記第1位置推定部により推定された前記車両が将来走行する位置における前記路面の前記進行方向に沿った高さの変化率または前記路面の状態を推定する路面推定部と、前記路面推定部によって推定された前記路面の前記進行方向に沿った高さの変化率または前記路面の状態に応じて、前記撮像装置のシャッタースピード、および、前記撮像装置の感度の少なくとも一方である前記撮像装置のパラメータを変更する変更部と、前記第1位置推定部により推定された前記将来走行する位置を前記車両が通過するタイミングで、前記変更部によって変更された前記パラメータを用いて前記撮像装置に撮像させる制御部と、を備える。 An imaging control device according to an aspect of the present disclosure is an imaging control device that causes an imaging device arranged in a vehicle to capture an image of the surroundings of the vehicle, and the vehicle travels along the traveling direction of the vehicle and the traveling direction. A first position estimating unit that acquires a speed vector indicating the speed of the vehicle or route data indicating the route that the vehicle travels, and estimates a future travel position of the vehicle using the acquired speed vector or the route data. and road surface information for estimating the shape of the road surface or the state of the road surface including the estimated position where the vehicle will travel in the future detected by the sensor arranged in the vehicle, or road surface information captured by the imaging device obtaining an image including a road surface at a position where the vehicle is estimated to travel in the future; a road surface estimation unit for estimating a rate of change in height along the direction of travel of the road surface or the condition of the road surface; a changing unit that changes a parameter of the imaging device, which is at least one of a shutter speed of the imaging device and a sensitivity of the imaging device, according to a road surface condition; and the future estimated by the first position estimating unit. and a control unit that causes the imaging device to capture an image using the parameter changed by the change unit at a timing when the vehicle passes the traveling position.

これによれば、車両が将来走行する位置における路面を実際に通過するタイミングにおいて、予め推定した当該路面の形状または状態に応じて変更したパラメータで撮像装置に撮像させることができる。つまり、車両の進行方向に沿った路面の高さの変化率または路面の状態に応じて適切に設定したパラメータで撮像装置に撮像させることができるため、物体の認識が容易である画像を撮像装置に撮像させることができる。 According to this, at the timing when the vehicle actually passes through the road surface at the position where the vehicle will travel in the future, it is possible to cause the image capturing device to perform image capturing using the parameters changed according to the pre-estimated shape or state of the road surface. In other words, the imaging device can capture an image with parameters appropriately set according to the rate of change in the height of the road surface along the traveling direction of the vehicle or the state of the road surface, so that the imaging device can easily recognize an object. can be imaged.

また、さらに、前記車両の現在位置を推定する第2位置推定部を備え、前記第1位置推定部は、前記第2位置推定部により推定された前記車両の前記現在位置をさらに用いて、前記車両の前記将来走行する位置を推定してもよい。 Further, a second position estimating unit for estimating a current position of the vehicle is provided, and the first position estimating unit further uses the current position of the vehicle estimated by the second position estimating unit to obtain the The future traveled position of the vehicle may be estimated.

このため、将来走行する位置を精度よく推定することができる。 Therefore, it is possible to accurately estimate the position where the vehicle will travel in the future.

また、前記第1位置推定部は、前記速度ベクトルを取得し、前記変更部は、前記路面推定部により推定された前記路面の前記進行方向に沿った高さの変化率と、前記速度ベクトルとから、前記タイミングで前記撮像装置の撮像面と平行な方向に前記撮像装置が移動する速度の大きさを推定し、推定した前記平行な方向の速度の大きさが大きいほど、(i)前記シャッタースピードを小さい値へ変更する、および、(ii)前記感度を大きい値へ変更する、の少なくとも一方を行ってもよい。 The first position estimator obtains the velocity vector, and the changer adjusts the rate of change of the height of the road along the direction of travel estimated by the road surface estimator and the velocity vector. , the magnitude of the speed at which the imaging device moves in the direction parallel to the imaging surface of the imaging device is estimated at the timing. At least one of changing the speed to a smaller value and (ii) changing the sensitivity to a larger value may be performed.

このため、撮像装置の平行な方向の速度の大きさが大きいほど、シャッタースピードを小さい値へ変更する、および、感度を大きい値へ変更する、の少なくとも一方を行った状態で撮像装置に撮像させる。よって、得られた画像にブレ、歪みなどが生じることを低減できる。 Therefore, as the speed in the parallel direction of the imaging device increases, the shutter speed is changed to a smaller value, and the sensitivity is changed to a higher value. . Therefore, blurring, distortion, and the like in the obtained image can be reduced.

また、前記変更部は、推定した前記平行な方向の速度の大きさに応じて、前記シャッタースピードを決定し、決定した前記シャッタースピードにおいて前記撮像装置が撮像することにより得られた画像から物体を所定の認識アルゴリズムで認識する場合の認識率が所定値よりも大きくなるノイズレベルおよび露出を特定し、決定した前記シャッタースピード、および、特定した前記露出に応じた感度に、前記撮像装置の前記パラメータを変更してもよい。 Further, the changing unit determines the shutter speed according to the estimated magnitude of the speed in the parallel direction, and determines the object from the image obtained by the imaging device capturing the image at the determined shutter speed. The noise level and the exposure at which the recognition rate when recognizing with a predetermined recognition algorithm is greater than a predetermined value are specified, and the parameters of the imaging device are added to the determined shutter speed and the sensitivity corresponding to the specified exposure. may be changed.

このため、画像中に映り込んでいる物体の認識率が向上するパラメータで撮像装置に撮像させることができる。よって、物体の認識が容易である画像を撮像装置に撮像させることができる。 Therefore, it is possible to cause the imaging device to capture an image with parameters that improve the recognition rate of the object reflected in the image. Therefore, it is possible to cause the imaging device to capture an image in which the object can be easily recognized.

また、さらに、前記撮像装置により撮像された前記画像を取得し、取得した前記画像内の物体のブレを検知し、前記画像内の前記物体のブレを検知した場合、(i)前記シャッタースピードをより小さい値へ変更する、および、(ii)前記感度をより大きい値へ変更する、の少なくとも一方を前記変更部に行わせるブレ補正部を備えてもよい。 Further, when the image captured by the imaging device is acquired, and the blurring of the object in the acquired image is detected, and the blurring of the object in the image is detected, (i) the shutter speed is changed. A blur correction unit may be provided that causes the changing unit to perform at least one of changing the sensitivity to a smaller value and (ii) changing the sensitivity to a larger value.

このため、変更部により変更されたパラメータで撮像した画像中にブレが生じている場合であっても、次のタイミングで撮像するときにはブレが生じないように変更したパラメータで撮像装置に撮像させることができる。 For this reason, even if blurring occurs in an image captured with the parameters changed by the changing unit, the image capturing apparatus is caused to capture images with changed parameters so as not to cause blurring when capturing images at the next timing. can be done.

また、さらに、前記撮像装置の複数回の撮像により得られる複数の画像のそれぞれに含まれる物体の位置の変化に基づいて、前記物体の移動速度を推定し、推定した前記移動速度の大きさが大きいほど、(i)前記シャッタースピードを小さい値へ変更する、および、(ii)前記感度を大きい値へ変更する、の少なくとも一方を前記変更部に行わせる速度補正部を備えてもよい。 Further, the moving speed of the object is estimated based on a change in the position of the object included in each of a plurality of images obtained by the imaging device a plurality of times, and the magnitude of the estimated moving speed is A speed correction unit may be provided that causes the changing unit to perform at least one of (i) changing the shutter speed to a smaller value and (ii) changing the sensitivity to a larger value as the shutter speed increases.

このため、物体が撮像装置の撮像範囲内で移動している場合であっても、当該物体を適切なパラメータで撮像装置に撮像させることができる。 Therefore, even when the object is moving within the imaging range of the imaging device, the object can be imaged by the imaging device with appropriate parameters.

また、前記変更部は、前記撮像装置が配置されている環境の照度を検出する照度センサによる検出結果である照度が示す照度情報を取得し、取得した前記照度情報が示す照度が小さいほど、(i)前記シャッタースピードを小さい値へ変更する、および、(ii)前記感度を大きい値へ変更する、の少なくとも一方を行ってもよい。 Further, the changing unit acquires illuminance information indicated by illuminance, which is a detection result of an illuminance sensor that detects the illuminance of the environment in which the imaging device is arranged, and the smaller the illuminance indicated by the acquired illuminance information, the ( At least one of i) changing the shutter speed to a lower value and (ii) changing the sensitivity to a higher value may be performed.

このため、照度に応じて、適切なパラメータで撮像装置に撮像させることができる。 Therefore, it is possible to cause the imaging device to perform imaging with appropriate parameters according to the illuminance.

前記路面推定部は、前記第1位置推定部により推定された前記将来走行する位置における前記路面の前記進行方向に沿った高さの変化率を推定し、前記変更部は、前記車両が将来走行すると推定された位置における前記路面の前記進行方向に沿った高さの変化率に応じて前記撮像装置のパラメータを変更してもよい。 The road surface estimation unit estimates a rate of change in the height of the road surface along the traveling direction at the future travel position estimated by the first position estimation unit, Then, the parameters of the imaging device may be changed according to the rate of change in the height of the road surface along the traveling direction at the estimated position.

このように構成すれば、将来車両が走行すると推定される位置における路面の進行方向に沿った高さの変化率に応じて撮像装置のパラメータを変更することができる。 With this configuration, it is possible to change the parameters of the imaging device according to the rate of change in the height of the road along the direction of travel at the position where the vehicle is estimated to travel in the future.

なお、これらの全般的または具体的な態様は、システム、方法、集積回路、コンピュータプログラムまたはコンピュータ読み取り可能なCD-ROMなどの記録媒体で実現されてもよく、システム、方法、集積回路、コンピュータプログラムまたは記録媒体の任意な組み合わせで実現されてもよい。 In addition, these general or specific aspects may be realized by a system, method, integrated circuit, computer program, or a recording medium such as a computer-readable CD-ROM. Or it may be realized by any combination of recording media.

以下、本発明の一態様に係る撮像制御装置および撮像制御方法について、図面を参照しながら具体的に説明する。 Hereinafter, an imaging control device and an imaging control method according to one aspect of the present invention will be specifically described with reference to the drawings.

なお、以下で説明する実施の形態は、いずれも本開示の一具体例を示すものである。以下の実施の形態で示される数値、形状、材料、構成要素、構成要素の配置位置及び接続形態、ステップ、ステップの順序などは、一例であり、本開示発明を限定する主旨ではない。また、以下の実施の形態における構成要素のうち、最上位概念を示す独立請求項に記載されていない構成要素については、任意の構成要素として説明される。 It should be noted that each of the embodiments described below is a specific example of the present disclosure. Numerical values, shapes, materials, components, arrangement positions and connection forms of components, steps, order of steps, and the like shown in the following embodiments are examples, and are not intended to limit the present disclosure. In addition, among the constituent elements in the following embodiments, constituent elements that are not described in independent claims representing the highest concept will be described as arbitrary constituent elements.

(実施の形態)
以下、図1~図7を用いて、実施の形態を説明する。
(Embodiment)
Embodiments will be described below with reference to FIGS. 1 to 7. FIG.

[1-1.構成]
図1は、実施の形態に係る車両の外観図を示す図である。
[1-1. Constitution]
FIG. 1 is an external view of a vehicle according to an embodiment.

車両200には、車両の前方を撮像する撮像装置210が配置されている。撮像装置210は、車両200の前方に限らずに、車両200の周囲を撮像すればよく、車両200の左方向、右方向、後方向などを撮像してもよい。撮像装置210により撮像された画像は、車両200の周囲の物体を認識するために利用される。認識された結果は、車両200の自動運転または運転支援に利用される。 An imaging device 210 that captures an image in front of the vehicle is arranged in the vehicle 200 . The imaging device 210 is not limited to the front of the vehicle 200, and may image the surroundings of the vehicle 200, and may image the left direction, the right direction, the rear direction, and the like of the vehicle 200. FIG. The image captured by the imaging device 210 is used to recognize objects around the vehicle 200 . The recognized result is used for automatic driving or driving assistance of the vehicle 200 .

車両200の上部には、距離センサ201が配置されている。距離センサ201は、車両200の周囲の物体までの距離を検出する。距離センサ201により検出された距離を示す距離情報は、例えば、自動運転または自動運転支援における当該車両200の位置の推定に用いられる。 A distance sensor 201 is arranged above the vehicle 200 . Distance sensor 201 detects the distance to objects around vehicle 200 . Distance information indicating the distance detected by the distance sensor 201 is used, for example, to estimate the position of the vehicle 200 in automatic driving or automatic driving assistance.

撮像制御装置100は、撮像装置210による撮像を制御する。 The imaging control device 100 controls imaging by the imaging device 210 .

次に、撮像制御装置100を備える車両200のハードウェア構成の具体例について図2を用いて説明する。 Next, a specific example of the hardware configuration of vehicle 200 including imaging control device 100 will be described with reference to FIG.

図2は、実施の形態に係る撮像制御装置を備える車両のハードウェア構成の一例を示すブロック図である。 FIG. 2 is a block diagram showing an example of a hardware configuration of a vehicle provided with the imaging control device according to the embodiment.

図2に示すように、車両200は、ハードウェア構成として、撮像制御装置100と、撮像装置210と、距離センサ201と、運転制御装置300とを備える。車両200は、さらに、加速度センサ202と、照度センサ203とを備えていてもよい。 As shown in FIG. 2, the vehicle 200 includes an imaging control device 100, an imaging device 210, a distance sensor 201, and an operation control device 300 as a hardware configuration. Vehicle 200 may further include an acceleration sensor 202 and an illumination sensor 203 .

撮像制御装置100は、ハードウェア構成として、CPU101(Central Processing Unit)と、メインメモリ102と、ストレージ103と、通信IF(Interface)104とを備える。撮像制御装置100は、GNSS(Global Navigation Satellite System)105を備えていてもよい。また、撮像制御装置100は、例えば、ECU(Electronic Control Unit)であってもよい。 The imaging control apparatus 100 includes a CPU 101 (Central Processing Unit), a main memory 102, a storage 103, and a communication IF (Interface) 104 as a hardware configuration. The imaging control device 100 may include a GNSS (Global Navigation Satellite System) 105 . Also, the imaging control device 100 may be an ECU (Electronic Control Unit), for example.

CPU101は、ストレージ103等に記憶された制御プログラムを実行するプロセッサである。例えば、CPU101が、制御プログラムを実行することで、後述する図3に示す撮影制御装置100の各ブロックが機能する。 The CPU 101 is a processor that executes control programs stored in the storage 103 or the like. For example, when the CPU 101 executes a control program, each block of the imaging control apparatus 100 shown in FIG. 3 (to be described later) functions.

メインメモリ102は、CPU101が制御プログラムを実行するときに使用するワークエリアとして用いられる揮発性の記憶領域である。 The main memory 102 is a volatile storage area used as a work area used when the CPU 101 executes the control program.

ストレージ103は、制御プログラム、コンテンツなどを保持する不揮発性の記憶領域である。 The storage 103 is a nonvolatile storage area that holds control programs, contents, and the like.

通信IF104は、CAN(Controller Area Network)などの通信ネットワークを介して撮像装置210と通信する通信インタフェースである。なお、通信IF104は、有線通信の通信インタフェースに限らずに無線通信の通信インタフェースであってもよい。また、通信IF104は、撮像装置210、運転制御装置300、各種センサ201~203などとの通信接続を確立できる通信インタフェースであれば、どのような通信インタフェースであってもよい。また、通信IF104は、インターネットなどの汎用ネットワークまたは専用ネットワークに通信接続可能な通信インタフェースであってもよい。 The communication IF 104 is a communication interface that communicates with the imaging device 210 via a communication network such as CAN (Controller Area Network). Note that the communication interface 104 is not limited to a communication interface for wired communication, and may be a communication interface for wireless communication. Further, the communication IF 104 may be any communication interface as long as it can establish a communication connection with the imaging device 210, the operation control device 300, various sensors 201 to 203, and the like. Also, the communication IF 104 may be a communication interface that can be connected to a general-purpose network such as the Internet or a dedicated network.

GNSS105は、GPS衛星を含む人工衛星から当該GNSS105の位置を示す情報を受信する。つまり、GNSS105は、車両200の現在位置を検出する。 The GNSS 105 receives information indicating the position of the GNSS 105 from satellites including GPS satellites. That is, GNSS 105 detects the current position of vehicle 200 .

撮像装置210は、レンズなどの光学系およびイメージセンサを有するカメラである。撮像装置210は、撮像制御装置100と相互に通信可能に接続されている。 The imaging device 210 is a camera having an optical system such as a lens and an image sensor. The imaging device 210 is connected to the imaging control device 100 so as to be able to communicate with each other.

距離センサ201は、車両200の周囲の物体との距離を検出する。距離センサ201は、具体的には、車両200の水平方向において360度全方位、および、垂直方向において所定の角度(例えば30度)の角度範囲の検出範囲にある物体との距離を検出する。距離センサ201により検出された距離から車両200の周囲の物体を含む地形の3次元形状を生成することができる。例えば、車両200の周囲の物体を含む地形の3次元形状として、走行する車両200の周囲の障害物および路面の3次元形状を生成することができる。なお、距離センサ201の検出範囲を上述のような範囲にすれば、車両が将来走行する路面を含む3次元形状を生成することができる。距離センサ201は、例えば、LIDAR(Light Detection and Ranging)などのレーザセンサである。 Distance sensor 201 detects the distance to objects around vehicle 200 . Specifically, the distance sensor 201 detects a distance to an object within a detection range of 360 degrees in all directions in the horizontal direction of the vehicle 200 and a predetermined angle (for example, 30 degrees) in the vertical direction. A three-dimensional shape of terrain including objects around the vehicle 200 can be generated from the distance detected by the distance sensor 201 . For example, as a three-dimensional shape of terrain including objects around the vehicle 200, a three-dimensional shape of obstacles and a road surface around the traveling vehicle 200 can be generated. By setting the detection range of the distance sensor 201 to the range described above, it is possible to generate a three-dimensional shape including the road surface on which the vehicle will travel in the future. The distance sensor 201 is, for example, a laser sensor such as LIDAR (Light Detection and Ranging).

加速度センサ202は、例えば、車両200の3軸方向のそれぞれにおける加速度を検出するセンサである。加速度センサ202は、水平方向の2軸のそれぞれにおける加速度を検出するセンサであってもよい。加速度センサ202は、3軸方向のそれぞれにおける車両200の加速度を検出することで、車両200の速度ベクトルを検出する。 The acceleration sensor 202 is, for example, a sensor that detects acceleration in each of three axial directions of the vehicle 200 . The acceleration sensor 202 may be a sensor that detects acceleration on each of two horizontal axes. Acceleration sensor 202 detects the velocity vector of vehicle 200 by detecting the acceleration of vehicle 200 in each of the three axial directions.

照度センサ203は、撮像装置210が配置されている空間に配置され、当該空間の照度を検出する。照度センサ203は、例えば、車両200の車内に配置されてもよい。 The illuminance sensor 203 is arranged in the space where the imaging device 210 is arranged, and detects the illuminance of the space. The illuminance sensor 203 may be arranged inside the vehicle 200, for example.

運転制御装置300は、車両200の運転を制御する情報処理装置である。運転制御装置300は、例えば、CPU、メインメモリ、ストレージ、通信IFなどを有する。運転制御装置300は、撮像制御装置100と共通の構成で実現されてもよい。つまり、運転制御装置300は、CPU101、メインメモリ102、ストレージ103、および通信IF104で実現されていてもよい。また、運転制御装置300は、例えば、ECUで実現されていてもよく、撮像制御装置100がECUで実現されている場合、撮像制御装置100を実現するECUで実現されていてもよいし、撮像制御装置100を実現するECUとは異なるECUで実現されていてもよい。 The driving control device 300 is an information processing device that controls driving of the vehicle 200 . The operation control device 300 has, for example, a CPU, main memory, storage, communication IF and the like. The operation control device 300 may be implemented with a common configuration with the imaging control device 100 . That is, operation control device 300 may be realized by CPU101, main memory 102, storage 103, and communication IF104. Further, the operation control device 300 may be implemented by an ECU, for example, and when the imaging control device 100 is implemented by an ECU, it may be implemented by an ECU that implements the imaging control device 100. It may be implemented by an ECU different from the ECU that implements the control device 100 .

次に、撮像制御装置を備える車両の機能構成について図3を用いて説明する。 Next, the functional configuration of the vehicle including the imaging control device will be described with reference to FIG. 3 .

図3は、実施の形態に係る撮像制御装置を備える車両の機能構成の一例を示すブロック図である。 FIG. 3 is a block diagram showing an example of a functional configuration of a vehicle provided with the imaging control device according to the embodiment.

車両200は、機能構成として、撮像制御装置100と、撮像装置210と、路面検出部220と、速度検出部230と、照度検出部240と、運転制御装置300とを備える。 The vehicle 200 includes an imaging control device 100, an imaging device 210, a road surface detection section 220, a speed detection section 230, an illumination detection section 240, and an operation control device 300 as functional configurations.

撮像装置210は、車両200の周囲を撮像することにより、車両200の周囲の画像を生成する。撮像装置210は、異なる複数のタイミングで車両200の周囲を撮像する。撮像装置210は、例えば、1/30秒、1/20秒などの所定のサンプリング周期で車両200の周囲を撮像する。撮像装置210の撮影範囲は、距離センサ201の検出範囲と同様に、例えば、車両200の水平方向において360度全方位、および、垂直方向において所定の角度(例えば30度)の角度範囲を撮像範囲としてもよい。なお、撮像装置210の撮影範囲を上述のような範囲にすれば、車両が将来走行する路面を含む3次元形状を生成することができる。 The imaging device 210 generates an image of the surroundings of the vehicle 200 by imaging the surroundings of the vehicle 200 . The imaging device 210 images the surroundings of the vehicle 200 at a plurality of different timings. The imaging device 210 images the surroundings of the vehicle 200 at predetermined sampling intervals such as 1/30 second and 1/20 second, for example. Similar to the detection range of the distance sensor 201, the imaging range of the imaging device 210 is, for example, 360 degrees in all directions in the horizontal direction of the vehicle 200 and an angle range of a predetermined angle (for example, 30 degrees) in the vertical direction. may be Note that if the imaging range of the imaging device 210 is set as described above, it is possible to generate a three-dimensional shape including the road surface on which the vehicle will travel in the future.

なお、撮像装置210のサンプリング周期は、1/30秒、1/20秒に限るものではない。また、撮像装置210は、所定のサンプリング周期で撮像しなくてもよく、ランダムな時間間隔で撮像してもよいし、状況に応じて撮像するタイミングを調整してもよい。 Note that the sampling period of the imaging device 210 is not limited to 1/30 seconds and 1/20 seconds. In addition, the image capturing device 210 does not have to perform image capturing at a predetermined sampling period, may perform image capturing at random time intervals, or may adjust the timing of image capturing depending on the situation.

路面検出部220は、車両200の路面の形状または路面の状態を推定するための路面情報を検出する。路面検出部220は、例えば、車両200から車両200の周囲の物体までの距離を検出する。また、路面検出部220は、例えば、車両200の周囲の路面におけるレーザの反射率を検出してもよい。路面検出部220は、例えば、センサ、より具体的には、距離センサ201により実現される。例えば、距離センサ201により検出される車両200の周囲の路面までの距離情報が車両200の路面の形状を推定するための路面情報、車両200の周囲の路面におけるレーザの反射率が路面の状態を推定するための路面情報に対応する。 Road surface detection unit 220 detects road surface information for estimating the shape or condition of the road surface of vehicle 200 . The road surface detection unit 220 detects, for example, the distance from the vehicle 200 to objects around the vehicle 200 . Further, the road surface detection unit 220 may detect the laser reflectance of the road surface around the vehicle 200, for example. The road surface detection unit 220 is implemented by, for example, a sensor, more specifically, the distance sensor 201 . For example, the distance information to the road surface around the vehicle 200 detected by the distance sensor 201 is road surface information for estimating the shape of the road surface of the vehicle 200, and the reflectance of the laser on the road surface around the vehicle 200 indicates the state of the road surface. Corresponds to road surface information for estimation.

速度検出部230は、車両200の速度ベクトルを検出する。車両200の速度ベクトルとは、例えば、車両200の進行方向および、この進行方向に進む車両200の速さを示す情報である。速度ベクトルは、移動速度ともいう。つまり、速度検出部230は、車両200の進行方向および当該進行方向への移動速度の大きさを検出する。速度検出部230は、例えば、加速度センサ202により実現される。 Speed detector 230 detects a speed vector of vehicle 200 . The velocity vector of vehicle 200 is, for example, information indicating the traveling direction of vehicle 200 and the speed of vehicle 200 traveling in this traveling direction. The velocity vector is also called moving velocity. In other words, speed detection unit 230 detects the traveling direction of vehicle 200 and the magnitude of the moving speed in the traveling direction. The speed detection unit 230 is realized by the acceleration sensor 202, for example.

照度検出部240は、撮像装置210が配置されている空間の照度を検出する。照度検出部240は、例えば、車両200の車内の照度を検出する。照度検出部240は、例えば、照度センサ203により実現される。 The illuminance detection unit 240 detects the illuminance of the space in which the imaging device 210 is arranged. The illuminance detection unit 240 detects the illuminance inside the vehicle 200, for example. The illuminance detection unit 240 is realized by the illuminance sensor 203, for example.

運転制御装置300は、車両200の運転を制御する。具体的には、運転制御装置300は、車輪の操舵を行うステアリング、車輪を回転駆動させるエンジン、モータなどの動力源、車輪の制動するブレーキなどを制御することで、車両200の自動運転または運転支援を行う。例えば、運転制御装置300は、車両200の現在位置、車両200の目的地、および周囲の道路情報を用いて、車両200がどの道路を走行するかを示すグローバル経路を決定する。そして、運転制御装置300は、決定したグローバル経路上において、車両200が走行するローカル経路を示すローカル経路データを生成する。また、運転制御装置300は、走行中に、撮像装置210により撮像された画像、および、距離センサ201により検出された物体までの距離の少なくとも一方を用いて、車両200の進行方向に障害物を検出する。これにより、運転制御装置300は、障害物を検出すれば、決定したグローバル経路において当該障害物を避けるローカル経路を示すローカル経路データを生成する。また、運転制御装置300は、生成した経路データが示す経路上を走行するようにステアリング、動力源およびブレーキを制御する。運転制御装置300は、生成した経路データ、障害物を検出した結果を示す障害物情報などを撮像制御装置100に出力してもよい。 Operation control device 300 controls operation of vehicle 200 . Specifically, the operation control device 300 controls the steering that steers the wheels, the engine that rotates the wheels, the power source such as the motor, the brake that brakes the wheels, and the like, thereby automatically driving or driving the vehicle 200. provide support. For example, the driving control device 300 uses the current position of the vehicle 200, the destination of the vehicle 200, and surrounding road information to determine a global route indicating which road the vehicle 200 will travel. Operation control device 300 then generates local route data indicating a local route along which vehicle 200 travels on the determined global route. In addition, the operation control device 300 uses at least one of the image captured by the imaging device 210 and the distance to the object detected by the distance sensor 201 to detect obstacles in the traveling direction of the vehicle 200 while the vehicle 200 is running. To detect. As a result, when an obstacle is detected, the operation control device 300 generates local route data indicating a local route avoiding the obstacle on the determined global route. The operation control device 300 also controls the steering, power source, and brakes so that the vehicle travels on the route indicated by the generated route data. The operation control device 300 may output to the imaging control device 100 the generated route data, the obstacle information indicating the result of detecting the obstacle, and the like.

撮像制御装置100は、機能構成として、第1位置推定部110と、路面推定部120と、変更部130と、制御部140とを備える。撮像制御装置100は、さらに、第2位置推定部150を備えていてもよい。また、撮像制御装置100は、さらに、速度補正部(図示せず)を備えていてもよい。また、撮像制御装置100は、さらに、ブレ補正部(図示せず)を備えていてもよい。 The imaging control device 100 includes a first position estimation section 110, a road surface estimation section 120, a change section 130, and a control section 140 as functional configurations. The imaging control device 100 may further include a second position estimation section 150 . In addition, the imaging control device 100 may further include a speed correction section (not shown). In addition, the imaging control device 100 may further include a blur correction section (not shown).

第2位置推定部150は、車両200の現在位置を推定する。第2位置推定部150は、例えば、GNSS105で受信された情報を用いて車両200の現在位置を推定してもよい。この場合、第2位置推定部150は、例えば、CPU101、メインメモリ102、ストレージ103およびGNSS105により実現される。 Second position estimator 150 estimates the current position of vehicle 200 . The 2nd position estimation part 150 may estimate the present position of the vehicle 200 using the information received by GNSS105, for example. In this case, the 2nd position estimation part 150 is implement|achieved by CPU101, the main memory 102, the storage 103, and GNSS105, for example.

また、第2位置推定部150は、車両200の操舵角および車輪速の履歴を用いて車両200の現在位置を推定してもよい。この場合、第2位置推定部150は、例えば、CPU101、メインメモリ102、ストレージ103および通信IF104により実現される。車両200の操舵角および車輪速の履歴は、通信IF104を介して、定期的にストレージ103が記憶していてもよい。また、車両200の操舵角および車輪速の履歴は、車両200のステアリングの変動履歴、および、車輪速の変動履歴を記憶している他のストレージから通信IF104を介して取得されてもよい。 Second position estimating section 150 may also estimate the current position of vehicle 200 using the history of steering angle and wheel speed of vehicle 200 . In this case, the second position estimator 150 is realized by the CPU 101, the main memory 102, the storage 103 and the communication IF 104, for example. The steering angle and wheel speed history of vehicle 200 may be periodically stored in storage 103 via communication IF 104 . Further, the steering angle and wheel speed history of vehicle 200 may be obtained via communication IF 104 from another storage that stores the steering variation history and wheel speed variation history of vehicle 200 .

また、第2位置推定部150は、車両200の加速度の履歴を用いて車両200の現在位置を推定してもよい。この場合、第2位置推定部150は、例えば、CPU101、メインメモリ102、ストレージ103および通信IF104により実現される。加速度の履歴は、通信IF104を介して、定期的にストレージ103が記憶していてもよい。また、車両200の加速度の履歴は、車両200に配置されている加速度センサの検出結果を記憶している他のストレージから通信IF104を介して取得されてもよい。 Second position estimating section 150 may also estimate the current position of vehicle 200 using the acceleration history of vehicle 200 . In this case, the second position estimator 150 is realized by the CPU 101, the main memory 102, the storage 103 and the communication IF 104, for example. The acceleration history may be periodically stored in the storage 103 via the communication IF 104 . Also, the history of acceleration of vehicle 200 may be acquired via communication IF 104 from another storage that stores the detection results of the acceleration sensor arranged on vehicle 200 .

また、第2位置推定部150は、距離センサ201により検出された距離から生成した車両200の周囲の地形の3次元形状と、予め取得されている地形の3次元形状とをマッチングさせることにより車両200の現在位置を推定してもよい。この場合、第2位置推定部150は、例えば、CPU101、メインメモリ102、ストレージ103および通信IF104により実現される。距離センサ201により検出された距離を示す距離情報は、通信IF104を介して取得されてもよい。 Further, the second position estimating unit 150 matches the 3D shape of the landform around the vehicle 200 generated from the distance detected by the distance sensor 201 with the 3D shape of the landform acquired in advance to determine the position of the vehicle. 200 current position may be estimated. In this case, the second position estimator 150 is realized by the CPU 101, the main memory 102, the storage 103 and the communication IF 104, for example. Distance information indicating the distance detected by the distance sensor 201 may be acquired via the communication IF 104 .

第1位置推定部110は、車両200の速度ベクトルまたは経路データを取得し、取得した速度ベクトルまたは経路データを用いて車両200の将来走行する位置を推定する。第1位置推定部110は、速度ベクトルを速度検出部230から取得してもよい。なお、第1位置推定部110は、第2位置推定部150により推定されている車両200の現在位置の時間的な推移から算出される車両200の進行方向および速さから速度ベクトルを取得してもよい。第1位置推定部110は、経路データを運転制御装置300から取得してもよい。第1位置推定部110は、例えば、CPU101、メインメモリ102、ストレージ103および通信IF104により実現される。 First position estimator 110 acquires the speed vector or route data of vehicle 200, and estimates the future travel position of vehicle 200 using the acquired speed vector or route data. The first position estimator 110 may acquire the velocity vector from the velocity detector 230 . First position estimating section 110 acquires a velocity vector from the traveling direction and speed of vehicle 200 calculated from the temporal transition of the current position of vehicle 200 estimated by second position estimating section 150. good too. The first position estimator 110 may acquire route data from the operation control device 300 . The 1st position estimation part 110 is implement|achieved by CPU101, the main memory 102, the storage 103, and communication IF104, for example.

第1位置推定部110は、車両200が将来走行すると推定される位置として、車両200の経路データから特定される経路上における当該車両200から所定の距離だけ離れた位置を推定してもよい。なお、所定の距離は、距離センサ201の検出可能な最大距離以下の距離としてもよい。また、所定の距離は、撮像装置210の所定のサンプリング周期(つまり、撮像装置210が1枚の画像を撮像してから次の画像を撮像するまでの時間)の間に車両200が進む距離より大きい距離としてもよい。この場合、車両200の速度を所定の速度(例えば50km/h、100km/hなど)で固定していてもよい。 First position estimating section 110 may estimate a position a predetermined distance away from vehicle 200 on a route identified from the route data of vehicle 200 as the position where vehicle 200 is estimated to travel in the future. Note that the predetermined distance may be a distance equal to or less than the maximum detectable distance of the distance sensor 201 . In addition, the predetermined distance is the distance traveled by the vehicle 200 during a predetermined sampling period of the image capturing device 210 (that is, the time from when the image capturing device 210 captures one image to when the next image is captured). It may be a large distance. In this case, the speed of vehicle 200 may be fixed at a predetermined speed (eg, 50 km/h, 100 km/h, etc.).

また、第1位置推定部110は、車両200が将来走行する位置として、所定時間後に当該車両200が通過する位置を推定してもよい。この場合、第1位置推定部110は、車両200の速度ベクトルから所定時間後に現在の進行方向に現在の速度で所定時間進んだ場合に到達する位置を将来走行する位置として推定してもよい。 Further, the first position estimating unit 110 may estimate a position where the vehicle 200 will pass after a predetermined time as the position where the vehicle 200 will travel in the future. In this case, the first position estimating unit 110 may estimate the position to be reached when the vehicle 200 travels in the current traveling direction at the current speed for a predetermined time after a predetermined time from the velocity vector of the vehicle 200 as the future travel position.

第1位置推定部110は、第2位置推定部150により車両200の現在位置が推定されている場合、第2位置推定部150により推定された車両200の現在位置をさらに用いて、車両200が将来走行する位置を推定してもよい。 When the current position of vehicle 200 is estimated by second position estimating unit 150, first position estimating unit 110 further uses the current position of vehicle 200 estimated by second position estimating unit 150 to determine whether vehicle 200 is A position to travel in the future may be estimated.

路面推定部120は、車両200に配置されている距離センサ201により検出された距離情報、または、撮像装置210により撮像された画像を取得し、取得した距離情報または画像を用いて、第1位置推定部110により推定された車両200が将来走行する位置における路面の形状または路面の状態を推定する。具体的には、路面推定部120は、路面検出部220に対応する距離センサ201により検出された距離情報から生成された車両200の周囲の物体を含む地形の3次元形状を生成し、生成した3次元形状を用いて車両200が将来走行する位置における路面の形状を推定してもよい。 The road surface estimation unit 120 acquires distance information detected by the distance sensor 201 arranged in the vehicle 200 or an image captured by the imaging device 210, and uses the acquired distance information or image to determine the first position. The shape of the road surface or the state of the road surface at the position where the vehicle 200 will travel in the future estimated by the estimation unit 110 is estimated. Specifically, the road surface estimation unit 120 generates a three-dimensional shape of terrain including objects around the vehicle 200 generated from the distance information detected by the distance sensor 201 corresponding to the road surface detection unit 220, and generates the The three-dimensional shape may be used to estimate the shape of the road surface where the vehicle 200 will travel in the future.

例えば、路面推定部120は、距離センサ201により生成される距離情報から車両200の周囲の物体を含む地形の3次元形状を生成する。また、路面は、距離センサ201の検出範囲、特に垂直方向において下側に位置するので、例えば、距離センサ201の検出範囲の下側の境界を含む一定の範囲から検出される物体までの距離から生成される3次元形状を路面の3次元形状としてもよい。または、距離センサ201による検出とともに、撮像装置210を用いて車両200の周囲を撮像してもよい。この場合、路面推定部120は、例えば画像認識の技術を用いて撮像した画像に含まれる路面を特定し、生成した3次元形状のうち、特定した路面に対応する部分の3次元形状を路面の3次元形状としてもよい。 For example, the road surface estimation unit 120 generates a three-dimensional shape of terrain including objects around the vehicle 200 from the distance information generated by the distance sensor 201 . In addition, since the road surface is located on the lower side of the detection range of the distance sensor 201, particularly in the vertical direction, for example, from the distance to the object detected from a certain range including the lower boundary of the detection range of the distance sensor 201 The generated three-dimensional shape may be the three-dimensional shape of the road surface. Alternatively, along with the detection by the distance sensor 201 , the surroundings of the vehicle 200 may be imaged using the imaging device 210 . In this case, the road surface estimation unit 120 identifies the road surface included in the captured image using, for example, image recognition technology, and determines the 3D shape of the portion of the generated 3D shape corresponding to the identified road surface as the road surface. A three-dimensional shape may also be used.

また、路面推定部120は、撮像装置210により所定のサンプリング周期で得られる画像から、例えば画像認識の技術を用いて車両200の周囲の物体を含む地形の3次元形状を生成ししてもよい。撮像装置210の撮像範囲には、路面が含まれるので、撮像される画像は路面の画像を含む。従って画像から生成した3次元形状には、路面の3次元形状が含まれる。路面推定部120は、画像に含まれる路面を特定してもよい。路面推定部120は、生成した3次元形状のうち、特定した路面に対応する部分の3次元形状を、路面の3次元形状としてもよい。 In addition, the road surface estimation unit 120 may generate a three-dimensional shape of the terrain including objects around the vehicle 200 using image recognition technology, for example, from images obtained by the imaging device 210 at predetermined sampling intervals. . Since the imaging range of the imaging device 210 includes the road surface, the captured image includes the road surface image. Therefore, the three-dimensional shape generated from the image includes the three-dimensional shape of the road surface. The road surface estimation unit 120 may identify the road surface included in the image. The road surface estimation unit 120 may use the 3D shape of the portion of the generated 3D shape corresponding to the identified road surface as the 3D shape of the road surface.

路面推定部120は、生成した3次元形状を用いて車両200が将来走行する位置における路面の形状を推定するのでもよい。 The road surface estimation unit 120 may use the generated three-dimensional shape to estimate the shape of the road surface where the vehicle 200 will travel in the future.

ここでいう、車両200が将来走行する位置における路面の形状とは、進行方向に沿って車両200が路面を走行した場合における車両200の高さが変化する割合を示す形状変化率を含んでいてもよい。つまり、車両200が将来走行する位置における路面の形状とは、進行方向に沿った路面の高さの変化率を含む。路面の高さとは、鉛直方向の路面の位置である。 Here, the shape of the road surface where the vehicle 200 will travel in the future includes a shape change rate that indicates the rate at which the height of the vehicle 200 changes when the vehicle 200 travels on the road surface along the direction of travel. good too. In other words, the shape of the road surface where the vehicle 200 will travel in the future includes the rate of change in the height of the road surface along the traveling direction. The height of the road surface is the position of the road surface in the vertical direction.

また、路面推定部120は、距離センサ201により検出されたレーザの反射率を用いて路面の状態を推定してもよい。レーザの反射率は、路面の状態を推定するために用いる路面情報の一例である。また、路面推定部120は、撮像装置210により得られた路面の画像を用いて画像の輝度から路面の状態を推定してもよい。ここでいう路面の状態とは、砂利面、砂面、凍結、濡れ、石畳などを含む。路面の状態を推定することにより、路面の摩擦係数などで表される路面の滑りやすさを推定することができる。路面推定部120は、例えば、CPU101、メインメモリ102、ストレージ103および通信IF104により実現される。 Moreover, the road surface estimation unit 120 may estimate the state of the road surface using the laser reflectance detected by the distance sensor 201 . Laser reflectance is an example of road surface information used for estimating the state of the road surface. Further, the road surface estimation unit 120 may use the image of the road surface obtained by the imaging device 210 and estimate the state of the road surface from the brightness of the image. The condition of the road surface here includes gravel surface, sand surface, frozen surface, wet surface, stone pavement, and the like. By estimating the state of the road surface, it is possible to estimate the slipperiness of the road surface represented by the coefficient of friction of the road surface. The road surface estimation unit 120 is realized by the CPU 101, the main memory 102, the storage 103 and the communication IF 104, for example.

変更部130は、路面推定部120によって推定された路面の形状または路面の状態に応じて、撮像装置210のシャッタースピード、および、撮像装置210の感度の少なくとも一方である撮像装置210のパラメータを変更する。変更部130は、具体的には、路面推定部120により推定された路面の形状と、速度検出部230により検出された車両200の速度とから、車両200が将来走行すると推定される位置を通過するタイミングで、撮像装置210の撮像面と平行な方向に撮像装置210が移動する速度の大きさを推定する。そして、変更部130は、推定した撮像装置210の撮像面に平行な方向の速度の大きさが大きいほど、シャッタースピードを小さい値へ変更する、および、感度を大きい値へ変更する、の少なくとも一方を行う。変更部130は、例えば、CPU101、メインメモリ102、およびストレージ103により実現される。 The changing unit 130 changes the parameter of the imaging device 210, which is at least one of the shutter speed of the imaging device 210 and the sensitivity of the imaging device 210, according to the shape of the road surface or the state of the road surface estimated by the road surface estimation unit 120. do. Specifically, based on the shape of the road surface estimated by the road surface estimation unit 120 and the speed of the vehicle 200 detected by the speed detection unit 230, the change unit 130 passes through a position where the vehicle 200 is estimated to travel in the future. At this timing, the magnitude of the speed at which the imaging device 210 moves in the direction parallel to the imaging plane of the imaging device 210 is estimated. Then, the changing unit 130 changes at least one of changing the shutter speed to a smaller value and changing the sensitivity to a larger value as the magnitude of the estimated velocity in the direction parallel to the imaging plane of the imaging device 210 increases. I do. The changing unit 130 is realized by the CPU 101, the main memory 102, and the storage 103, for example.

変更部130は、例えば、以下の式1を用いて撮像装置210により得られる画像のブレ量を算出し、算出したブレ量を所定のブレ量よりも小さくするために、シャッタースピードを小さい値へ変更してもよい。 For example, the changing unit 130 calculates the amount of blurring of an image obtained by the imaging device 210 using Equation 1 below, and reduces the shutter speed to a smaller value in order to make the calculated amount of blurring smaller than a predetermined amount of blurring. You can change it.

ブレ量(ピクセル/シャッター)=(arctan((形状変化率/自車速度)/ホイールベース)*シャッタースピード)/垂直画角*垂直解像度 (式1) Amount of blur (pixels/shutter) = (arctan ((shape change rate/vehicle speed)/wheelbase) * shutter speed) / vertical angle of view * vertical resolution (Formula 1)

例えば、車両200のホイールベースが2000mm、車両200の走行速度が30km/h、将来走行すると推定される位置における路面の形状変化率が100%、シャッタースピードが1/100秒、撮像装置210の垂直画角が60度、撮像装置210の垂直解像度が1080pxであるとする。この場合、式1を用いることで、ブレ量は13.77px/shutterと算出できる。つまり、ブレ量を10pix/shutter以下に抑えようとすると、シャッタースピードを1/138秒以下に設定することが必要となることが分かる。なお、撮像装置210の速度は、車両200の走行速度および路面の形状変化率を用いて求められる速度に対応している。 For example, the wheelbase of the vehicle 200 is 2000 mm, the traveling speed of the vehicle 200 is 30 km/h, the shape change rate of the road surface at the position where the vehicle 200 is estimated to travel in the future is 100%, the shutter speed is 1/100 second, the vertical Assume that the angle of view is 60 degrees and the vertical resolution of the imaging device 210 is 1080 px. In this case, using Equation 1, the blur amount can be calculated as 13.77 px/shutter. In other words, it can be seen that the shutter speed must be set to 1/138 seconds or less in order to suppress the blur amount to 10 pix/shutter or less. Note that the speed of the imaging device 210 corresponds to the speed obtained using the running speed of the vehicle 200 and the road surface shape change rate.

また、式1の右辺には、路面の各状態(砂利面、砂面、凍結、濡れ、石畳など)に応じて予め定められた係数を乗じてもよいし、係数を加算してもよいし、これらの組合せであってもよい。 In addition, the right side of Equation 1 may be multiplied by a predetermined coefficient according to each state of the road surface (gravel surface, sand surface, frozen, wet, cobblestone, etc.) or may be added. , or combinations thereof.

このことから、必要となるシャッタースピードは、式1を用いることで算出できる。 From this, the required shutter speed can be calculated using Equation (1).

なお、変更部130は、上記式1を用いてシャッタースピードを算出しなくてもよく、上記式1の関係を満たすテーブルを用いて、シャッタースピードを算出してもよい。つまり、変更部130は、予め定められたシャッタースピード、路面の形状変化率および車両200の速度の関係を用いて、シャッタースピードを算出してもよい。 Note that the changing unit 130 does not have to calculate the shutter speed using Equation 1 above, and may calculate the shutter speed using a table that satisfies the relationship of Equation 1 above. That is, the changing unit 130 may calculate the shutter speed using a predetermined relationship between the shutter speed, the road surface shape change rate, and the speed of the vehicle 200 .

つまり、変更部130は、推定した撮像装置210の速度に応じて、ブレ量が所定のブレ量よりも少ないシャッタースピードを決定する。そして、変更部130は、決定したシャッタースピードにおいて撮像装置210が撮像することにより得られた画像から物体を所定の認識アルゴリズムで認識する場合の認識率が大きくなるノイズレベルおよび露出を特定する。変更部130は、決定したシャッタースピード、および、特定した露出に応じた感度に、撮像装置210のパラメータを変更する。 That is, the changing unit 130 determines a shutter speed at which the blur amount is smaller than the predetermined blur amount, according to the estimated speed of the imaging device 210 . Then, the changing unit 130 specifies the noise level and the exposure that increase the recognition rate when recognizing an object using a predetermined recognition algorithm from an image captured by the imaging device 210 at the determined shutter speed. The changing unit 130 changes the parameters of the imaging device 210 to the determined shutter speed and the sensitivity corresponding to the specified exposure.

図4は、異なる複数のシャッタースピードのそれぞれを実現可能なノイズレベルおよび露出の組合せを示すイメージ図である。図5は、所定の認識アルゴリズムを用いて画像を認識させた場合の認識率と、ノイズレベルおよび露出の組合せとを示すイメージ図である。なお、図4および図5においてノイズレベルおよび露出の数値は、任意の大きさを示している。 FIG. 4 is an image diagram showing combinations of noise levels and exposures that can be achieved with a plurality of different shutter speeds. FIG. 5 is an image diagram showing the recognition rate and combinations of noise level and exposure when an image is recognized using a predetermined recognition algorithm. 4 and 5, the numerical values of noise level and exposure indicate arbitrary magnitudes.

図4は、任意のシャッタースピードを実現するためのノイズレベルおよび露出の関係を示す曲線が一意に特定されることが表現されている。つまり、図4では、シャッタースピード、ノイズレベル、および露出の3種類の変数による3次元的な曲面が表されている。なお、図4で表現される3次元的な曲面は、撮像装置210の撮像能力に応じて一意に求めることができる。ここでいう、撮像能力とは、撮像装置210のレンズの焦点距離、f値など、あるいは、イメージセンサの撮像素子サイズ、感度などにより一意に定まる。図4で表現される3次元的な曲面は、撮像装置210に所定のキャリブレーションを行うことにより予め決定されていてもよい。 FIG. 4 expresses that a curve showing the relationship between noise level and exposure for achieving an arbitrary shutter speed is uniquely specified. In other words, FIG. 4 shows a three-dimensional curved surface based on three variables: shutter speed, noise level, and exposure. It should be noted that the three-dimensional curved surface represented in FIG. 4 can be uniquely obtained according to the imaging capability of the imaging device 210 . The imaging capability referred to here is uniquely determined by the focal length, f-number, etc. of the lens of the imaging device 210, or the imaging element size, sensitivity, etc. of the image sensor. The three-dimensional curved surface represented in FIG. 4 may be determined in advance by performing predetermined calibration on the imaging device 210 .

図5は、ノイズレベル、露出、および認識率の3種類の変数による3次元的な曲面が表されている。当該曲面は、図5において、ドットが疎のハッチングで示される。図5で表現される3次元的な曲面は、所定の認識アルゴリズムにより一意に定まる。図5で表現される3次元的な曲面は、画像から物体を認識するテストを複数回繰り返すことにより予め決定されていてもよい。 FIG. 5 shows a three-dimensional curved surface with three variables: noise level, exposure, and recognition rate. The curved surface is indicated by hatching with sparse dots in FIG. A three-dimensional curved surface represented in FIG. 5 is uniquely determined by a predetermined recognition algorithm. The three-dimensional curved surface represented in FIG. 5 may be determined in advance by repeating a test for recognizing an object from an image multiple times.

ここで、変更部130は、例えば、上記の式1により、シャッタースピードを1/250秒に決定した場合、図4で示される関係を用いて、シャッタースピードが1/250秒に対応するノイズレベルおよび露出の関係を示す曲線を特定する。そして、変更部130は、シャッタースピードが1/250秒に対応するノイズレベルおよび露出の関係を示す曲線を用いて、認識率が0~1の曲面(図5においてドットが密のハッチングで示される曲面)を図5で示される3次元空間に配置することで、ドットが疎の曲面との交線を求める。当該交線は、図5で示される3次元空間における曲線である。変更部130は、例えば、当該交線のうち認識率が最大となる点、つまり、ノイズレベルおよび露出を、撮像装置210のパラメータとして決定してもよい。 Here, for example, when the shutter speed is determined to be 1/250 seconds by Equation 1 above, the changing unit 130 uses the relationship shown in FIG. 4 to determine the noise level corresponding to the shutter speed of 1/250 seconds. and exposure curve. Then, the changing unit 130 uses a curved surface with a recognition rate of 0 to 1 (shown by dense hatching in FIG. By arranging the curved surface) in the three-dimensional space shown in FIG. The line of intersection is a curve in the three-dimensional space shown in FIG. The changing unit 130 may determine, for example, the point at which the recognition rate is maximum among the intersecting lines, that is, the noise level and the exposure, as parameters of the imaging device 210 .

また、変更部130は、さらに、照度検出部240による検出結果である照度が示す照度情報を取得し、取得した照度情報が示す照度が小さいほど、(i)シャッタースピードを小さい値へ変更する、および、(ii)感度を大きい値へ変更する、の少なくとも一方を行ってもよい。具体的には、変更部130は、予め定められた、照度と撮像装置210のパラメータとの関係を用いて、シャッタースピードおよび感度の少なくとも一方を含むパラメータを変更してもよい。 In addition, the changing unit 130 further acquires illuminance information indicated by the illuminance detected by the illuminance detecting unit 240, and the smaller the illuminance indicated by the acquired illuminance information, (i) changes the shutter speed to a smaller value. and/or (ii) changing the sensitivity to a larger value. Specifically, the changing unit 130 may change parameters including at least one of shutter speed and sensitivity using a predetermined relationship between illuminance and parameters of the imaging device 210 .

図3に戻り、制御部140は、第1位置推定部110により推定された車両200が将来走行する位置をこの車両200が実際に通過するタイミングで、変更部130によって変更されたパラメータを用いて撮像装置210に撮像させる。制御部140は、例えば、CPU101、メインメモリ102、ストレージ103および通信IF104により実現される。 Returning to FIG. 3 , control unit 140 uses the parameter changed by change unit 130 at the timing when vehicle 200 actually passes the position where vehicle 200 will travel in the future estimated by first position estimation unit 110. The imaging device 210 is caused to take an image. The control unit 140 is realized by the CPU 101, the main memory 102, the storage 103 and the communication IF 104, for example.

[1-2.動作]
次に、撮像制御装置100の動作について説明する。
[1-2. motion]
Next, the operation of the imaging control device 100 will be described.

図6は、実施の形態に係る撮像制御装置による撮像制御方法の一例を示すフローチャートである。図7は、撮像制御装置による撮像制御方法を説明するための図である。 FIG. 6 is a flowchart illustrating an example of an imaging control method by the imaging control device according to the embodiment. FIG. 7 is a diagram for explaining the imaging control method by the imaging control device.

撮像制御装置100では、第2位置推定部150が車両200の現在位置を推定する(S11)。第2位置推定部150は、例えば、図7の(a)に示すように、時刻t1における車両200の位置x1を推定する。撮像制御装置100は、車両200の現在位置として、車両200の前輪の位置を推定してもよい。なお、第2位置推定部150による車両200の現在位置の推定は行われなくてもよい。 In the imaging control device 100, the second position estimation section 150 estimates the current position of the vehicle 200 (S11). The second position estimator 150 estimates the position x1 of the vehicle 200 at time t1, for example, as shown in FIG. 7(a). The imaging control device 100 may estimate the position of the front wheels of the vehicle 200 as the current position of the vehicle 200 . Note that estimation of the current position of vehicle 200 by second position estimating section 150 may not be performed.

第1位置推定部110は、車両200の速度ベクトルまたは経路データと、車両200の現在位置とを取得し、取得した速度ベクトルまたは経路データを用いて車両200の将来走行する位置を推定する(S12)。第1位置推定部110は、例えば、図7の(a)に示すように、車両200の前輪の位置x1からX[m]前方の路面301上の位置x2を将来走行する位置として推定する。なお、第1位置推定部110は、車両200の現在位置の推定が行われていない場合、または、撮像制御装置100が第2位置推定部150を備えていない場合には、現在位置を用いずに、車両200の将来走行する位置を推定する。 The first position estimator 110 acquires the speed vector or route data of the vehicle 200 and the current position of the vehicle 200, and estimates the future travel position of the vehicle 200 using the acquired speed vector or route data (S12 ). For example, as shown in FIG. 7A, the first position estimator 110 estimates a position x2 on the road surface 301 X [m] ahead of the position x1 of the front wheels of the vehicle 200 as the future traveling position. Note that the first position estimating unit 110 does not use the current position when the current position of the vehicle 200 is not estimated or when the imaging control device 100 does not include the second position estimating unit 150. First, the position where the vehicle 200 will travel in the future is estimated.

路面推定部120は、車両200に配置されている距離センサ201により検出された路面情報、または、撮像装置210により撮像された画像を取得し、取得した路面情報または画像を用いて、第1位置推定部110により推定された将来の走行する位置における路面の形状または路面の状態を推定する(S13)。路面推定部120は、位置x2における路面302の形状、例えば、車両200の進行方向に沿った路面302の高さの変化率を推定する。例えば、前方に100mm進むほど、100mm高さが変化する場合、路面推定部120は、形状変化率が100%の形状であると推定する。 The road surface estimation unit 120 acquires road surface information detected by the distance sensor 201 arranged in the vehicle 200 or an image captured by the imaging device 210, and uses the acquired road surface information or image to determine the first position. The shape of the road surface or the state of the road surface at the future traveling position estimated by the estimation unit 110 is estimated (S13). The road surface estimation unit 120 estimates the shape of the road surface 302 at the position x2, for example, the rate of change in the height of the road surface 302 along the traveling direction of the vehicle 200 . For example, when the height changes by 100 mm as the vehicle travels forward by 100 mm, the road surface estimation unit 120 estimates that the shape has a shape change rate of 100%.

変更部130は、路面推定部120により推定された車両200の進行方向に沿った路面の高さの変化率または路面の状態に応じて、撮像装置210のシャッタースピード、および、撮像装置210の感度の少なくとも一方である撮像装置210のパラメータを変更する(S14)。変更部130は、車両200が位置x2に到達するまでの間、つまり時刻t2までにパラメータを決定しておけばよい。 The changing unit 130 adjusts the shutter speed of the imaging device 210 and the sensitivity of the imaging device 210 in accordance with the rate of change in the height of the road surface along the traveling direction of the vehicle 200 estimated by the road surface estimation unit 120 or the state of the road surface. (S14). Changing unit 130 may determine the parameters until vehicle 200 reaches position x2, that is, by time t2.

制御部140は、第1位置推定部110により推定された車両200が将来走行する位置を車両200が実際に通過するタイミングで、変更部130によって変更されたパラメータを用いて撮像装置210に撮像させる(S15)。制御部140は、図7の(b)に示すように、車両200が将来走行すると推定される位置x2を車両200の前輪が通過するタイミングである時刻t2で、変更されたパラメータを用いて撮像装置210に撮像させる。 The control unit 140 causes the imaging device 210 to capture an image using the parameters changed by the changing unit 130 at the timing when the vehicle 200 actually passes the position where the vehicle 200 will travel in the future estimated by the first position estimating unit 110. (S15). As shown in (b) of FIG. 7, the control unit 140 captures an image using the changed parameters at time t2, which is the timing when the front wheels of the vehicle 200 pass the position x2 where the vehicle 200 is estimated to travel in the future. Let device 210 take an image.

図6に示す撮像制御方法は、車両200の運転中において所定の周期で繰り返し行われる。なお、撮像制御方法の所定の周期と、撮像の周期とは同じであってもよいし、異なっていてもよい。これにより、車両200の進行方向に沿った路面の高さの変化率または路面の状態が変化した場合、路面の高さの変化率または路面の状態に応じた適切なパラメータで撮像装置210に撮像させることができる。このため、所定の認識アルゴリズムの認識率が極力大きい画像を撮像装置210に撮像させることができる。 The imaging control method shown in FIG. 6 is repeatedly performed at a predetermined cycle while the vehicle 200 is running. Note that the predetermined cycle of the imaging control method and the imaging cycle may be the same or different. As a result, when the rate of change in the height of the road surface along the direction of travel of the vehicle 200 or the state of the road surface changes, the imaging device 210 captures an image with appropriate parameters according to the rate of change in the height of the road surface or the state of the road surface. can be made Therefore, it is possible to cause the imaging device 210 to capture an image with the highest possible recognition rate of the predetermined recognition algorithm.

[1-3.効果など]
本実施の形態に係る撮像制御装置100によれば、車両200が将来走行する位置における路面を通過するタイミングにおいて、予め推定した当該路面の形状または状態に応じて変更したパラメータで撮像装置210に撮像させることができる。つまり、路面の形状または状態に応じて適切に設定したパラメータで撮像装置210に撮像させることができるため、物体の認識が容易である画像を撮像装置210に撮像させることができる。
[1-3. effects, etc.]
According to the imaging control device 100 according to the present embodiment, at the timing when the vehicle 200 passes through the road surface at the position where the vehicle 200 will travel in the future, the image is captured by the imaging device 210 with parameters changed according to the pre-estimated shape or state of the road surface. can be made That is, the imaging device 210 can be caused to capture an image with parameters appropriately set according to the shape or state of the road surface, so that the imaging device 210 can capture an image in which the object can be easily recognized.

また、撮像制御装置100によれば、車両200の現在位置を推定し、現在位置をさらに用いて、車両200の将来走行する位置を推定するため、将来走行する位置を精度よく推定することができる。 Further, according to the imaging control device 100, the current position of the vehicle 200 is estimated, and the future travel position of the vehicle 200 is estimated using the current position. Therefore, the future travel position can be accurately estimated. .

また、撮像制御装置100によれば、変更部130は、路面推定部120により推定された車両200の進行方向に沿った路面の高さの変化率と速度ベクトルとから、将来走行する位置を実際に通過するタイミングで前記撮像装置の撮像面と平行な方向に前記撮像装置が移動する速度の大きさを推定してもよい。変更部130は、推定した平行な方向に撮像装置210が移動する速度の大きさが大きいほど、シャッタースピードを小さい値へ変更する、および、感度を大きい値へ変更する、の少なくとも一方を行う。よって、撮像装置210により得られた画像にブレ、歪みなどが生じることを低減できる。 In addition, according to the imaging control device 100, the changing unit 130 determines the actual future travel position from the rate of change in the height of the road along the traveling direction of the vehicle 200 estimated by the road surface estimation unit 120 and the speed vector. The magnitude of the speed at which the imaging device moves in a direction parallel to the imaging surface of the imaging device may be estimated at the timing of passing through the . The changing unit 130 performs at least one of changing the shutter speed to a lower value and changing the sensitivity to a higher value as the magnitude of the speed at which the imaging device 210 moves in the estimated parallel direction increases. Therefore, it is possible to reduce blurring, distortion, and the like in the image obtained by the imaging device 210 .

また、撮像制御装置100によれば、推定した速度に応じて、シャッタースピードを決定し、決定したシャッタースピードにおいて撮像装置210が撮像することにより得られた画像から物体を所定の認識アルゴリズムで認識する場合の認識率が所定値よりも大きくなるノイズレベルおよび露出を特定し、決定したシャッタースピード、および、特定した露出に応じた感度に、撮像装置210のパラメータを変更する。このため、画像中に映り込んでいる物体の認識率が向上するパラメータで撮像装置210に撮像させることができる。よって、物体の認識が容易である画像を撮像装置210に撮像させることができる。 Further, according to the imaging control device 100, the shutter speed is determined according to the estimated speed, and the object is recognized by a predetermined recognition algorithm from the image obtained by the imaging device 210 capturing images at the determined shutter speed. The noise level and exposure at which the recognition rate in the case becomes greater than a predetermined value are specified, and the parameters of the imaging device 210 are changed to the determined shutter speed and sensitivity according to the specified exposure. Therefore, it is possible to cause the imaging device 210 to capture an image with parameters that improve the recognition rate of the object reflected in the image. Therefore, it is possible to cause the imaging device 210 to capture an image in which the object can be easily recognized.

例えば、運転制御装置300が、走行中に、撮像装置210により撮像された画像を用いて、画像に含まれる物体を所定の認識アルゴリズムで認識することで、この物体を検出する場合、走行する路面の形状によらず物体の認識率を所定値よりも高くすることができる。物体とは、例えば、画像に含まれる障害物または路面などである。 For example, when the operation control device 300 detects an object by recognizing an object included in the image using a predetermined recognition algorithm using an image captured by the imaging device 210 while driving, the road surface on which the vehicle is running is detected. The object recognition rate can be made higher than a predetermined value regardless of the shape of the object. An object is, for example, an obstacle or road surface included in the image.

また、撮像制御装置100によれば、照度検出部240による検出結果である照度が示す照度情報を取得し、取得した照度情報が示す照度が小さいほど、(i)シャッタースピードを小さい値へ変更する、および、(ii)感度を大きい値へ変更する、の少なくとも一方を行う。このため、照度に応じて、適切なパラメータで撮像装置210に撮像させることができる。 Further, according to the imaging control device 100, the illuminance information indicated by the illuminance that is the detection result of the illuminance detection unit 240 is acquired, and the smaller the illuminance indicated by the acquired illuminance information, the (i) the shutter speed is changed to a smaller value. and/or (ii) changing the sensitivity to a larger value. Therefore, it is possible to cause the imaging device 210 to perform imaging with appropriate parameters according to the illuminance.

なお、本実施の形態では、距離センサ201の水平方向の検出範囲として、車両200の水平方向において360度全方位を具体的な一例として説明したが、これに限定されない。例えば、車両200が前進する場合であれば、距離センサ201の水平方向の検出範囲として、車両200の前方を含む範囲を検出範囲としてもよい。また、例えば、車両200が後退する場合であれば、距離センサ201の水平方向の検出範囲として、車両200の後方を含む範囲を検出範囲としてもよい。 In the present embodiment, the horizontal detection range of distance sensor 201 has been described as a specific example of omnidirectional 360 degrees in the horizontal direction of vehicle 200, but it is not limited to this. For example, when the vehicle 200 moves forward, the detection range in the horizontal direction of the distance sensor 201 may include the front of the vehicle 200 . Further, for example, when the vehicle 200 moves backward, the detection range in the horizontal direction of the distance sensor 201 may include the area behind the vehicle 200 .

また、撮像装置210の水平方向の撮影範囲として、車両200の水平方向において360度全方位をしたが、これに限定されない。例えば、車両200が前進する場合であれば、距離センサ201の水平方向の撮影範囲として、車両200の前方を含む範囲を撮影範囲としてもよい。また、例えば、車両200が後退する場合であれば、距離センサ201の水平方向の撮影範囲として、車両200の後方を含む範囲を撮影範囲としてもよい。 Further, although the imaging range in the horizontal direction of the imaging device 210 is 360 degrees in all directions in the horizontal direction of the vehicle 200, it is not limited to this. For example, when the vehicle 200 moves forward, the range including the front of the vehicle 200 may be set as the horizontal imaging range of the distance sensor 201 . Further, for example, when the vehicle 200 moves backward, the range including the rear of the vehicle 200 may be set as the horizontal imaging range of the distance sensor 201 .

[1-4.変形例]
[1-4-1.変形例1]
次に、図8および図9を用いて、変形例1を説明する。
[1-4. Modification]
[1-4-1. Modification 1]
Next, Modification 1 will be described with reference to FIGS. 8 and 9. FIG.

図8は、変形例1に係る撮像制御装置を備える車両の機能構成の一例を示すブロック図である。図9は、変形例1に係る撮像制御装置による撮像制御方法の一例を示すフローチャートである。 FIG. 8 is a block diagram showing an example of a functional configuration of a vehicle provided with an imaging control device according to Modification 1. As shown in FIG. 9 is a flowchart illustrating an example of an imaging control method by an imaging control device according to Modification 1. FIG.

変形例1に係る撮像制御装置100Aは、実施の形態に係る撮像制御装置100と比較して、さらに、速度補正部160を備える点が異なる。撮像制御装置100Aの速度補正部160以外の構成は、実施の形態の撮像制御装置100と同様であるため、説明を省略する。また、撮像制御装置100Aのハードウェア構成は、図2で説明した実施の形態の撮像制御装置100のハードウェア構成と同様である。例えば、図2で説明したCPU101が、制御プログラムを実行することで、図8に示す撮影制御装置100Aの各ブロックが機能する。なお、車両200Aは、撮像制御装置100Aを備える点が、実施の形態の車両200と異なる。 The imaging control device 100A according to Modification 1 differs from the imaging control device 100 according to the embodiment in that a speed correction unit 160 is further provided. Since the configuration of the imaging control device 100A other than the speed correction unit 160 is the same as that of the imaging control device 100 of the embodiment, description thereof will be omitted. Also, the hardware configuration of the imaging control device 100A is the same as the hardware configuration of the imaging control device 100 of the embodiment described with reference to FIG. For example, the CPU 101 described with reference to FIG. 2 executes the control program, so that each block of the imaging control apparatus 100A illustrated in FIG. 8 functions. Vehicle 200A differs from vehicle 200 of the embodiment in that it includes imaging control device 100A.

速度補正部160は、撮像装置210の複数回の撮像により得られる複数の画像間での物体の移動速度を推定し、推定した移動速度が大きいほど、(i)シャッタースピードを小さい値へ変更する、および、(ii)感度を大きい値へ変更する、の少なくとも一方を変更部130に行わせる。具体的には、速度補正部160は、路面検出部220としての距離センサ201の検出結果から、撮像装置210の撮像範囲における、撮像装置210から物体までの距離と、撮像装置210の光軸に略直交する方向への移動速度の大きさとを推定し、推定した距離および移動速度を用いて、撮像装置210の複数回の撮像により得られる複数の画像間での物体の移動速度を推定してもよい。なお、この場合、物体の検出に利用される距離センサは、距離センサ201とは別に設けられた距離センサであってもよい。また、速度補正部160は、撮像装置210の複数回の撮像により得られる複数の画像を取得し、取得した複数の画像に写り込んでいる物体を特定することで、移動速度を推定してもよい。 The speed correction unit 160 estimates the moving speed of the object between a plurality of images obtained by the imaging device 210 a plurality of times, and (i) changes the shutter speed to a smaller value as the estimated moving speed increases. and (ii) changing the sensitivity to a larger value. Specifically, the speed correction unit 160 determines the distance from the imaging device 210 to the object in the imaging range of the imaging device 210 and the optical axis of the imaging device 210 from the detection result of the distance sensor 201 as the road surface detection unit 220. estimating the magnitude of the moving speed in the substantially orthogonal direction, and using the estimated distance and moving speed, estimating the moving speed of the object between a plurality of images obtained by the imaging device 210 a plurality of times. good too. In this case, the distance sensor used for object detection may be a distance sensor provided separately from the distance sensor 201 . Further, the speed correction unit 160 obtains a plurality of images obtained by a plurality of times of imaging by the imaging device 210, and identifies an object appearing in the obtained plurality of images, thereby estimating the moving speed. good.

移動速度について、図10を用いて具体的に説明する。 The movement speed will be specifically described with reference to FIG. 10 .

図10は、物体の複数の画像間での物体の移動速度について説明するための図である。なお、図10の(a)は、時刻t11において前方を走行する他の車両410が撮像された画像401を示し、図10の(b)は、時刻t11よりも後の時刻t12において車両410が撮像された画像402を示す。図10(a)、(b)は、それぞれ、車両200の前方の画像を示している。 FIG. 10 is a diagram for explaining the moving speed of an object between a plurality of images of the object. Note that (a) of FIG. 10 shows an image 401 of another vehicle 410 traveling ahead at time t11, and (b) of FIG. A captured image 402 is shown. FIGS. 10A and 10B respectively show images in front of the vehicle 200. FIG.

図10に示すように、時刻t11で撮像された画像401から時刻t12で撮像された画像402の間に、車両410は、画像上を矢印の方向に距離Δdだけ移動している。このため、移動速度は、Δd/(t12-t11)で算出することができる。なお、図10では、実際に撮像された画像401、402で移動速度を説明しているが、当該画像401、402を撮像していなくても、距離センサにより検出された結果から移動速度を推定してもよい。 As shown in FIG. 10, between an image 401 captured at time t11 and an image 402 captured at time t12, vehicle 410 moves in the direction of the arrow on the image by distance Δd. Therefore, the moving speed can be calculated by Δd/(t12-t11). In FIG. 10, the moving speed is explained using the images 401 and 402 that are actually captured. You may

速度補正部160は、予め定められた、物体の移動速度と、撮像装置210のパラメータとの関係を用いて、シャッタースピードおよび感度の少なくとも一方を含むパラメータを補正してもよい。つまり、速度補正部160は、変更部130により決定されたパラメータに対して、推定した物体の移動速度に応じた補正を行ってもよい。 The speed correction unit 160 may correct parameters including at least one of shutter speed and sensitivity using a predetermined relationship between the moving speed of the object and the parameters of the imaging device 210 . That is, the speed correction unit 160 may correct the parameters determined by the change unit 130 according to the estimated moving speed of the object.

速度補正部160は、例えば、CPU101、メインメモリ102、ストレージ103および通信IF104により実現される。 The speed correction unit 160 is realized by the CPU 101, the main memory 102, the storage 103 and the communication IF 104, for example.

変更部130は、速度補正部160により変更されたシャッタースピード、および、感度の少なくとも一方に、撮像装置210のパラメータを補正する。 The changing unit 130 corrects the parameters of the imaging device 210 to at least one of the shutter speed and sensitivity changed by the speed correcting unit 160 .

次に、変形例1の撮像制御装置100Aの動作(撮像制御方法)について説明する。 Next, the operation (imaging control method) of the imaging control device 100A of Modification 1 will be described.

撮像制御装置100Aでは、実施の形態の撮像制御方法と比較して、さらに、ステップS21、S22が追加されている点が異なる。このため、ステップS21、S22について説明する。 The imaging control apparatus 100A differs from the imaging control method of the embodiment in that steps S21 and S22 are added. Therefore, steps S21 and S22 will be described.

撮像制御装置100Aでは、ステップS14の後において、速度補正部160が撮像装置210の撮像範囲における物体の移動速度を推定する(S21)。 In the imaging control device 100A, after step S14, the speed correction unit 160 estimates the moving speed of the object in the imaging range of the imaging device 210 (S21).

速度補正部160は、変更部130により変更されたパラメータに対して、推定した移動速度に応じた補正を行い、変更部130にさらにパラメータを補正したパラメータに変更させる(S22)。 The speed correction unit 160 corrects the parameters changed by the change unit 130 according to the estimated moving speed, and causes the change unit 130 to further change the parameters to the corrected parameters (S22).

ステップS22が終わると、ステップS15が行われる。 After step S22 ends, step S15 is performed.

変形例1に係る撮像制御装置100Aによれば、速度補正部160は、撮像装置210の複数回の撮像により得られる複数の画像間での物体の移動速度を推定する。速度補正部160は、推定した移動速度の大きさが大きいほど(i)シャッタースピードを小さい値へ変更する、および、(ii)感度を大きい値へ変更する、の少なくとも一方を変更部130に行わせる。このため、物体が撮像装置210により得られた画像中で移動している場合であっても、当該物体が撮像装置210の撮像範囲内で移動している場合であっても、当該物体を適切なパラメータで撮像装置210に撮像させることができる。 According to the imaging control device 100</b>A according to Modification 1, the speed correction unit 160 estimates the moving speed of an object between multiple images obtained by multiple times of imaging by the imaging device 210 . The speed correction unit 160 causes the change unit 130 to perform at least one of (i) changing the shutter speed to a smaller value and (ii) changing the sensitivity to a larger value as the estimated movement speed increases. Let Therefore, even if the object is moving in the image obtained by the imaging device 210 or if the object is moving within the imaging range of the imaging device 210, The imaging device 210 can be made to image with various parameters.

[1-4-2.変形例2]
次に、図11および図12を用いて、変形例2を説明する。
[1-4-2. Modification 2]
Next, modification 2 will be described with reference to FIGS. 11 and 12. FIG.

図11は、変形例2に係る撮像制御装置を備える車両の機能構成の一例を示すブロック図である。図12は、変形例2に係る撮像制御装置による撮像制御方法の一例を示すフローチャートである。 FIG. 11 is a block diagram showing an example of a functional configuration of a vehicle provided with an imaging control device according to Modification 2. As shown in FIG. 12 is a flowchart illustrating an example of an imaging control method by an imaging control device according to Modification 2. FIG.

変形例2に係る撮像制御装置100Bは、実施の形態に係る撮像制御装置100と比較して、さらに、ブレ補正部170を備える点が異なる。撮像制御装置100Bのブレ補正部170以外の構成は、実施の形態の撮像制御装置100と同様であるため、説明を省略する。また、撮像制御装置100Bのハードウェア構成は、図2で説明した実施の形態の撮像制御装置100と同様である。例えば、図2で説明したCPU101が、制御プログラムを実行することで、図11に示す撮影制御装置100Bの各ブロックが機能する。なお、車両200Bは、撮像制御装置100Bを備える点が、実施の形態の車両200と異なる。 The imaging control device 100B according to Modification 2 differs from the imaging control device 100 according to the embodiment in that it further includes a blur correction section 170 . The configuration of the image capturing control device 100B other than the blur correction unit 170 is the same as that of the image capturing control device 100 of the embodiment, and thus description thereof is omitted. Also, the hardware configuration of the imaging control device 100B is the same as that of the imaging control device 100 of the embodiment described with reference to FIG. For example, the CPU 101 described with reference to FIG. 2 executes the control program, so that each block of the imaging control device 100B illustrated in FIG. 11 functions. Vehicle 200B differs from vehicle 200 of the embodiment in that it includes imaging control device 100B.

ブレ補正部170は、撮像装置210により撮像された画像を取得し、取得した画像内の物体のブレを検知し、画像内の物体のブレを検知した場合、(i)シャッタースピードをより小さい値へ変更する、および、(ii)感度をより大きい値へ変更する、の少なくとも一方を変更部130に行わせる。具体的には、ブレ補正部170は、撮像装置210から取得した画像に対して、画像全体のコントラスト値の和を算出し、算出した和が所定の閾値未満である場合に、当該画像内にブレが生じていると判断してもよい。つまり、ブレ補正部170は、当該画像内にブレが生じていると判断した場合、当該画像内の物体のブレを検知し、当該画像内の物体のブレが生じていないと判断した場合、当該画像内の物体のブレを検知しない。なお、ブレ補正部170は、画像全体に対して当該画像にブレが生じているかを判断しているとしたが、所定の画像処理を行うことにより、取得した画像における領域であって物体として例えば前方を走行している車両が映り込んでいる領域を特定し、特定した領域においてブレが生じているかを判断してもよい。ブレ補正部170は、変更部130により変更されたパラメータに対して、画像内の物体のブレを補正するために規定の補正を行う。 The blur correction unit 170 acquires an image captured by the imaging device 210, detects blurring of an object in the acquired image, and when detecting blurring of the object in the image, (i) sets the shutter speed to a smaller value. and (ii) change the sensitivity to a larger value. Specifically, the blur correction unit 170 calculates the sum of the contrast values of the entire image acquired from the imaging device 210, and if the calculated sum is less than a predetermined threshold, It may be determined that blur has occurred. That is, when the blur correction unit 170 determines that the image is blurred, it detects the blur of the object in the image, and when it determines that the object in the image is not blurred, the blur correction unit 170 detects the blur of the object in the image. Does not detect blurring of objects in the image. Note that the blur correction unit 170 determines whether or not the image as a whole is blurred. A region in which a vehicle traveling ahead is reflected may be identified, and it may be determined whether blurring occurs in the identified region. The blur correction unit 170 performs prescribed correction on the parameters changed by the change unit 130 in order to correct the blur of the object in the image.

ブレ補正部170は、例えば、CPU101、メインメモリ102、ストレージ103および通信IF104により実現される。 The blur correction unit 170 is realized by the CPU 101, the main memory 102, the storage 103, and the communication IF 104, for example.

変更部130は、ブレ補正部170により変更されたシャッタースピード、および、感度の少なくとも一方に、撮像装置210のパラメータを補正する。 The changing unit 130 corrects the parameters of the imaging device 210 to at least one of the shutter speed and sensitivity changed by the blur correction unit 170 .

次に、変形例2の撮像制御装置100Bの動作(撮像制御方法)について説明する。 Next, the operation (imaging control method) of the imaging control device 100B of Modification 2 will be described.

撮像制御装置100Bでは、実施の形態の撮像制御方法と比較して、さらに、ステップS31~S34が追加されている点が異なる。このため、ステップS31~S34について説明する。 The imaging control apparatus 100B differs from the imaging control method of the embodiment in that steps S31 to S34 are added. Therefore, steps S31 to S34 will be described.

撮像制御装置10Bでは、ステップS15の後において、ブレ補正部170は、撮像装置210により撮像された画像を取得する(S31)。 In the imaging control device 10B, after step S15, the blur correction unit 170 acquires an image captured by the imaging device 210 (S31).

ブレ補正部170は、取得した画像にブレがあるか否かを判定する(S32)。 The blur correction unit 170 determines whether or not the acquired image is blurred (S32).

ブレ補正部170は、取得した画像にブレがあると判定した場合(S32でYes)、検知したブレを補正するために、変更部130により変更されたパラメータに対して規定の補正を行い、変更部130にさらにパラメータを補正したパラメータに変更させる(S33)。 If the blur correction unit 170 determines that the acquired image is blurred (Yes in S32), the blur correction unit 170 performs prescribed correction on the parameters changed by the change unit 130 in order to correct the detected blur. Then, the unit 130 is caused to change the parameters to corrected parameters (S33).

制御部140は、第1位置推定部110により推定された将来走行する位置を車両200が通過するタイミングで、変更部130によって変更されたパラメータを用いて撮像装置210に撮像させる(S34)。 The control unit 140 causes the imaging device 210 to capture an image using the parameters changed by the changing unit 130 at the timing when the vehicle 200 passes the future travel position estimated by the first position estimating unit 110 (S34).

一方、ブレ補正部170は、取得した画像にブレがないと判定した場合(S32でNo)、補正を行わず、次のステップS34が行われる。 On the other hand, when the blur correction unit 170 determines that there is no blur in the acquired image (No in S32), the correction is not performed, and the next step S34 is performed.

変形例2に係る撮像制御装置100Bによれば、ブレ補正部170は、撮像装置210により撮像された画像を取得し、取得した画像内の物体のブレを検知し、画像内の物体のブレを検知した場合、(i)シャッタースピードを小さい値へ変更する、および、(ii)感度を大きい値へ変更する、の少なくとも一方を変更部130に行わせる。このため、変更部130により変更されたパラメータで撮像した画像中にブレが生じている場合であっても、次に撮像するときにはブレが生じないように変更したパラメータで撮像装置210に撮像させることができる。 According to the imaging control device 100B according to Modification 2, the blur correction unit 170 acquires an image captured by the imaging device 210, detects blurring of the object in the acquired image, and detects blurring of the object in the image. If detected, the changing unit 130 is caused to perform at least one of (i) changing the shutter speed to a smaller value and (ii) changing the sensitivity to a larger value. Therefore, even if blurring occurs in an image captured with the parameters changed by the changing unit 130, the imaging device 210 can be caused to capture images with changed parameters so that blurring does not occur in the next image capturing. can be done.

なお、ブレ補正部170は、照度検出部240による検出結果が取得できない場合にのみ、ブレ補正のための処理(ステップS31~S34)を行ってもよい。 Note that the blur correction unit 170 may perform blur correction processing (steps S31 to S34) only when the result of detection by the illuminance detection unit 240 cannot be obtained.

なお、変形例1および変形例2を組み合わせた構成の撮像制御装置としてもよい。 It should be noted that the imaging control apparatus may have a configuration in which Modification 1 and Modification 2 are combined.

なお、上記実施の形態および各変形例において、各構成要素は、専用のハードウェアで構成されるか、各構成要素に適したソフトウェアプログラムを実行することによって実現されてもよい。各構成要素は、CPUまたはプロセッサなどのプログラム実行部が、ハードディスクまたは半導体メモリなどの記録媒体に記録されたソフトウェアプログラムを読み出して実行することによって実現されてもよい。ここで、上記各実施の形態の撮像制御方法などを実現するソフトウェアは、次のようなプログラムである。 In addition, in the above-described embodiment and each modified example, each component may be configured by dedicated hardware, or may be realized by executing a software program suitable for each component. Each component may be realized by reading and executing a software program recorded in a recording medium such as a hard disk or a semiconductor memory by a program execution unit such as a CPU or processor. Here, the software that implements the imaging control method and the like of each of the above embodiments is the following program.

すなわち、このプログラムは、コンピュータに、車両に配置された撮像装置に前記車両の周囲を撮像させる撮像制御装置による撮像制御方法であって、前記車両の進行方向および前記進行方向に沿って走行する前記車両の速さを示す速度ベクトルまたは前記車両が走行する経路を示す経路データを取得し、取得した前記速度ベクトルまたは前記経路データを用いて前記車両が将来走行する位置を推定し、前記車両に配置されたセンサにより検出された前記車両が将来走行すると推定された位置を含む路面の形状または前記路面の状態を推定するための路面情報、または、前記撮像装置により撮像された前記車両が将来走行すると推定された位置の路面を含む画像を取得し、取得した前記路面情報または前記画像を用いて、推定された前記車両が将来走行する位置における前記路面の前記進行方向に沿った高さの変化率または前記路面の状態を推定し、推定された前記路面の前記進行方向に沿った高さの変化率または前記路面の状態に応じて、前記撮像装置のシャッタースピード、および、前記撮像装置の感度の少なくとも一方である前記撮像装置のパラメータを変更し、推定された前記車両が将来走行する位置を前記車両が通過するタイミングで、変更した前記パラメータを用いて前記撮像装置に撮像させる撮像制御方法を実行させる。 That is, this program is an imaging control method by an imaging control device that causes an imaging device arranged in a vehicle to image the surroundings of the vehicle in a computer. Acquiring a velocity vector indicating the speed of the vehicle or route data indicating the route the vehicle travels, estimating the position where the vehicle will travel in the future using the acquired speed vector or the route data, and placing it in the vehicle road surface information for estimating the shape of the road surface or the state of the road surface including the estimated position where the vehicle will travel in the future detected by the sensor detected by the detected sensor; Acquiring an image including the road surface at the estimated position, and using the acquired road surface information or the image, a rate of change in the height of the road surface along the direction of travel at the estimated position where the vehicle will travel in the future. Alternatively, the state of the road surface is estimated, and the shutter speed of the imaging device and the sensitivity of the imaging device are changed according to the estimated change rate of the height of the road surface along the traveling direction or the state of the road surface. Execute an imaging control method of changing a parameter of at least one of the imaging devices, and causing the imaging device to take an image using the changed parameters at a timing when the vehicle passes an estimated position where the vehicle will travel in the future. Let

以上、本開示の一つまたは複数の態様に係る撮像制御装置および撮像制御方法について、実施の形態に基づいて説明したが、本開示は、この実施の形態に限定されるものではない。本開示の趣旨を逸脱しない限り、当業者が思いつく各種変形を本実施の形態に施したものや、異なる実施の形態における構成要素を組み合わせて構築される形態も、本開示の一つまたは複数の態様の範囲内に含まれてもよい。 Although the imaging control device and the imaging control method according to one or more aspects of the present disclosure have been described above based on the embodiments, the present disclosure is not limited to these embodiments. As long as it does not deviate from the spirit of the present disclosure, various modifications that a person skilled in the art can think of are applied to the present embodiment, and a form constructed by combining the components of different embodiments may also be one or more of the present disclosure. may be included within the scope of the embodiments.

本開示は、物体の認識が容易である画像を撮像装置に撮像させることができる撮像制御装置などとして有用である。 INDUSTRIAL APPLICABILITY The present disclosure is useful as an imaging control device or the like that can cause an imaging device to capture an image in which an object can be easily recognized.

100、100A、100B 撮像制御装置
102 メインメモリ
103 ストレージ
104 通信IF
105 GNSS
110 第1位置推定部
120 路面推定部
130 変更部
140 制御部
150 第2位置推定部
160 速度補正部
170 ブレ補正部
200、200A、200B 車両
210 撮像装置
220 路面検出部
230 速度検出部
240 照度検出部
300 運転制御装置
301、302 路面
100, 100A, 100B imaging control device 102 main memory 103 storage 104 communication IF
105 GNSS
110 First position estimation unit 120 Road surface estimation unit 130 Change unit 140 Control unit 150 Second position estimation unit 160 Speed correction unit 170 Shake correction unit 200, 200A, 200B Vehicle 210 Imaging device 220 Road surface detection unit 230 Speed detection unit 240 Illuminance detection Part 300 Operation control devices 301 and 302 Road surface

Claims (11)

車両に配置された撮像装置に前記車両の周囲を撮像させる撮像制御装置であって、
前記車両の進行方向および前記進行方向に沿って走行する前記車両の速さを示す速度ベクトルまたは前記車両が走行する経路を示す経路データを取得し、取得した前記速度ベクトルまたは前記経路データを用いて前記車両が将来走行する位置を推定する第1位置推定部と、
前記車両に配置されたセンサにより検出された前記車両が将来走行すると推定された位置を含む路面の形状または前記路面の状態を推定するための路面情報、または、前記撮像装置により撮像された前記車両が将来走行すると推定される位置の路面を含む画像を取得し、取得した前記路面情報または前記画像を用いて、前記第1位置推定部により推定された前記車両が将来走行する位置における前記路面の前記進行方向に沿った高さの変化率または前記路面の状態を推定する路面推定部と、
前記路面推定部によって推定された前記路面の前記進行方向に沿った高さの変化率または前記路面の状態に応じて、前記撮像装置のシャッタースピード、および、前記撮像装置の感度の少なくとも一方である前記撮像装置のパラメータを変更する変更部と、
前記第1位置推定部により推定された前記車両が将来走行する位置を前記車両が通過するタイミングで、前記変更部によって変更された前記パラメータを用いて前記撮像装置に撮像させる制御部と、を備え、
前記第1位置推定部は、前記速度ベクトルを取得し、
前記変更部は、
前記路面推定部により推定された前記路面の前記進行方向に沿った高さの変化率と、前記速度ベクトルとから、前記タイミングで前記撮像装置の撮像面と平行な方向に前記撮像装置が移動する速度の大きさを推定し、
推定した前記平行な方向の速度の大きさが大きいほど、(i)前記シャッタースピードを小さい値へ変更する、および、(ii)前記感度を大きい値へ変更する、の少なくとも一方を行う
撮像制御装置。
An imaging control device that causes an imaging device arranged in a vehicle to image the surroundings of the vehicle,
Obtaining a traveling direction of the vehicle and a speed vector indicating the speed of the vehicle traveling along the traveling direction or route data indicating a route along which the vehicle travels, and using the obtained speed vector or the route data a first position estimating unit that estimates a position where the vehicle will travel in the future;
Road surface information for estimating the shape of a road surface or the condition of the road surface, including a position where the vehicle is estimated to travel in the future, detected by a sensor arranged in the vehicle, or the vehicle captured by the imaging device acquires an image including the road surface at the position where the vehicle is estimated to travel in the future, and uses the acquired road surface information or the image to determine the road surface at the position where the vehicle will travel in the future estimated by the first position estimating unit a road surface estimation unit that estimates a rate of change in height along the direction of travel or the condition of the road surface;
At least one of a shutter speed of the imaging device and a sensitivity of the imaging device according to a rate of change in height of the road surface along the traveling direction estimated by the road surface estimation unit or a condition of the road surface. a changing unit that changes parameters of the imaging device;
a control unit that causes the imaging device to capture an image using the parameter changed by the changing unit at a timing when the vehicle passes the position where the vehicle will travel in the future estimated by the first position estimating unit. ,
The first position estimator obtains the velocity vector,
The change unit
The imaging device moves in a direction parallel to the imaging surface of the imaging device at the timing based on the rate of change in height of the road along the traveling direction estimated by the road surface estimation unit and the velocity vector. Estimate the magnitude of the velocity,
At least one of (i) changing the shutter speed to a smaller value, and (ii) changing the sensitivity to a larger value, as the magnitude of the estimated speed in the parallel direction increases. Imaging control device .
車両に配置された撮像装置に前記車両の周囲を撮像させる撮像制御装置であって、
前記車両の進行方向および前記進行方向に沿って走行する前記車両の速さを示す速度ベクトルまたは前記車両が走行する経路を示す経路データを取得し、取得した前記速度ベクトルまたは前記経路データを用いて前記車両が将来走行する位置を推定する第1位置推定部と、
前記車両に配置されたセンサにより検出された前記車両が将来走行すると推定された位置を含む路面の形状または前記路面の状態を推定するための路面情報、または、前記撮像装置により撮像された前記車両が将来走行すると推定される位置の路面を含む画像を取得し、取得した前記路面情報または前記画像を用いて、前記第1位置推定部により推定された前記車両が将来走行する位置における前記路面の前記進行方向に沿った高さの変化率または前記路面の状態を推定する路面推定部と、
前記路面推定部によって推定された前記路面の前記進行方向に沿った高さの変化率または前記路面の状態に応じて、前記撮像装置のシャッタースピード、および、前記撮像装置の感度の少なくとも一方である前記撮像装置のパラメータを変更する変更部と、
前記第1位置推定部により推定された前記車両が将来走行する位置を前記車両が通過するタイミングで、前記変更部によって変更された前記パラメータを用いて前記撮像装置に撮像させる制御部と、を備え、
前記路面推定部は、
前記第1位置推定部により推定された前記車両が将来走行する位置における前記路面の前記進行方向に沿った高さの変化率を推定し、
前記変更部は、
前記車両が将来走行すると推定された位置における前記路面の前記進行方向に沿った高さの変化率に応じて前記撮像装置のパラメータを変更する
撮像制御装置。
An imaging control device that causes an imaging device arranged in a vehicle to image the surroundings of the vehicle,
Obtaining a traveling direction of the vehicle and a speed vector indicating the speed of the vehicle traveling along the traveling direction or route data indicating a route along which the vehicle travels, and using the obtained speed vector or the route data a first position estimating unit that estimates a position where the vehicle will travel in the future;
Road surface information for estimating the shape of a road surface or the condition of the road surface, including a position where the vehicle is estimated to travel in the future, detected by a sensor arranged in the vehicle, or the vehicle captured by the imaging device acquires an image including the road surface at the position where the vehicle is estimated to travel in the future, and uses the acquired road surface information or the image to determine the road surface at the position where the vehicle will travel in the future estimated by the first position estimating unit a road surface estimation unit that estimates a rate of change in height along the direction of travel or the condition of the road surface;
At least one of a shutter speed of the imaging device and a sensitivity of the imaging device according to a rate of change in height of the road surface along the traveling direction estimated by the road surface estimation unit or a condition of the road surface. a changing unit that changes parameters of the imaging device;
a control unit that causes the imaging device to capture an image using the parameter changed by the changing unit at a timing when the vehicle passes the position where the vehicle will travel in the future estimated by the first position estimating unit. ,
The road surface estimation unit
estimating a rate of change in the height of the road surface along the traveling direction at the position where the vehicle will travel in the future, which is estimated by the first position estimating unit;
The change unit
An imaging control device that changes a parameter of the imaging device in accordance with a rate of change in height of the road surface along the direction of travel at a position where the vehicle is estimated to travel in the future.
さらに、
前記車両の現在位置を推定する第2位置推定部を備え、
前記第1位置推定部は、前記第2位置推定部により推定された前記車両の前記現在位置をさらに用いて、前記車両の前記将来走行する位置を推定する
請求項1に記載の撮像制御装置。
moreover,
A second position estimating unit that estimates the current position of the vehicle,
The imaging control device according to claim 1 , wherein the first position estimating section further uses the current position of the vehicle estimated by the second position estimating section to estimate the future travel position of the vehicle.
さらに、 moreover,
前記車両の現在位置を推定する第2位置推定部を備え、 A second position estimating unit that estimates the current position of the vehicle,
前記第1位置推定部は、前記第2位置推定部により推定された前記車両の前記現在位置をさらに用いて、前記車両の前記将来走行する位置を推定する The first position estimator further uses the current position of the vehicle estimated by the second position estimator to estimate the future travel position of the vehicle.
請求項2に記載の撮像制御装置。 The imaging control device according to claim 2.
前記第1位置推定部は、前記速度ベクトルを取得し、
前記変更部は、
前記路面推定部により推定された前記路面の前記進行方向に沿った高さの変化率と、前記速度ベクトルとから、前記タイミングで前記撮像装置の撮像面と平行な方向に前記撮像装置が移動する速度の大きさを推定し、
推定した前記平行な方向の速度の大きさが大きいほど、(i)前記シャッタースピードを小さい値へ変更する、および、(ii)前記感度を大きい値へ変更する、の少なくとも一方を行う
請求項2に記載の撮像制御装置。
The first position estimator obtains the velocity vector,
The change unit
The imaging device moves in a direction parallel to the imaging surface of the imaging device at the timing based on the rate of change in height of the road along the traveling direction estimated by the road surface estimation unit and the velocity vector. Estimate the magnitude of the velocity,
At least one of (i) changing the shutter speed to a smaller value and (ii) changing the sensitivity to a larger value is performed as the magnitude of the estimated speed in the parallel direction increases. The imaging control device according to .
前記変更部は、
推定した前記平行な方向の速度の大きさに応じて、前記シャッタースピードを決定し、
決定した前記シャッタースピードにおいて前記撮像装置が撮像することにより得られた画像から物体を所定の認識アルゴリズムで認識する場合の認識率が所定値よりも大きくなるノイズレベルおよび露出を特定し、
決定した前記シャッタースピード、および、特定した前記露出に応じた感度に、前記撮像装置の前記パラメータを変更する
請求項1または3に記載の撮像制御装置。
The change unit
determining the shutter speed according to the magnitude of the estimated speed in the parallel direction;
specifying a noise level and an exposure at which a recognition rate is greater than a predetermined value when an object is recognized by a predetermined recognition algorithm from an image captured by the imaging device at the determined shutter speed;
The imaging control device according to claim 1 or 3, wherein the parameter of the imaging device is changed to the sensitivity corresponding to the determined shutter speed and the specified exposure.
さらに、
前記撮像装置により撮像された前記画像を取得し、取得した前記画像内の物体のブレを検知し、前記画像内の前記物体のブレを検知した場合、(i)前記シャッタースピードをより小さい値へ変更する、および、(ii)前記感度をより大きい値へ変更する、の少なくとも一方を前記変更部に行わせるブレ補正部を備える
請求項1からのいずれか1項に記載の撮像制御装置。
moreover,
Acquiring the image captured by the imaging device, detecting blurring of an object in the acquired image, and detecting blurring of the object in the image: (i) reducing the shutter speed to a smaller value; The imaging control apparatus according to any one of claims 1 to 6 , further comprising a blur correction section that causes the changing section to perform at least one of changing the sensitivity and (ii) changing the sensitivity to a higher value.
さらに、
前記撮像装置の複数回の撮像により得られる複数の画像のそれぞれに含まれる物体の位置の変化に基づいて、前記物体の移動速度を推定し、推定した前記移動速度の大きさが大きいほど、(i)前記シャッタースピードを小さい値へ変更する、および、(ii)前記感度を大きい値へ変更する、の少なくとも一方を前記変更部に行わせる速度補正部を備える
請求項1からのいずれか1項に記載の撮像制御装置。
moreover,
The moving speed of the object is estimated based on the change in the position of the object included in each of a plurality of images obtained by the imaging device a plurality of times, and the larger the estimated moving speed, the ( 8. Any one of claims 1 to 7 , comprising a speed correction unit that causes the change unit to perform at least one of i) changing the shutter speed to a smaller value, and (ii) changing the sensitivity to a larger value. 11. The imaging control device according to claim 1.
前記変更部は、前記撮像装置が配置されている環境の照度を検出する照度センサによる検出結果である照度が示す照度情報を取得し、取得した前記照度情報が示す照度が小さいほど、(i)前記シャッタースピードを小さい値へ変更する、および、(ii)前記感度を大きい値へ変更する、の少なくとも一方を行う
請求項1からのいずれか1項に記載の撮像制御装置。
The changing unit acquires illuminance information indicated by illuminance that is a detection result of an illuminance sensor that detects the illuminance of the environment in which the imaging device is arranged, and the smaller the illuminance indicated by the acquired illuminance information, the (i) The imaging control device according to any one of claims 1 to 8 , wherein at least one of changing the shutter speed to a smaller value and (ii) changing the sensitivity to a larger value is performed.
車両に配置された撮像装置に前記車両の周囲を撮像させる撮像制御装置による撮像制御方法であって、
前記車両の進行方向および前記進行方向に沿って走行する前記車両の速さを示す速度ベクトルまたは前記車両が走行する経路を示す経路データを取得し、取得した前記速度ベクトルまたは前記経路データを用いて前記車両が将来走行する位置を推定し、
前記車両に配置されたセンサにより検出された前記車両が将来走行すると推定された位置を含む路面の形状または前記路面の状態を推定するための路面情報、または、前記撮像装置により撮像された前記車両が将来走行すると推定される位置の路面を含む画像を取得し、取得した前記路面情報または前記画像を用いて、推定した前記車両が将来走行する位置における前記路面の前記進行方向に沿った高さの変化率または前記路面の状態を推定し、
推定された前記路面の前記進行方向に沿った高さの変化率または前記路面の状態に応じて、前記撮像装置のシャッタースピード、および、前記撮像装置の感度の少なくとも一方である前記撮像装置のパラメータを変更し、
推定され前記車両が将来走行する位置を前記車両が通過するタイミングで、変更した前記パラメータを用いて前記撮像装置に撮像させ、
前記車両が将来走行する位置の推定において、前記速度ベクトルを取得し、
前記撮像装置のパラメータの変更において、
推定された前記路面の前記進行方向に沿った高さの変化率と、前記速度ベクトルとから、前記タイミングで前記撮像装置の撮像面と平行な方向に前記撮像装置が移動する速度の大きさを推定し、
推定した前記平行な方向の速度の大きさが大きいほど、(i)前記シャッタースピードを小さい値へ変更する、および、(ii)前記感度を大きい値へ変更する、の少なくとも一方を行う
撮像制御方法。
An imaging control method by an imaging control device for causing an imaging device arranged in a vehicle to image the surroundings of the vehicle,
Obtaining a traveling direction of the vehicle and a speed vector indicating the speed of the vehicle traveling along the traveling direction or route data indicating a route along which the vehicle travels, and using the obtained speed vector or the route data estimating a location where the vehicle will travel in the future;
Road surface information for estimating the shape of a road surface or the condition of the road surface, including a position where the vehicle is estimated to travel in the future, detected by a sensor arranged in the vehicle, or the vehicle captured by the imaging device acquires an image including the road surface at the position where the vehicle is estimated to travel in the future, and using the acquired road surface information or the image, the height of the road surface along the traveling direction at the estimated position where the vehicle will travel in the future Estimate the rate of change or the condition of the road surface,
A parameter of the imaging device, which is at least one of a shutter speed of the imaging device and a sensitivity of the imaging device, according to the estimated rate of change in height of the road surface along the traveling direction or the state of the road surface. and change
causing the imaging device to capture an image using the changed parameters at the timing when the vehicle passes the estimated position where the vehicle will travel in the future;
obtaining the velocity vector in estimating the future location of the vehicle;
In changing the parameters of the imaging device,
From the estimated rate of change in the height of the road surface along the traveling direction and the velocity vector, determine the speed at which the imaging device moves in the direction parallel to the imaging surface of the imaging device at the timing. presume,
At least one of (i) changing the shutter speed to a smaller value and (ii) changing the sensitivity to a larger value is performed as the magnitude of the estimated speed in the parallel direction increases. Imaging control method .
車両に配置された撮像装置に前記車両の周囲を撮像させる撮像制御装置による撮像制御方法であって、
前記車両の進行方向および前記進行方向に沿って走行する前記車両の速さを示す速度ベクトルまたは前記車両が走行する経路を示す経路データを取得し、取得した前記速度ベクトルまたは前記経路データを用いて前記車両が将来走行する位置を推定し、
前記車両に配置されたセンサにより検出された前記車両が将来走行すると推定された位置を含む路面の形状または前記路面の状態を推定するための路面情報、または、前記撮像装置により撮像された前記車両が将来走行すると推定される位置の路面を含む画像を取得し、取得した前記路面情報または前記画像を用いて、推定した前記車両が将来走行する位置における前記路面の前記進行方向に沿った高さの変化率または前記路面の状態を推定し、
推定された前記路面の前記進行方向に沿った高さの変化率または前記路面の状態に応じて、前記撮像装置のシャッタースピード、および、前記撮像装置の感度の少なくとも一方である前記撮像装置のパラメータを変更し、
推定され前記車両が将来走行する位置を前記車両が通過するタイミングで、変更した前記パラメータを用いて前記撮像装置に撮像させ、
前記路面の状態の推定において、
推定された前記車両が将来走行する位置における前記路面の前記進行方向に沿った高さの変化率を推定し、
前記撮像装置のパラメータの変更において、
前記車両が将来走行すると推定された位置における前記路面の前記進行方向に沿った高さの変化率に応じて前記撮像装置のパラメータを変更する
撮像制御方法。
An imaging control method by an imaging control device for causing an imaging device arranged in a vehicle to image the surroundings of the vehicle,
Obtaining a traveling direction of the vehicle and a speed vector indicating the speed of the vehicle traveling along the traveling direction or route data indicating a route along which the vehicle travels, and using the obtained speed vector or the route data estimating a location where the vehicle will travel in the future;
Road surface information for estimating the shape of a road surface or the condition of the road surface, including a position where the vehicle is estimated to travel in the future, detected by a sensor arranged in the vehicle, or the vehicle captured by the imaging device acquires an image including the road surface at the position where the vehicle is estimated to travel in the future, and using the acquired road surface information or the image, the height of the road surface along the traveling direction at the estimated position where the vehicle will travel in the future Estimate the rate of change or the condition of the road surface,
A parameter of the imaging device, which is at least one of a shutter speed of the imaging device and a sensitivity of the imaging device, according to the estimated rate of change in height of the road surface along the traveling direction or the state of the road surface. and change
causing the imaging device to capture an image using the changed parameters at the timing when the vehicle passes the estimated position where the vehicle will travel in the future;
In estimating the state of the road surface,
estimating a rate of change in the height of the road along the direction of travel at the estimated position where the vehicle will travel in the future;
In changing the parameters of the imaging device,
An imaging control method, comprising: changing a parameter of the imaging device according to a rate of change in height of the road surface along the direction of travel at a position where the vehicle is estimated to travel in the future.
JP2018043119A 2017-07-28 2018-03-09 Imaging control device and imaging control method Active JP7169075B2 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
US16/034,332 US10536646B2 (en) 2017-07-28 2018-07-12 Imaging control device and imaging control method
CN201810817409.0A CN109309785B (en) 2017-07-28 2018-07-24 Imaging control device and imaging control method
EP18185374.8A EP3435286B1 (en) 2017-07-28 2018-07-25 Imaging control device and imaging control method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2017145999 2017-07-28
JP2017145999 2017-07-28

Publications (2)

Publication Number Publication Date
JP2019029986A JP2019029986A (en) 2019-02-21
JP7169075B2 true JP7169075B2 (en) 2022-11-10

Family

ID=65476752

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018043119A Active JP7169075B2 (en) 2017-07-28 2018-03-09 Imaging control device and imaging control method

Country Status (1)

Country Link
JP (1) JP7169075B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114228744A (en) * 2021-11-30 2022-03-25 国汽智控(北京)科技有限公司 Vehicle environment information acquisition device, method and system and vehicle

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009118135A (en) 2007-11-06 2009-05-28 Sony Corp Imaging apparatus and imaging method
JP2016052134A (en) 2015-09-18 2016-04-11 株式会社ニコン Imaging apparatus

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009118135A (en) 2007-11-06 2009-05-28 Sony Corp Imaging apparatus and imaging method
JP2016052134A (en) 2015-09-18 2016-04-11 株式会社ニコン Imaging apparatus

Also Published As

Publication number Publication date
JP2019029986A (en) 2019-02-21

Similar Documents

Publication Publication Date Title
JP4788798B2 (en) Object detection device
JP6477882B2 (en) Self-position estimation apparatus and self-position estimation method
JP5962771B2 (en) Moving object position / posture angle estimation apparatus and moving object position / posture angle estimation method
JP6350374B2 (en) Road surface detection device
JP2019517089A (en) Image processing method for recognizing ground markings, and system for detecting ground markings
US10731994B2 (en) Information processing device and information processing method
JPWO2018061084A1 (en) Self-position estimation method and self-position estimation apparatus
WO2015125299A1 (en) Local location computation device and local location computation method
WO2015125296A1 (en) Local location computation device and local location computation method
JP2017058274A (en) Measurement device, method, and program
JP6462557B2 (en) Vehicle pitch angle estimation device
JP6384802B2 (en) MOBILE BODY DETECTING DEVICE, IMAGE PROCESSING DEVICE, MOBILE BODY DETECTING METHOD, AND INTEGRATED CIRCUIT
CN109309785B (en) Imaging control device and imaging control method
JP2011175572A (en) Lane recognition device
JP7169075B2 (en) Imaging control device and imaging control method
JP2018073275A (en) Image recognition device
KR101618501B1 (en) Method for ego-motion estimation of vehicle
CN111989541B (en) Stereo camera device
JP2013213792A (en) Road surface condition estimation device
JP2020109560A (en) Traffic signal recognition method and traffic signal recognition device
US20180060671A1 (en) Image processing device, imaging device, equipment control system, equipment, image processing method, and recording medium storing program
JP2018013955A (en) Image processing apparatus and image processing method
WO2020036039A1 (en) Stereo camera device
JP2018132338A (en) Distance derivation device and distance derivation method
WO2020203829A1 (en) Vehicle location determination device, vehicle location determination system, and vehicle location determination method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200915

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20211025

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211102

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220105

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220531

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220617

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221025

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221028

R150 Certificate of patent or registration of utility model

Ref document number: 7169075

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150