JP2013055410A - Vehicle peripheral image display control device - Google Patents
Vehicle peripheral image display control device Download PDFInfo
- Publication number
- JP2013055410A JP2013055410A JP2011190704A JP2011190704A JP2013055410A JP 2013055410 A JP2013055410 A JP 2013055410A JP 2011190704 A JP2011190704 A JP 2011190704A JP 2011190704 A JP2011190704 A JP 2011190704A JP 2013055410 A JP2013055410 A JP 2013055410A
- Authority
- JP
- Japan
- Prior art keywords
- image
- vehicle
- movement amount
- time
- amount information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000002093 peripheral effect Effects 0.000 title claims abstract description 43
- 238000004364 calculation method Methods 0.000 claims description 34
- 230000002194 synthesizing effect Effects 0.000 claims description 5
- 238000006073 displacement reaction Methods 0.000 abstract 1
- 238000000034 method Methods 0.000 description 38
- 238000013213 extrapolation Methods 0.000 description 12
- 238000006243 chemical reaction Methods 0.000 description 10
- 235000004522 Pentaglottis sempervirens Nutrition 0.000 description 8
- 230000006870 function Effects 0.000 description 8
- 240000004050 Pentaglottis sempervirens Species 0.000 description 7
- 230000015572 biosynthetic process Effects 0.000 description 3
- 238000003786 synthesis reaction Methods 0.000 description 3
- 238000010586 diagram Methods 0.000 description 2
- 230000000116 mitigating effect Effects 0.000 description 2
- 230000002411 adverse Effects 0.000 description 1
- 230000003111 delayed effect Effects 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
Images
Landscapes
- Image Processing (AREA)
- Closed-Circuit Television Systems (AREA)
- Image Analysis (AREA)
Abstract
Description
本発明は、車両周辺画像表示制御装置に関するものである。 The present invention relates to a vehicle peripheral image display control device.
従来、車両の周辺を撮影するカメラから繰り返し撮影画像を取得し、取得した撮影画像を用いて車両周辺画像を作成してディスプレイに表示させる車両周辺画像表示制御装置が知られている。このような車両周辺画像表示制御装置においては、最新の撮影画像に基づく実画像と、過去の撮影画像に基づく履歴画像とを合成して車両周辺画像とすることで、最新の撮影画像では死角になってしまった車両周辺部分も引き続きディスプレイに表示させるようなものも知られている(例えば、特許文献1参照)。 2. Description of the Related Art Conventionally, a vehicle periphery image display control device that repeatedly acquires captured images from a camera that captures the periphery of the vehicle, creates a vehicle periphery image using the acquired captured image, and displays the vehicle periphery image on a display is known. In such a vehicle periphery image display control device, a real image based on the latest photographed image and a history image based on the past photographed image are combined to form a vehicle periphery image, so that the latest photographed image has a blind spot. It is also known that the peripheral portion of the vehicle that has been displayed is continuously displayed on the display (for example, see Patent Document 1).
このように、最新の撮影画像に基づく実画像と過去の撮影画像に基づく履歴画像とを合成して表示させる場合、履歴画像については、過去の撮影画像に基づき、車両の移動に応じて、車両との実際の位置関係に合致するように作成する必要がある。つまり、履歴画像を作成するには、車両の移動を検出する必要がある。車両の移動を検出する方法としては、車両の移動に関する量(例えば、車速パルス、舵角)を含む車両移動量情報を用いる方法が考えられる。 As described above, when the actual image based on the latest photographed image and the history image based on the past photographed image are combined and displayed, for the history image, the vehicle is moved according to the movement of the vehicle based on the past photographed image. It is necessary to make it so as to match the actual positional relationship with. That is, in order to create a history image, it is necessary to detect the movement of the vehicle. As a method of detecting the movement of the vehicle, a method using vehicle movement amount information including an amount related to the movement of the vehicle (for example, a vehicle speed pulse, a steering angle) is conceivable.
ここで、発明者は、撮影画像の取得タイミングと車両移動量情報の取得タイミングは必ずしも一致しない点に着目した。具体的には、撮影画像は第1の時間間隔で繰り返し取得し、車両移動量情報は第1の時間間隔よりも長い第2の時間間隔で繰り返し取得する場合が考えられる。 Here, the inventor has focused on the point that the acquisition timing of the captured image does not necessarily match the acquisition timing of the vehicle movement amount information. Specifically, it is conceivable that captured images are repeatedly acquired at a first time interval, and vehicle movement amount information is repeatedly acquired at a second time interval that is longer than the first time interval.
このような場合、図7に示すように、実画像は第1の時間間隔(図7の例では30ms間隔)で更新されるのに対し、履歴画像は第2の時間間隔(図7の例では100ms)でしか更新されない。 In such a case, as shown in FIG. 7, the actual image is updated at the first time interval (30 ms interval in the example of FIG. 7), whereas the history image is updated at the second time interval (example of FIG. 7). In 100 ms).
このようになっていると、ディスプレイに表示される車両周辺画像は、図7の時点taのように、まだ履歴画像が作成されていない時点では、図8(a)に示すように、実画像51と車両50のみが表示される。そして、履歴画像が更新された後に実画像が2回更新された時点tbにおいては、履歴画像が実画像よりも遅れたままになっているので、図8(b)に示すように、実画像61と履歴画像62との境界部分において、ずれが生じてしまう。このずれは、履歴画像が撮影された後すぐに実画像の更新が行われる時点tcでは、図8(c)に示すように緩和もしくは解消されるが、また時間が経過して、履歴画像が更新されないまま実画像が更新されていくと、時点tdにおける図8(d)のように、実画像61と履歴画像62との境界部分において再度ずれが生じてしまう。
In this case, the vehicle peripheral image displayed on the display is an actual image as shown in FIG. 8A when a history image is not yet created as shown in FIG. Only 51 and the vehicle 50 are displayed. Then, at the time point tb when the actual image is updated twice after the history image is updated, the history image remains behind the actual image, so as shown in FIG. Deviation occurs at the boundary between 61 and the
このように、実画像と履歴画像の境界部において頻繁にずれが生じてしまうと、ユーザに違和感を与えてしまう可能性が高くなる。本発明はこの点に鑑み、実画像と履歴画像を合成して車両周辺画像をディスプレイに表示する車両周辺画像表示制御装置において、撮影画像の取得タイミングと車両移動量情報の取得タイミングが異なっている状況で、実画像と履歴画像のずれを従来よりも低減することを目的とする。 In this way, if there is frequent deviation at the boundary between the actual image and the history image, there is a high possibility that the user will feel uncomfortable. In view of this point, the present invention provides a vehicle peripheral image display control device that combines a real image and a history image to display a vehicle peripheral image on a display, and the captured image acquisition timing and the vehicle movement amount information acquisition timing are different. It is an object of the present invention to reduce the deviation between the actual image and the history image as compared with the conventional case.
上記目的を達成するための請求項1に記載の発明は、カメラが撮影した車両の周辺の撮影画像を第1の時間間隔で繰り返し取得する画像入力インターフェース(2)と、前記第1の時間間隔よりも長い第2の時間間隔の周期で、最新の前記周期における前記車両の移動に関する量(以下、移動量という)を含む車両移動量情報を繰り返し取得する車両信号入力インターフェース(3)と、前記画像入力インターフェース(2)が撮影画像を取得する度に、今回取得した当該撮影画像に基づく実画像と、今回よりも前に取得した撮影画像に基づく履歴画像とを合成して、車両周辺画像を作成し、作成した前記車両周辺画像をディスプレイに表示させる演算部(5)とを備え、前記演算部(5)は、前記車両信号入力インターフェース(3)が第1の移動量情報取得時点(t1)において車両移動量情報を取得した場合、当該取得した車両移動量情報に基づいて、前記第1の移動量情報取得時点後に前記画像入力インターフェース(2)が撮影画像を取得する予定の第1の撮影画像取得時点(t11、t12、t13)における前記車両の予想移動量を推定する車両移動量推定手段(210〜260)と、前記第1の撮影画像取得時点(t11、t12、t13)において前記画像入力インターフェース(2)が撮影画像を取得したことに基づいて、今回取得した撮影画像に基づく画像を実画像とし、また、前記車両移動量推定手段によって推定された前記第1の撮影画像取得時点における前記車両の予想移動量に基づいて、今回よりも前に取得した撮影画像を用いて、前記第1の撮影時点(t11、t12、t13)における前記車両と周囲の実際の位置関係に合致するような履歴画像を作成し、前記履歴実画像と前記実画像とを合成することで、今回の車両周辺画像を作成し、作成した当該今回の車両周辺画像を前記ディスプレイに表示させる表示制御手段(110〜140)と、を有することを特徴とする車両周辺画像表示制御装置である。
In order to achieve the above object, the invention according to
このように、車両移動量情報を取得したことに基づいて、後の第1の撮影画像取得時点における車両移動量推定し、第1の撮影画像取得時点が訪れたときに、推定した車両移動量を用いて履歴画像を作成することで、実画像と履歴画像の境界における位置ずれは、非常に小さくなる。 Thus, based on having acquired the vehicle movement amount information, the vehicle movement amount at the subsequent first captured image acquisition time is estimated, and when the first captured image acquisition time point comes, the estimated vehicle movement amount By using this to create a history image, the positional deviation at the boundary between the actual image and the history image becomes very small.
また、請求項2に記載の発明は、請求項1に記載の車両周辺画像表示制御装置において、前記表示制御手段(110〜140)は、前記第1の撮影画像取得時点(t11、t12、t13)において前記画像入力インターフェース(2)が撮影画像を取得したことに基づいて、前記車両移動量推定手段によって推定された前記第1の撮影画像取得時点における前記車両の予想移動量を用いて、前記第1の撮影画像取得時点(t11、t12、t13)から前記第1の時間間隔だけ遡った前回撮影画像取得時点(t03、t11、t12)において前記ディスプレイに出力した車両周辺画像を、前記第1の撮影時点(t11、t12、t13)における前記車両と周囲の実際の位置関係に合致するよう修正して前記履歴画像として、前記履歴画像を前記実画像と合成することで、今回の車両周辺画像を作成し、作成した当該今回の車両周辺画像を前記ディスプレイに表示させることを特徴とする。 According to a second aspect of the present invention, in the vehicle periphery image display control device according to the first aspect, the display control means (110-140) is configured to acquire the first captured image acquisition time (t11, t12, t13). ) On the basis of the fact that the image input interface (2) has acquired the captured image, the estimated movement amount of the vehicle at the first captured image acquisition time point estimated by the vehicle movement amount estimation means is used, The vehicle periphery image output to the display at the previous captured image acquisition time point (t03, t11, t12) that goes back by the first time interval from the first captured image acquisition time point (t11, t12, t13) The history image is corrected to match the actual positional relationship between the vehicle and the surroundings at the time of shooting (t11, t12, t13) as the history image. The By combining with the real image, creates a current vehicle surroundings image, the current vehicle surroundings images generated, characterized in that to be displayed on the display.
また、請求項3に記載の発明は、請求項2に記載の車両周辺画像表示制御装置において、前記車両移動量推定手段(210〜260)は、前記車両信号入力インターフェース(3)が第1の移動量情報取得時点(t1)において車両移動量情報を取得した場合、当該取得した車両移動量情報に基づいて、前記第1の移動量情報取得時点から前記第2の時間間隔が経過するまでの期間における前記車両の予想移動量を推定し、前記車両信号入力インターフェース(3)が前記第2の移動量情報取得時点において車両移動量情報を取得した場合、前記第2の移動量情報取得時点において取得した車両移動量情報に含まれる移動量と、前記第1の移動量情報取得時点において推定した前記第2の移動量情報取得時点における移動量とのずれ量を算出し、前記第2の移動量情報取得時点において取得した前記車両移動量情報に基づいて、前記第2の移動量情報取得時点後に前記画像入力インターフェース(2)が撮影画像を取得する予定の第2の撮影画像取得時点(t21、t22、23)から前記第1の時間間隔だけ遡る期間に前記車両が移動する予想移動距離および前記第2の撮影画像取得時点(t21、t22、t23)における前記車両の予想移動量を推定し、前記第2の撮影画像取得時点のうち、前記第2の移動量情報取得時点に最も近い時点(t21)における予想移動量を、前記ずれ量に基づいて修正することを特徴とする。 According to a third aspect of the present invention, in the vehicle periphery image display control device according to the second aspect, the vehicle movement amount estimating means (210-260) is configured such that the vehicle signal input interface (3) is a first one. When the vehicle movement amount information is acquired at the movement amount information acquisition time point (t1), the second time interval elapses from the first movement amount information acquisition time point based on the acquired vehicle movement amount information. When the estimated movement amount of the vehicle in the period is estimated, and the vehicle signal input interface (3) acquires the vehicle movement amount information at the second movement amount information acquisition time point, at the second movement amount information acquisition time point A shift amount between the movement amount included in the acquired vehicle movement amount information and the movement amount at the second movement amount information acquisition time estimated at the time of acquisition of the first movement amount information is calculated. Based on the vehicle movement amount information acquired at the time when the second movement amount information is acquired, the image input interface (2) is scheduled to acquire a captured image after the second movement amount information acquisition point. The expected moving distance that the vehicle moves in a period that goes back by the first time interval from the captured image acquisition time point (t21, t22, 23) and the vehicle at the second captured image acquisition time point (t21, t22, t23). Estimating the expected movement amount, and correcting the predicted movement amount at the time point (t21) closest to the second movement amount information acquisition time point among the second captured image acquisition time points based on the deviation amount. Features.
このようにすることで、第1の移動量情報取得時点において推定した第2の移動量情報取得時点における予想移動量が、第2の移動量情報取得時点における実際の移動量からずれていたとしても、そのずれを緩和する補正を、次の第2の撮影画像取得時点について推定した予想移動量に施すので、当該第2の撮影画像取得時点において表示する車両周辺画像において、実画像と履歴画像のずれが更に低減される。 By doing so, it is assumed that the expected movement amount at the second movement amount information acquisition time point estimated at the first movement amount information acquisition time point is deviated from the actual movement amount at the second movement amount information acquisition time point. In addition, since the correction for mitigating the deviation is applied to the estimated movement amount estimated for the next second captured image acquisition time point, the actual image and the history image are displayed in the vehicle peripheral image displayed at the second captured image acquisition time point. Deviation is further reduced.
なお、上記および特許請求の範囲における括弧内の符号は、特許請求の範囲に記載された用語と後述の実施形態に記載される当該用語を例示する具体物等との対応関係を示すものである。 In addition, the code | symbol in the bracket | parenthesis in the said and the claim shows the correspondence of the term described in the claim, and the concrete thing etc. which illustrate the said term described in embodiment mentioned later. .
以下、本発明の一実施形態について説明する。図1に、本実施形態に係る車両周辺画像表示制御装置1の構成を示す。車両周辺画像表示制御装置1は、車両に搭載され、同じく車両に搭載されて車両の後方を撮影するカメラから繰り返し撮影画像を取得すると共に、CAN等の車内LANから車両の移動に関する量(以下、移動量という)を含む車両移動量情報を繰り返し取得し、撮影画像および車両移動量情報に基づいて車両周辺画像を作成し、作成した車両周辺画像を、車室内のディスプレイに表示させるようになっている。
Hereinafter, an embodiment of the present invention will be described. In FIG. 1, the structure of the vehicle periphery image
そして、本実施形態の車両周辺画像表示制御装置1は、最新の撮影画像に基づく実画像と、過去の撮影画像を用いて車両移動量情報に基づいて作成した履歴画像とを合成したものを車両周辺画像としてディスプレイに表示させることで、車両が移動してカメラの死角となってしまった周辺部分も、ディスプレイに表示するようになっている。
And the vehicle periphery image
具体的には、車両周辺画像の表示開始時(車両の後退開始時)には、図2(a)に示すように、最新の撮影画像を鳥瞰変換(車両の真上から見下ろす視点の画像への変換)した実画像11と、自車両を表す車両画像10とを合成し、他の部分(カメラの死角部分)は単色(例えば黒色)とする車両周辺画像を作成してディスプレイに表示させる。その後、車両が後退移動を続けると、図2(b)に示すように、その時点の最新の撮影画像を鳥瞰変換した実画像11と、上述の車両画像10に加え、その時点の最新でない過去の撮影画像を用いて、履歴画像12を作成し、車両周辺画像のカメラの死角部分に、履歴画像を重畳させる。この履歴画像12は、過去の撮影画像に基づいて、現在車両との実際の位置関係に合致するよう、実画像11と合成する。したがって、図2(c)に示すように、車両の後退と共に、車両周辺画像中で履歴画像12の範囲が広がっていく。
Specifically, at the start of display of the vehicle periphery image (at the start of reverse of the vehicle), as shown in FIG. 2A, the latest photographed image is converted to a bird's eye view (to an image of a viewpoint looking down from directly above the vehicle). ) And the
この車両周辺画像表示制御装置1は、図1に示すように、画像入力I/F2、車両信号入力I/F3、画像メモリ4、演算部5、画像出力I/F6等を有している。
As shown in FIG. 1, the vehicle periphery image
画像入力I/F2は、上記カメラが撮影した車両の周辺の撮影画像を第1の時間間隔(具体的には30ミリ秒間隔)で繰り返し取得するインターフェースである。 The image input I / F 2 is an interface that repeatedly acquires captured images around the vehicle captured by the camera at a first time interval (specifically, an interval of 30 milliseconds).
車両信号入力I/F3は、上記第1の時間間隔よりも長い第2の時間間隔(具体的には100ミリ秒)の周期で、最新の当該周期における車両の移動に関する量(以下、移動量という)を含む車両移動量情報を繰り返し取得するインターフェースである。車両信号入力I/F3は、この車両移動量情報を、上述の通り車内LANから取得する。
The vehicle signal input I /
ここで、車両移動量情報に含まれる移動量について説明する。車両信号入力I/F3が各時点Tに取得する車両移動量情報中の移動量は、当該時点Tから上記第2の時間間隔だけ遡る期間(すなわち、車両移動量情報を取得する最新の周期)における車両の移動距離と、当該期間において検出された最新の車両の舵角である。
Here, the movement amount included in the vehicle movement amount information will be described. The movement amount in the vehicle movement amount information acquired by the vehicle signal input I /
当該期間における車両の移動距離は、その期間内において1つの車輪速センサから出力された車速パルス信号の数で表される。また、車両の舵角は、舵角センサによって出力された舵角信号によって検出可能である。 The moving distance of the vehicle in the period is represented by the number of vehicle speed pulse signals output from one wheel speed sensor during the period. Further, the steering angle of the vehicle can be detected by a steering angle signal output by the steering angle sensor.
このような車両移動量情報は、車両に搭載されたECU(図示せず)が、車輪速センサから車速パルス信号を逐次取得すると共に、舵角センサから逐次舵角信号を取得し、上記第2の時間間隔が経過する毎に、この第2の時間間隔内において取得した車速パルス信号の数と、最新の舵角信号に基づいて特定した舵角とを、車両移動量情報に含め、車内LANに出力する。そして車両信号入力I/F3は、このようにECUから繰り返し車内LANに出力された車両移動量情報を逐次取得する。
Such vehicle movement amount information is obtained by the ECU (not shown) mounted on the vehicle sequentially acquiring the vehicle speed pulse signal from the wheel speed sensor and the steering angle signal from the steering angle sensor. The vehicle movement amount information includes the number of vehicle speed pulse signals acquired within the second time interval and the rudder angle specified based on the latest rudder angle signal every time the vehicle time interval elapses. Output to. The vehicle signal input I /
画像メモリ4は、画像入力I/F2によって繰り返し取得される撮影画像を所定の分量だけ(例えば、最新の10秒間分)蓄積する記憶媒体である。 The image memory 4 is a storage medium that accumulates a predetermined amount (for example, the latest 10 seconds) of captured images repeatedly acquired by the image input I / F 2.
演算部5は、画像入力I/F2が撮影画像を取得する度に、今回画像入力I/F2が取得した当該撮影画像に基づく実画像と、今回よりも前に画像入力I/F2が取得した撮影画像に基づく履歴画像とを合成して、車両周辺画像を作成し、作成した前記車両周辺画像を画像出力I/F6に出力するための回路である。このような機能を実現する演算部5として、CPU、RAM、ROM、I/O等を備えた周知のマイクロコントローラを用いることができる。画像出力I/F6は、演算部5から受けた車両周辺画像を逐次ディスプレイに出力する。これにより、車室内のドライバー等の乗員は、ディスプレイに表示される車両周辺画像を見ることができる。
Each time the image input I / F2 acquires a captured image, the
ここで、演算部5の機能構成について説明する。演算部5は、図1に示すように、移動距離推定部51、舵角推定部52、車両移動量演算部53、画像合成演算部54、および出力画像生成部55として機能する。
Here, the functional configuration of the
移動距離推定部51は、車両信号入力I/F3が車両移動量情報を取得する度に、今回取得した車両移動量情報に含まれる移動距離(あるいは今回に加えて前回以前に取得した車両移動量情報に含まれる移動距離)に基づいて、次に車両移動量情報を取得する時点(現在から第2の時間間隔が経過する時点)までの期間のうち、画像入力I/F2が撮影画像を取得する時点等における、車両の予想移動量(より具体的には、その時点から第1の時間間隔だけ遡る期間における移動量)を推定する。
Each time the vehicle signal input I /
舵角推定部52は、車両信号入力I/F3が車両移動量情報を取得する度に、今回取得した車両移動量情報に含まれる舵角(あるいは今回に加えて前回以前に取得した車両移動量情報に含まれる舵角)に基づいて、次に車両移動量情報を取得する時点までの期間のうち、画像入力I/F2が撮影画像を取得する時点等における、車両の予想舵角を推定する。
Whenever the vehicle signal input I /
車両移動量演算部53は、画像入力I/F2が撮影画像を取得したとき、移動距離推定部51、舵角推定部52よって既に推定されていた現在の予想移動量および予想舵角に基づいて、前回画像入力I/F2が撮影画像を取得した時点から現在までに車両がどのように移動したかを算出する。
When the image input I / F 2 acquires a captured image, the vehicle movement
画像合成演算部54は、画像入力I/F2が撮影画像を取得して画像メモリ4に記録したとき、画像メモリ4に記録された最新の撮影画像を実画像とする。また画像合成演算部54は、車両移動量演算部53が算出した車両の移動内容の算出結果に基づいて、現在の車両との実際の車両周辺の位置関係と、車両周辺画像中の車両と履歴画像の位置関係とが、合致するよう、履歴画像を作成し、上記実画像および車両の画像とを合成し、車両周辺画像とする。出力画像生成部55は、この車両周辺画像を、逐次画像出力I/F6に出力する。
When the image input I / F 2 acquires a captured image and records it in the image memory 4, the image
以上のような構成の車両周辺画像表示制御装置1の作動について、図3〜図6を参照して説明する。図3は、車両周辺画像表示制御装置1における、車両移動量情報の取得、実画像の更新、履歴画像の更新のタイミングを例示する図である。この例では、画像入力I/F2による撮影画像の取得タイミングに対し、実画像および履歴画像の更新タイミングは、実際には処理時間の分だけ遅れているが、この遅れは撮影画像の取得周期(第1の時間間隔)に比べて十分小さいので、両者のタイミングは同じであるとして説明する。
The operation of the vehicle periphery image
[時点t0、t01、t02、t03における作動]
図3の例では、時点t0において、車両のシフト位置が後退位置(R)になったことに基づいて、車両周辺画像表示制御装置1が作動を開始し始めている。そして時点t0において、まず車両信号入力I/F3が車両移動量情報を取得した後、時点t01、t02、t03において画像入力I/F2が撮影画像を取得して画像メモリ4に記録する。この各時点t01、t02、t03において、演算部5は、作動開始からまだ1回しか車両移動量情報を取得していないことに基づいて、実画像と履歴画像のうち実画像のみを用いて車両周辺画像を作成し、作成した車両周辺画像をディスプレイに表示させる。具体的には、その時点で最新の撮影画像を鳥瞰変換した実画像と、自車両の画像である自車画像とを合成する。合成の方法は、図2に示した通り、自車画像10の後端に、実画像11を配置することで、自車両画像10と実画像11内の表示内容との位置関係を、実際の車両と周囲の位置関係に合致させる。そして、合成後の車両周辺画像を画像出力I/F6に出力することで、ディスプレイに表示させる。
[Operation at time t0, t01, t02, t03]
In the example of FIG. 3, the vehicle peripheral image
[時点t1における作動]
次に、時点t0から第2の時間間隔が経過した時点t1において、2回目に車両信号入力I/F3が車両移動量情報を取得した場合、演算部5は、車両周辺画像表示制御装置1の作動開始から2回以上車両移動量情報を取得していることに基づいて、図4に示す処理と図5に示す処理をマルチタスクで同時並列的に実行し始める。
[Operation at time t1]
Next, when the vehicle signal input I /
図4の処理では、ステップ110で、画像入力I/F2が撮影画像を取得したか否かを判定するが、今回の時点t1では取得していないと判定するので、次に撮影画像を取得するまで、ステップ110の処理を繰り返す。
In the process of FIG. 4, it is determined in
一方、図5の処理では、ステップ210で、車両信号入力I/F3から車両移動量情報を取得したか否かを判定するが、今回の時点t1では、取得していると判定し、処理をステップ220に進める。
On the other hand, in the process of FIG. 5, it is determined in
ステップ220では、前回の推定結果との差分算出処理を行うが、t1の時点では、車両周辺画像表示制御装置1の作動開始後から車両信号入力I/F3が車両移動量情報を取得した回数が3回未満であることに基づいて、ステップ220の処理はバイパスしてステップ230に処理を進める。
In
ステップ230では、画像フレームタイミングの特定を行う。具体的には、現時点t1から現時点の次の車両移動量情報の取得時点t2(現在よりも第2の時間間隔後である時点t2)までの期間A(ただし現時点t1は除く)内で、画像入力I/F2が撮影画像を取得する予定の時点t11、t12、t13(以下、第1の撮影画像取得時点という)を特定する。具体的には、画像入力I/F2が前回(つまり、現時点より前において最後に)撮影画像を取得した時点t03を起点とし、その起点から所定の第1の時間間隔の整数倍の時間がちょうど経過した時点t11、t12、t13のすべてを、期間A内で抽出し、それらの時点t11、t12、t13を画像フレームタイミング(第1の撮影画像取得時点)とする。
In
続いてステップ240では、ステップ230で特定した各画像フレームタイミングt11、t12、t13における車両の予想移動量を推定する。ここで、画像フレームタイミングt11、t12、t13における車両の予想移動量としては、当該画像フレームタイミングから第1の時間間隔だけ遡る期間における車両の予想移動距離と、当該画像フレームタイミングにおける車両の予想舵角を採用する。
Subsequently, in
画像フレームタイミングt11を例に挙げると、当該画像フレームタイミングt11から第1の時間間隔だけ遡る期間、すなわち、時点t03から時点t11までの期間における車両の予想移動距離と、時点t11における車両の予想舵角を算出する。 Taking the image frame timing t11 as an example, the expected travel distance of the vehicle in a period that goes back by the first time interval from the image frame timing t11, that is, the period from the time t03 to the time t11, and the predicted steering of the vehicle at the time t11. Calculate the corner.
予想移動量については、今回の時点t1において取得した車両移動量情報と、前回の車両移動量情報の取得時点t0において取得した車両移動量情報と、に基づいて推定してもよいし、今回の時点t1において取得した車両移動量情報のみに基づいて推定してもよい。 The predicted movement amount may be estimated based on the vehicle movement amount information acquired at the current time point t1 and the vehicle movement amount information acquired at the acquisition time point t0 of the previous vehicle movement amount information. You may estimate based only on the vehicle movement amount information acquired in the time t1.
例えば、予想移動距離については、前回の時点t0に取得した車両移動量情報に含まれる車両の移動距離(長さが第2の時間間隔の時点t0までの期間における車両の移動距離)がL0であり、今回の時点t1に取得した車両移動量情報に含まれる車両の移動距離(長さが第2の時間間隔の時点t1までの期間における車両の移動距離)がL1であったとすると、次の第2の時間間隔の期間における車両の移動距離が、これら時点t0、t1における値L0、L1を用いて線形補外した値(2×L1−L0)であると推定してもよいし、今回値すなわちL1であると推定してもよい。 For example, for the predicted travel distance, the travel distance of the vehicle (the travel distance of the vehicle in the period up to the time point t0 of the second time interval) included in the vehicle travel amount information acquired at the previous time point t0 is L0. Yes, if the moving distance of the vehicle (the moving distance of the vehicle in the period up to the time point t1 of the second time interval) included in the vehicle movement amount information acquired at the current time point t1 is L1, It may be estimated that the moving distance of the vehicle during the second time interval is a value (2 × L1−L0) obtained by linear extrapolation using the values L0 and L1 at the time points t0 and t1. You may estimate that it is a value, ie, L1.
そして、時点t03から時点t11までの車両の予想移動距離については、車両が上記線形補外値または今回値で一定速度で移動すると仮定して算出する。すなわち、上記線形補外値または今回値に(t11−t03)/(t2−t1)を乗算した値を時点t03から時点t11までの予想移動距離とする。同様に、時点t11から時点t12までの車両の予想移動距離は、上記線形補外値または今回値に(t12−t11)/(t2−t1)を乗算した値とし、時点t12から時点t13までの車両の予想移動距離は、上記線形補外値または今回値に(t13−t12)/(t2−t1)を乗算した値とする。 The predicted travel distance of the vehicle from time t03 to time t11 is calculated on the assumption that the vehicle moves at a constant speed with the linear extrapolation value or the current value. That is, the linear extrapolation value or a value obtained by multiplying the current value by (t11−t03) / (t2−t1) is set as an expected movement distance from time t03 to time t11. Similarly, the predicted travel distance of the vehicle from time t11 to time t12 is the value obtained by multiplying the linear extrapolation value or the current value by (t12-t11) / (t2-t1), and from time t12 to time t13. The predicted travel distance of the vehicle is a value obtained by multiplying the linear extrapolation value or the current value by (t13−t12) / (t2−t1).
また、予想舵角については、前回の時点t0に取得した車両移動量情報に含まれる車両の舵角がW0であり、今回の時点t1に取得した車両移動量情報に含まれる車両の移動距離がW1であったとすると、次の時点t2における車両の舵角が、これら時点t0、t1における値W0、W1を用いて線形補外した値(2×W1−W0)であると推定してもよいし、今回値すなわちW1であると推定してもよい。 As for the predicted steering angle, the steering angle of the vehicle included in the vehicle movement amount information acquired at the previous time point t0 is W0, and the movement distance of the vehicle included in the vehicle movement amount information acquired at the current time point t1 is If it is W1, the rudder angle of the vehicle at the next time point t2 may be estimated to be a value (2 × W1−W0) obtained by linear extrapolation using the values W0 and W1 at the time points t0 and t1. Then, it may be estimated that the current value, that is, W1.
そして、時点t03から時点t11までの車両の予想舵角については、車両が上記線形補外値または今回値で一定速度で移動すると仮定して算出する。すなわち、上記線形補外値または今回値に(t11−t03)/(t2−t1)を乗算した値を時点t03から時点t11までの予想舵角とする。同様に、時点t11から時点t12までの車両の予想舵角は、上記線形補外値または今回値に(t12−t11)/(t2−t1)を乗算した値とし、時点t12から時点t13までの車両の予想舵角は、上記線形補外値または今回値に(t13−t12)/(t2−t1)を乗算した値とする。 The predicted steering angle of the vehicle from time t03 to time t11 is calculated on the assumption that the vehicle moves at a constant speed with the linear extrapolation value or the current value. That is, the linear extrapolation value or a value obtained by multiplying the current value by (t11−t03) / (t2−t1) is set as the predicted steering angle from time t03 to time t11. Similarly, the predicted steering angle of the vehicle from time t11 to time t12 is a value obtained by multiplying the linear extrapolation value or the current value by (t12-t11) / (t2-t1), and from time t12 to time t13. The predicted steering angle of the vehicle is a value obtained by multiplying the linear extrapolation value or the current value by (t13-t12) / (t2-t1).
また、ステップ240では、画像フレームタイミングt11、t12、t13以外にも、現在の時点t1から第2の時間経過後の時点t2における車両の予想移動量も推定する。具体的には、時点t1から時点t2までの期間における車両の予想移動距離と、時点t2における車両の予想舵角を算出する。これらの値としては、上述の線形補外値または今回値を採用すればよい。
In
続いてステップ250では、ステップ220で算出した差分を用いた補正を行うが、t1の時点では、車両周辺画像表示制御装置1の作動開始後から車両信号入力I/F3が車両移動量情報を取得した回数が3回未満であることに基づいて、ステップ250の処理はバイパスしてステップ260に処理を進める。
Subsequently, in
ステップ260では、ステップ240で推定した時点t11、t12、t13、t2における予想移動量(具体的には予想移動距離および予想舵角)を記憶媒体(例えば演算部5内の図示しないRAM)に記録する。その後、処理をステップ210に戻し、再度車両信号入力I/F3が車両移動量情報を取得するまで、車両移動量情報を取得していないと判定しつつステップ210の判定処理を繰り返す。
In
[時点t11における作動]
その後、時間が経過し、時点t11になると、画像入力I/F2が撮影画像を取得して画像メモリ4に記録する。すると演算部5は、図4の処理において、まずステップ110で、撮影画像を取得したと判定してステップ120に進み、現時点t11における車両の予想移動量(予想移動距離および予想舵角)を読み出す。時点t11における車両の予想移動量は、時点t1において図5のステップ260で既に記録されている。
[Operation at time t11]
Thereafter, when time elapses and time t11 is reached, the image input I / F 2 acquires a captured image and records it in the image memory 4. Then, in the process of FIG. 4, the
続いてステップ130では、読み出した時点t11における予想移動量に基づいて、現時点t11における実画像および履歴画像を作成し、作成した実画像と履歴画像とを合成することで車両周辺画像を作成する。
Subsequently, in
ここで、現時点t11における実画像および履歴画像の作成方法について説明する。現時点t11における実画像は、今回取得した撮影画像(すなわち、画像メモリ4に記録されている最新の撮影画像)を鳥瞰変換することで得られるトップビュー画像である。 Here, a method of creating a real image and a history image at the current time t11 will be described. The actual image at the current time t11 is a top view image obtained by performing bird's-eye conversion on the captured image acquired this time (that is, the latest captured image recorded in the image memory 4).
また、現時点t11における履歴画像は、今回よりも前に取得した撮影画像(すなわち、画像メモリ4に記録されている撮影画像のうち、最新でない撮影画像)に対して、鳥瞰変換、回転変換等の処理を施した結果のトップビュー画像である。 The history image at the current time t11 is obtained by performing bird's-eye conversion, rotation conversion, or the like on a captured image acquired before this time (that is, a captured image that is not the latest among the captured images recorded in the image memory 4). It is a top view image as a result of processing.
具体的には、現時点t11よりも1回前に画像入力I/F2が取得した撮影画像(時点t03における撮影画像)を鳥瞰変換し、鳥瞰変換した後の画像を、時点t03から時点t11までの車両の移動によって車両の周囲の位置が変化するのと同様に回転させる。 Specifically, the captured image (captured image at time t03) acquired by the image input I / F 2 one time before the current time t11 is bird's-eye converted, and the image after the bird's-eye conversion is converted from time t03 to time t11. The vehicle is rotated in the same manner as the position around the vehicle changes as the vehicle moves.
このためには、時点t03から現時点t11までの車両の移動内容を算出する必要があるが、最後に車両移動量情報を取得したのは時点t1なので、現在の車両の実際の位置を特定することはできない。したがって、ステップ120で読み出した時点t11における予想移動量(予想移動距離、予想舵角)を用いて、実際の車両の移動内容を推定する。
For this purpose, it is necessary to calculate the movement contents of the vehicle from the time point t03 to the current time point t11. However, since the vehicle movement amount information was finally acquired at the time point t1, the actual position of the current vehicle must be specified. I can't. Accordingly, the actual movement content of the vehicle is estimated using the predicted movement amount (expected movement distance, predicted steering angle) at time t11 read in
具体的には、時点t03から時点t11まで、車両は、読み出した予想舵角を維持しながら、周知のアッカーマンモデルに従って、読み出した予想移動距離だけ後退したと推定する。これにより、時点t03から時点t11までの車両の旋回中心および旋回中心から見込んだ車両の旋回角を推定することができる。時点t03の撮影画像を鳥瞰変換した画像に対しては、上述の旋回中心を回転中心とし、回転角を上記旋回角と同じ大きさかつ逆向とするような回転変換を施し、その結果の画像を、履歴画像とする。 Specifically, from time t03 to time t11, it is estimated that the vehicle has moved backward by the read predicted movement distance according to a well-known Ackermann model while maintaining the read predicted steering angle. Thereby, the turning center of the vehicle from the time point t03 to the time point t11 and the turning angle of the vehicle as seen from the turning center can be estimated. For the image obtained by bird's-eye conversion of the photographed image at time t03, rotation conversion is performed so that the rotation center is the same as the rotation angle and the rotation angle is the same as the rotation angle. And a history image.
そして、このようにして作成した履歴画像と、上述の実画像とを合成するが、合成の際には、履歴画像と実画像とが重なる部分については、履歴画像を削除して、実画像を優先させる。更に、このようにして合成した画像に対して自車画像を合成する。この際、自車画像と実画像の位置関係を、上述の図2(a)のようにすることで、自車画像と履歴画像の位置関係は、自動的に、時点t11における車両と実際の車両周囲との位置関係に概ね合致するようになる。自車画像を合成した後の画像が、ディスプレイに表示させるための車両周辺画像となる。 Then, the history image created in this way and the above-described actual image are synthesized. At the time of synthesis, the history image is deleted for the portion where the history image and the actual image overlap, Prioritize. Further, the vehicle image is synthesized with the image synthesized in this way. At this time, by making the positional relationship between the vehicle image and the actual image as shown in FIG. 2A, the positional relationship between the vehicle image and the history image is automatically set to the actual vehicle and the actual image at time t11. It almost matches the positional relationship with the surroundings of the vehicle. The image after combining the own vehicle image becomes the vehicle peripheral image to be displayed on the display.
続いてステップ140では、この車両周辺画像を画像出力I/F6に出力することで、ディスプレイに表示させる。このとき、ディスプレイには、図2(b)に示すような、自車画像10、実画像11、履歴画像12が合成された車両周辺画像が表示される。このとき、実画像11と履歴画像12の境界における位置ずれは、非常に小さくなる。これは、履歴画像12が、最後に車両移動量情報を取得した時点t1における車両と周囲の位置関係を反映するよう作成されているのではなく、実画像11の元となる最新の撮影画像を取得した時点t11における車両と周囲の位置関係を反映するよう作成されているからである。ステップ140の後は、処理をステップ110に戻し、再度画像入力I/F2が車両移動量情報を取得するまで、撮影画像を取得していないと判定しつつステップ110の判定処理を繰り返す。
Subsequently, in
[時点t12における作動]
その後、時間が経過し、時点t12になると、画像入力I/F2が撮影画像を取得して画像メモリ4に記録する。すると演算部5は、図4の処理において、まずステップ110で、撮影画像を取得したと判定してステップ120に進み、現時点t12における車両の予想移動量(予想移動距離および予想舵角)を読み出す。時点t12における車両の予想移動量は、時点t1において図5のステップ260で既に記録されている。
[Operation at time t12]
Thereafter, when time elapses and time t12 is reached, the image input I / F 2 acquires a captured image and records it in the image memory 4. Then, in the process of FIG. 4, the
続いてステップ130では、読み出した時点t12における予想移動量に基づいて、現時点t12における実画像および履歴画像を作成し、作成した実画像と履歴画像とを合成することで車両周辺画像を作成する。現時点t12における実画像の作成方法は、時点t11における方法と同様である。
Subsequently, at
また、現時点t12における履歴画像の作成に関しては、車両周辺画像表示制御装置1の作動後に履歴画像を作成するのが2回目以降であることに基づいて、1回目であった時点t11とは異なる方法で履歴画像を作成する。すなわち、前回の撮影画像の取得時である時点t11(第1の撮影時点から第1の時間間隔だけ遡った前回撮影画像取得時点に相当する)に作成した車両周辺画像に対して回転変換等の修正を施すことで、時点t12(第1の撮影時点に相当する)における車両と車両周囲の実際の位置関係に合致するよう修正したトップビュー画像を、今回の車両周辺画像とする。
Further, regarding the creation of the history image at the current time t12, a method different from the time t11 that is the first time is based on the fact that the history image is created after the second operation after the operation of the vehicle peripheral image
このために、時点t11から現時点t12までの車両の移動内容を算出するが、その方法は時点t11における方法と同様、ステップ120で読み出した時点t12における予想移動量(予想移動距離、予想舵角)を用いて、実際の車両の移動内容を推定する。
For this purpose, the movement contents of the vehicle from the time point t11 to the current time point t12 are calculated. The method is the same as the method at the time point t11, and the predicted movement amount (expected movement distance, predicted steering angle) at the time point t12 read in
具体的には、時点t11から時点t12まで、車両は、読み出した予想舵角を維持しながら、周知のアッカーマンモデルに従って、読み出した予想移動距離だけ後退したと推定する。これにより、時点t11から時点t12までの車両の旋回中心および旋回中心から見込んだ車両の旋回角を推定することができる。時点t11の車両周辺画像に対しては、上述の旋回中心を回転中心とし、回転角を上記旋回角と同じ大きさかつ逆向とするような回転変換を施し、その結果の画像を、履歴画像とする。なお、時点t11に作成された車両周辺画像は、今回の時点t12よりも前に取得した撮影画像を用いて作成されている。 Specifically, from time t11 to time t12, it is estimated that the vehicle has moved back by the read predicted moving distance according to a well-known Ackermann model while maintaining the read predicted steering angle. As a result, the turning center of the vehicle from the time point t11 to the time point t12 and the turning angle of the vehicle estimated from the turning center can be estimated. For the vehicle peripheral image at time t11, the rotation conversion is performed so that the turning center is the rotation center and the rotation angle is the same size as the turning angle, and the rotation angle is reversed. To do. Note that the vehicle peripheral image created at time t11 is created using a captured image acquired before time t12 of this time.
そして、このようにして作成した履歴画像と、上述の実画像とを合成するが、合成の際には、履歴画像と実画像とが重なる部分については、履歴画像を削除して、実画像を優先させる。更に、このようにして合成した画像に対して自車画像を合成する。この際、自車画像と実画像の位置関係を、上述の図2(b)のようにすることで、自車画像10と履歴画像12の位置関係は、自動的に、時点t12における車両と実際の車両周囲との位置関係に概ね合致するようになる。自車画像を合成した後の画像が、ディスプレイに表示させるための車両周辺画像となる。
Then, the history image created in this way and the above-described actual image are synthesized. At the time of synthesis, the history image is deleted for the portion where the history image and the actual image overlap, Prioritize. Further, the vehicle image is synthesized with the image synthesized in this way. At this time, by making the positional relationship between the vehicle image and the actual image as shown in FIG. 2B, the positional relationship between the
続いてステップ140では、この車両周辺画像を画像出力I/F6に出力することで、ディスプレイに表示させる。このとき、ディスプレイには、図2(c)に示すような、自車画像10、実画像11、履歴画像12が合成された車両周辺画像が表示される。このとき、実画像11と履歴画像12の境界における位置ずれは、既に説明した通り、非常に小さくなる。
Subsequently, in
[時点t13における作動]
その後、時間が経過し、時点t13になると、画像入力I/F2が撮影画像を取得して画像メモリ4に記録する。すると演算部5は、図4の処理において、まずステップ110で、撮影画像を取得したと判定してステップ120に進み、現時点t13における車両の予想移動量(予想移動距離および予想舵角)を読み出す。続いてステップ130では、読み出した時点t13における予想移動量に基づいて、現時点t13における実画像および履歴画像を作成し、作成した実画像と履歴画像とを合成することで車両周辺画像を作成する。現時点t12における実画像および履歴画像の作成方法および合成方法は、時点t12における方法と同様である。続いてステップ140では、作成した車両周辺画像を画像出力I/F6に出力することで、ディスプレイに表示させる。このとき、実画像と履歴画像の境界における位置ずれは、既に説明した通り、非常に小さくなる。
[Operation at time t13]
Thereafter, when time elapses and time t13 is reached, the image input I / F 2 acquires a captured image and records it in the image memory 4. Then, in the process of FIG. 4, the
[時点t2における作動]
その後、時間が経過し、時点t2になると、図5の処理において、ステップ210で、車両信号入力I/F3から車両移動量情報を取得したと判定し、処理をステップ220に進める。
[Operation at time t2]
Thereafter, when time elapses and time t2 is reached, it is determined in
ステップ220では、t2の時点では、車両周辺画像表示制御装置1の作動開始後から車両信号入力I/F3が車両移動量情報を取得した回数が3回以上であることに基づいて、前回の推定結果との差分算出処理を行う。この差分抽出処理では、時点t2(第2の移動量情報取得時点に相当する)において取得した車両移動量情報に含まれる移動距離Lr(時点t1から時点t2までの期間における車両の移動距離)および舵角Wr(時点t2において検出されている最新の舵角)と、時点t1(第1の移動量情報取得時点に相当する)において推定した時点t2の予想移動距離Leおよび予想舵角Weとのずれ量(具体的には差分)を算出する。時点t2の予想移動距離および予想舵角は、時点t1において図5のステップ240で推定および記録されている。
In
より具体的には、上記移動距離Lrから上記予想移動距離Leを減算して得られる移動距離差分Lr−Le、および、上記舵角Wrから上記予想舵角Weを減算して得られる舵角差分Wr−Weを算出する。これら差分は、時点t1に推定した移動距離および舵角が、実際の移動距離および舵角とどれ程ずれていたかを示す指標である。予想移動量(予想移動距離および予想舵角)が実際の移動量(移動距離よび舵角)と大きく異なっていれば、実画像と履歴画像の境界において画像のずれが大きくなってしまい、その結果、ユーザが違和感を与えてしまう可能性が高くなる。 More specifically, the travel distance difference Lr−Le obtained by subtracting the predicted travel distance Le from the travel distance Lr, and the steering angle difference obtained by subtracting the predicted steering angle We from the steering angle Wr. Wr-We is calculated. These differences are indices indicating how much the travel distance and the steering angle estimated at the time point t1 deviate from the actual travel distance and the steering angle. If the expected travel distance (expected travel distance and predicted rudder angle) is significantly different from the actual travel distance (travel distance and rudder angle), there will be a large image shift at the boundary between the actual image and the history image. There is a high possibility that the user will feel uncomfortable.
続いてステップ230では、画像フレームタイミングの特定を行う。具体的には、現時点t2から現時点の次の車両移動量情報の取得時点t3(現在よりも第2の時間間隔後である時点t3)までの期間B(ただし現時点t2は除く)内で、画像入力I/F2が撮影画像を取得する予定の時点t21、t22、t23、t24(以下、第1の撮影画像取得時点という)を特定する。具体的には、画像入力I/F2が前回(つまり、現時点より前において最後に)撮影画像を取得した時点t13を起点とし、その起点から所定の第1の時間間隔の整数倍の時間がちょうど経過した時点t21、t22、t23、t24のすべてを、期間B内で抽出し、それらの時点t21、t22、t23、t24を画像フレームタイミング(第1の撮影画像取得時点)とする。
In
続いてステップ240では、ステップ230で特定した各画像フレームタイミングt21、t22、t23、t24における車両の予想移動量(予想移動距離および予想舵角)を、時点t1におけるステップ240と同様の方法で、推定する。
Subsequently, in
画像フレームタイミングt21を例に挙げると、当該画像フレームタイミングt21から第1の時間間隔だけ遡る期間、すなわち、時点t13から時点t21までの期間における車両の予想移動距離と、時点t21における車両の予想舵角を算出する。算出方法は、時点t1におけるステップ240と同様に、時点t2における今回値を予想移動距離および予想舵角として採用してもよいし、時点t1および時点t2の移動距離および舵角を用いた線形補外値を予想移動距離および予想舵角としてもよい。
Taking the image frame timing t21 as an example, the expected travel distance of the vehicle in a period that goes back from the image frame timing t21 by the first time interval, that is, the period from the time t13 to the time t21, and the predicted steering of the vehicle at the time t21. Calculate the corner. The calculation method may adopt the current value at the time t2 as the predicted movement distance and the predicted steering angle as in
また、ステップ240では、画像フレームタイミングt21、t22、t23以外にも、現在の時点t2から第2の時間経過後の時点t3における車両の予想移動量も推定する。具体的には、時点t2から時点t3までの期間における車両の予想移動距離と、時点t3における車両の予想舵角を算出する。これらの値としては、上述の線形補外値または今回値を採用すればよい。この時点t2の予想移動量は、後の時点t3においてステップ220で用いられる。
In
続いてステップ250では、t2の時点では、車両周辺画像表示制御装置1の作動開始後から車両信号入力I/F3が車両移動量情報を取得した回数が3回以上であることに基づいて、ステップ220で算出した差分を用いた補正を行う。
Subsequently, in
この補正の対象は、現時点t2以降で現時点に最も近い画像フレームタイミングである時点t21における、予想移動量(予想移動距離および予想舵角)である。この補正は、時点t2における予想移動量と実際の移動量とのずれ量が、時点t2以降の車両周辺画像表示に悪影響を及ぼすことのないよう、それまでのずれを次の表示タイミングt21で解消するための補正である。 The target of this correction is the predicted movement amount (expected moving distance and predicted steering angle) at the time t21 that is the image frame timing closest to the current time after the current time t2. This correction eliminates the previous deviation at the next display timing t21 so that the deviation amount between the predicted movement amount and the actual movement amount at the time point t2 does not adversely affect the vehicle surrounding image display after the time point t2. It is a correction to do.
具体的には、ステップ240で算出した時点t21の予想移動距離に対し、ステップ220で算出した移動距離差分Lr−Leを加算する補正を行う。また同様に、図6に示すように、ステップ240で算出した時点t21の予想舵角W21に対し、ステップ220で算出した舵角差分D=Wr−Weを加算する補正を行う。
Specifically, correction is performed by adding the movement distance difference Lr−Le calculated in
また、ステップ250では、次の車両移動量情報取得タイミングである時点t3における、予想移動量(予想移動距離および予想舵角)も補正する。具体的には、ステップ240で算出した時点t3の予想移動距離に対し、ステップ220で算出した移動距離差分Lr−Leを加算する補正を行う。また同様に、ステップ240で算出した時点t3の予想舵角に対し、ステップ220で算出した舵角差分Wr−Weを加算する補正を行う。
In
続いてステップ260では、ステップ240で推定した時点t21、t22、t23、t24、t2における予想移動量(具体的には予想移動距離および予想舵角)を記憶媒体(例えば演算部5内の図示しないRAM)に記録する。その後、処理をステップ210に戻し、再度車両信号入力I/F3が車両移動量情報を取得するまで、車両移動量情報を取得していないと判定しつつステップ210の判定処理を繰り返す。
Subsequently, in
[時点t21における作動]
その後、時間が経過し、時点t21になると、画像入力I/F2が撮影画像を取得して画像メモリ4に記録する。すると演算部5は、図4の処理において、まずステップ110で、撮影画像を取得したと判定してステップ120に進み、現時点t21における車両の予想移動量(予想移動距離および予想舵角)を読み出す。ここで読み出す予想移動量は、時点t2において図5のステップ250で補正された予想移動量である。
[Operation at time t21]
Thereafter, when time elapses and time t21 is reached, the image input I / F 2 acquires a captured image and records it in the image memory 4. Then, in the process of FIG. 4, the
続いてステップ130では、読み出した時点t21における予想移動量に基づいて、現時点t21における実画像および履歴画像を作成し、作成した実画像と履歴画像とを合成することで車両周辺画像を作成する。現時点t21における実画像および履歴画像の作成方法および合成方法は、時点t12、t13における方法と同様である。続いてステップ140では、作成した車両周辺画像を画像出力I/F6に出力することで、ディスプレイに表示させる。このとき、実画像と履歴画像の境界における位置ずれは、既に説明した通り、非常に小さくなる。
Subsequently, in
また、読み出した時刻t21の予想移動量が、時刻t2における予想移動量と実際の移動量のずれを相殺するように補正されているので、時刻t2以前の予想移動量の誤差を時刻t2より後に引きずってしまうことがない。 Further, since the read predicted movement amount at time t21 is corrected so as to cancel out the difference between the predicted movement amount at time t2 and the actual movement amount, the error of the predicted movement amount before time t2 is later than time t2. There is no dragging.
[時点t22以降における作動]
時点t22以降における車両周辺画像表示制御装置1の作動は、時点t22、t23、t24、t31、t32、t33、t41、t42、t43においては、時点t21と同様である。また、時点t3、t4、t5においては、時点t2と同様である。
[Operation after time t22]
The operation of the vehicle surrounding image
以上説明した通り、本実施形態の車両周辺画像表示制御装置1の演算部5は、第1の移動量情報取得時点t1、t2、t3、t4、t5において車両移動量情報を取得した場合(ステップ210)、当該取得した車両移動量情報に基づいて、第1の移動量情報取得時点(例えば時点t1)後に撮影画像を取得する予定の第1の撮影画像取得時点(例えば時点t11)から第1の時間間隔だけ遡る期間(例えば、時点t03から時点t11までの期間)に車両が移動する予想移動距離および当該第1の撮影画像取得時点(例えば時点t11)における車両の予想舵角を推定する(ステップ230、240)。
As described above, the
また、演算部5は、第1の撮影画像取得時点(t11、t12、t13、t21、t22、t23、t24、t31、t32、t33、t41、t42、t43)において撮影画像を取得したことに基づいて(ステップ110)、今回取得した撮影画像に基づく画像を実画像とし、また、先に推定された第1の撮影画像取得時点における予想移動距離および予想舵角に基づいて、第1の撮影画像取得時点(例えば時点t11)から第1の時間間隔だけ遡った前回撮影画像取得時点(例えば時点t03)においてディスプレイに出力した車両周辺画像を、第1の撮影時点(例えばt11)における車両と周囲の実際の位置関係に合致するよう修正し、修正した結果の履歴画像を実画像と合成することで、今回の車両周辺画像を作成し(ステップ120、130)、作成した当該今回の車両周辺画像をディスプレイに表示させる(ステップ140)。
Further, the
このように、車両移動量情報を取得したことに基づいて、後の第1の撮影画像取得時点における車両移動量(予想移動距離、予想舵角)を推定し、第1の撮影画像取得時点が訪れたときに、推定した車両移動量を用いて履歴画像を作成することで、実画像と履歴画像の境界における位置ずれは、非常に小さくなる。 Thus, based on having acquired the vehicle movement amount information, the vehicle movement amount (expected moving distance, predicted rudder angle) at the subsequent first captured image acquisition time point is estimated, and the first captured image acquisition time point is By creating a history image using the estimated amount of vehicle movement when visiting, the positional deviation at the boundary between the actual image and the history image becomes very small.
また、演算部5は、第1の移動量情報取得時点(例えば時点t1)において車両移動量情報を取得した場合(ステップ210)、当該取得した車両移動量情報に基づいて、第1の移動量情報取得時点から第2の時間間隔が経過するまでの期間に車両が移動する予想移動距離および第1の移動量情報取得時点から第2の時間間隔が経過した第2の移動量情報取得時点(例えば時点t2)における車両の予想舵角を推定し(ステップ240)、この第2の移動量情報取得時点において車両移動量情報を取得した場合(ステップ210)、当該第2の移動量情報取得時点において取得した車両移動量情報に含まれる移動距離および舵角と、第1の移動量情報取得時点(例えば時点t1)において推定した第2の移動量情報取得時点における予想移動距離および予想舵角とのずれ量を算出し(ステップ220)、当該第2の移動量情報取得時点において取得した車両移動量情報に基づいて、第2の移動量情報取得時点後に撮影画像を取得する予定の第2の撮影画像取得時点(例えば、時点t21)から第1の時間間隔だけ遡る期間(例えば、時点t13から時点t21までの期間)に車両が移動する予想移動距離および第2の撮影画像取得時点における車両の予想舵角を推定し(ステップ230、240)、これら第2の撮影画像取得時点のうち、第2の移動量情報取得時点に最も近い時点(例えば時点t21)における予想移動距離および予想舵角を、当該ずれ量に基づいて修正する(ステップ250)。
In addition, when the vehicle movement amount information is acquired at the first movement amount information acquisition time point (for example, time point t1) (step 210), the
このようにすることで、第1の移動量情報取得時点において推定した第2の移動量情報取得時点における予想移動量(予想移動距離および予想舵角)が、第2の移動量情報取得時点における実際の移動量からずれていたとしても、そのずれを緩和する補正を、次の第2の撮影画像取得時点について推定した予想移動量に施すので、当該第2の撮影画像取得時点において表示する車両周辺画像において、実画像と履歴画像のずれが更に低減される。 By doing in this way, the predicted travel distance (expected travel distance and predicted steering angle) at the second travel distance information acquisition time point estimated at the first travel distance information acquisition time point is the second travel distance information acquisition time point. Even if there is a deviation from the actual movement amount, since the correction for mitigating the deviation is applied to the estimated movement amount estimated for the next second captured image acquisition time point, the vehicle displayed at the second captured image acquisition time point In the peripheral image, the deviation between the actual image and the history image is further reduced.
なお、上記実施形態において、演算部5が、図4のステップ110〜140を実行することで表示制御手段の一例として機能し、ステップ210〜260を実行することで車両移動量推定手段の一例として機能する。また、図1の移動距離推定部51および舵角推定部52の機能は、図5のステップ230、240の処理によって実現され、車両移動量演算部53および画像合成演算部54の機能は、図4のステップ130の処理によって実現され、出力画像生成部55の機能は、図4のステップ140の処理によって実現される。
In the above embodiment, the
以上、本発明の実施形態について説明したが、本発明の範囲は、上記実施形態のみに限定されるものではなく、本発明の各発明特定事項の機能を実現し得る種々の形態を包含するものである。 As mentioned above, although embodiment of this invention was described, the scope of the present invention is not limited only to the said embodiment, The various form which can implement | achieve the function of each invention specific matter of this invention is included. It is.
1 車両周辺画像表示制御装置
2 画像入力I/F
3 車両信号入力I/F
4 画像メモリ
5 演算部
6 画像出力I/F
51 移動距離推定部
52 舵角推定部
53 車両移動量演算部
54 画像合成演算部
55 出力画像生成部
1 Vehicle Peripheral Image Display Control Device 2 Image Input I / F
3 Vehicle signal input I / F
4
51
Claims (3)
前記第1の時間間隔よりも長い第2の時間間隔の周期で、最新の前記周期における前記車両の移動に関する量(以下、移動量という)を含む車両移動量情報を繰り返し取得する車両信号入力インターフェース(3)と、
前記画像入力インターフェース(2)が撮影画像を取得する度に、今回取得した当該撮影画像に基づく実画像と、今回よりも前に取得した撮影画像に基づく履歴画像とを合成して、車両周辺画像を作成し、作成した前記車両周辺画像をディスプレイに表示させる演算部(5)とを備え、
前記演算部(5)は、
前記車両信号入力インターフェース(3)が第1の移動量情報取得時点(t1)において車両移動量情報を取得した場合、当該取得した車両移動量情報に基づいて、前記第1の移動量情報取得時点後に前記画像入力インターフェース(2)が撮影画像を取得する予定の第1の撮影画像取得時点(t11、t12、t13)における前記車両の予想移動量を推定する車両移動量推定手段(210〜260)と、
前記第1の撮影画像取得時点(t11、t12、t13)において前記画像入力インターフェース(2)が撮影画像を取得したことに基づいて、今回取得した撮影画像に基づく画像を実画像とし、また、前記車両移動量推定手段によって推定された前記第1の撮影画像取得時点における前記車両の予想移動量に基づいて、今回よりも前に取得した撮影画像を用いて、前記第1の撮影時点(t11、t12、t13)における前記車両と周囲の実際の位置関係に合致するような履歴画像を作成し、前記履歴実画像と前記実画像とを合成することで、今回の車両周辺画像を作成し、作成した当該今回の車両周辺画像を前記ディスプレイに表示させる表示制御手段(110〜140)と、を有することを特徴とする車両周辺画像表示制御装置。 An image input interface (2) for repeatedly acquiring captured images around the vehicle captured by the camera at a first time interval;
A vehicle signal input interface for repeatedly acquiring vehicle movement amount information including an amount related to movement of the vehicle in the latest cycle (hereinafter referred to as movement amount) in a cycle of a second time interval longer than the first time interval. (3) and
Each time the image input interface (2) acquires a captured image, the actual image based on the captured image acquired this time and the history image based on the captured image acquired before this time are combined to obtain a vehicle peripheral image. And a calculation unit (5) for displaying the created vehicle periphery image on a display,
The calculation unit (5)
When the vehicle signal input interface (3) acquires the vehicle movement amount information at the first movement amount information acquisition time point (t1), the first movement amount information acquisition time point based on the acquired vehicle movement amount information. Vehicle movement amount estimation means (210-260) for estimating the expected movement amount of the vehicle at a first captured image acquisition time point (t11, t12, t13) at which the image input interface (2) intends to acquire a captured image later. When,
Based on the fact that the image input interface (2) has acquired a captured image at the first captured image acquisition time point (t11, t12, t13), an image based on the currently acquired captured image is set as a real image, and Based on the estimated movement amount of the vehicle at the first captured image acquisition time estimated by the vehicle movement amount estimating means, the first captured time point (t11, A history image that matches the actual positional relationship between the vehicle and the surroundings at t12, t13) is created, and the current vehicle surrounding image is created by synthesizing the history actual image and the actual image. Display control means (110-140) for displaying the current vehicle periphery image on the display, the vehicle periphery image display control device.
前記車両信号入力インターフェース(3)が第1の移動量情報取得時点(t1)において車両移動量情報を取得した場合、当該取得した車両移動量情報に基づいて、前記第1の移動量情報取得時点から前記第2の時間間隔が経過するまでの期間における前記車両の予想移動量を推定し、
前記車両信号入力インターフェース(3)が前記第2の移動量情報取得時点において車両移動量情報を取得した場合、前記第2の移動量情報取得時点において取得した車両移動量情報に含まれる移動量と、前記第1の移動量情報取得時点において推定した前記第2の移動量情報取得時点における移動量とのずれ量を算出し、
前記第2の移動量情報取得時点において取得した前記車両移動量情報に基づいて、前記第2の移動量情報取得時点後に前記画像入力インターフェース(2)が撮影画像を取得する予定の第2の撮影画像取得時点(t21、t22、23)から前記第1の時間間隔だけ遡る期間に前記車両が移動する予想移動距離および前記第2の撮影画像取得時点(t21、t22、t23)における前記車両の予想移動量を推定し、
前記第2の撮影画像取得時点のうち、前記第2の移動量情報取得時点に最も近い時点(t21)における予想移動量を、前記ずれ量に基づいて修正することを特徴とする請求項2に記載の車両周辺画像表示制御装置。 The vehicle movement amount estimation means (210-260)
When the vehicle signal input interface (3) acquires the vehicle movement amount information at the first movement amount information acquisition time point (t1), the first movement amount information acquisition time point based on the acquired vehicle movement amount information. To estimate the expected movement amount of the vehicle in a period until the second time interval elapses,
When the vehicle signal input interface (3) acquires the vehicle movement amount information at the time of the second movement amount information acquisition, the movement amount included in the vehicle movement amount information acquired at the time of the second movement amount information acquisition; Calculating a deviation amount from the movement amount at the second movement amount information acquisition time point estimated at the first movement amount information acquisition time point;
Based on the vehicle movement amount information acquired at the time when the second movement amount information is acquired, the second shooting that the image input interface (2) intends to acquire a shot image after the second movement amount information acquisition time point. The expected moving distance that the vehicle moves in a period that goes back by the first time interval from the image acquisition time point (t21, t22, 23) and the prediction of the vehicle at the second captured image acquisition time point (t21, t22, t23) Estimate the amount of movement,
The expected movement amount at a time point (t21) closest to the second movement amount information acquisition time point among the second captured image acquisition time points is corrected based on the deviation amount. The vehicle periphery image display control apparatus described.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011190704A JP5790335B2 (en) | 2011-09-01 | 2011-09-01 | Vehicle peripheral image display control device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011190704A JP5790335B2 (en) | 2011-09-01 | 2011-09-01 | Vehicle peripheral image display control device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2013055410A true JP2013055410A (en) | 2013-03-21 |
JP5790335B2 JP5790335B2 (en) | 2015-10-07 |
Family
ID=48132059
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011190704A Active JP5790335B2 (en) | 2011-09-01 | 2011-09-01 | Vehicle peripheral image display control device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5790335B2 (en) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2015133072A1 (en) * | 2014-03-05 | 2015-09-11 | 株式会社デンソー | Vehicle peripheral image display device and method for displaying vehicle peripheral image |
WO2016072300A1 (en) * | 2014-11-04 | 2016-05-12 | 株式会社デンソー | Vehicle periphery image display device and vehicle periphery image display method |
JP2016213708A (en) * | 2015-05-11 | 2016-12-15 | トヨタ自動車株式会社 | Vehicle display device |
US20170144599A1 (en) * | 2014-04-04 | 2017-05-25 | Wise Automotive Corporation | Apparatus and method for generating image around vehicle |
JP2017124751A (en) * | 2016-01-14 | 2017-07-20 | アルパイン株式会社 | Parking support device and parking support method |
WO2020170835A1 (en) * | 2019-02-18 | 2020-08-27 | ソニー株式会社 | Information processing device, information processing method, and information processing program |
DE112015004341B4 (en) | 2014-09-24 | 2022-03-10 | Denso Corporation | VEHICLE IMAGE PROCESSING DEVICE |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000272445A (en) * | 1999-01-19 | 2000-10-03 | Toyota Autom Loom Works Ltd | Steering support device in reversing vehicle |
JP2002354467A (en) * | 2001-05-25 | 2002-12-06 | Nissan Motor Co Ltd | Surrounding information display unit for vehicle |
JP2004338637A (en) * | 2003-05-16 | 2004-12-02 | Toyota Motor Corp | Vehicle travel support device |
JP2008172535A (en) * | 2007-01-11 | 2008-07-24 | Sanyo Electric Co Ltd | Operation supporting system, image processing device, and deviation detecting method |
JP2009006824A (en) * | 2007-06-27 | 2009-01-15 | Sumitomo Electric Ind Ltd | Onboard unit and traveling control method |
-
2011
- 2011-09-01 JP JP2011190704A patent/JP5790335B2/en active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000272445A (en) * | 1999-01-19 | 2000-10-03 | Toyota Autom Loom Works Ltd | Steering support device in reversing vehicle |
JP2002354467A (en) * | 2001-05-25 | 2002-12-06 | Nissan Motor Co Ltd | Surrounding information display unit for vehicle |
JP2004338637A (en) * | 2003-05-16 | 2004-12-02 | Toyota Motor Corp | Vehicle travel support device |
JP2008172535A (en) * | 2007-01-11 | 2008-07-24 | Sanyo Electric Co Ltd | Operation supporting system, image processing device, and deviation detecting method |
JP2009006824A (en) * | 2007-06-27 | 2009-01-15 | Sumitomo Electric Ind Ltd | Onboard unit and traveling control method |
Cited By (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015170915A (en) * | 2014-03-05 | 2015-09-28 | 株式会社デンソー | Vehicle peripheral image display device and vehicle peripheral image display method |
WO2015133072A1 (en) * | 2014-03-05 | 2015-09-11 | 株式会社デンソー | Vehicle peripheral image display device and method for displaying vehicle peripheral image |
CN106063258A (en) * | 2014-03-05 | 2016-10-26 | 株式会社电装 | Vehicle peripheral image display device and method for displaying vehicle peripheral image |
CN106063258B (en) * | 2014-03-05 | 2018-12-25 | 株式会社电装 | Vehicle-surroundings image display device, vehicle-surroundings image display method |
US20170144599A1 (en) * | 2014-04-04 | 2017-05-25 | Wise Automotive Corporation | Apparatus and method for generating image around vehicle |
DE112015004341B4 (en) | 2014-09-24 | 2022-03-10 | Denso Corporation | VEHICLE IMAGE PROCESSING DEVICE |
JP2016091250A (en) * | 2014-11-04 | 2016-05-23 | 株式会社デンソー | Vehicle surrounding image display apparatus and vehicle surrounding image display method |
WO2016072300A1 (en) * | 2014-11-04 | 2016-05-12 | 株式会社デンソー | Vehicle periphery image display device and vehicle periphery image display method |
JP2016213708A (en) * | 2015-05-11 | 2016-12-15 | トヨタ自動車株式会社 | Vehicle display device |
JP2017124751A (en) * | 2016-01-14 | 2017-07-20 | アルパイン株式会社 | Parking support device and parking support method |
US10189501B2 (en) | 2016-01-14 | 2019-01-29 | Alpine Electronics, Inc. | Parking assist apparatus and parking assist method |
WO2020170835A1 (en) * | 2019-02-18 | 2020-08-27 | ソニー株式会社 | Information processing device, information processing method, and information processing program |
JPWO2020170835A1 (en) * | 2019-02-18 | 2021-12-23 | ソニーグループ株式会社 | Information processing equipment, information processing methods and information processing programs |
JP7371679B2 (en) | 2019-02-18 | 2023-10-31 | ソニーグループ株式会社 | Information processing device, information processing method, and information processing program |
Also Published As
Publication number | Publication date |
---|---|
JP5790335B2 (en) | 2015-10-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5790335B2 (en) | Vehicle peripheral image display control device | |
JP6003226B2 (en) | Vehicle surrounding image display control apparatus and vehicle surrounding image display control program | |
JP4818816B2 (en) | Parking assistance program and parking assistance device | |
JP2001218197A (en) | Device for displaying periphery of vehicle | |
JP5994437B2 (en) | Vehicle surrounding image display control apparatus and vehicle surrounding image display control program | |
JP2019175133A (en) | Image processing device, image display system, and image processing method | |
JP2015154336A (en) | Display image generation device and display image generation program | |
JP2018112425A (en) | Method for system time synchronization | |
RU2009107926A (en) | ULTRASONIC IMAGE SYSTEM | |
JP2015171106A (en) | Vehicle peripheral image display device and vehicle peripheral image display method | |
US20200267353A1 (en) | Display processing device | |
JP2017098785A (en) | Display controller and display control program | |
WO2017217422A1 (en) | Image generation device and program | |
JP2005212660A (en) | Parking assist system | |
JP4814752B2 (en) | Display control device | |
JP5863105B2 (en) | Vehicle movement amount estimation device and obstacle detection device | |
JP5083137B2 (en) | Driving assistance device | |
JP6327144B2 (en) | Image processing system and image processing apparatus | |
JP2008226067A (en) | Image processor and image processing method | |
EP3396620B1 (en) | Display control device and display control method | |
JP6464846B2 (en) | Vehicle surrounding image display control device and vehicle surrounding image display control program | |
JP7140649B2 (en) | Parking assistance system and parking assistance method | |
JP6519409B2 (en) | Vehicle peripheral image display control device and vehicle peripheral image display control program | |
JP6455193B2 (en) | Electronic mirror system and image display control program | |
JP2017175268A (en) | Image processing system, image processing method, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20140521 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20141225 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20150106 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20150119 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20150707 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20150720 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 5790335 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |