JP2013055410A - Vehicle peripheral image display control device - Google Patents

Vehicle peripheral image display control device Download PDF

Info

Publication number
JP2013055410A
JP2013055410A JP2011190704A JP2011190704A JP2013055410A JP 2013055410 A JP2013055410 A JP 2013055410A JP 2011190704 A JP2011190704 A JP 2011190704A JP 2011190704 A JP2011190704 A JP 2011190704A JP 2013055410 A JP2013055410 A JP 2013055410A
Authority
JP
Japan
Prior art keywords
image
vehicle
movement amount
time
amount information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2011190704A
Other languages
Japanese (ja)
Other versions
JP5790335B2 (en
Inventor
Masakazu Takeichi
真和 竹市
Hirohiko Yanagawa
博彦 柳川
Heishin O
丙辰 王
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Original Assignee
Denso Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp filed Critical Denso Corp
Priority to JP2011190704A priority Critical patent/JP5790335B2/en
Publication of JP2013055410A publication Critical patent/JP2013055410A/en
Application granted granted Critical
Publication of JP5790335B2 publication Critical patent/JP5790335B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide a vehicle peripheral image display control device for combining real and history images to show a vehicle peripheral image on display, which reduces displacement between the real and the history images compared with conventional one in the case where photographed image acquisition timing and vehicle movement amount information acquisition timing are different.SOLUTION: When vehicle movement amount information is acquired at a point of time t1, a vehicle peripheral image display control device 5 estimates, on the basis of the acquired vehicle movement amount information, a vehicle movement amounts at points of time t11 to t13 at which a photographed image is scheduled to be acquired after the point of time t1. When a photographed image is acquired at each of the points of time t11 to t13, the image based on the photographed images acquired this time is made a real image. And, on the basis of the estimated movement amount at the points of time t11 to t13 estimated at the point of time t1, a history image is created from past photographed images so that the vehicle at the points of time t11 to t13 and the actual positional relation of the periphery matches. This history image is combined with the real image for display.

Description

本発明は、車両周辺画像表示制御装置に関するものである。   The present invention relates to a vehicle peripheral image display control device.

従来、車両の周辺を撮影するカメラから繰り返し撮影画像を取得し、取得した撮影画像を用いて車両周辺画像を作成してディスプレイに表示させる車両周辺画像表示制御装置が知られている。このような車両周辺画像表示制御装置においては、最新の撮影画像に基づく実画像と、過去の撮影画像に基づく履歴画像とを合成して車両周辺画像とすることで、最新の撮影画像では死角になってしまった車両周辺部分も引き続きディスプレイに表示させるようなものも知られている(例えば、特許文献1参照)。   2. Description of the Related Art Conventionally, a vehicle periphery image display control device that repeatedly acquires captured images from a camera that captures the periphery of the vehicle, creates a vehicle periphery image using the acquired captured image, and displays the vehicle periphery image on a display is known. In such a vehicle periphery image display control device, a real image based on the latest photographed image and a history image based on the past photographed image are combined to form a vehicle periphery image, so that the latest photographed image has a blind spot. It is also known that the peripheral portion of the vehicle that has been displayed is continuously displayed on the display (for example, see Patent Document 1).

特開2003-9141号公報JP 2003-9141 A

このように、最新の撮影画像に基づく実画像と過去の撮影画像に基づく履歴画像とを合成して表示させる場合、履歴画像については、過去の撮影画像に基づき、車両の移動に応じて、車両との実際の位置関係に合致するように作成する必要がある。つまり、履歴画像を作成するには、車両の移動を検出する必要がある。車両の移動を検出する方法としては、車両の移動に関する量(例えば、車速パルス、舵角)を含む車両移動量情報を用いる方法が考えられる。   As described above, when the actual image based on the latest photographed image and the history image based on the past photographed image are combined and displayed, for the history image, the vehicle is moved according to the movement of the vehicle based on the past photographed image. It is necessary to make it so as to match the actual positional relationship with. That is, in order to create a history image, it is necessary to detect the movement of the vehicle. As a method of detecting the movement of the vehicle, a method using vehicle movement amount information including an amount related to the movement of the vehicle (for example, a vehicle speed pulse, a steering angle) is conceivable.

ここで、発明者は、撮影画像の取得タイミングと車両移動量情報の取得タイミングは必ずしも一致しない点に着目した。具体的には、撮影画像は第1の時間間隔で繰り返し取得し、車両移動量情報は第1の時間間隔よりも長い第2の時間間隔で繰り返し取得する場合が考えられる。   Here, the inventor has focused on the point that the acquisition timing of the captured image does not necessarily match the acquisition timing of the vehicle movement amount information. Specifically, it is conceivable that captured images are repeatedly acquired at a first time interval, and vehicle movement amount information is repeatedly acquired at a second time interval that is longer than the first time interval.

このような場合、図7に示すように、実画像は第1の時間間隔(図7の例では30ms間隔)で更新されるのに対し、履歴画像は第2の時間間隔(図7の例では100ms)でしか更新されない。   In such a case, as shown in FIG. 7, the actual image is updated at the first time interval (30 ms interval in the example of FIG. 7), whereas the history image is updated at the second time interval (example of FIG. 7). In 100 ms).

このようになっていると、ディスプレイに表示される車両周辺画像は、図7の時点taのように、まだ履歴画像が作成されていない時点では、図8(a)に示すように、実画像51と車両50のみが表示される。そして、履歴画像が更新された後に実画像が2回更新された時点tbにおいては、履歴画像が実画像よりも遅れたままになっているので、図8(b)に示すように、実画像61と履歴画像62との境界部分において、ずれが生じてしまう。このずれは、履歴画像が撮影された後すぐに実画像の更新が行われる時点tcでは、図8(c)に示すように緩和もしくは解消されるが、また時間が経過して、履歴画像が更新されないまま実画像が更新されていくと、時点tdにおける図8(d)のように、実画像61と履歴画像62との境界部分において再度ずれが生じてしまう。   In this case, the vehicle peripheral image displayed on the display is an actual image as shown in FIG. 8A when a history image is not yet created as shown in FIG. Only 51 and the vehicle 50 are displayed. Then, at the time point tb when the actual image is updated twice after the history image is updated, the history image remains behind the actual image, so as shown in FIG. Deviation occurs at the boundary between 61 and the history image 62. This shift is alleviated or eliminated as shown in FIG. 8C at the time tc when the actual image is updated immediately after the history image is taken. If the actual image is updated without being updated, a shift occurs again at the boundary between the actual image 61 and the history image 62 as shown in FIG.

このように、実画像と履歴画像の境界部において頻繁にずれが生じてしまうと、ユーザに違和感を与えてしまう可能性が高くなる。本発明はこの点に鑑み、実画像と履歴画像を合成して車両周辺画像をディスプレイに表示する車両周辺画像表示制御装置において、撮影画像の取得タイミングと車両移動量情報の取得タイミングが異なっている状況で、実画像と履歴画像のずれを従来よりも低減することを目的とする。   In this way, if there is frequent deviation at the boundary between the actual image and the history image, there is a high possibility that the user will feel uncomfortable. In view of this point, the present invention provides a vehicle peripheral image display control device that combines a real image and a history image to display a vehicle peripheral image on a display, and the captured image acquisition timing and the vehicle movement amount information acquisition timing are different. It is an object of the present invention to reduce the deviation between the actual image and the history image as compared with the conventional case.

上記目的を達成するための請求項1に記載の発明は、カメラが撮影した車両の周辺の撮影画像を第1の時間間隔で繰り返し取得する画像入力インターフェース(2)と、前記第1の時間間隔よりも長い第2の時間間隔の周期で、最新の前記周期における前記車両の移動に関する量(以下、移動量という)を含む車両移動量情報を繰り返し取得する車両信号入力インターフェース(3)と、前記画像入力インターフェース(2)が撮影画像を取得する度に、今回取得した当該撮影画像に基づく実画像と、今回よりも前に取得した撮影画像に基づく履歴画像とを合成して、車両周辺画像を作成し、作成した前記車両周辺画像をディスプレイに表示させる演算部(5)とを備え、前記演算部(5)は、前記車両信号入力インターフェース(3)が第1の移動量情報取得時点(t1)において車両移動量情報を取得した場合、当該取得した車両移動量情報に基づいて、前記第1の移動量情報取得時点後に前記画像入力インターフェース(2)が撮影画像を取得する予定の第1の撮影画像取得時点(t11、t12、t13)における前記車両の予想移動量を推定する車両移動量推定手段(210〜260)と、前記第1の撮影画像取得時点(t11、t12、t13)において前記画像入力インターフェース(2)が撮影画像を取得したことに基づいて、今回取得した撮影画像に基づく画像を実画像とし、また、前記車両移動量推定手段によって推定された前記第1の撮影画像取得時点における前記車両の予想移動量に基づいて、今回よりも前に取得した撮影画像を用いて、前記第1の撮影時点(t11、t12、t13)における前記車両と周囲の実際の位置関係に合致するような履歴画像を作成し、前記履歴実画像と前記実画像とを合成することで、今回の車両周辺画像を作成し、作成した当該今回の車両周辺画像を前記ディスプレイに表示させる表示制御手段(110〜140)と、を有することを特徴とする車両周辺画像表示制御装置である。   In order to achieve the above object, the invention according to claim 1 is characterized in that an image input interface (2) for repeatedly acquiring captured images of the periphery of a vehicle captured by a camera at a first time interval, and the first time interval. A vehicle signal input interface (3) for repeatedly acquiring vehicle movement amount information including an amount related to movement of the vehicle in the latest cycle (hereinafter referred to as movement amount) in a cycle of a second time interval longer than Each time the image input interface (2) acquires a captured image, the actual image based on the captured image acquired this time and the history image based on the captured image acquired before this time are combined to obtain a vehicle peripheral image. And a calculation unit (5) that displays the generated vehicle periphery image on a display, and the calculation unit (5) includes a first signal input interface (3). When the vehicle movement amount information is acquired at the movement amount information acquisition time (t1), the image input interface (2) takes the captured image after the first movement amount information acquisition time based on the acquired vehicle movement amount information. Vehicle movement amount estimation means (210-260) for estimating the expected movement amount of the vehicle at the first captured image acquisition time point (t11, t12, t13) to be acquired, and the first captured image acquisition time point ( Based on the fact that the image input interface (2) acquired the captured image at t11, t12, t13), the image based on the captured image acquired this time is used as a real image, and is estimated by the vehicle movement amount estimating means Based on the estimated movement amount of the vehicle at the time of acquisition of the first captured image, the first captured image is acquired using a captured image acquired before this time. A history image that matches the actual positional relationship between the vehicle and the surroundings at the point (t11, t12, t13) is created, and the current vehicle peripheral image is obtained by synthesizing the history actual image and the actual image. A vehicle surrounding image display control device comprising display control means (110-140) for creating and displaying the created vehicle surrounding image for this time on the display.

このように、車両移動量情報を取得したことに基づいて、後の第1の撮影画像取得時点における車両移動量推定し、第1の撮影画像取得時点が訪れたときに、推定した車両移動量を用いて履歴画像を作成することで、実画像と履歴画像の境界における位置ずれは、非常に小さくなる。   Thus, based on having acquired the vehicle movement amount information, the vehicle movement amount at the subsequent first captured image acquisition time is estimated, and when the first captured image acquisition time point comes, the estimated vehicle movement amount By using this to create a history image, the positional deviation at the boundary between the actual image and the history image becomes very small.

また、請求項2に記載の発明は、請求項1に記載の車両周辺画像表示制御装置において、前記表示制御手段(110〜140)は、前記第1の撮影画像取得時点(t11、t12、t13)において前記画像入力インターフェース(2)が撮影画像を取得したことに基づいて、前記車両移動量推定手段によって推定された前記第1の撮影画像取得時点における前記車両の予想移動量を用いて、前記第1の撮影画像取得時点(t11、t12、t13)から前記第1の時間間隔だけ遡った前回撮影画像取得時点(t03、t11、t12)において前記ディスプレイに出力した車両周辺画像を、前記第1の撮影時点(t11、t12、t13)における前記車両と周囲の実際の位置関係に合致するよう修正して前記履歴画像として、前記履歴画像を前記実画像と合成することで、今回の車両周辺画像を作成し、作成した当該今回の車両周辺画像を前記ディスプレイに表示させることを特徴とする。   According to a second aspect of the present invention, in the vehicle periphery image display control device according to the first aspect, the display control means (110-140) is configured to acquire the first captured image acquisition time (t11, t12, t13). ) On the basis of the fact that the image input interface (2) has acquired the captured image, the estimated movement amount of the vehicle at the first captured image acquisition time point estimated by the vehicle movement amount estimation means is used, The vehicle periphery image output to the display at the previous captured image acquisition time point (t03, t11, t12) that goes back by the first time interval from the first captured image acquisition time point (t11, t12, t13) The history image is corrected to match the actual positional relationship between the vehicle and the surroundings at the time of shooting (t11, t12, t13) as the history image. The By combining with the real image, creates a current vehicle surroundings image, the current vehicle surroundings images generated, characterized in that to be displayed on the display.

また、請求項3に記載の発明は、請求項2に記載の車両周辺画像表示制御装置において、前記車両移動量推定手段(210〜260)は、前記車両信号入力インターフェース(3)が第1の移動量情報取得時点(t1)において車両移動量情報を取得した場合、当該取得した車両移動量情報に基づいて、前記第1の移動量情報取得時点から前記第2の時間間隔が経過するまでの期間における前記車両の予想移動量を推定し、前記車両信号入力インターフェース(3)が前記第2の移動量情報取得時点において車両移動量情報を取得した場合、前記第2の移動量情報取得時点において取得した車両移動量情報に含まれる移動量と、前記第1の移動量情報取得時点において推定した前記第2の移動量情報取得時点における移動量とのずれ量を算出し、前記第2の移動量情報取得時点において取得した前記車両移動量情報に基づいて、前記第2の移動量情報取得時点後に前記画像入力インターフェース(2)が撮影画像を取得する予定の第2の撮影画像取得時点(t21、t22、23)から前記第1の時間間隔だけ遡る期間に前記車両が移動する予想移動距離および前記第2の撮影画像取得時点(t21、t22、t23)における前記車両の予想移動量を推定し、前記第2の撮影画像取得時点のうち、前記第2の移動量情報取得時点に最も近い時点(t21)における予想移動量を、前記ずれ量に基づいて修正することを特徴とする。   According to a third aspect of the present invention, in the vehicle periphery image display control device according to the second aspect, the vehicle movement amount estimating means (210-260) is configured such that the vehicle signal input interface (3) is a first one. When the vehicle movement amount information is acquired at the movement amount information acquisition time point (t1), the second time interval elapses from the first movement amount information acquisition time point based on the acquired vehicle movement amount information. When the estimated movement amount of the vehicle in the period is estimated, and the vehicle signal input interface (3) acquires the vehicle movement amount information at the second movement amount information acquisition time point, at the second movement amount information acquisition time point A shift amount between the movement amount included in the acquired vehicle movement amount information and the movement amount at the second movement amount information acquisition time estimated at the time of acquisition of the first movement amount information is calculated. Based on the vehicle movement amount information acquired at the time when the second movement amount information is acquired, the image input interface (2) is scheduled to acquire a captured image after the second movement amount information acquisition point. The expected moving distance that the vehicle moves in a period that goes back by the first time interval from the captured image acquisition time point (t21, t22, 23) and the vehicle at the second captured image acquisition time point (t21, t22, t23). Estimating the expected movement amount, and correcting the predicted movement amount at the time point (t21) closest to the second movement amount information acquisition time point among the second captured image acquisition time points based on the deviation amount. Features.

このようにすることで、第1の移動量情報取得時点において推定した第2の移動量情報取得時点における予想移動量が、第2の移動量情報取得時点における実際の移動量からずれていたとしても、そのずれを緩和する補正を、次の第2の撮影画像取得時点について推定した予想移動量に施すので、当該第2の撮影画像取得時点において表示する車両周辺画像において、実画像と履歴画像のずれが更に低減される。   By doing so, it is assumed that the expected movement amount at the second movement amount information acquisition time point estimated at the first movement amount information acquisition time point is deviated from the actual movement amount at the second movement amount information acquisition time point. In addition, since the correction for mitigating the deviation is applied to the estimated movement amount estimated for the next second captured image acquisition time point, the actual image and the history image are displayed in the vehicle peripheral image displayed at the second captured image acquisition time point. Deviation is further reduced.

なお、上記および特許請求の範囲における括弧内の符号は、特許請求の範囲に記載された用語と後述の実施形態に記載される当該用語を例示する具体物等との対応関係を示すものである。   In addition, the code | symbol in the bracket | parenthesis in the said and the claim shows the correspondence of the term described in the claim, and the concrete thing etc. which illustrate the said term described in embodiment mentioned later. .

本発明の実施形態に係る車両周辺画像表示制御装置の構成図である。It is a block diagram of the vehicle periphery image display control apparatus which concerns on embodiment of this invention. 車両の後退に伴う実画像11と履歴画像12の変化を例示する図である。It is a figure which illustrates the change of the real image 11 and the log | history image 12 accompanying a vehicle reverse. 車両移動量情報の取得、実画像の更新、履歴画像の更新のタイミングを例示する図である。It is a figure which illustrates the timing of acquisition of vehicle movement amount information, the update of a real image, and the update of a history image. 演算部が実行する処理のフローチャートである。It is a flowchart of the process which a calculating part performs. 演算部が実行する処理のフローチャートである。It is a flowchart of the process which a calculating part performs. 予想移動量Wrと実際の移動量Wrの差分Dを用いた補正を示す図である。It is a figure which shows the correction | amendment using the difference D of the estimated moving amount Wr and the actual moving amount Wr. 想定事例における、実画像の更新タイミングと履歴画像の更新タイミングを表す図である。It is a figure showing the update timing of a real image and the update timing of a history image in an assumption example. 想定事例における、実画像61と履歴画像62の関係を示す図である。It is a figure which shows the relationship between the real image 61 and the log | history image 62 in an assumption example.

以下、本発明の一実施形態について説明する。図1に、本実施形態に係る車両周辺画像表示制御装置1の構成を示す。車両周辺画像表示制御装置1は、車両に搭載され、同じく車両に搭載されて車両の後方を撮影するカメラから繰り返し撮影画像を取得すると共に、CAN等の車内LANから車両の移動に関する量(以下、移動量という)を含む車両移動量情報を繰り返し取得し、撮影画像および車両移動量情報に基づいて車両周辺画像を作成し、作成した車両周辺画像を、車室内のディスプレイに表示させるようになっている。   Hereinafter, an embodiment of the present invention will be described. In FIG. 1, the structure of the vehicle periphery image display control apparatus 1 which concerns on this embodiment is shown. The vehicle peripheral image display control device 1 is mounted on a vehicle, and repeatedly acquires captured images from a camera that is mounted on the vehicle and captures the rear of the vehicle, and also relates to the amount of movement of the vehicle from the in-vehicle LAN such as CAN (hereinafter, Vehicle movement amount information including the movement amount) is repeatedly obtained, a vehicle peripheral image is created based on the captured image and the vehicle movement amount information, and the created vehicle peripheral image is displayed on a display in the vehicle interior. Yes.

そして、本実施形態の車両周辺画像表示制御装置1は、最新の撮影画像に基づく実画像と、過去の撮影画像を用いて車両移動量情報に基づいて作成した履歴画像とを合成したものを車両周辺画像としてディスプレイに表示させることで、車両が移動してカメラの死角となってしまった周辺部分も、ディスプレイに表示するようになっている。   And the vehicle periphery image display control apparatus 1 of this embodiment combines a real image based on the latest captured image and a history image created based on vehicle movement amount information using a past captured image. By displaying it on the display as a peripheral image, the peripheral portion where the vehicle has moved and became a blind spot of the camera is also displayed on the display.

具体的には、車両周辺画像の表示開始時(車両の後退開始時)には、図2(a)に示すように、最新の撮影画像を鳥瞰変換(車両の真上から見下ろす視点の画像への変換)した実画像11と、自車両を表す車両画像10とを合成し、他の部分(カメラの死角部分)は単色(例えば黒色)とする車両周辺画像を作成してディスプレイに表示させる。その後、車両が後退移動を続けると、図2(b)に示すように、その時点の最新の撮影画像を鳥瞰変換した実画像11と、上述の車両画像10に加え、その時点の最新でない過去の撮影画像を用いて、履歴画像12を作成し、車両周辺画像のカメラの死角部分に、履歴画像を重畳させる。この履歴画像12は、過去の撮影画像に基づいて、現在車両との実際の位置関係に合致するよう、実画像11と合成する。したがって、図2(c)に示すように、車両の後退と共に、車両周辺画像中で履歴画像12の範囲が広がっていく。   Specifically, at the start of display of the vehicle periphery image (at the start of reverse of the vehicle), as shown in FIG. 2A, the latest photographed image is converted to a bird's eye view (to an image of a viewpoint looking down from directly above the vehicle). ) And the vehicle image 10 representing the host vehicle are synthesized, and a vehicle peripheral image in which the other part (the blind spot part of the camera) is monochromatic (for example, black) is generated and displayed on the display. Thereafter, when the vehicle continues to move backward, as shown in FIG. 2B, in addition to the real image 11 obtained by bird's-eye conversion of the latest captured image at that time, and the vehicle image 10 described above, the past that is not the latest at that time. A history image 12 is created using the captured images, and the history image is superimposed on the blind spot portion of the camera in the vehicle periphery image. The history image 12 is synthesized with the actual image 11 so as to match the actual positional relationship with the current vehicle based on the past photographed image. Therefore, as shown in FIG. 2C, the range of the history image 12 is expanded in the vehicle peripheral image as the vehicle moves backward.

この車両周辺画像表示制御装置1は、図1に示すように、画像入力I/F2、車両信号入力I/F3、画像メモリ4、演算部5、画像出力I/F6等を有している。   As shown in FIG. 1, the vehicle periphery image display control apparatus 1 includes an image input I / F 2, a vehicle signal input I / F 3, an image memory 4, a calculation unit 5, an image output I / F 6, and the like.

画像入力I/F2は、上記カメラが撮影した車両の周辺の撮影画像を第1の時間間隔(具体的には30ミリ秒間隔)で繰り返し取得するインターフェースである。   The image input I / F 2 is an interface that repeatedly acquires captured images around the vehicle captured by the camera at a first time interval (specifically, an interval of 30 milliseconds).

車両信号入力I/F3は、上記第1の時間間隔よりも長い第2の時間間隔(具体的には100ミリ秒)の周期で、最新の当該周期における車両の移動に関する量(以下、移動量という)を含む車両移動量情報を繰り返し取得するインターフェースである。車両信号入力I/F3は、この車両移動量情報を、上述の通り車内LANから取得する。   The vehicle signal input I / F 3 is an amount related to the movement of the vehicle in the latest period (hereinafter referred to as an amount of movement) at a period of a second time interval (specifically, 100 milliseconds) longer than the first time interval. It is an interface that repeatedly acquires vehicle movement amount information including The vehicle signal input I / F 3 acquires this vehicle movement amount information from the in-vehicle LAN as described above.

ここで、車両移動量情報に含まれる移動量について説明する。車両信号入力I/F3が各時点Tに取得する車両移動量情報中の移動量は、当該時点Tから上記第2の時間間隔だけ遡る期間(すなわち、車両移動量情報を取得する最新の周期)における車両の移動距離と、当該期間において検出された最新の車両の舵角である。   Here, the movement amount included in the vehicle movement amount information will be described. The movement amount in the vehicle movement amount information acquired by the vehicle signal input I / F 3 at each time point T is a period that goes back from the time point T by the second time interval (that is, the latest cycle for acquiring the vehicle movement amount information). And the latest steering angle of the vehicle detected during the period.

当該期間における車両の移動距離は、その期間内において1つの車輪速センサから出力された車速パルス信号の数で表される。また、車両の舵角は、舵角センサによって出力された舵角信号によって検出可能である。   The moving distance of the vehicle in the period is represented by the number of vehicle speed pulse signals output from one wheel speed sensor during the period. Further, the steering angle of the vehicle can be detected by a steering angle signal output by the steering angle sensor.

このような車両移動量情報は、車両に搭載されたECU(図示せず)が、車輪速センサから車速パルス信号を逐次取得すると共に、舵角センサから逐次舵角信号を取得し、上記第2の時間間隔が経過する毎に、この第2の時間間隔内において取得した車速パルス信号の数と、最新の舵角信号に基づいて特定した舵角とを、車両移動量情報に含め、車内LANに出力する。そして車両信号入力I/F3は、このようにECUから繰り返し車内LANに出力された車両移動量情報を逐次取得する。   Such vehicle movement amount information is obtained by the ECU (not shown) mounted on the vehicle sequentially acquiring the vehicle speed pulse signal from the wheel speed sensor and the steering angle signal from the steering angle sensor. The vehicle movement amount information includes the number of vehicle speed pulse signals acquired within the second time interval and the rudder angle specified based on the latest rudder angle signal every time the vehicle time interval elapses. Output to. The vehicle signal input I / F 3 sequentially acquires vehicle movement amount information repeatedly output from the ECU to the in-vehicle LAN.

画像メモリ4は、画像入力I/F2によって繰り返し取得される撮影画像を所定の分量だけ(例えば、最新の10秒間分)蓄積する記憶媒体である。   The image memory 4 is a storage medium that accumulates a predetermined amount (for example, the latest 10 seconds) of captured images repeatedly acquired by the image input I / F 2.

演算部5は、画像入力I/F2が撮影画像を取得する度に、今回画像入力I/F2が取得した当該撮影画像に基づく実画像と、今回よりも前に画像入力I/F2が取得した撮影画像に基づく履歴画像とを合成して、車両周辺画像を作成し、作成した前記車両周辺画像を画像出力I/F6に出力するための回路である。このような機能を実現する演算部5として、CPU、RAM、ROM、I/O等を備えた周知のマイクロコントローラを用いることができる。画像出力I/F6は、演算部5から受けた車両周辺画像を逐次ディスプレイに出力する。これにより、車室内のドライバー等の乗員は、ディスプレイに表示される車両周辺画像を見ることができる。   Each time the image input I / F2 acquires a captured image, the calculation unit 5 obtains an actual image based on the captured image acquired by the current image input I / F2 and the image input I / F2 acquired before this time. This is a circuit for synthesizing a history image based on a photographed image to create a vehicle surrounding image and outputting the created vehicle surrounding image to the image output I / F 6. As the calculation unit 5 that realizes such a function, a known microcontroller including a CPU, a RAM, a ROM, an I / O, and the like can be used. The image output I / F 6 sequentially outputs the vehicle periphery image received from the calculation unit 5 to the display. As a result, a passenger such as a driver in the vehicle cabin can see the vehicle periphery image displayed on the display.

ここで、演算部5の機能構成について説明する。演算部5は、図1に示すように、移動距離推定部51、舵角推定部52、車両移動量演算部53、画像合成演算部54、および出力画像生成部55として機能する。   Here, the functional configuration of the calculation unit 5 will be described. As shown in FIG. 1, the calculation unit 5 functions as a movement distance estimation unit 51, a steering angle estimation unit 52, a vehicle movement amount calculation unit 53, an image composition calculation unit 54, and an output image generation unit 55.

移動距離推定部51は、車両信号入力I/F3が車両移動量情報を取得する度に、今回取得した車両移動量情報に含まれる移動距離(あるいは今回に加えて前回以前に取得した車両移動量情報に含まれる移動距離)に基づいて、次に車両移動量情報を取得する時点(現在から第2の時間間隔が経過する時点)までの期間のうち、画像入力I/F2が撮影画像を取得する時点等における、車両の予想移動量(より具体的には、その時点から第1の時間間隔だけ遡る期間における移動量)を推定する。   Each time the vehicle signal input I / F 3 acquires the vehicle movement amount information, the movement distance estimation unit 51 includes the movement distance (or the vehicle movement amount acquired before the previous time in addition to this time) included in the vehicle movement amount information acquired this time. Based on the movement distance included in the information), the image input I / F 2 acquires a captured image during a period from when the next vehicle movement amount information is acquired (when the second time interval elapses from now). The estimated amount of movement of the vehicle at the time point to be performed (more specifically, the amount of movement in a period going back from the time point by the first time interval) is estimated.

舵角推定部52は、車両信号入力I/F3が車両移動量情報を取得する度に、今回取得した車両移動量情報に含まれる舵角(あるいは今回に加えて前回以前に取得した車両移動量情報に含まれる舵角)に基づいて、次に車両移動量情報を取得する時点までの期間のうち、画像入力I/F2が撮影画像を取得する時点等における、車両の予想舵角を推定する。   Whenever the vehicle signal input I / F 3 acquires the vehicle movement amount information, the steering angle estimation unit 52 includes the steering angle included in the vehicle movement amount information acquired this time (or the vehicle movement amount acquired before the previous time in addition to this time). Based on the rudder angle included in the information), the estimated rudder angle of the vehicle at the time when the image input I / F 2 obtains the captured image in the period until the next time when the vehicle movement amount information is obtained is estimated. .

車両移動量演算部53は、画像入力I/F2が撮影画像を取得したとき、移動距離推定部51、舵角推定部52よって既に推定されていた現在の予想移動量および予想舵角に基づいて、前回画像入力I/F2が撮影画像を取得した時点から現在までに車両がどのように移動したかを算出する。   When the image input I / F 2 acquires a captured image, the vehicle movement amount calculation unit 53 is based on the current predicted movement amount and the predicted steering angle that have already been estimated by the movement distance estimation unit 51 and the steering angle estimation unit 52. Then, it is calculated how the vehicle has moved from the time when the previous image input I / F 2 acquired the captured image to the present time.

画像合成演算部54は、画像入力I/F2が撮影画像を取得して画像メモリ4に記録したとき、画像メモリ4に記録された最新の撮影画像を実画像とする。また画像合成演算部54は、車両移動量演算部53が算出した車両の移動内容の算出結果に基づいて、現在の車両との実際の車両周辺の位置関係と、車両周辺画像中の車両と履歴画像の位置関係とが、合致するよう、履歴画像を作成し、上記実画像および車両の画像とを合成し、車両周辺画像とする。出力画像生成部55は、この車両周辺画像を、逐次画像出力I/F6に出力する。   When the image input I / F 2 acquires a captured image and records it in the image memory 4, the image composition calculation unit 54 sets the latest captured image recorded in the image memory 4 as a real image. Further, the image composition calculation unit 54, based on the calculation result of the vehicle movement content calculated by the vehicle movement amount calculation unit 53, the actual positional relationship of the vehicle periphery with the current vehicle, and the vehicle and history in the vehicle peripheral image. A history image is created so that the positional relationship of the images matches, and the actual image and the vehicle image are combined to obtain a vehicle peripheral image. The output image generation unit 55 sequentially outputs the vehicle periphery image to the image output I / F 6.

以上のような構成の車両周辺画像表示制御装置1の作動について、図3〜図6を参照して説明する。図3は、車両周辺画像表示制御装置1における、車両移動量情報の取得、実画像の更新、履歴画像の更新のタイミングを例示する図である。この例では、画像入力I/F2による撮影画像の取得タイミングに対し、実画像および履歴画像の更新タイミングは、実際には処理時間の分だけ遅れているが、この遅れは撮影画像の取得周期(第1の時間間隔)に比べて十分小さいので、両者のタイミングは同じであるとして説明する。   The operation of the vehicle periphery image display control device 1 configured as described above will be described with reference to FIGS. FIG. 3 is a diagram illustrating timing of acquisition of vehicle movement amount information, actual image update, and history image update in the vehicle surrounding image display control device 1. In this example, the update timing of the actual image and the history image is actually delayed by the processing time with respect to the captured image acquisition timing by the image input I / F 2, but this delay is the captured image acquisition cycle ( Since the timing is sufficiently smaller than the first time interval), it is assumed that both timings are the same.

[時点t0、t01、t02、t03における作動]
図3の例では、時点t0において、車両のシフト位置が後退位置(R)になったことに基づいて、車両周辺画像表示制御装置1が作動を開始し始めている。そして時点t0において、まず車両信号入力I/F3が車両移動量情報を取得した後、時点t01、t02、t03において画像入力I/F2が撮影画像を取得して画像メモリ4に記録する。この各時点t01、t02、t03において、演算部5は、作動開始からまだ1回しか車両移動量情報を取得していないことに基づいて、実画像と履歴画像のうち実画像のみを用いて車両周辺画像を作成し、作成した車両周辺画像をディスプレイに表示させる。具体的には、その時点で最新の撮影画像を鳥瞰変換した実画像と、自車両の画像である自車画像とを合成する。合成の方法は、図2に示した通り、自車画像10の後端に、実画像11を配置することで、自車両画像10と実画像11内の表示内容との位置関係を、実際の車両と周囲の位置関係に合致させる。そして、合成後の車両周辺画像を画像出力I/F6に出力することで、ディスプレイに表示させる。
[Operation at time t0, t01, t02, t03]
In the example of FIG. 3, the vehicle peripheral image display control device 1 starts to operate based on the fact that the shift position of the vehicle becomes the reverse position (R) at time t <b> 0. At time t0, the vehicle signal input I / F 3 first acquires the vehicle movement amount information, and then at time t01, t02, and t03, the image input I / F 2 acquires a captured image and records it in the image memory 4. At each time point t01, t02, t03, the calculation unit 5 uses only the real image among the real image and the history image based on the fact that the vehicle movement amount information has only been acquired once since the start of operation. A surrounding image is created, and the created vehicle surrounding image is displayed on the display. Specifically, the actual image obtained by bird's-eye conversion of the latest photographed image at that time and the own vehicle image that is an image of the own vehicle are combined. As shown in FIG. 2, the composition method arranges the actual image 11 at the rear end of the own vehicle image 10 so that the positional relationship between the own vehicle image 10 and the display content in the actual image 11 can be changed. Match the vehicle and surrounding position. And the vehicle periphery image after a synthesis | combination is displayed on a display by outputting to image output I / F6.

[時点t1における作動]
次に、時点t0から第2の時間間隔が経過した時点t1において、2回目に車両信号入力I/F3が車両移動量情報を取得した場合、演算部5は、車両周辺画像表示制御装置1の作動開始から2回以上車両移動量情報を取得していることに基づいて、図4に示す処理と図5に示す処理をマルチタスクで同時並列的に実行し始める。
[Operation at time t1]
Next, when the vehicle signal input I / F 3 acquires the vehicle movement amount information for the second time at the time t1 when the second time interval has elapsed from the time t0, the calculation unit 5 Based on the fact that the vehicle movement amount information is acquired twice or more from the start of operation, the processing shown in FIG. 4 and the processing shown in FIG.

図4の処理では、ステップ110で、画像入力I/F2が撮影画像を取得したか否かを判定するが、今回の時点t1では取得していないと判定するので、次に撮影画像を取得するまで、ステップ110の処理を繰り返す。   In the process of FIG. 4, it is determined in step 110 whether or not the image input I / F 2 has acquired a captured image. However, since it is determined that it has not been acquired at this time t1, the captured image is acquired next. Until then, the processing of step 110 is repeated.

一方、図5の処理では、ステップ210で、車両信号入力I/F3から車両移動量情報を取得したか否かを判定するが、今回の時点t1では、取得していると判定し、処理をステップ220に進める。   On the other hand, in the process of FIG. 5, it is determined in step 210 whether or not the vehicle movement amount information has been acquired from the vehicle signal input I / F 3, but at this time t1, it is determined that it has been acquired, and the process is performed. Proceed to step 220.

ステップ220では、前回の推定結果との差分算出処理を行うが、t1の時点では、車両周辺画像表示制御装置1の作動開始後から車両信号入力I/F3が車両移動量情報を取得した回数が3回未満であることに基づいて、ステップ220の処理はバイパスしてステップ230に処理を進める。   In step 220, a difference calculation process with respect to the previous estimation result is performed. At time t1, the number of times the vehicle signal input I / F 3 has acquired the vehicle movement amount information after the operation of the vehicle peripheral image display control device 1 is started. Based on being less than three times, the process of step 220 is bypassed and the process proceeds to step 230.

ステップ230では、画像フレームタイミングの特定を行う。具体的には、現時点t1から現時点の次の車両移動量情報の取得時点t2(現在よりも第2の時間間隔後である時点t2)までの期間A(ただし現時点t1は除く)内で、画像入力I/F2が撮影画像を取得する予定の時点t11、t12、t13(以下、第1の撮影画像取得時点という)を特定する。具体的には、画像入力I/F2が前回(つまり、現時点より前において最後に)撮影画像を取得した時点t03を起点とし、その起点から所定の第1の時間間隔の整数倍の時間がちょうど経過した時点t11、t12、t13のすべてを、期間A内で抽出し、それらの時点t11、t12、t13を画像フレームタイミング(第1の撮影画像取得時点)とする。   In step 230, the image frame timing is specified. Specifically, within the period A (however, excluding the current time t1) from the current time t1 to the acquisition time t2 of the next vehicle movement amount information at the current time (time t2 after the second time interval from the current time) The time points t11, t12, and t13 (hereinafter referred to as first captured image acquisition time points) at which the input I / F 2 is scheduled to acquire captured images are specified. Specifically, the time t03 at which the image input I / F 2 acquired the last captured image (that is, the last before the current time) is the starting point, and a time that is an integral multiple of a predetermined first time interval from the starting point. All elapsed time points t11, t12, and t13 are extracted within the period A, and these time points t11, t12, and t13 are set as image frame timings (first captured image acquisition time points).

続いてステップ240では、ステップ230で特定した各画像フレームタイミングt11、t12、t13における車両の予想移動量を推定する。ここで、画像フレームタイミングt11、t12、t13における車両の予想移動量としては、当該画像フレームタイミングから第1の時間間隔だけ遡る期間における車両の予想移動距離と、当該画像フレームタイミングにおける車両の予想舵角を採用する。   Subsequently, in step 240, the estimated movement amount of the vehicle at each image frame timing t11, t12, t13 specified in step 230 is estimated. Here, as the predicted movement amount of the vehicle at the image frame timings t11, t12, and t13, the predicted movement distance of the vehicle in a period that goes back from the image frame timing by the first time interval, and the predicted steering of the vehicle at the image frame timing. Adopt a corner.

画像フレームタイミングt11を例に挙げると、当該画像フレームタイミングt11から第1の時間間隔だけ遡る期間、すなわち、時点t03から時点t11までの期間における車両の予想移動距離と、時点t11における車両の予想舵角を算出する。   Taking the image frame timing t11 as an example, the expected travel distance of the vehicle in a period that goes back by the first time interval from the image frame timing t11, that is, the period from the time t03 to the time t11, and the predicted steering of the vehicle at the time t11. Calculate the corner.

予想移動量については、今回の時点t1において取得した車両移動量情報と、前回の車両移動量情報の取得時点t0において取得した車両移動量情報と、に基づいて推定してもよいし、今回の時点t1において取得した車両移動量情報のみに基づいて推定してもよい。   The predicted movement amount may be estimated based on the vehicle movement amount information acquired at the current time point t1 and the vehicle movement amount information acquired at the acquisition time point t0 of the previous vehicle movement amount information. You may estimate based only on the vehicle movement amount information acquired in the time t1.

例えば、予想移動距離については、前回の時点t0に取得した車両移動量情報に含まれる車両の移動距離(長さが第2の時間間隔の時点t0までの期間における車両の移動距離)がL0であり、今回の時点t1に取得した車両移動量情報に含まれる車両の移動距離(長さが第2の時間間隔の時点t1までの期間における車両の移動距離)がL1であったとすると、次の第2の時間間隔の期間における車両の移動距離が、これら時点t0、t1における値L0、L1を用いて線形補外した値(2×L1−L0)であると推定してもよいし、今回値すなわちL1であると推定してもよい。   For example, for the predicted travel distance, the travel distance of the vehicle (the travel distance of the vehicle in the period up to the time point t0 of the second time interval) included in the vehicle travel amount information acquired at the previous time point t0 is L0. Yes, if the moving distance of the vehicle (the moving distance of the vehicle in the period up to the time point t1 of the second time interval) included in the vehicle movement amount information acquired at the current time point t1 is L1, It may be estimated that the moving distance of the vehicle during the second time interval is a value (2 × L1−L0) obtained by linear extrapolation using the values L0 and L1 at the time points t0 and t1. You may estimate that it is a value, ie, L1.

そして、時点t03から時点t11までの車両の予想移動距離については、車両が上記線形補外値または今回値で一定速度で移動すると仮定して算出する。すなわち、上記線形補外値または今回値に(t11−t03)/(t2−t1)を乗算した値を時点t03から時点t11までの予想移動距離とする。同様に、時点t11から時点t12までの車両の予想移動距離は、上記線形補外値または今回値に(t12−t11)/(t2−t1)を乗算した値とし、時点t12から時点t13までの車両の予想移動距離は、上記線形補外値または今回値に(t13−t12)/(t2−t1)を乗算した値とする。   The predicted travel distance of the vehicle from time t03 to time t11 is calculated on the assumption that the vehicle moves at a constant speed with the linear extrapolation value or the current value. That is, the linear extrapolation value or a value obtained by multiplying the current value by (t11−t03) / (t2−t1) is set as an expected movement distance from time t03 to time t11. Similarly, the predicted travel distance of the vehicle from time t11 to time t12 is the value obtained by multiplying the linear extrapolation value or the current value by (t12-t11) / (t2-t1), and from time t12 to time t13. The predicted travel distance of the vehicle is a value obtained by multiplying the linear extrapolation value or the current value by (t13−t12) / (t2−t1).

また、予想舵角については、前回の時点t0に取得した車両移動量情報に含まれる車両の舵角がW0であり、今回の時点t1に取得した車両移動量情報に含まれる車両の移動距離がW1であったとすると、次の時点t2における車両の舵角が、これら時点t0、t1における値W0、W1を用いて線形補外した値(2×W1−W0)であると推定してもよいし、今回値すなわちW1であると推定してもよい。   As for the predicted steering angle, the steering angle of the vehicle included in the vehicle movement amount information acquired at the previous time point t0 is W0, and the movement distance of the vehicle included in the vehicle movement amount information acquired at the current time point t1 is If it is W1, the rudder angle of the vehicle at the next time point t2 may be estimated to be a value (2 × W1−W0) obtained by linear extrapolation using the values W0 and W1 at the time points t0 and t1. Then, it may be estimated that the current value, that is, W1.

そして、時点t03から時点t11までの車両の予想舵角については、車両が上記線形補外値または今回値で一定速度で移動すると仮定して算出する。すなわち、上記線形補外値または今回値に(t11−t03)/(t2−t1)を乗算した値を時点t03から時点t11までの予想舵角とする。同様に、時点t11から時点t12までの車両の予想舵角は、上記線形補外値または今回値に(t12−t11)/(t2−t1)を乗算した値とし、時点t12から時点t13までの車両の予想舵角は、上記線形補外値または今回値に(t13−t12)/(t2−t1)を乗算した値とする。   The predicted steering angle of the vehicle from time t03 to time t11 is calculated on the assumption that the vehicle moves at a constant speed with the linear extrapolation value or the current value. That is, the linear extrapolation value or a value obtained by multiplying the current value by (t11−t03) / (t2−t1) is set as the predicted steering angle from time t03 to time t11. Similarly, the predicted steering angle of the vehicle from time t11 to time t12 is a value obtained by multiplying the linear extrapolation value or the current value by (t12-t11) / (t2-t1), and from time t12 to time t13. The predicted steering angle of the vehicle is a value obtained by multiplying the linear extrapolation value or the current value by (t13-t12) / (t2-t1).

また、ステップ240では、画像フレームタイミングt11、t12、t13以外にも、現在の時点t1から第2の時間経過後の時点t2における車両の予想移動量も推定する。具体的には、時点t1から時点t2までの期間における車両の予想移動距離と、時点t2における車両の予想舵角を算出する。これらの値としては、上述の線形補外値または今回値を採用すればよい。   In step 240, in addition to the image frame timings t11, t12, and t13, an estimated movement amount of the vehicle at the time point t2 after the second time has elapsed from the current time point t1 is also estimated. Specifically, the predicted travel distance of the vehicle in the period from time t1 to time t2 and the predicted steering angle of the vehicle at time t2 are calculated. As these values, the above-described linear extrapolation values or current values may be adopted.

続いてステップ250では、ステップ220で算出した差分を用いた補正を行うが、t1の時点では、車両周辺画像表示制御装置1の作動開始後から車両信号入力I/F3が車両移動量情報を取得した回数が3回未満であることに基づいて、ステップ250の処理はバイパスしてステップ260に処理を進める。   Subsequently, in step 250, correction using the difference calculated in step 220 is performed. At time t1, the vehicle signal input I / F 3 acquires vehicle movement amount information after the operation of the vehicle peripheral image display control device 1 starts. If the number of times is less than 3, the process of step 250 is bypassed and the process proceeds to step 260.

ステップ260では、ステップ240で推定した時点t11、t12、t13、t2における予想移動量(具体的には予想移動距離および予想舵角)を記憶媒体(例えば演算部5内の図示しないRAM)に記録する。その後、処理をステップ210に戻し、再度車両信号入力I/F3が車両移動量情報を取得するまで、車両移動量情報を取得していないと判定しつつステップ210の判定処理を繰り返す。   In step 260, the predicted movement amount (specifically, the predicted movement distance and the predicted steering angle) at time points t11, t12, t13, and t2 estimated in step 240 is recorded in a storage medium (for example, a RAM (not shown) in the calculation unit 5). To do. Thereafter, the process returns to step 210, and the determination process of step 210 is repeated while determining that the vehicle movement amount information is not acquired until the vehicle signal input I / F 3 acquires the vehicle movement amount information again.

[時点t11における作動]
その後、時間が経過し、時点t11になると、画像入力I/F2が撮影画像を取得して画像メモリ4に記録する。すると演算部5は、図4の処理において、まずステップ110で、撮影画像を取得したと判定してステップ120に進み、現時点t11における車両の予想移動量(予想移動距離および予想舵角)を読み出す。時点t11における車両の予想移動量は、時点t1において図5のステップ260で既に記録されている。
[Operation at time t11]
Thereafter, when time elapses and time t11 is reached, the image input I / F 2 acquires a captured image and records it in the image memory 4. Then, in the process of FIG. 4, the calculation unit 5 first determines in step 110 that a captured image has been acquired, proceeds to step 120, and reads the predicted movement amount (expected movement distance and predicted steering angle) of the vehicle at the current time t11. . The expected movement amount of the vehicle at time t11 is already recorded in step 260 of FIG. 5 at time t1.

続いてステップ130では、読み出した時点t11における予想移動量に基づいて、現時点t11における実画像および履歴画像を作成し、作成した実画像と履歴画像とを合成することで車両周辺画像を作成する。   Subsequently, in step 130, based on the predicted movement amount at the time t11 that has been read, a real image and a history image at the current time t11 are created, and a vehicle peripheral image is created by combining the created real image and the history image.

ここで、現時点t11における実画像および履歴画像の作成方法について説明する。現時点t11における実画像は、今回取得した撮影画像(すなわち、画像メモリ4に記録されている最新の撮影画像)を鳥瞰変換することで得られるトップビュー画像である。   Here, a method of creating a real image and a history image at the current time t11 will be described. The actual image at the current time t11 is a top view image obtained by performing bird's-eye conversion on the captured image acquired this time (that is, the latest captured image recorded in the image memory 4).

また、現時点t11における履歴画像は、今回よりも前に取得した撮影画像(すなわち、画像メモリ4に記録されている撮影画像のうち、最新でない撮影画像)に対して、鳥瞰変換、回転変換等の処理を施した結果のトップビュー画像である。   The history image at the current time t11 is obtained by performing bird's-eye conversion, rotation conversion, or the like on a captured image acquired before this time (that is, a captured image that is not the latest among the captured images recorded in the image memory 4). It is a top view image as a result of processing.

具体的には、現時点t11よりも1回前に画像入力I/F2が取得した撮影画像(時点t03における撮影画像)を鳥瞰変換し、鳥瞰変換した後の画像を、時点t03から時点t11までの車両の移動によって車両の周囲の位置が変化するのと同様に回転させる。   Specifically, the captured image (captured image at time t03) acquired by the image input I / F 2 one time before the current time t11 is bird's-eye converted, and the image after the bird's-eye conversion is converted from time t03 to time t11. The vehicle is rotated in the same manner as the position around the vehicle changes as the vehicle moves.

このためには、時点t03から現時点t11までの車両の移動内容を算出する必要があるが、最後に車両移動量情報を取得したのは時点t1なので、現在の車両の実際の位置を特定することはできない。したがって、ステップ120で読み出した時点t11における予想移動量(予想移動距離、予想舵角)を用いて、実際の車両の移動内容を推定する。   For this purpose, it is necessary to calculate the movement contents of the vehicle from the time point t03 to the current time point t11. However, since the vehicle movement amount information was finally acquired at the time point t1, the actual position of the current vehicle must be specified. I can't. Accordingly, the actual movement content of the vehicle is estimated using the predicted movement amount (expected movement distance, predicted steering angle) at time t11 read in step 120.

具体的には、時点t03から時点t11まで、車両は、読み出した予想舵角を維持しながら、周知のアッカーマンモデルに従って、読み出した予想移動距離だけ後退したと推定する。これにより、時点t03から時点t11までの車両の旋回中心および旋回中心から見込んだ車両の旋回角を推定することができる。時点t03の撮影画像を鳥瞰変換した画像に対しては、上述の旋回中心を回転中心とし、回転角を上記旋回角と同じ大きさかつ逆向とするような回転変換を施し、その結果の画像を、履歴画像とする。   Specifically, from time t03 to time t11, it is estimated that the vehicle has moved backward by the read predicted movement distance according to a well-known Ackermann model while maintaining the read predicted steering angle. Thereby, the turning center of the vehicle from the time point t03 to the time point t11 and the turning angle of the vehicle as seen from the turning center can be estimated. For the image obtained by bird's-eye conversion of the photographed image at time t03, rotation conversion is performed so that the rotation center is the same as the rotation angle and the rotation angle is the same as the rotation angle. And a history image.

そして、このようにして作成した履歴画像と、上述の実画像とを合成するが、合成の際には、履歴画像と実画像とが重なる部分については、履歴画像を削除して、実画像を優先させる。更に、このようにして合成した画像に対して自車画像を合成する。この際、自車画像と実画像の位置関係を、上述の図2(a)のようにすることで、自車画像と履歴画像の位置関係は、自動的に、時点t11における車両と実際の車両周囲との位置関係に概ね合致するようになる。自車画像を合成した後の画像が、ディスプレイに表示させるための車両周辺画像となる。   Then, the history image created in this way and the above-described actual image are synthesized. At the time of synthesis, the history image is deleted for the portion where the history image and the actual image overlap, Prioritize. Further, the vehicle image is synthesized with the image synthesized in this way. At this time, by making the positional relationship between the vehicle image and the actual image as shown in FIG. 2A, the positional relationship between the vehicle image and the history image is automatically set to the actual vehicle and the actual image at time t11. It almost matches the positional relationship with the surroundings of the vehicle. The image after combining the own vehicle image becomes the vehicle peripheral image to be displayed on the display.

続いてステップ140では、この車両周辺画像を画像出力I/F6に出力することで、ディスプレイに表示させる。このとき、ディスプレイには、図2(b)に示すような、自車画像10、実画像11、履歴画像12が合成された車両周辺画像が表示される。このとき、実画像11と履歴画像12の境界における位置ずれは、非常に小さくなる。これは、履歴画像12が、最後に車両移動量情報を取得した時点t1における車両と周囲の位置関係を反映するよう作成されているのではなく、実画像11の元となる最新の撮影画像を取得した時点t11における車両と周囲の位置関係を反映するよう作成されているからである。ステップ140の後は、処理をステップ110に戻し、再度画像入力I/F2が車両移動量情報を取得するまで、撮影画像を取得していないと判定しつつステップ110の判定処理を繰り返す。   Subsequently, in step 140, the vehicle periphery image is output to the image output I / F 6 to be displayed on the display. At this time, as shown in FIG. 2B, a vehicle peripheral image in which the own vehicle image 10, the actual image 11, and the history image 12 are combined is displayed on the display. At this time, the positional deviation at the boundary between the real image 11 and the history image 12 becomes very small. This is because the history image 12 is not created to reflect the positional relationship between the vehicle and the surroundings at the time t1 when the vehicle movement amount information was last acquired, but the latest photographed image that is the basis of the actual image 11 is displayed. This is because it is created so as to reflect the positional relationship between the vehicle and the surrounding area at the time t11 obtained. After step 140, the process returns to step 110, and the determination process of step 110 is repeated while determining that the captured image is not acquired until the image input I / F 2 acquires the vehicle movement amount information again.

[時点t12における作動]
その後、時間が経過し、時点t12になると、画像入力I/F2が撮影画像を取得して画像メモリ4に記録する。すると演算部5は、図4の処理において、まずステップ110で、撮影画像を取得したと判定してステップ120に進み、現時点t12における車両の予想移動量(予想移動距離および予想舵角)を読み出す。時点t12における車両の予想移動量は、時点t1において図5のステップ260で既に記録されている。
[Operation at time t12]
Thereafter, when time elapses and time t12 is reached, the image input I / F 2 acquires a captured image and records it in the image memory 4. Then, in the process of FIG. 4, the calculation unit 5 first determines in step 110 that the captured image has been acquired, proceeds to step 120, and reads the predicted movement amount (expected movement distance and predicted steering angle) of the vehicle at the current time t <b> 12. . The expected movement amount of the vehicle at time t12 is already recorded in step 260 of FIG. 5 at time t1.

続いてステップ130では、読み出した時点t12における予想移動量に基づいて、現時点t12における実画像および履歴画像を作成し、作成した実画像と履歴画像とを合成することで車両周辺画像を作成する。現時点t12における実画像の作成方法は、時点t11における方法と同様である。   Subsequently, at step 130, based on the read estimated movement amount at time t12, a real image and a history image at the current time t12 are created, and a vehicle peripheral image is created by combining the created real image and the history image. The method for creating the actual image at the current time t12 is the same as the method at the time t11.

また、現時点t12における履歴画像の作成に関しては、車両周辺画像表示制御装置1の作動後に履歴画像を作成するのが2回目以降であることに基づいて、1回目であった時点t11とは異なる方法で履歴画像を作成する。すなわち、前回の撮影画像の取得時である時点t11(第1の撮影時点から第1の時間間隔だけ遡った前回撮影画像取得時点に相当する)に作成した車両周辺画像に対して回転変換等の修正を施すことで、時点t12(第1の撮影時点に相当する)における車両と車両周囲の実際の位置関係に合致するよう修正したトップビュー画像を、今回の車両周辺画像とする。   Further, regarding the creation of the history image at the current time t12, a method different from the time t11 that is the first time is based on the fact that the history image is created after the second operation after the operation of the vehicle peripheral image display control device 1. Create a history image with. That is, rotation conversion or the like is performed on the vehicle peripheral image created at the time t11 (corresponding to the previous captured image acquisition time that is back by the first time interval from the first captured time) when the previous captured image is acquired. By performing the correction, the top view image corrected to match the actual positional relationship between the vehicle and the vehicle at time t12 (corresponding to the first shooting time) is set as the current vehicle peripheral image.

このために、時点t11から現時点t12までの車両の移動内容を算出するが、その方法は時点t11における方法と同様、ステップ120で読み出した時点t12における予想移動量(予想移動距離、予想舵角)を用いて、実際の車両の移動内容を推定する。   For this purpose, the movement contents of the vehicle from the time point t11 to the current time point t12 are calculated. The method is the same as the method at the time point t11, and the predicted movement amount (expected movement distance, predicted steering angle) at the time point t12 read in step 120. Is used to estimate the actual movement of the vehicle.

具体的には、時点t11から時点t12まで、車両は、読み出した予想舵角を維持しながら、周知のアッカーマンモデルに従って、読み出した予想移動距離だけ後退したと推定する。これにより、時点t11から時点t12までの車両の旋回中心および旋回中心から見込んだ車両の旋回角を推定することができる。時点t11の車両周辺画像に対しては、上述の旋回中心を回転中心とし、回転角を上記旋回角と同じ大きさかつ逆向とするような回転変換を施し、その結果の画像を、履歴画像とする。なお、時点t11に作成された車両周辺画像は、今回の時点t12よりも前に取得した撮影画像を用いて作成されている。   Specifically, from time t11 to time t12, it is estimated that the vehicle has moved back by the read predicted moving distance according to a well-known Ackermann model while maintaining the read predicted steering angle. As a result, the turning center of the vehicle from the time point t11 to the time point t12 and the turning angle of the vehicle estimated from the turning center can be estimated. For the vehicle peripheral image at time t11, the rotation conversion is performed so that the turning center is the rotation center and the rotation angle is the same size as the turning angle, and the rotation angle is reversed. To do. Note that the vehicle peripheral image created at time t11 is created using a captured image acquired before time t12 of this time.

そして、このようにして作成した履歴画像と、上述の実画像とを合成するが、合成の際には、履歴画像と実画像とが重なる部分については、履歴画像を削除して、実画像を優先させる。更に、このようにして合成した画像に対して自車画像を合成する。この際、自車画像と実画像の位置関係を、上述の図2(b)のようにすることで、自車画像10と履歴画像12の位置関係は、自動的に、時点t12における車両と実際の車両周囲との位置関係に概ね合致するようになる。自車画像を合成した後の画像が、ディスプレイに表示させるための車両周辺画像となる。   Then, the history image created in this way and the above-described actual image are synthesized. At the time of synthesis, the history image is deleted for the portion where the history image and the actual image overlap, Prioritize. Further, the vehicle image is synthesized with the image synthesized in this way. At this time, by making the positional relationship between the vehicle image and the actual image as shown in FIG. 2B, the positional relationship between the vehicle image 10 and the history image 12 is automatically set to the vehicle at time t12. It almost matches the actual positional relationship with the surroundings of the vehicle. The image after combining the own vehicle image becomes the vehicle peripheral image to be displayed on the display.

続いてステップ140では、この車両周辺画像を画像出力I/F6に出力することで、ディスプレイに表示させる。このとき、ディスプレイには、図2(c)に示すような、自車画像10、実画像11、履歴画像12が合成された車両周辺画像が表示される。このとき、実画像11と履歴画像12の境界における位置ずれは、既に説明した通り、非常に小さくなる。   Subsequently, in step 140, the vehicle periphery image is output to the image output I / F 6 to be displayed on the display. At this time, as shown in FIG. 2C, a vehicle peripheral image in which the own vehicle image 10, the actual image 11, and the history image 12 are combined is displayed on the display. At this time, the positional deviation at the boundary between the real image 11 and the history image 12 becomes very small as already described.

[時点t13における作動]
その後、時間が経過し、時点t13になると、画像入力I/F2が撮影画像を取得して画像メモリ4に記録する。すると演算部5は、図4の処理において、まずステップ110で、撮影画像を取得したと判定してステップ120に進み、現時点t13における車両の予想移動量(予想移動距離および予想舵角)を読み出す。続いてステップ130では、読み出した時点t13における予想移動量に基づいて、現時点t13における実画像および履歴画像を作成し、作成した実画像と履歴画像とを合成することで車両周辺画像を作成する。現時点t12における実画像および履歴画像の作成方法および合成方法は、時点t12における方法と同様である。続いてステップ140では、作成した車両周辺画像を画像出力I/F6に出力することで、ディスプレイに表示させる。このとき、実画像と履歴画像の境界における位置ずれは、既に説明した通り、非常に小さくなる。
[Operation at time t13]
Thereafter, when time elapses and time t13 is reached, the image input I / F 2 acquires a captured image and records it in the image memory 4. Then, in the process of FIG. 4, the calculation unit 5 first determines in step 110 that the captured image has been acquired, proceeds to step 120, and reads the predicted movement amount (expected movement distance and predicted steering angle) of the vehicle at the current time t <b> 13. . Subsequently, in step 130, based on the read estimated movement amount at time t13, a real image and a history image at the current time t13 are created, and a vehicle peripheral image is created by combining the created real image and the history image. The method for creating and synthesizing the actual image and the history image at the current time t12 is the same as the method at the time t12. Subsequently, in step 140, the generated vehicle periphery image is output to the image output I / F 6 to be displayed on the display. At this time, the positional deviation at the boundary between the real image and the history image becomes very small as described above.

[時点t2における作動]
その後、時間が経過し、時点t2になると、図5の処理において、ステップ210で、車両信号入力I/F3から車両移動量情報を取得したと判定し、処理をステップ220に進める。
[Operation at time t2]
Thereafter, when time elapses and time t2 is reached, it is determined in step 210 that the vehicle movement amount information has been acquired from the vehicle signal input I / F 3 in the process of FIG. 5, and the process proceeds to step 220.

ステップ220では、t2の時点では、車両周辺画像表示制御装置1の作動開始後から車両信号入力I/F3が車両移動量情報を取得した回数が3回以上であることに基づいて、前回の推定結果との差分算出処理を行う。この差分抽出処理では、時点t2(第2の移動量情報取得時点に相当する)において取得した車両移動量情報に含まれる移動距離Lr(時点t1から時点t2までの期間における車両の移動距離)および舵角Wr(時点t2において検出されている最新の舵角)と、時点t1(第1の移動量情報取得時点に相当する)において推定した時点t2の予想移動距離Leおよび予想舵角Weとのずれ量(具体的には差分)を算出する。時点t2の予想移動距離および予想舵角は、時点t1において図5のステップ240で推定および記録されている。   In step 220, at the time t2, the previous estimation is performed based on the fact that the number of times the vehicle signal input I / F 3 has acquired the vehicle movement amount information after the start of the operation of the vehicle periphery image display control device 1 is three times or more. A difference calculation process with the result is performed. In this difference extraction process, the movement distance Lr (the movement distance of the vehicle in the period from the time point t1 to the time point t2) included in the vehicle movement amount information acquired at the time point t2 (corresponding to the second movement amount information acquisition time point) and Between the steering angle Wr (the latest steering angle detected at time t2) and the predicted movement distance Le and the predicted steering angle We at time t2 estimated at time t1 (corresponding to the first movement amount information acquisition time). A deviation amount (specifically, a difference) is calculated. The predicted travel distance and the predicted steering angle at time t2 are estimated and recorded at step 240 in FIG. 5 at time t1.

より具体的には、上記移動距離Lrから上記予想移動距離Leを減算して得られる移動距離差分Lr−Le、および、上記舵角Wrから上記予想舵角Weを減算して得られる舵角差分Wr−Weを算出する。これら差分は、時点t1に推定した移動距離および舵角が、実際の移動距離および舵角とどれ程ずれていたかを示す指標である。予想移動量(予想移動距離および予想舵角)が実際の移動量(移動距離よび舵角)と大きく異なっていれば、実画像と履歴画像の境界において画像のずれが大きくなってしまい、その結果、ユーザが違和感を与えてしまう可能性が高くなる。   More specifically, the travel distance difference Lr−Le obtained by subtracting the predicted travel distance Le from the travel distance Lr, and the steering angle difference obtained by subtracting the predicted steering angle We from the steering angle Wr. Wr-We is calculated. These differences are indices indicating how much the travel distance and the steering angle estimated at the time point t1 deviate from the actual travel distance and the steering angle. If the expected travel distance (expected travel distance and predicted rudder angle) is significantly different from the actual travel distance (travel distance and rudder angle), there will be a large image shift at the boundary between the actual image and the history image. There is a high possibility that the user will feel uncomfortable.

続いてステップ230では、画像フレームタイミングの特定を行う。具体的には、現時点t2から現時点の次の車両移動量情報の取得時点t3(現在よりも第2の時間間隔後である時点t3)までの期間B(ただし現時点t2は除く)内で、画像入力I/F2が撮影画像を取得する予定の時点t21、t22、t23、t24(以下、第1の撮影画像取得時点という)を特定する。具体的には、画像入力I/F2が前回(つまり、現時点より前において最後に)撮影画像を取得した時点t13を起点とし、その起点から所定の第1の時間間隔の整数倍の時間がちょうど経過した時点t21、t22、t23、t24のすべてを、期間B内で抽出し、それらの時点t21、t22、t23、t24を画像フレームタイミング(第1の撮影画像取得時点)とする。   In step 230, the image frame timing is specified. Specifically, in the period B (excluding the current time t2) from the current time t2 to the acquisition time t3 of the next vehicle movement amount information at the current time (time t3 after the second time interval from the current time) The time points t21, t22, t23, and t24 (hereinafter referred to as first captured image acquisition time points) at which the input I / F 2 is scheduled to acquire a captured image are specified. Specifically, the time t13 at which the image input I / F 2 acquired the previous captured image (that is, the last before the current time) is the starting point, and a time that is an integral multiple of a predetermined first time interval from that starting point. All of the elapsed time points t21, t22, t23, and t24 are extracted within the period B, and these time points t21, t22, t23, and t24 are set as image frame timings (first captured image acquisition time points).

続いてステップ240では、ステップ230で特定した各画像フレームタイミングt21、t22、t23、t24における車両の予想移動量(予想移動距離および予想舵角)を、時点t1におけるステップ240と同様の方法で、推定する。   Subsequently, in step 240, the predicted movement amount (predicted movement distance and predicted steering angle) of the vehicle at each image frame timing t21, t22, t23, t24 specified in step 230 is calculated in the same manner as in step 240 at time t1, presume.

画像フレームタイミングt21を例に挙げると、当該画像フレームタイミングt21から第1の時間間隔だけ遡る期間、すなわち、時点t13から時点t21までの期間における車両の予想移動距離と、時点t21における車両の予想舵角を算出する。算出方法は、時点t1におけるステップ240と同様に、時点t2における今回値を予想移動距離および予想舵角として採用してもよいし、時点t1および時点t2の移動距離および舵角を用いた線形補外値を予想移動距離および予想舵角としてもよい。   Taking the image frame timing t21 as an example, the expected travel distance of the vehicle in a period that goes back from the image frame timing t21 by the first time interval, that is, the period from the time t13 to the time t21, and the predicted steering of the vehicle at the time t21. Calculate the corner. The calculation method may adopt the current value at the time t2 as the predicted movement distance and the predicted steering angle as in step 240 at the time t1, or linear compensation using the movement distance and the steering angle at the time t1 and the time t2. The outside value may be used as the predicted moving distance and the predicted steering angle.

また、ステップ240では、画像フレームタイミングt21、t22、t23以外にも、現在の時点t2から第2の時間経過後の時点t3における車両の予想移動量も推定する。具体的には、時点t2から時点t3までの期間における車両の予想移動距離と、時点t3における車両の予想舵角を算出する。これらの値としては、上述の線形補外値または今回値を採用すればよい。この時点t2の予想移動量は、後の時点t3においてステップ220で用いられる。   In step 240, in addition to the image frame timings t21, t22, and t23, an estimated movement amount of the vehicle at the time point t3 after the second time has elapsed from the current time point t2 is also estimated. Specifically, the predicted travel distance of the vehicle in the period from time t2 to time t3 and the predicted steering angle of the vehicle at time t3 are calculated. As these values, the above-described linear extrapolation values or current values may be adopted. This expected movement amount at time t2 is used in step 220 at a later time t3.

続いてステップ250では、t2の時点では、車両周辺画像表示制御装置1の作動開始後から車両信号入力I/F3が車両移動量情報を取得した回数が3回以上であることに基づいて、ステップ220で算出した差分を用いた補正を行う。   Subsequently, in step 250, based on the fact that the number of times the vehicle signal input I / F 3 has acquired the vehicle movement amount information after the start of the operation of the vehicle periphery image display control device 1 is 3 or more times at the time t2. Correction using the difference calculated in 220 is performed.

この補正の対象は、現時点t2以降で現時点に最も近い画像フレームタイミングである時点t21における、予想移動量(予想移動距離および予想舵角)である。この補正は、時点t2における予想移動量と実際の移動量とのずれ量が、時点t2以降の車両周辺画像表示に悪影響を及ぼすことのないよう、それまでのずれを次の表示タイミングt21で解消するための補正である。   The target of this correction is the predicted movement amount (expected moving distance and predicted steering angle) at the time t21 that is the image frame timing closest to the current time after the current time t2. This correction eliminates the previous deviation at the next display timing t21 so that the deviation amount between the predicted movement amount and the actual movement amount at the time point t2 does not adversely affect the vehicle surrounding image display after the time point t2. It is a correction to do.

具体的には、ステップ240で算出した時点t21の予想移動距離に対し、ステップ220で算出した移動距離差分Lr−Leを加算する補正を行う。また同様に、図6に示すように、ステップ240で算出した時点t21の予想舵角W21に対し、ステップ220で算出した舵角差分D=Wr−Weを加算する補正を行う。   Specifically, correction is performed by adding the movement distance difference Lr−Le calculated in step 220 to the predicted movement distance at time t21 calculated in step 240. Similarly, as shown in FIG. 6, the steering angle difference D = Wr−We calculated in step 220 is added to the predicted steering angle W21 at time t21 calculated in step 240.

また、ステップ250では、次の車両移動量情報取得タイミングである時点t3における、予想移動量(予想移動距離および予想舵角)も補正する。具体的には、ステップ240で算出した時点t3の予想移動距離に対し、ステップ220で算出した移動距離差分Lr−Leを加算する補正を行う。また同様に、ステップ240で算出した時点t3の予想舵角に対し、ステップ220で算出した舵角差分Wr−Weを加算する補正を行う。   In step 250, the predicted travel distance (expected travel distance and predicted steering angle) at time t3, which is the next vehicle travel distance information acquisition timing, is also corrected. Specifically, correction is performed by adding the moving distance difference Lr−Le calculated in step 220 to the predicted moving distance at time t3 calculated in step 240. Similarly, correction is performed by adding the steering angle difference Wr-We calculated in step 220 to the predicted steering angle calculated at step 240 at the time point t3.

続いてステップ260では、ステップ240で推定した時点t21、t22、t23、t24、t2における予想移動量(具体的には予想移動距離および予想舵角)を記憶媒体(例えば演算部5内の図示しないRAM)に記録する。その後、処理をステップ210に戻し、再度車両信号入力I/F3が車両移動量情報を取得するまで、車両移動量情報を取得していないと判定しつつステップ210の判定処理を繰り返す。   Subsequently, in step 260, the predicted movement amount (specifically, the predicted movement distance and the predicted steering angle) at the time points t21, t22, t23, t24, t2 estimated in step 240 is stored in a storage medium (for example, not shown in the calculation unit 5). RAM). Thereafter, the process returns to step 210, and the determination process of step 210 is repeated while determining that the vehicle movement amount information is not acquired until the vehicle signal input I / F 3 acquires the vehicle movement amount information again.

[時点t21における作動]
その後、時間が経過し、時点t21になると、画像入力I/F2が撮影画像を取得して画像メモリ4に記録する。すると演算部5は、図4の処理において、まずステップ110で、撮影画像を取得したと判定してステップ120に進み、現時点t21における車両の予想移動量(予想移動距離および予想舵角)を読み出す。ここで読み出す予想移動量は、時点t2において図5のステップ250で補正された予想移動量である。
[Operation at time t21]
Thereafter, when time elapses and time t21 is reached, the image input I / F 2 acquires a captured image and records it in the image memory 4. Then, in the process of FIG. 4, the calculation unit 5 first determines in step 110 that the captured image has been acquired, proceeds to step 120, and reads the predicted movement amount (expected movement distance and predicted steering angle) of the vehicle at the current time t <b> 21. . The predicted movement amount read here is the predicted movement amount corrected in step 250 of FIG. 5 at time t2.

続いてステップ130では、読み出した時点t21における予想移動量に基づいて、現時点t21における実画像および履歴画像を作成し、作成した実画像と履歴画像とを合成することで車両周辺画像を作成する。現時点t21における実画像および履歴画像の作成方法および合成方法は、時点t12、t13における方法と同様である。続いてステップ140では、作成した車両周辺画像を画像出力I/F6に出力することで、ディスプレイに表示させる。このとき、実画像と履歴画像の境界における位置ずれは、既に説明した通り、非常に小さくなる。   Subsequently, in step 130, based on the read estimated movement amount at time t21, a real image and a history image at the current time t21 are created, and a vehicle peripheral image is created by combining the created real image and the history image. The actual image and history image creation method and composition method at the current time t21 are the same as the methods at the time points t12 and t13. Subsequently, in step 140, the generated vehicle periphery image is output to the image output I / F 6 to be displayed on the display. At this time, the positional deviation at the boundary between the real image and the history image becomes very small as described above.

また、読み出した時刻t21の予想移動量が、時刻t2における予想移動量と実際の移動量のずれを相殺するように補正されているので、時刻t2以前の予想移動量の誤差を時刻t2より後に引きずってしまうことがない。   Further, since the read predicted movement amount at time t21 is corrected so as to cancel out the difference between the predicted movement amount at time t2 and the actual movement amount, the error of the predicted movement amount before time t2 is later than time t2. There is no dragging.

[時点t22以降における作動]
時点t22以降における車両周辺画像表示制御装置1の作動は、時点t22、t23、t24、t31、t32、t33、t41、t42、t43においては、時点t21と同様である。また、時点t3、t4、t5においては、時点t2と同様である。
[Operation after time t22]
The operation of the vehicle surrounding image display control device 1 after time t22 is the same as that at time t21 at times t22, t23, t24, t31, t32, t33, t41, t42, and t43. Further, time t3, t4, and t5 are the same as time t2.

以上説明した通り、本実施形態の車両周辺画像表示制御装置1の演算部5は、第1の移動量情報取得時点t1、t2、t3、t4、t5において車両移動量情報を取得した場合(ステップ210)、当該取得した車両移動量情報に基づいて、第1の移動量情報取得時点(例えば時点t1)後に撮影画像を取得する予定の第1の撮影画像取得時点(例えば時点t11)から第1の時間間隔だけ遡る期間(例えば、時点t03から時点t11までの期間)に車両が移動する予想移動距離および当該第1の撮影画像取得時点(例えば時点t11)における車両の予想舵角を推定する(ステップ230、240)。   As described above, the calculation unit 5 of the vehicle periphery image display control device 1 according to the present embodiment acquires vehicle movement amount information at the first movement amount information acquisition time points t1, t2, t3, t4, and t5 (steps). 210), based on the acquired vehicle movement amount information, the first from the first captured image acquisition time point (for example, time point t11) where the captured image is scheduled to be acquired after the first movement amount information acquisition time point (for example, time point t1). The estimated travel distance that the vehicle moves in a period that goes back by this time interval (for example, the period from time t03 to time t11) and the predicted steering angle of the vehicle at the first captured image acquisition time (for example, time t11) are estimated ( Steps 230, 240).

また、演算部5は、第1の撮影画像取得時点(t11、t12、t13、t21、t22、t23、t24、t31、t32、t33、t41、t42、t43)において撮影画像を取得したことに基づいて(ステップ110)、今回取得した撮影画像に基づく画像を実画像とし、また、先に推定された第1の撮影画像取得時点における予想移動距離および予想舵角に基づいて、第1の撮影画像取得時点(例えば時点t11)から第1の時間間隔だけ遡った前回撮影画像取得時点(例えば時点t03)においてディスプレイに出力した車両周辺画像を、第1の撮影時点(例えばt11)における車両と周囲の実際の位置関係に合致するよう修正し、修正した結果の履歴画像を実画像と合成することで、今回の車両周辺画像を作成し(ステップ120、130)、作成した当該今回の車両周辺画像をディスプレイに表示させる(ステップ140)。   Further, the computing unit 5 acquires the captured image at the first captured image acquisition time point (t11, t12, t13, t21, t22, t23, t24, t31, t32, t33, t41, t42, t43). (Step 110), an image based on the captured image acquired this time is used as a real image, and the first captured image is based on the estimated travel distance and the estimated steering angle at the time of the first estimated captured image. The vehicle peripheral image output to the display at the previous captured image acquisition time point (for example, time point t03) that goes back by the first time interval from the acquisition time point (for example, time point t11) is the vehicle and surroundings at the first shooting time point (for example, t11). The vehicle surrounding image of this time is created by modifying the history image as a result of the correction to match the actual positional relationship and the actual image (Step) 20,130), and displays the current vehicle periphery image generated on the display (step 140).

このように、車両移動量情報を取得したことに基づいて、後の第1の撮影画像取得時点における車両移動量(予想移動距離、予想舵角)を推定し、第1の撮影画像取得時点が訪れたときに、推定した車両移動量を用いて履歴画像を作成することで、実画像と履歴画像の境界における位置ずれは、非常に小さくなる。   Thus, based on having acquired the vehicle movement amount information, the vehicle movement amount (expected moving distance, predicted rudder angle) at the subsequent first captured image acquisition time point is estimated, and the first captured image acquisition time point is By creating a history image using the estimated amount of vehicle movement when visiting, the positional deviation at the boundary between the actual image and the history image becomes very small.

また、演算部5は、第1の移動量情報取得時点(例えば時点t1)において車両移動量情報を取得した場合(ステップ210)、当該取得した車両移動量情報に基づいて、第1の移動量情報取得時点から第2の時間間隔が経過するまでの期間に車両が移動する予想移動距離および第1の移動量情報取得時点から第2の時間間隔が経過した第2の移動量情報取得時点(例えば時点t2)における車両の予想舵角を推定し(ステップ240)、この第2の移動量情報取得時点において車両移動量情報を取得した場合(ステップ210)、当該第2の移動量情報取得時点において取得した車両移動量情報に含まれる移動距離および舵角と、第1の移動量情報取得時点(例えば時点t1)において推定した第2の移動量情報取得時点における予想移動距離および予想舵角とのずれ量を算出し(ステップ220)、当該第2の移動量情報取得時点において取得した車両移動量情報に基づいて、第2の移動量情報取得時点後に撮影画像を取得する予定の第2の撮影画像取得時点(例えば、時点t21)から第1の時間間隔だけ遡る期間(例えば、時点t13から時点t21までの期間)に車両が移動する予想移動距離および第2の撮影画像取得時点における車両の予想舵角を推定し(ステップ230、240)、これら第2の撮影画像取得時点のうち、第2の移動量情報取得時点に最も近い時点(例えば時点t21)における予想移動距離および予想舵角を、当該ずれ量に基づいて修正する(ステップ250)。   In addition, when the vehicle movement amount information is acquired at the first movement amount information acquisition time point (for example, time point t1) (step 210), the calculation unit 5 performs the first movement amount based on the acquired vehicle movement amount information. The estimated travel distance that the vehicle moves during the period from the information acquisition time point until the second time interval elapses, and the second movement amount information acquisition time point when the second time interval elapses from the first movement amount information acquisition time point ( For example, when the predicted steering angle of the vehicle at time t2) is estimated (step 240), and the vehicle movement amount information is acquired at the second movement amount information acquisition time point (step 210), the second movement amount information acquisition time point The travel distance and rudder angle included in the vehicle travel distance information acquired in step 1 and the predicted travel at the second travel distance information acquisition time estimated at the first travel distance information acquisition time (for example, time t1) The distance between the distance and the predicted steering angle is calculated (step 220), and a captured image is acquired after the second movement amount information acquisition time based on the vehicle movement amount information acquired at the second movement amount information acquisition time. The estimated moving distance and the second shooting in which the vehicle moves in a period (for example, a period from time t13 to time t21) that goes back by the first time interval from the second captured image acquisition time point (for example, time point t21) to be performed. The estimated steering angle of the vehicle at the image acquisition time is estimated (steps 230 and 240), and the predicted movement at the time closest to the second movement amount information acquisition time (for example, time t21) among these second captured image acquisition time points. The distance and the predicted rudder angle are corrected based on the amount of deviation (step 250).

このようにすることで、第1の移動量情報取得時点において推定した第2の移動量情報取得時点における予想移動量(予想移動距離および予想舵角)が、第2の移動量情報取得時点における実際の移動量からずれていたとしても、そのずれを緩和する補正を、次の第2の撮影画像取得時点について推定した予想移動量に施すので、当該第2の撮影画像取得時点において表示する車両周辺画像において、実画像と履歴画像のずれが更に低減される。   By doing in this way, the predicted travel distance (expected travel distance and predicted steering angle) at the second travel distance information acquisition time point estimated at the first travel distance information acquisition time point is the second travel distance information acquisition time point. Even if there is a deviation from the actual movement amount, since the correction for mitigating the deviation is applied to the estimated movement amount estimated for the next second captured image acquisition time point, the vehicle displayed at the second captured image acquisition time point In the peripheral image, the deviation between the actual image and the history image is further reduced.

なお、上記実施形態において、演算部5が、図4のステップ110〜140を実行することで表示制御手段の一例として機能し、ステップ210〜260を実行することで車両移動量推定手段の一例として機能する。また、図1の移動距離推定部51および舵角推定部52の機能は、図5のステップ230、240の処理によって実現され、車両移動量演算部53および画像合成演算部54の機能は、図4のステップ130の処理によって実現され、出力画像生成部55の機能は、図4のステップ140の処理によって実現される。   In the above embodiment, the calculation unit 5 functions as an example of a display control unit by executing steps 110 to 140 in FIG. 4, and as an example of a vehicle movement amount estimation unit by executing steps 210 to 260. Function. Further, the functions of the movement distance estimation unit 51 and the steering angle estimation unit 52 in FIG. 1 are realized by the processing of steps 230 and 240 in FIG. 5, and the functions of the vehicle movement amount calculation unit 53 and the image composition calculation unit 54 are illustrated in FIG. 4, and the function of the output image generation unit 55 is realized by the process of step 140 in FIG. 4.

以上、本発明の実施形態について説明したが、本発明の範囲は、上記実施形態のみに限定されるものではなく、本発明の各発明特定事項の機能を実現し得る種々の形態を包含するものである。   As mentioned above, although embodiment of this invention was described, the scope of the present invention is not limited only to the said embodiment, The various form which can implement | achieve the function of each invention specific matter of this invention is included. It is.

1 車両周辺画像表示制御装置
2 画像入力I/F
3 車両信号入力I/F
4 画像メモリ
5 演算部
6 画像出力I/F
51 移動距離推定部
52 舵角推定部
53 車両移動量演算部
54 画像合成演算部
55 出力画像生成部
1 Vehicle Peripheral Image Display Control Device 2 Image Input I / F
3 Vehicle signal input I / F
4 Image memory 5 Calculation unit 6 Image output I / F
51 Travel Distance Estimator 52 Steering Angle Estimator 53 Vehicle Movement Amount Calculator 54 Image Composition Calculator 55 Output Image Generator

Claims (3)

カメラが撮影した車両の周辺の撮影画像を第1の時間間隔で繰り返し取得する画像入力インターフェース(2)と、
前記第1の時間間隔よりも長い第2の時間間隔の周期で、最新の前記周期における前記車両の移動に関する量(以下、移動量という)を含む車両移動量情報を繰り返し取得する車両信号入力インターフェース(3)と、
前記画像入力インターフェース(2)が撮影画像を取得する度に、今回取得した当該撮影画像に基づく実画像と、今回よりも前に取得した撮影画像に基づく履歴画像とを合成して、車両周辺画像を作成し、作成した前記車両周辺画像をディスプレイに表示させる演算部(5)とを備え、
前記演算部(5)は、
前記車両信号入力インターフェース(3)が第1の移動量情報取得時点(t1)において車両移動量情報を取得した場合、当該取得した車両移動量情報に基づいて、前記第1の移動量情報取得時点後に前記画像入力インターフェース(2)が撮影画像を取得する予定の第1の撮影画像取得時点(t11、t12、t13)における前記車両の予想移動量を推定する車両移動量推定手段(210〜260)と、
前記第1の撮影画像取得時点(t11、t12、t13)において前記画像入力インターフェース(2)が撮影画像を取得したことに基づいて、今回取得した撮影画像に基づく画像を実画像とし、また、前記車両移動量推定手段によって推定された前記第1の撮影画像取得時点における前記車両の予想移動量に基づいて、今回よりも前に取得した撮影画像を用いて、前記第1の撮影時点(t11、t12、t13)における前記車両と周囲の実際の位置関係に合致するような履歴画像を作成し、前記履歴実画像と前記実画像とを合成することで、今回の車両周辺画像を作成し、作成した当該今回の車両周辺画像を前記ディスプレイに表示させる表示制御手段(110〜140)と、を有することを特徴とする車両周辺画像表示制御装置。
An image input interface (2) for repeatedly acquiring captured images around the vehicle captured by the camera at a first time interval;
A vehicle signal input interface for repeatedly acquiring vehicle movement amount information including an amount related to movement of the vehicle in the latest cycle (hereinafter referred to as movement amount) in a cycle of a second time interval longer than the first time interval. (3) and
Each time the image input interface (2) acquires a captured image, the actual image based on the captured image acquired this time and the history image based on the captured image acquired before this time are combined to obtain a vehicle peripheral image. And a calculation unit (5) for displaying the created vehicle periphery image on a display,
The calculation unit (5)
When the vehicle signal input interface (3) acquires the vehicle movement amount information at the first movement amount information acquisition time point (t1), the first movement amount information acquisition time point based on the acquired vehicle movement amount information. Vehicle movement amount estimation means (210-260) for estimating the expected movement amount of the vehicle at a first captured image acquisition time point (t11, t12, t13) at which the image input interface (2) intends to acquire a captured image later. When,
Based on the fact that the image input interface (2) has acquired a captured image at the first captured image acquisition time point (t11, t12, t13), an image based on the currently acquired captured image is set as a real image, and Based on the estimated movement amount of the vehicle at the first captured image acquisition time estimated by the vehicle movement amount estimating means, the first captured time point (t11, A history image that matches the actual positional relationship between the vehicle and the surroundings at t12, t13) is created, and the current vehicle surrounding image is created by synthesizing the history actual image and the actual image. Display control means (110-140) for displaying the current vehicle periphery image on the display, the vehicle periphery image display control device.
前記表示制御手段(110〜140)は、前記第1の撮影画像取得時点(t11、t12、t13)において前記画像入力インターフェース(2)が撮影画像を取得したことに基づいて、前記車両移動量推定手段によって推定された前記第1の撮影画像取得時点における前記車両の予想移動量を用いて、前記第1の撮影画像取得時点(t11、t12、t13)から前記第1の時間間隔だけ遡った前回撮影画像取得時点(t03、t11、t12)において前記ディスプレイに出力した車両周辺画像を、前記第1の撮影時点(t11、t12、t13)における前記車両と周囲の実際の位置関係に合致するよう修正して前記履歴画像として、前記履歴画像を前記実画像と合成することで、今回の車両周辺画像を作成し、作成した当該今回の車両周辺画像を前記ディスプレイに表示させることを特徴とする請求項1に記載の車両周辺画像表示制御装置。   The display control means (110-140) estimates the vehicle movement amount based on the fact that the image input interface (2) has acquired a captured image at the first captured image acquisition time point (t11, t12, t13). Previously, going back from the first captured image acquisition time point (t11, t12, t13) by the first time interval using the estimated movement amount of the vehicle at the first captured image acquisition time point estimated by the means. The vehicle periphery image output to the display at the captured image acquisition time (t03, t11, t12) is corrected so as to match the actual positional relationship between the vehicle and the surrounding at the first captured time (t11, t12, t13). Then, as the history image, by synthesizing the history image with the actual image, a current vehicle peripheral image is created, and the created current vehicle A vehicle periphery image display control device according to the peripheral image to claim 1, characterized in that to be displayed on the display. 前記車両移動量推定手段(210〜260)は、
前記車両信号入力インターフェース(3)が第1の移動量情報取得時点(t1)において車両移動量情報を取得した場合、当該取得した車両移動量情報に基づいて、前記第1の移動量情報取得時点から前記第2の時間間隔が経過するまでの期間における前記車両の予想移動量を推定し、
前記車両信号入力インターフェース(3)が前記第2の移動量情報取得時点において車両移動量情報を取得した場合、前記第2の移動量情報取得時点において取得した車両移動量情報に含まれる移動量と、前記第1の移動量情報取得時点において推定した前記第2の移動量情報取得時点における移動量とのずれ量を算出し、
前記第2の移動量情報取得時点において取得した前記車両移動量情報に基づいて、前記第2の移動量情報取得時点後に前記画像入力インターフェース(2)が撮影画像を取得する予定の第2の撮影画像取得時点(t21、t22、23)から前記第1の時間間隔だけ遡る期間に前記車両が移動する予想移動距離および前記第2の撮影画像取得時点(t21、t22、t23)における前記車両の予想移動量を推定し、
前記第2の撮影画像取得時点のうち、前記第2の移動量情報取得時点に最も近い時点(t21)における予想移動量を、前記ずれ量に基づいて修正することを特徴とする請求項2に記載の車両周辺画像表示制御装置。
The vehicle movement amount estimation means (210-260)
When the vehicle signal input interface (3) acquires the vehicle movement amount information at the first movement amount information acquisition time point (t1), the first movement amount information acquisition time point based on the acquired vehicle movement amount information. To estimate the expected movement amount of the vehicle in a period until the second time interval elapses,
When the vehicle signal input interface (3) acquires the vehicle movement amount information at the time of the second movement amount information acquisition, the movement amount included in the vehicle movement amount information acquired at the time of the second movement amount information acquisition; Calculating a deviation amount from the movement amount at the second movement amount information acquisition time point estimated at the first movement amount information acquisition time point;
Based on the vehicle movement amount information acquired at the time when the second movement amount information is acquired, the second shooting that the image input interface (2) intends to acquire a shot image after the second movement amount information acquisition time point. The expected moving distance that the vehicle moves in a period that goes back by the first time interval from the image acquisition time point (t21, t22, 23) and the prediction of the vehicle at the second captured image acquisition time point (t21, t22, t23) Estimate the amount of movement,
The expected movement amount at a time point (t21) closest to the second movement amount information acquisition time point among the second captured image acquisition time points is corrected based on the deviation amount. The vehicle periphery image display control apparatus described.
JP2011190704A 2011-09-01 2011-09-01 Vehicle peripheral image display control device Active JP5790335B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011190704A JP5790335B2 (en) 2011-09-01 2011-09-01 Vehicle peripheral image display control device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011190704A JP5790335B2 (en) 2011-09-01 2011-09-01 Vehicle peripheral image display control device

Publications (2)

Publication Number Publication Date
JP2013055410A true JP2013055410A (en) 2013-03-21
JP5790335B2 JP5790335B2 (en) 2015-10-07

Family

ID=48132059

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011190704A Active JP5790335B2 (en) 2011-09-01 2011-09-01 Vehicle peripheral image display control device

Country Status (1)

Country Link
JP (1) JP5790335B2 (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015133072A1 (en) * 2014-03-05 2015-09-11 株式会社デンソー Vehicle peripheral image display device and method for displaying vehicle peripheral image
WO2016072300A1 (en) * 2014-11-04 2016-05-12 株式会社デンソー Vehicle periphery image display device and vehicle periphery image display method
JP2016213708A (en) * 2015-05-11 2016-12-15 トヨタ自動車株式会社 Vehicle display device
US20170144599A1 (en) * 2014-04-04 2017-05-25 Wise Automotive Corporation Apparatus and method for generating image around vehicle
JP2017124751A (en) * 2016-01-14 2017-07-20 アルパイン株式会社 Parking support device and parking support method
WO2020170835A1 (en) * 2019-02-18 2020-08-27 ソニー株式会社 Information processing device, information processing method, and information processing program
DE112015004341B4 (en) 2014-09-24 2022-03-10 Denso Corporation VEHICLE IMAGE PROCESSING DEVICE

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000272445A (en) * 1999-01-19 2000-10-03 Toyota Autom Loom Works Ltd Steering support device in reversing vehicle
JP2002354467A (en) * 2001-05-25 2002-12-06 Nissan Motor Co Ltd Surrounding information display unit for vehicle
JP2004338637A (en) * 2003-05-16 2004-12-02 Toyota Motor Corp Vehicle travel support device
JP2008172535A (en) * 2007-01-11 2008-07-24 Sanyo Electric Co Ltd Operation supporting system, image processing device, and deviation detecting method
JP2009006824A (en) * 2007-06-27 2009-01-15 Sumitomo Electric Ind Ltd Onboard unit and traveling control method

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000272445A (en) * 1999-01-19 2000-10-03 Toyota Autom Loom Works Ltd Steering support device in reversing vehicle
JP2002354467A (en) * 2001-05-25 2002-12-06 Nissan Motor Co Ltd Surrounding information display unit for vehicle
JP2004338637A (en) * 2003-05-16 2004-12-02 Toyota Motor Corp Vehicle travel support device
JP2008172535A (en) * 2007-01-11 2008-07-24 Sanyo Electric Co Ltd Operation supporting system, image processing device, and deviation detecting method
JP2009006824A (en) * 2007-06-27 2009-01-15 Sumitomo Electric Ind Ltd Onboard unit and traveling control method

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015170915A (en) * 2014-03-05 2015-09-28 株式会社デンソー Vehicle peripheral image display device and vehicle peripheral image display method
WO2015133072A1 (en) * 2014-03-05 2015-09-11 株式会社デンソー Vehicle peripheral image display device and method for displaying vehicle peripheral image
CN106063258A (en) * 2014-03-05 2016-10-26 株式会社电装 Vehicle peripheral image display device and method for displaying vehicle peripheral image
CN106063258B (en) * 2014-03-05 2018-12-25 株式会社电装 Vehicle-surroundings image display device, vehicle-surroundings image display method
US20170144599A1 (en) * 2014-04-04 2017-05-25 Wise Automotive Corporation Apparatus and method for generating image around vehicle
DE112015004341B4 (en) 2014-09-24 2022-03-10 Denso Corporation VEHICLE IMAGE PROCESSING DEVICE
JP2016091250A (en) * 2014-11-04 2016-05-23 株式会社デンソー Vehicle surrounding image display apparatus and vehicle surrounding image display method
WO2016072300A1 (en) * 2014-11-04 2016-05-12 株式会社デンソー Vehicle periphery image display device and vehicle periphery image display method
JP2016213708A (en) * 2015-05-11 2016-12-15 トヨタ自動車株式会社 Vehicle display device
JP2017124751A (en) * 2016-01-14 2017-07-20 アルパイン株式会社 Parking support device and parking support method
US10189501B2 (en) 2016-01-14 2019-01-29 Alpine Electronics, Inc. Parking assist apparatus and parking assist method
WO2020170835A1 (en) * 2019-02-18 2020-08-27 ソニー株式会社 Information processing device, information processing method, and information processing program
JP7371679B2 (en) 2019-02-18 2023-10-31 ソニーグループ株式会社 Information processing device, information processing method, and information processing program

Also Published As

Publication number Publication date
JP5790335B2 (en) 2015-10-07

Similar Documents

Publication Publication Date Title
JP5790335B2 (en) Vehicle peripheral image display control device
JP6003226B2 (en) Vehicle surrounding image display control apparatus and vehicle surrounding image display control program
JP4818816B2 (en) Parking assistance program and parking assistance device
JP5994437B2 (en) Vehicle surrounding image display control apparatus and vehicle surrounding image display control program
JP2015186085A (en) Travel derivation apparatus and travel derivation method
JP2019175133A (en) Image processing device, image display system, and image processing method
JP2015154336A (en) Display image generation device and display image generation program
JP2018112425A (en) Method for system time synchronization
JP2015171106A (en) Vehicle peripheral image display device and vehicle peripheral image display method
US20200267353A1 (en) Display processing device
JP2017098785A (en) Display controller and display control program
RU2009107926A (en) ULTRASONIC IMAGE SYSTEM
JP2018074411A (en) Object detection device and object detection method
JP2005212660A (en) Parking assist system
JP5863105B2 (en) Vehicle movement amount estimation device and obstacle detection device
JP6555195B2 (en) Image generation device
JP5083137B2 (en) Driving assistance device
JP2019133445A (en) Section line detection device, section line detection system, and section line detection method
JP2008226067A (en) Image processor and image processing method
JP6464846B2 (en) Vehicle surrounding image display control device and vehicle surrounding image display control program
JP7140649B2 (en) Parking assistance system and parking assistance method
CN108431866B (en) Display control device and display control method
JP6519409B2 (en) Vehicle peripheral image display control device and vehicle peripheral image display control program
JP6455193B2 (en) Electronic mirror system and image display control program
JP2017175268A (en) Image processing system, image processing method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140521

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20141225

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150106

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150119

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150707

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150720

R151 Written notification of patent or utility model registration

Ref document number: 5790335

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250