JPWO2019223840A5 - - Google Patents

Download PDF

Info

Publication number
JPWO2019223840A5
JPWO2019223840A5 JP2020562169A JP2020562169A JPWO2019223840A5 JP WO2019223840 A5 JPWO2019223840 A5 JP WO2019223840A5 JP 2020562169 A JP2020562169 A JP 2020562169A JP 2020562169 A JP2020562169 A JP 2020562169A JP WO2019223840 A5 JPWO2019223840 A5 JP WO2019223840A5
Authority
JP
Japan
Prior art keywords
blind spot
vehicle
spot area
time point
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020562169A
Other languages
Japanese (ja)
Other versions
JP2021524959A (en
JP7384830B2 (en
Publication date
Priority claimed from DE102018207976.5A external-priority patent/DE102018207976A1/en
Application filed filed Critical
Publication of JP2021524959A publication Critical patent/JP2021524959A/en
Publication of JPWO2019223840A5 publication Critical patent/JPWO2019223840A5/ja
Application granted granted Critical
Publication of JP7384830B2 publication Critical patent/JP7384830B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Description

本発明は、車両周辺部を目下の時点において、車両内に表示するための方法ならびに装置に関する。 The present invention relates to a method and a device for displaying the vehicle surroundings in a vehicle at a current point in time.

車両は、車両内にいる車両に乗っている人のために車両周辺部をディスプレーなどの表示装置に表示する又はするドライバーアシストシステムを備えてもよい。この様なドライバーアシストシステムは、サラウンドビューシステムとも呼ばれ、通常、車両に取付けられ、様々な視野領域をもつ又は異なる角を可能にする台以上の車載カメラを有している。 The vehicle may be equipped with a driver assist system that displays or reproduces the vehicle surroundings on a display device or the like for the vehicle occupants inside the vehicle. Such driver assist systems, also called surround view systems , are usually installed in the vehicle and include one or more on-board cameras with different viewing areas or allowing different viewing angles. are doing.

複数の視野領域が、異なる車載カメラによって把握されているがすべての視野領域の外側にあり、したがってカメラ像内に含まれない死角としても知られる少なくとも一つの死角領域が残存する。この様な死角領域の例としては、観察している瞬間に車両が通過し、その結果、見えなくな地表面る。なぜなら通常は、様々な車載カメラ、例えば、車両前方、車両後方、及び車両側方に配置され、そこから遠くをみるため、地表面は、常に車両自体又はその車体によって覆われている。そのため、この領域は通常、表示されず、例えば、プレースホルダによって占有されている。このプレースホルダは、視覚的に見栄えが悪いだけでなく、車両乗者にとっても苛立たしい Although multiple viewing areas are captured by different onboard cameras, at least one blind spot area, also known as a blind spot, remains, which is outside all the viewing areas and is therefore not included within the camera image . An example of such a blind spot area is a ground surface that a vehicle passes over at the moment of observation , and as a result becomes invisible . This is because the various onboard cameras are usually placed, for example, in front of the vehicle , at the rear of the vehicle , and on the side of the vehicle to see far away , so that the ground surface is always covered by the vehicle itself or its body. . Therefore , this area is usually not displayed and is occupied by placeholders, for example. This placeholder is not only visually unsightly , but also irritating to vehicle occupants .

よって本発明の課題は、車両内における車両周辺部の改善された表示を可能にする方法を提供する事である。 It is therefore an object of the invention to provide a method which allows an improved display of the vehicle surroundings inside a vehicle.

この課題は、独立請求項に記載されている対象によって解決される。有利な実施形態、並びに、発展形態は、従属請求項、明細書、並びに、図面によって示される。 This problem is solved by the subject matter of the independent claims. Advantageous embodiments and developments are indicated by the dependent claims, the description and the drawings.

本発明の第一の様態は、目下の、第二の時点において、車両内に車両周辺部を表示する方法に関する。「目下の」とは、車両周辺部の表示が、車両が動いている間、基本的にはリアルタイムでなされると理解することができる。車両は、例えば、オドメトリデータから決定できる車両速度もって、任意の方向に移動してもよくその際、リアルタイム表示は、適切なフレームレートで行われる。 A first aspect of the invention relates to a method for displaying a vehicle surroundings within a vehicle at a current, second point in time. "Current " can be understood to mean that the display of the surroundings of the vehicle is basically done in real time while the vehicle is moving . The vehicle may move in any direction, with the vehicle speed determined , for example, from the odometry data , with real-time display occurring at an appropriate frame rate.

本発明にる方法では、以下のステップを企図する。
-先ず、第一死角領域画像、例えば合成画像又はレンダリング画像は、複数の死角領域ピクセルで提供され、この画像は、第二時点よりも前の第一時点における車載カメラの視野領域に配置された車両周辺部の死角領域の画像合成、例えばレンダリングが含まれる。即ち、第一時点は、観察されている目下の第二時点よりも時間的に前にある。
次いで死角領域の各々の第一死角領域ピクセルが、第二時点について推定された、例えば、予測された新ポジションに配置、例えば、が行われる。即ち、死角領域画像は、推定、予測、変換、補間等に基づいて、死角領域画像に含まれている旧ポジションから新ポジションに配置された複数の死角領域ピクセルを有している。エイリアシング効果を軽減するために、それぞれ単一の死角領域ピクセルの代わりに、死角領域ピクセルの組み合わせを使用することもできる。
-続いて、各々の第一死角領域ピクセルの新ポジションが、第二時点において、死角領域内にあるか否かを決定する。このように考慮され新たに配置された死角領域ピクセルは、車両の移動に起因して死角領域に位置してもよい
-これに続いて、新ポジションが、死角領域内にあると決定された場合には、各々の第一死角領域ピクセルが、車両のモーションデータに基づいて動き補正しつつ合成されることにより、第二時点の各々の第死角領域ピクセル(例えばレンダリングされたピクセル)生成(例えば合成レンダリングなど行われる。車両は、走行中に死角領域画像から死角領域画像に移動する可能性があるため死角領域ピクセルも、その位置を変化させることができ車両のモーションデータが、第二死角領域ピクセルを生成するために考慮される。車両が動いていない場合、第二死角領域ピクセルは、第一のものに相当する。モーションデータは、例えば、車両システムのオドメトリ又は複数のカメラ画像からの移動推定から取得することができる。
The method according to the invention contemplates the following steps.
- First , a first blind spot area image, for example a composite image or a rendered image, is provided with a plurality of blind spot area pixels, which image represents the field of view of the on-board camera at a first point in time before a second point in time; This includes image synthesis, for example rendering, of the blind spot area around the vehicle located outside . That is , the first point in time is earlier in time than the current second point in time being observed.
- Then each first blind spot area pixel of the blind spot area is placed, eg transformed, into a new position estimated, eg predicted, for the second point in time ; That is, the blind spot area image has a plurality of blind spot area pixels arranged from an old position included in the blind spot area image to a new position based on estimation, prediction, transformation, interpolation, etc. A combination of blind area pixels may also be used instead of each single blind area pixel to reduce aliasing effects .
- subsequently determining whether the new position of each first blind spot region pixel is within the blind spot region at a second point in time; In this way , the considered and newly placed blind spot area pixels may be located outside the blind spot area due to the movement of the vehicle.
- Subsequently, if the new position is determined to be within the blind spot area, each first blind spot area pixel is synthesized with motion compensation based on the vehicle's motion data, so that the first blind spot area pixel is Generation ( eg, compositing, rendering, etc.) of a second blind spot region pixel (eg , rendered pixel) for each of the two points in time is performed . Since the vehicle may move from blind spot area image to blind spot area image while driving , the blind spot area pixels may also change their position , and the vehicle's motion data may change the second blind spot area pixel. considered for generating. If the vehicle is not moving, the second blind spot area pixel corresponds to the first one. Motion data can be obtained , for example, from odometry of a vehicle system or movement estimation from multiple camera images.

この構成によれば、提案された方法は、複数の利点を提供する。このようにして車両周辺部の死角領域の一時的な再構成が、表示されるべき車両周辺を参照することなく死角領域を持続的に覆うプレースホルダなしで行われる。更に、基本的には再帰的な方法であるため、一枚の第一死角領域画像のみを保持して提供する必要があるため、例えば、メモリユニット及び/はデータ処理ユニットの有効なメモリリソースを節約することが可能である。これにより、この方法によって作動するドライバーアシストシステムを提供するコストを削減することができる。 According to this configuration , the proposed method offers several advantages . In this way , a temporary reconstruction of the blind spot area of the vehicle surroundings is performed without a placeholder permanently covering the blind spot area without reference to the vehicle surroundings to be displayed. Furthermore, since it is basically a recursive method, it is necessary to retain and provide only one first blind spot area image, which reduces the available memory of the memory unit and/ or data processing unit, for example. It is possible to save resources. This makes it possible to reduce the cost of providing a driver assistance system that operates in this way.

ある有利な発展形態では、各々の第一死角領域ピクセルの特定の新ポジションが、死角領域画像外にあると決定された場合、第二時点の各々の第二死角領域ピクセルが、第一時点で撮影された少なくとも一つの提供されたカメラ画像を用いて各々の第一死角領域ピクセルを、合ることによって、生成することができることを企図する。この場合、既に合成された画像(例えば、レンダリングされた画像)は、もはや更なる画像合成例えば、レンダリングのためのベースとして使用するのではなく、車両周辺部から撮影されたカメラ画像を使用する。これによっても、一枚のカメラ画像のみを保存し、提供すれば良いだけであるため、有意にメモリリソースを節約できる。車両が、例えば、車両前方への視線方向、車両後方への視線方向、及び、各々の車両側方横方向への視線方向に向けられた複数のカメラを有している場合、一台の車載カメラ毎に、それぞれのカメラ画像を提供することができる。 In an advantageous development, each second blind spot area pixel at the second point in time is changed to the first point in time if the specific new position of each first blind spot area pixel is determined to be outside the blind spot area image. It is contemplated that each first blind spot region pixel can be generated by combining using at least one provided camera image taken at . In this case, the already synthesized images ( e.g. rendered images ) are no longer used as a basis for further image synthesis ( e.g. rendering ) , but rather the camera images taken from the vehicle periphery. use This also significantly saves memory resources because only one camera image needs to be stored and provided . For example, if a vehicle has a plurality of cameras oriented in the direction of line of sight to the front of the vehicle, the direction of line of sight to the rear of the vehicle, and the direction of line of sight to the side of the vehicle, one Each vehicle-mounted camera can provide its own camera image.

更なる実施形態では、モーションデータから得られる、各々の第一死角領域ピクセルの移動ベクトルを用い、それぞれ異なる視野領域を有する複数の異なる配置及び/又は整列された車載カメラのうち、どの一台の車載カメラから、ピクセル合成に用いられるカメラ画像が提供されるのかを、決定することができる。これにより、例えば、車両の動きにって車両前方に向けられている視野領域内に移動する第一死角領域ピクセルは、この車載カメラの一つのカメラ画像によって、生成又は合成、例えばレンダリングることができる。 In a further embodiment, the movement vector of each first blind spot region pixel obtained from the motion data is used to select one of a plurality of differently positioned and/or aligned vehicle cameras , each having a different field of view. , it is possible to determine which one vehicle-mounted camera provides the camera image used for pixel compositing . Thereby, for example, a first blind spot area pixel that moves into the viewing area directed towards the front of the vehicle due to the movement of the vehicle can be generated or synthesized, for example rendered , by one camera image of this on-vehicle camera. You can .

車両の移動方向、即ち、直進、後進、及び/は、カーブ走行などに応じて、移動ベクトルは、対応する車載カメラのそれぞれの視野領域内に配置してもよいこの場合、その視野領域内に移動ベクトルが配置されている正にそのカメラの対応するカメラ画像、提供るために、選択ることができる。 Depending on the direction of movement of the vehicle, ie straight forward, backward, and/ or curved driving, the movement vector may be located within the respective field of view of the corresponding on-vehicle camera. In this case , the corresponding camera image of the very camera in whose field of view the movement vector is located can be selected for presentation .

モリリソースを大幅に節約するために、既存の車載カメラ毎に正に一枚のカメラ画像、又は、一つのフレーム提供できるように保たれていることが有利である。 In order to significantly save memory resources , it is advantageous for each existing vehicle camera to be able to provide exactly one camera image, or one frame.

これに関しては、第一時点に対して正に一枚の死角領域画像のみが提供できるように保たれていることも有利である。 In this regard, it is also advantageous to ensure that exactly one blind spot area image is provided for a first point in time.

例えば、車両のディスプレー上に表示されるべき車両周辺部の表示画像を再生できる様にするためには、第二時点のそれぞれの第二死角領域ピクセルから生成された又は合成された、例えば、レンダリングされた第死角領域画像を、第二時点の少なくとも一枚の、目下のカメラ画像と組み合わせることできる。この場合、視野領域は、リアルタイムカメラ画像によってされ、死角領域は、目下の第二時点の第二死角領域画像によってされる。 For example, in order to be able to reproduce a display image of the vehicle surroundings to be displayed on the display of the vehicle, a rendering image generated or synthesized from respective second blind spot area pixels at a second point in time, e.g. The second blind spot region image obtained can be combined with at least one current camera image at a second point in time . In this case, the viewing area is represented by a real- time camera image, and the blind spot area is represented by a second blind spot area image at a second current point in time .

特に、この方法によっ動作する装置、及び/は、ドライバーアシストシステムの初期起動時には、死角領域の第一死角領域画像が未だ無い様な状況が起こり得る。次に死角領域を隠すために、車両内部において表示されるべき表示画像を、それぞれの車載カメラ、例えばフロントカメラの視野領域にずらすことができる。 In particular, at the initial startup of a device and/ or a driver assist system that operates according to this method, a situation may occur in which the first blind spot area image of the blind spot area is not yet available. The display image to be displayed inside the vehicle can then be shifted to the viewing area of the respective on-board camera, for example the front camera, in order to hide the blind spot area.

この方法は、死角領域が、車両が走行する地表面又は、車によって覆われた地表面である場合に、特に有利に使用することができる。プレースホルダの代わりに、合成された、例えば、レンダリングされた表示画像を表示することができる。 This method can be used particularly advantageously when the blind spot area is the ground surface on which the vehicle travels or the ground surface covered by the vehicle body . Instead of placeholders, a composite , e.g. rendered, display image can be displayed.

上述した方法は、例えば、車両の制御装置等の制御手段に実装することができる。制御手段は、記憶装置とデータ処理装置を有していることができる。 The method described above can be implemented, for example , in a control means such as a control device of a vehicle . The control means may include a storage device and a data processing device .

本発明の更なる様態は、目下の、第二の時点において、車両内に車両周辺部を表示するための装置に関する。装置は、以下を装備している
-車両周辺部の対応する視野領域を把握するための少なくとも一つの車載カメラ。
-第二時点よりも前の第一時点における視野領域に配置されている車両周辺部の死角領域の画像合成を含む、に一枚の死角領域画像が維持されている記憶装置
-以下を実施するため、即ち、
i)死角領域の各々の第一死角領域ピクセルを、第二時点に対してされた新ポジションに配置すること、ii)第二時点における各々の死角領域ピクセルの新ポジションが、引き続き死角領域内にあるか否かを決定することかつ、iii)新ポジションが死角領域内にあると決定された場合は、各々の第一死角領域ピクセルが、車両のモーションデータに基づいて動き補正されることにより、第二時点の各々の第二死角領域ピクセルを生成すること、
を実施するために適合されたデータ処理装置
A further aspect of the invention relates to a device for displaying a vehicle surroundings within a vehicle at a current, second point in time . The device is equipped with :
- at least one onboard camera for determining a corresponding viewing area around the vehicle;
- Exactly one blind spot area image is maintained , including an image composition of the blind spot area around the vehicle located outside the viewing area at the first point in time before the second point in time. storage device .
- to carry out the following, namely:
i) placing each first blind spot region pixel of the blind spot region in a new position estimated with respect to a second point in time; ii) the new position of each blind spot region pixel at the second point in time continues to be in the blind spot region; and iii) if the new position is determined to be within the blind spot region, each first blind spot region pixel is motion compensated based on motion data of the vehicle. generating each second blind spot region pixel at a second point in time by ;
data processing equipment adapted to carry out .

置は、上述の方法に応じて発展させることが可能であり、特に、原理的に、再帰的な方法によって有意にメモリリソースを節約できると言う利点を有している。 The device can be developed according to the method described above and has the particular advantage that, in principle, a recursive method can save memory resources significantly.

本発明は、特に、車両内部に配置された表示装置、例えば、ディスプレーを備えた車両用のドライバーアシストシステムに適している。 The invention is particularly suitable for a driver assist system for a vehicle equipped with a display device arranged inside the vehicle, for example a display.

以下、本発明の有利な実施形態を、添付されている図を用いて詳細に説明する。 BRIEF DESCRIPTION OF THE DRAWINGS Advantageous embodiments of the invention will be explained in detail below using the accompanying figures.

本発明の更なる一様態による車両周辺部を表示するための装置を備えた、一様態によるドライバーアシストシステムを備えた車両を示している。Figure 3 shows a vehicle equipped with a driver assist system according to an aspect , comprising a device for displaying the vehicle surroundings according to a further aspect of the invention; 以前に合成された死角領域画像ベースとして使用し、死角領域画像生成する図解を示している。FIG. 6 shows an illustration of generating a blind spot area image using a previously synthesized blind spot area image as a base; FIG. 前に撮影されたカメラ画像ベースとして使用し、死角領域画像生成する図解を示している。Fig. 3 shows an illustration of generating a blind spot area image using a previously captured camera image as a base; 前に撮影されたカメラ画像ベースとして使用し、死角領域画像生成する図解を示している。Fig. 3 shows an illustration of generating a blind spot area image using a previously captured camera image as a base; 本発明の更なる一様態による方法に対するフローチャートを示している。5 shows a flowchart for a method according to a further aspect of the invention.

図面は、単なる概略図であり、本発明を説明するためだけに使用する。同じ、又は、同じ効果するエレメントには、一貫して、同じ参照番号が与えられている。 The drawings are only schematic illustrations and are used only to explain the invention. Elements that are the same or have the same effect are consistently given the same reference numbers .

図1は、地表面上にある車両1を示していてこの車両は、基本的に、x方向及びy方向に移動でき、ドライバーアシストシステム又はサラウンドビューシステムでの形態の装置100を備える。これにより、車両の乗員は車両内で目下の車両周辺部のサラウンドビューを、表示又は視覚的表現としてることが可能になる。 FIG. 1 shows a vehicle 1 on the ground surface , which can essentially move in the x and y directions and is equipped with a device 100 in the form of a driver assist system or a surround view system. Be prepared . This allows the occupants of the vehicle to see a surround view of the current vehicle surroundings within the vehicle as a display or visual representation .

のため、装置100は、車両1の内部に配置され、表示画像Iを視覚的に表示するディスプレーの形態での表示装置110を備える。更に装置100は、表装置110と共に作用する少なくとも一つの(詳しくは説明しない)プロセッサを備えデータ処理装置120、及び同様に共に作用する記憶装置130を備える。加えて、装置100は、複数の車載カメラ140F,140R,140LL,140LRを備え、この車載カメラ140F,140R,140LL,140LRは、車両1の異なる位置に装備され、かつ異なる視角又は視野領域141F,141R,141LL,141LRを有するしたがって、車載カメラ140Fは車両前方に、車載カメラ140Rは車両後方に、車載カメラ140LLは横方向左に、車載カメラ140LRは横方向右に配置されている。視野領域141F,141R,141LL,141LR、各々のカメラ画像I_F,I_R,I_LL,I_LRを把握できかつ直接的に表示装置110に再生され、場合によって記憶装置130に(一時的に)保存される。表示するために、カメラ画像I_F,I_R,I_LL,I_LRは、データ処理装置120によって、表示画像Iに合成される又は組み合わされる(図2A~2C参照)。 For this purpose , the device 100 comprises a display device 110 in the form of a display, which is arranged inside the vehicle 1 and visually displays the display image I. Furthermore , the device 100 comprises a data processing device 120 , comprising at least one processor (not described in detail), which acts together with a display device 110, and a storage device 130, which also acts together. In addition, the device 100 includes a plurality of on-vehicle cameras 140F, 140R, 140LL, 140LR, which are installed at different positions of the vehicle 1 and have different viewing angles or viewing areas. It has 141F, 141R, 141LL, and 141LR . Therefore , the vehicle-mounted camera 140F is disposed at the front of the vehicle , the vehicle-mounted camera 140R is disposed at the rear of the vehicle , the vehicle-mounted camera 140LL is disposed laterally to the left , and the vehicle-mounted camera 140LR is disposed laterally to the right. The viewing areas 141F, 141R, 141LL, and 141LR can grasp the respective camera images I_F, I_R, I_LL, and I_LR, and can be directly reproduced on the display device 110, and may be (temporarily) stored in the storage device 130. be done. For display, camera images I_F, I_R, I_LL, I_L R are composited or combined into a display image I by data processing device 120 (see FIGS. 2A-2C).

図1から、地表面では、その地表面上に位置する車両1又はその車両1の車体により、いずれの視野領域141F,141R,141LL,141LR内にもない死角領域Bが存在ししたがって、車体がそれぞれの視野を遮るためいずれの車載カメラ140F,140R,140LL,140LRによっても把握できないことがわかる。その結果、表装置110における表示画像Iの死角領域画像I_Bとして、死角領域Bについて直接的なカメラ画像をすることはできない。 From FIG. 1, on the ground surface , there is a blind spot area B that is not within any of the viewing areas 141F, 141R, 141LL, 141LR due to the vehicle 1 located on the ground surface or the body of the vehicle 1 , and therefore, It can be seen that none of the vehicle-mounted cameras 140F, 140R, 140LL, and 140LR can detect this because the vehicle body blocks their respective fields of view. As a result , a direct camera image of the blind spot area B cannot be reproduced as the blind spot area image I_B of the display image I on the display device 110.

それにもかかわらず、表装置110において死角領域画像I_Bの形態で、基本的に写実的な表示で死角領域Bを表示するために、装置100は、図2A~2Cとを参照して以下に記述されている方法によって作動ることができる。 Nevertheless, in order to display the blind spot area B in an essentially photorealistic representation in the form of a blind spot area image I_B on the display device 110 , the device 100 is configured to may operate by the method described below with reference to .

原則的には、表示装置110車両周辺部表示することは、目下の時点tにおいて、基本的にリアルタイム実施するべきであるため、表示画像Iは、目下の時点tの車両周辺を含むべきである。これ、以下の説明及び図2A~2Cにおいて同じ参照番号での時間変数[t]によって示される。それに応じて目下第二時点tよりも前の第一点t-1は、図2A~2Cでは、[t-1]示されている。 In principle , displaying the surrounding area of the vehicle on the display device 110 should be performed basically in real time at the current time t, so the display image I is the display of the vehicle at the current time t. It should include the surrounding area. This is indicated by the time variable [t 2 ] with the same reference number in the following description and in FIGS. 2A-2C. Accordingly , the current first time point t-1, which is earlier than the second time point t, is designated as [t-1] in FIGS. 2A-2C.

置100の初期起動時には、任意のステップS0において、表示装置110の表示画像I内の死角領域Bは、車両周辺部の表示画像Iを車載カメラ140F,140R,140LL,140LRの視野領域141F,141R,141LL,141LR内の一つに死角領域Bがこのように空白になる程度にずらされることにより、空白にされる。視野領域141F,141R,141LL,141Lの選択は、例えば、車両の走行方向x,yに応じて、車両速度v_x,v_y、舵角、トランスミッションのギヤ選択などの車両のデータに応じて行うことができる。具象的に表現すると、表示画像Iは、時点tにおける実際の車両周辺部よりも、例えば、一台の車体の長さ分先行し、死角領域Bが空白となる。これにより、死角領域Bの代わりに、それぞれのカメラ画像IF[t-1],IR[t-1],ILL[t-1],ILR[t-1]の一部分含む初期死角領域画像I_B[t-1]を記憶、利用可能な状態に保つことができる At the time of initial startup of the device 100, in an arbitrary step S0, the blind spot area B in the display image I of the display device 110 converts the display image I of the vehicle periphery into the viewing area 141F of the vehicle-mounted cameras 140F, 140R, 140LL, and 140LR. By shifting blind area B to one of 141R, 141LL, and 141LR to such an extent that it becomes blank , it becomes blank . The selection of the viewing areas 141F, 141R, 141LL, and 141L R is performed depending on vehicle data such as vehicle speeds v_x, v_y, steering angle, transmission gear selection, etc., for example, depending on the traveling directions x and y of the vehicle. It can be done by Expressed concretely , the display image I precedes the actual surrounding area of the vehicle at time t by, for example, the length of one vehicle body, and the blind spot area B becomes blank . As a result, instead of the blind spot area B, an initial blind spot area including a portion of each camera image I F[t-1], IR[t-1], ILL[t-1], ILR[t-1] is created. Image I_B[t-1] can be stored and kept available .

ステップS1では、時点t-1の死角領域画像I_B[t-1]が目下の時点tで記憶装置130から提供されこれは、装置100の初期起動直後の一回目にのみ上述の死角の内容を含み動作中は、以下の説明の如く連続的に更新される。車両1が、例えば、x方向に15m/sで移動する場合、死角領域画像I_Bの画像内容は、対応する画像繰り返しレートに応じて更新され、各々の目下の時点tに対して提供された時は、それに先行する時点t-1の画像内容を含むIn step S1, the blind spot area image I_B[t-1] at time t-1 is provided from the storage device 130 at the current time t, and this is the content of the above-mentioned blind spot only at the first time immediately after the initial startup of the device 100. During operation , it is continuously updated as described below . If the vehicle 1 moves , for example, at 15 m /s in the Time includes the image content of the preceding time point t-1.

ステップS2では、データ処理装置120によって、死角領域画像I_B[t-1]の各々の第一死角領域ピクセルIB_SP[t-1]目下の時点tに対して推定された又は予測された新ポジションに、例えば、特に、車両1のモーションデータv_x,v_yを考慮した、又は変換に似通った方法によって配置される。これらは、例えば、車両システム、例えば、車両バスによって提供される、は、カメラ画像I_F,I_R,I_LL,I_LRから決定される。新ポジションの推定又は予測は、例えば、適した画像処理方法によって行ってもよい。車両1が、例えば、v_x=15m/sで、x方向にさらに移動した場合、対応する移動ベクトルSP_Vが、各々の死角領域ピクセルIB_SP[t-1]に対して決定され、これが、第二死角領域ピクセルIB_SP[t]として、図2Aに示唆されている如く、それぞれの新ポジションに配置される。 In step S2, the data processing device 120 determines that each first blind spot area pixel IB_SP[t-1] of the blind spot area image I_B[t-1] is estimated or predicted for the current time point t. position, for example by means of a transformation or a method resembling a transformation, taking into account, in particular, the motion data v_x, v_y of the vehicle 1. These are provided, for example, by a vehicle system, for example a vehicle bus, or determined from camera images I_F, I_R, I_LL, I_LR. The estimation or prediction of the new position may be performed , for example, by a suitable image processing method. If the vehicle 1 moves further in the x direction, for example with v_x=15 m/s, a corresponding movement vector SP_V is determined for each blind spot area pixel IB_SP[t-1], which As region pixels IB_SP[t] are placed at respective new positions as suggested in FIG. 2A.

続いてステップS3において、データ処理装置120、各々の死角領域ピクセルIB_SPの新ポジションが、目下の時点tにおいて死角領域B内にあり続けるか否かを決定する。図2Aに示されている実施例では、移動ベクトルSP_Vによってシフトされる又は変換されたそれぞれの死角領域ピクセルIB_SPは、引き続き死角領域B内にある。 Subsequently, in step S3, the data processing device 120 determines whether the new position of each blind spot area pixel IB_SP remains within the blind spot area B at the current time t. In the example shown in FIG. 2A, each blind spot region pixel IB_SP that is shifted or transformed by the movement vector SP_V continues to be within the blind spot region B.

この場合
々の第一死角領域ピクセルIB_SP[t-1]が、ステップS5Aにおいて、車両1のモーションデータに基づいて、動き補正され、即ち、特に移動ベクトルSP_Vによってシフトされることによって
ステップS4において、各々の第二死角領域ピクセルIB_SP[t]が、目下の時点tに対してデータ処理装置120において生成され、例えばレンダリングされる。二つの例示的な死角領域ピクセルIB_SPについて図2Aに示すように、これは、好ましくは、各々の第一死角領域ピクセルIB_SP[t-1]が、の新ポジションに配置され、そこから、第二死角領域画像I_B[t]生成され、例えばレンダリングされ死角領域Bの代わりに表示画像I[t]に表示されるまで繰り返される。続いて、第二死角領域画像I_B[t]は、記憶装置130に記憶され、ステップS1から始まる方法の次の実行において、内容的に更新された更なる第二時点t+nに対する第一死角領域画像I_B[t-1]として提供される。
In this case ,
Each first blind spot area pixel IB_SP[t-1] is motion compensated in step S5A on the basis of the motion data of the vehicle 1, i.e. in particular by being shifted by the movement vector SP_V .
In step S4, each second blind spot region pixel IB_SP[t] is generated , e.g. rendered, in the data processing device 120 for the current time point t . As shown in FIG. 2A for two exemplary blind spot area pixels IB_SP, this preferably means that each first blind spot area pixel IB_SP[t-1] is placed in its new position and from there A second blind spot area image I_B[t] is generated , eg rendered , and repeated until it is displayed in the display image I[t] instead of the blind spot area B. Subsequently, the second blind spot area image I_B[t] is stored in the storage device 130 and, in the next execution of the method starting from step S1, the first blind spot area image I_B[t] is updated in content for a further second point in time t+n. It is provided as a region image I_B[t-1].

これは、以下の如く一般化できる
I_B[x,y,t]=I_B[x+v_x,y+v_y,t-1],
尚式中、I_Bは死角領域画像、v_xとv_yは、x方向とy方向へのモーションデータ、t-1は第一時点、tは、目下の、第二時点である。
This can be generalized as follows .
I_B[x, y, t] = I_B[x+v_x, y+v_y, t-1],
In the formula, I_B is a blind spot area image, v_x and v_y are motion data in the x direction and y direction, t-1 is the first time point, and t is the current second time point.

図2Bでは、ステップS3において決定する別の可能な場合が示されていてこのステップS3では、各々の第一死角領域ピクセルIB_SP[t-1]の新ポジションが、目下の時点tにおいて、死角領域B内になく死角領域B外にある。よって、図2Bに示されている実施例では、移動ベクトルSP_Vによってシフトされた又は変換されたそれぞれの死角領域ピクセルIB_SPは、x方向への車両の移動によって、車載カメラ140Fの視野領域141Fに入っている。 In FIG. 2B, another possible case is shown , which is determined in step S3, in which the new position of each first blind spot region pixel IB_SP[t-1] is determined at the current time t in the blind spot . It is not within area B and is outside blind spot area B. Thus, in the example shown in FIG. 2B, each blind spot region pixel IB_SP shifted or transformed by the movement vector SP_V enters the field of view 141F of the onboard camera 140F due to the movement of the vehicle in the x direction. ing.

この場合、各々の第一死角領域ピクセルIB_SP[t]が、ステップS5Bにおいて、第一時点t-1撮影され、提供されたカメラ画像I_F[t-1]に基づいて、合成され、例えばレンダリングされることによって、目下の時点tに対する各々の第二死角領域ピクセルIB_SP[t]をステップS4において生成され、例えばレンダリングされる。 In this case, each first blind spot area pixel IB_SP[t] is synthesized in step S5B based on the camera image I_F[t-1] taken and provided at the first time point t-1, for example Each second blind spot area pixel IB_SP[t] for the current time point t is generated in step S4 by being rendered , for example rendered .

図2Cは、右カーブ走のステップS3において決定する場合を示していてこの右カーブ走行は、モーションデータv_x,v_yによるx方向及びy方向での移動を含む。図2Cに示されている如く、移動ベクトルSP_Vによってシフトされた又は変換された各々の死角領域ピクセルIB_SPは、方向への車両の移動によって、車載カメラ140LRの視野領域141LRに入っている。 FIG. 2C shows the case determined in step S3 in the example of right curve travel , which includes movement in the x and y directions according to motion data v_x, v_y. As shown in FIG. 2C, each blind spot area pixel IB_SP shifted or transformed by the movement vector SP_V enters the viewing area 141LR of the on-vehicle camera 140LR due to the movement of the vehicle in the x direction.

この場合、ステップS4では、各々の第一死角領域ピクセルIB[t-1]が、ステップS5Bにおいて、第一時点t-1撮影され、提供されたカメラ画像I_LR[t-1]に基づいて、それぞれの第一死角領域ピクセルIB[t-1]を合成、例えばレンダリングすることによって、目下の時点tに対して各々の第二死角領域ピクセルIB_SP[t]生成される、例えばレンダリングされ。二つの例示的な死角領域ピクセルIB_SPについて図2Bに示すように、これは、好ましくは、各々の第一死角領域ピクセルIB_SP[t-1]が、の新ポジションに配置され、そこから、第二死角領域画像I_B[t]生成され、例えばレンダリングされ死角領域Bの代わりに表示画像I[t]に表示されるまで繰り返される。続いて、第二死角領域画像I_B[t]は、記憶装置130に記憶され、ステップS1から始まる方法の次の実行において、内容的に更新された更なる第二時点t+nに対する第一死角領域画像I_B[t-1]として提供される。 In this case, in step S4, each first blind spot region pixel IB[t-1] is determined based on the camera image I_LR[t-1] taken and provided at the first time point t-1 in step S5B. , each second blind spot region pixel IB_SP[t] is generated for the current time point t by compositing, e.g. rendering , the respective first blind spot region pixel IB[t-1], e.g. rendered . _ As shown in FIG. 2B for two exemplary blind spot area pixels IB_SP, this preferably means that each first blind spot area pixel IB_SP[t-1] is placed in its new position and from there A second blind spot area image I_B[t] is generated , eg rendered , and repeated until it is displayed in the display image I[t] instead of the blind spot area B. Subsequently, the second blind spot area image I_B[t] is stored in the storage device 130 and, in the next execution of the method starting from step S1, the first blind spot area image I_B[t] is updated in content for a further second point in time t+n. It is provided as a region image I_B[t-1].

図2Bと2Cによれば、ステップS5Bでは、表示される死角領域ピクセルIB_SP[t]の生成が、ここでは、画像合成、例えば、時点t-1に撮影されたカメラ画像I_F[t-1]又はI_LR[t-1]のレンダリングによって実施される。この原理は、言うまでもなく、他のカメラ画像I_RやI_LL同様に実施できる。 According to FIGS. 2B and 2C, in step S5B, the generation of the displayed blind spot area pixel IB_SP[t] is performed here by image synthesis, for example the camera image I_F[t-1] taken at time t-1. Alternatively, it is implemented by rendering I_LR[t-1]. Needless to say, this principle can be implemented similarly to other camera images I_R and I_LL.

これは、以下の如く一般化できる:
I_B[x,y,t]=I_F,I_R,I_LL,I_LR[x+v_x,y+v_y,t-1],
尚式中、I_Bは、死角領域画像、I_F-I_LRは、車載カメラ140F-140LRのカメラ画像、v_xとv_yは、x方向とy方向へのモーションデータ、t-1は第一時点、tは、目下の第二時点である。
This can be generalized as follows:
I_B [x, y, t] = I_F, I_R, I_LL, I_LR [x+v_x, y+v_y, t-1],
In the formula, I_B is the blind spot area image, I_F-I_LR is the camera image of the in-vehicle camera 140F-140LR, v_x and v_y are the motion data in the x direction and the y direction, t-1 is the first time point, and t is the , currently at the second point in time.

さらに、オプションであるステップS6では、第二死角領域画像I_B[t]と第二時点tにおける目下のカメラ画像I_F[t],I_R[t],I_LL[t],I_LR[t]から、表示装置110用の表示画像Iが、組み合わされる。 Furthermore, in step S6, which is an option, from the second blind spot area image I_B[t] and the current camera images I_F[t], I_R[t], I_LL[t], I_LR[t] at the second time t. , display image I for display device 110 are combined .

図3は、オプションであるステップS0、ステップS1~S5、並びにオプションであるステップS6を含む上述の方法が、再度、フローチャートとしてまとめられている。 FIG. 3 summarizes the method described above, including optional step S0, steps S1-S5, and optional step S6, again as a flowchart.

Claims (10)

目下の、第二時点(t)において、車両(1)内に車両周辺部を表示する方であって、
この方法は、以下のステップ、即ち、
-第二時点(t)よりも前の第一時点(t-1)において、車載カメラ(140F,140R,140LL,140LR)の視野領域(141F,141R,141LL,141LR)に配置されている車両周辺部の死角領域(B)の画像合成を含む第一死角領域画像(I_B[t])を提供するステップ(S1)、
死角領域(B)の各々の第一死角領域ピクセル(IB_SP[t-1])を、第二時点(t)について推測された新ポジションに配置するステップ(S2)、
-各々の第一死角領域ピクセル(IB_SP[t-1])の新ポジションが、第二時点(t)において、死角領域(B)内にあるか否かを決定するステップ(S3)、及び、
新ポジションが、死角領域(B)内にあると決定された場合には、各々の第一死角領域ピクセル(IB_SP[t-1])が、車両(1)のモーションデータ(v_x,v_y)に基づいて合成(S5A)されることにより、第二時点(t)の各々の第二死角領域ピクセル(IB_SP[t])を生成するステップ(S4)
を備えることを特徴とする方法
A method for displaying a vehicle surrounding area within a vehicle (1) at a current second time point (t), the method comprising:
This method consists of the following steps:
- At the first time point (t-1) before the second time point (t) , outside the viewing area (141F, 141R, 141LL, 141LR) of the in-vehicle camera (140F, 140R, 140LL, 140LR) a step (S1) of providing a first blind spot area image (I_B[t]) including image synthesis of a blind spot area (B) in the peripheral area of the vehicle where the vehicle is located;
- placing each first blind spot area pixel (IB_SP[t-1]) of the blind spot area (B) in a new position estimated for the second time point (t) (S2);
- determining (S3) whether the new position of each first blind spot area pixel (IB_SP[t-1]) is within the blind spot area (B) at a second time point (t);
If the new position is determined to be within the blind spot area (B), each first blind spot area pixel (IB_SP[t-1]) is added to the motion data (v_x, v_y) of the vehicle (1). a step (S4) of generating each second blind spot area pixel (IB_SP[t]) at the second time point (t) by combining (S5A) based on the second time point (t) ;
A method characterized by comprising :
新ポジションが、死角領域(B)外にあると決定された場合は、各々の第一死角領域ピクセル(IB_SP[t-1])が、少なくとも一つの第一時点(t-1)に撮影され、提供されたカメラ画像(I_F[t-1],I_R[t-1],I_LL[t-1],I_LR[t-1])を用いて合成(S5B)されることによって、第二時点(t)の各々の第二死角領域ピクセル(IB_SP[t])が、生成される(S4)ことを特徴とする請求項1に記載の方法。 If the new position is determined to be outside the blind spot area (B), each first blind spot area pixel (IB_SP[t-1]) is captured at least one first time point (t-1). , the second time point is synthesized (S5B) using the provided camera images (I_F[t-1], I_R[t-1], I_LL[t-1], I_LR[t-1]). A method according to claim 1, characterized in that each second blind spot region pixel (IB_SP[t]) of (t) is generated (S4). モーションデータ(v_x,v_y)から得られた各々の第一死角領域ピクセル(IB_SP[t-1])のモーションベクトル(SP_V)に基づいて、各々の異なる視野領域(141F,141R,141LL,141LR)を有する複数の車載カメラ(140F,140R,140LL,140LR)のうちのいずれの車載カメラからカメラ画像(I_F[t-1],I_R[t-1],I_LL[t-1],I_LR[t-1])が提供されるのかが決定されることを特徴とする請求項2に記載の方法。 Based on the motion vector (SP_V) of each first blind spot area pixel (IB_SP[t-1]) obtained from the motion data (v_x, v_y), each different viewing area (141F, 141R, 141LL, 141LR) ) Camera image (I_F[t-1], I_R[t-1], I_LL[t-1], I_LR[ 3. The method according to claim 2, characterized in that it is determined whether t-1]) is provided. 提供されるに当たって、その視野領域(141F,141R,141LL,141LR)に、移動ベクトル(SP_V)が配置されている各々のカメラ(140F,140R,140LL,140LR)のカメラ画像(I_F[t-1],I_R[t-1],I_LR[t-1],I_RR[t-1])が選択されることを特徴とする請求項3に記載の方法。 In providing the camera image (I_F[t-1 ], I_R[t-1], I_LR[t-1], I_RR[t-1]) are selected. 車載カメラ(140F,140R,140LL,140LR)毎に、正に一枚のカメラ画像(I_F[t-1],I_R[t-1],I_LR[t-1],I_RR[t-1])のみ提供するために維持ることを特徴とする請求項3は4に記載の方法。 Exactly one camera image (I_F[t-1], I_R[t-1], I_LR[t-1], I_RR[t-1]) for each in-vehicle camera (140F, 140R, 140LL, 140LR) The method according to claim 3 or 4, characterized in that the method is maintained for providing only. 第一時点(t-1)の正に一枚の死角領域画像(IB_SP[t-1])のみを提供するために維持することを特徴とする先行請求項のうち何れか一項に記載の方法。 according to one of the preceding claims, characterized in that exactly one blind spot area image (IB_SP[t-1]) at a first point in time (t-1) is maintained for providing. Method. 各々の第二死角領域ピクセル(IB_SP[t])から第二時点(t)用に生成された第二死角領域画像(IB_SP[t])と第二時点(t)の少なくとも一枚の目下のカメラ画像(I_F[t],I_R[t],I_LL[t],I_LR[t])が、車両(1)内における表示のために組み合わされることを特徴とする先行請求項のうち何れか一項に記載の方法。 A second blind spot area image (IB_SP[t]) generated for the second time point (t) from each second blind spot area pixel (IB_SP[t]) and at least one current image of the second time point (t). Any one of the preceding claims characterized in that the camera images (I_F[t], I_R[t], I_LL[t], I_LR[t]) are combined for display in the vehicle (1). The method described in section. 初期起動に、車両周辺部の表示画像(I)死角領域(B)が、される程度に視野領域(141F,141R,141LL,141LR)内にずらされることを特徴とする先行請求項のうち何れか一項に記載の方法。 At the time of initial startup , the display image (I) of the vehicle periphery is shifted into the visual field (141F, 141R, 141LL, 141LR) to the extent that the blind spot area (B) is hidden . A method according to any one of the claims. 死角領域(B)が、車両(1)走行した地表面に配置されていることを特徴とする先行請求項のうち何れか一項に記載の方法。 Method according to any one of the preceding claims, characterized in that the blind spot area (B) is arranged on the ground surface traveled by the vehicle (1). 目下の、第二時点(t)において、車両(1)内に車両周辺部を表示するための装置(100)であって、
この装置(100)は、
-車両周辺部の対応する視野領域(141F,141R,141LL,141LR)を把握するための、少なくとも一台の車載カメラ(140F,140R,140LL,140LR)、
-第二時点(t)よりも前の第一時点(t-1)における視野領域(141F,141R,141LL,141LR)に配置されている車両周辺部の死角領域(B)の画像合成を含む、に一枚の死角領域画像(I_B[t-1])が維持されている記憶装置(130)、並びに、
-以下を実施するため、即ち、
i)死角領域(B)の各々の第一死角領域ピクセル(IB_SP[t-1])を、第二時点(t)に対してされた新ポジションに配置すること、
ii)第二時点(t)における各々の第一死角領域ピクセル(IB_SP[t-1])の新ポジションが、引き続きブラインド領域(B)内にあるか否かを決定すること、
iii)新ポジションが死角領域(B)内にあると決定された場合には、各々の第一死角領域ピクセル(IB_SP[t-1])が、車両(1)のモーションデータ(v_x,v_y)に基づいて合成(S5)されることにより、第二時点(t)の各々の第二死角領域ピクセル(IB_SP[t])を生成すること
を実施するために適合されたデータ処理装置(120)、
を備えることを特徴とする装置(100)
A device (100) for displaying a vehicle surrounding area within a vehicle (1) at a current second time point (t), the device (100) comprising:
This device (100) is
- at least one onboard camera (140F, 140R, 140LL, 140LR) for understanding the corresponding viewing area (141F, 141R, 141LL, 141LR) around the vehicle;
- The blind spot area (B) of the vehicle peripheral area located outside the visual field (141F, 141R, 141LL, 141LR) at the first time point (t-1) before the second time point (t) a storage device (130) in which exactly one blind spot area image (I_B[t-1] ) is maintained, including image composition;
- to carry out the following, namely:
i) placing each first blind spot region pixel (IB_SP[t-1]) of the blind spot region (B) in a new position estimated with respect to a second time point (t);
ii) determining whether the new position of each first blind spot region pixel (IB_SP[t-1]) at the second time point (t ) is still within the blind region (B);
iii) If it is determined that the new position is within the blind spot area (B), each first blind spot area pixel (IB_SP[t-1]) is assigned the motion data (v_x, v_y) of the vehicle (1). generating each second blind spot area pixel (IB_SP[t]) at a second time point (t) by combining (S5) based on ;
a data processing device (120) adapted to perform
An apparatus (100) comprising :
JP2020562169A 2018-05-22 2019-05-16 Method and device for displaying vehicle surroundings Active JP7384830B2 (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
DE102018207976.5A DE102018207976A1 (en) 2018-05-22 2018-05-22 Method and device for displaying a vehicle environment
DE102018207976.5 2018-05-22
PCT/DE2019/200044 WO2019223840A1 (en) 2018-05-22 2019-05-16 Method and device for displaying vehicle surroundings

Publications (3)

Publication Number Publication Date
JP2021524959A JP2021524959A (en) 2021-09-16
JPWO2019223840A5 true JPWO2019223840A5 (en) 2023-09-29
JP7384830B2 JP7384830B2 (en) 2023-11-21

Family

ID=66668649

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020562169A Active JP7384830B2 (en) 2018-05-22 2019-05-16 Method and device for displaying vehicle surroundings

Country Status (6)

Country Link
US (1) US20210162923A1 (en)
EP (1) EP3797053B1 (en)
JP (1) JP7384830B2 (en)
KR (1) KR102659382B1 (en)
DE (1) DE102018207976A1 (en)
WO (1) WO2019223840A1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102366944B1 (en) 2020-06-17 2022-02-28 (주)베이다스 Appratus and method for generating bird viewpoint image

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4670460B2 (en) 2005-04-27 2011-04-13 アイシン・エィ・ダブリュ株式会社 Parking support method and parking support device
JP2010166196A (en) * 2009-01-14 2010-07-29 Clarion Co Ltd Vehicle periphery monitoring device
JP4914458B2 (en) * 2009-02-12 2012-04-11 株式会社日本自動車部品総合研究所 Vehicle periphery display device
DE102010010906A1 (en) * 2010-03-10 2011-01-05 Daimler Ag Method for producing representation and environment of vehicle for driver assistance system, involves detecting environmental areas in stored camera image, and utilizing image area of camera image for producing representation of areas
JP2013541915A (en) * 2010-12-30 2013-11-14 ワイズ オートモーティブ コーポレーション Blind Spot Zone Display Device and Method
DE102013217699A1 (en) * 2013-09-05 2015-03-05 Robert Bosch Gmbh Method for maneuvering a vehicle
JP2015171106A (en) 2014-03-10 2015-09-28 株式会社デンソー Vehicle peripheral image display device and vehicle peripheral image display method
JP6759899B2 (en) * 2016-09-08 2020-09-23 アイシン精機株式会社 Image processing device for vehicles

Similar Documents

Publication Publication Date Title
TWI600559B (en) System and method for image processing
US7554461B2 (en) Recording medium, parking support apparatus and parking support screen
JP4907883B2 (en) Vehicle periphery image display device and vehicle periphery image display method
CN110877572A (en) Periphery monitoring device
CN105009574A (en) Periphery monitoring device and program
JP2007099261A (en) Parking assistance method and parking assistance device
JP5658507B2 (en) Image display system, image generation apparatus, and image display method
JP2007141098A (en) Image-processing device and image-processing method
JP7426174B2 (en) Vehicle surrounding image display system and vehicle surrounding image display method
JP2019054420A (en) Image processing system
JP7013751B2 (en) Image processing equipment
JP7384830B2 (en) Method and device for displaying vehicle surroundings
JP2004147083A (en) Driving support apparatus
JP4059309B2 (en) In-vehicle camera image display control method and apparatus
JP6720729B2 (en) Display controller
JP2011155651A (en) Apparatus and method for displaying vehicle perimeter image
CN111402132B (en) Reversing auxiliary method and system, image processor and corresponding auxiliary driving system
JPWO2019223840A5 (en)
KR101861523B1 (en) Apparatus and method for supporting driving of vehicle
JP4561512B2 (en) Parking support method and parking support device
WO2021172037A1 (en) Image processing device, image processing method, program, and image presentation system
CN114619965A (en) Vehicle display control device and vehicle display control method
CN114332789A (en) Image processing method, apparatus, device, vehicle, and medium
JP6747349B2 (en) Driving support device, driving support method and program
JP6989213B2 (en) Vehicle peripheral monitoring device