JPWO2019223840A5 - - Google Patents
Download PDFInfo
- Publication number
- JPWO2019223840A5 JPWO2019223840A5 JP2020562169A JP2020562169A JPWO2019223840A5 JP WO2019223840 A5 JPWO2019223840 A5 JP WO2019223840A5 JP 2020562169 A JP2020562169 A JP 2020562169A JP 2020562169 A JP2020562169 A JP 2020562169A JP WO2019223840 A5 JPWO2019223840 A5 JP WO2019223840A5
- Authority
- JP
- Japan
- Prior art keywords
- blind spot
- vehicle
- spot area
- time point
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000033001 locomotion Effects 0.000 claims description 32
- 238000000034 method Methods 0.000 claims description 29
- 230000015572 biosynthetic process Effects 0.000 claims description 4
- 238000003786 synthesis reaction Methods 0.000 claims description 4
- 230000000007 visual effect Effects 0.000 claims description 3
- 239000000203 mixture Substances 0.000 claims description 2
- 230000002093 peripheral effect Effects 0.000 claims 2
- 238000009877 rendering Methods 0.000 description 6
- 230000009466 transformation Effects 0.000 description 3
- 239000002131 composite material Substances 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 230000018109 developmental process Effects 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
Description
本発明は、車両周辺部を目下の時点において、車両内に表示するための方法ならびに装置に関する。 The present invention relates to a method and a device for displaying the vehicle surroundings in a vehicle at a current point in time.
車両は、車両内にいる車両に乗っている人のために車両周辺部をディスプレーなどの表示装置に表示する又は再現するドライバーアシストシステムを備えてもよい。この様なドライバーアシストシステムは、サラウンドビューシステムとも呼ばれ、通常、車両に取付けられ、様々な視野領域をもつ、又は、異なる視野角を可能にする一台以上の車載カメラを有している。 The vehicle may be equipped with a driver assist system that displays or reproduces the vehicle surroundings on a display device or the like for the vehicle occupants inside the vehicle. Such driver assist systems, also called surround view systems , are usually installed in the vehicle and include one or more on-board cameras with different viewing areas or allowing different viewing angles. are doing.
複数の視野領域が、異なる車載カメラによって把握されているが、すべての視野領域の外側にあり、したがってカメラ画像内に含まれない、死角としても知られる少なくとも一つの死角領域が残存する。この様な死角領域の例としては、観察している瞬間に車両が通過し、その結果、見えなくなる地表面がある。なぜなら通常は、様々な車載カメラが、例えば、車両前方、車両後方、及び車両側方に配置され、そこから遠くをみるため、地表面は、常に車両自体又はその車体によって覆われている。そのため、この領域は通常、表示されず、例えば、プレースホルダによって占有されている。このプレースホルダは、視覚的に見栄えが悪いだけでなく、車両搭乗者にとっても苛立たしい。 Although multiple viewing areas are captured by different onboard cameras, at least one blind spot area, also known as a blind spot, remains, which is outside all the viewing areas and is therefore not included within the camera image . An example of such a blind spot area is a ground surface that a vehicle passes over at the moment of observation , and as a result becomes invisible . This is because the various onboard cameras are usually placed, for example, in front of the vehicle , at the rear of the vehicle , and on the side of the vehicle to see far away , so that the ground surface is always covered by the vehicle itself or its body. . Therefore , this area is usually not displayed and is occupied by placeholders, for example. This placeholder is not only visually unsightly , but also irritating to vehicle occupants .
よって本発明の課題は、車両内における車両周辺部の改善された表示を可能にする方法を提供する事である。 It is therefore an object of the invention to provide a method which allows an improved display of the vehicle surroundings inside a vehicle.
この課題は、独立請求項に記載されている対象によって解決される。有利な実施形態、並びに、発展形態は、従属請求項、明細書、並びに、図面によって示される。 This problem is solved by the subject matter of the independent claims. Advantageous embodiments and developments are indicated by the dependent claims, the description and the drawings.
本発明の第一の様態は、目下の、第二の時点において、車両内に車両周辺部を表示する方法に関する。「目下の」とは、車両周辺部の表示が、車両が動いている間、基本的にはリアルタイムでなされると理解することができる。車両は、例えば、オドメトリデータから決定できる車両速度でもって、任意の方向に移動してもよく、その際、リアルタイム表示は、適切なフレームレートで行われる。 A first aspect of the invention relates to a method for displaying a vehicle surroundings within a vehicle at a current, second point in time. "Current " can be understood to mean that the display of the surroundings of the vehicle is basically done in real time while the vehicle is moving . The vehicle may move in any direction, with the vehicle speed determined , for example, from the odometry data , with real-time display occurring at an appropriate frame rate.
本発明による方法では、以下のステップを企図する。
-先ず、第一死角領域画像、例えば合成画像又はレンダリング画像は、複数の死角領域ピクセルで提供され、この画像は、第二時点よりも前の第一時点における車載カメラの視野領域の外側に配置された車両周辺部の死角領域の画像合成、例えばレンダリングが含まれる。即ち、第一時点は、観察されている目下の第二時点よりも時間的に前にある。
-次いで、死角領域の各々の第一死角領域ピクセルが、第二時点について推定された、例えば、予測された新ポジションに配置、例えば、変換が行われる。即ち、死角領域画像は、推定、予測、変換、補間等に基づいて、死角領域画像に含まれている旧ポジションから新ポジションに配置された複数の死角領域ピクセルを有している。エイリアシング効果を軽減するために、それぞれの単一の死角領域ピクセルの代わりに、死角領域ピクセルの組み合わせを使用することもできる。
-続いて、各々の第一死角領域ピクセルの新ポジションが、第二時点において、死角領域内にあるか否かを決定する。このように、考慮され新たに配置された死角領域ピクセルは、車両の移動に起因して死角領域の外側に位置してもよい。
-これに続いて、新ポジションが、死角領域内にあると決定された場合には、各々の第一死角領域ピクセルが、車両のモーションデータに基づいて動き補正しつつ合成されることにより、第二時点の各々の第二死角領域ピクセル(例えばレンダリングされたピクセル)の生成(例えば合成、レンダリングなど)が行われる。車両は、走行中に死角領域画像から死角領域画像に移動する可能性があるため、死角領域ピクセルも、その位置を変化させることができ、車両のモーションデータが、第二死角領域ピクセルを生成するために考慮される。車両が動いていない場合、第二死角領域ピクセルは、第一のものに相当する。モーションデータは、例えば、車両システムのオドメトリ又は複数のカメラ画像からの移動推定から取得することができる。
The method according to the invention contemplates the following steps.
- First , a first blind spot area image, for example a composite image or a rendered image, is provided with a plurality of blind spot area pixels, which image represents the field of view of the on-board camera at a first point in time before a second point in time; This includes image synthesis, for example rendering, of the blind spot area around the vehicle located outside . That is , the first point in time is earlier in time than the current second point in time being observed.
- Then each first blind spot area pixel of the blind spot area is placed, eg transformed, into a new position estimated, eg predicted, for the second point in time ; That is, the blind spot area image has a plurality of blind spot area pixels arranged from an old position included in the blind spot area image to a new position based on estimation, prediction, transformation, interpolation, etc. A combination of blind area pixels may also be used instead of each single blind area pixel to reduce aliasing effects .
- subsequently determining whether the new position of each first blind spot region pixel is within the blind spot region at a second point in time; In this way , the considered and newly placed blind spot area pixels may be located outside the blind spot area due to the movement of the vehicle.
- Subsequently, if the new position is determined to be within the blind spot area, each first blind spot area pixel is synthesized with motion compensation based on the vehicle's motion data, so that the first blind spot area pixel is Generation ( eg, compositing, rendering, etc.) of a second blind spot region pixel (eg , rendered pixel) for each of the two points in time is performed . Since the vehicle may move from blind spot area image to blind spot area image while driving , the blind spot area pixels may also change their position , and the vehicle's motion data may change the second blind spot area pixel. considered for generating. If the vehicle is not moving, the second blind spot area pixel corresponds to the first one. Motion data can be obtained , for example, from odometry of a vehicle system or movement estimation from multiple camera images.
この構成によれば、提案された方法は、複数の利点を提供する。このようにして、車両周辺部の死角領域の一時的な再構成が、表示されるべき車両周辺を参照することなく死角領域を持続的に覆うプレースホルダなしで行われる。更に、基本的には再帰的な方法であるため、一枚の第一死角領域画像のみを保持して提供する必要があるため、例えば、メモリユニット及び/又はデータ処理ユニットの有効なメモリリソースを節約することが可能である。これにより、この方法によって作動するドライバーアシストシステムを提供するコストを削減することができる。 According to this configuration , the proposed method offers several advantages . In this way , a temporary reconstruction of the blind spot area of the vehicle surroundings is performed without a placeholder permanently covering the blind spot area without reference to the vehicle surroundings to be displayed. Furthermore, since it is basically a recursive method, it is necessary to retain and provide only one first blind spot area image, which reduces the available memory of the memory unit and/ or data processing unit, for example. It is possible to save resources. This makes it possible to reduce the cost of providing a driver assistance system that operates in this way.
ある有利な発展形態では、各々の第一死角領域ピクセルの特定の新ポジションが、死角領域画像外にあると決定された場合、第二時点の各々の第二死角領域ピクセルが、第一時点で撮影された少なくとも一つの提供されたカメラ画像を用いて各々の第一死角領域ピクセルを、合成することによって、生成することができることを企図する。この場合、既に合成された画像(例えば、レンダリングされた画像)は、もはや更なる画像合成(例えば、レンダリング)のためのベースとして使用するのではなく、車両周辺部から撮影されたカメラ画像を使用する。これによっても、一枚のカメラ画像のみを保存し、提供すれば良いだけであるため、有意にメモリリソースを節約できる。車両が、例えば、車両前方への視線方向、車両後方への視線方向、及び、各々の車両側方横方向への視線方向に向けられた複数のカメラを有している場合、一台の車載カメラ毎に、それぞれのカメラ画像を提供することができる。 In an advantageous development, each second blind spot area pixel at the second point in time is changed to the first point in time if the specific new position of each first blind spot area pixel is determined to be outside the blind spot area image. It is contemplated that each first blind spot region pixel can be generated by combining using at least one provided camera image taken at . In this case, the already synthesized images ( e.g. rendered images ) are no longer used as a basis for further image synthesis ( e.g. rendering ) , but rather the camera images taken from the vehicle periphery. use This also significantly saves memory resources because only one camera image needs to be stored and provided . For example, if a vehicle has a plurality of cameras oriented in the direction of line of sight to the front of the vehicle, the direction of line of sight to the rear of the vehicle, and the direction of line of sight to the side of the vehicle, one Each vehicle-mounted camera can provide its own camera image.
更なる実施形態では、モーションデータから得られる、各々の第一死角領域ピクセルの移動ベクトルを用いて、それぞれ異なる視野領域を有する複数の異なる配置及び/又は整列された車載カメラのうち、どの一台の車載カメラから、ピクセル合成に用いられるカメラ画像が提供されるのかを、決定することができる。これにより、例えば、車両の動きによって車両前方に向けられている視野領域内に移動する第一死角領域ピクセルは、この車載カメラの一つのカメラ画像によって、生成又は合成、例えばレンダリングすることができる。 In a further embodiment, the movement vector of each first blind spot region pixel obtained from the motion data is used to select one of a plurality of differently positioned and/or aligned vehicle cameras , each having a different field of view. , it is possible to determine which one vehicle-mounted camera provides the camera image used for pixel compositing . Thereby, for example, a first blind spot area pixel that moves into the viewing area directed towards the front of the vehicle due to the movement of the vehicle can be generated or synthesized, for example rendered , by one camera image of this on-vehicle camera. You can .
車両の移動方向、即ち、直進、後進、及び/又は、カーブ走行などに応じて、移動ベクトルは、対応する車載カメラのそれぞれの視野領域内に配置してもよい。この場合、その視野領域内に移動ベクトルが配置されている正にそのカメラの対応するカメラ画像を、提供するために、選択することができる。 Depending on the direction of movement of the vehicle, ie straight forward, backward, and/ or curved driving, the movement vector may be located within the respective field of view of the corresponding on-vehicle camera. In this case , the corresponding camera image of the very camera in whose field of view the movement vector is located can be selected for presentation .
メモリリソースを大幅に節約するために、既存の車載カメラ毎に正に一枚のカメラ画像、又は、一つのフレームが提供できるように保たれていることが有利である。 In order to significantly save memory resources , it is advantageous for each existing vehicle camera to be able to provide exactly one camera image, or one frame.
これに関しては、第一時点に対して正に一枚の死角領域画像のみが提供できるように保たれていることも有利である。 In this regard, it is also advantageous to ensure that exactly one blind spot area image is provided for a first point in time.
例えば、車両のディスプレー上に表示されるべき車両周辺部の表示画像を再生できる様にするためには、第二時点のそれぞれの第二死角領域ピクセルから生成された又は合成された、例えば、レンダリングされた第二死角領域画像を、第二時点の少なくとも一枚の、目下のカメラ画像と組み合わせることができる。この場合、視野領域は、リアルタイムのカメラ画像によって表され、死角領域は、目下の第二時点の第二死角領域画像によって表される。 For example, in order to be able to reproduce a display image of the vehicle surroundings to be displayed on the display of the vehicle, a rendering image generated or synthesized from respective second blind spot area pixels at a second point in time, e.g. The second blind spot region image obtained can be combined with at least one current camera image at a second point in time . In this case, the viewing area is represented by a real- time camera image, and the blind spot area is represented by a second blind spot area image at a second current point in time .
特に、この方法によって動作する装置、及び/又は、ドライバーアシストシステムの初期起動時には、死角領域の第一死角領域画像が未だ無い様な状況が起こり得る。次に、死角領域を隠すために、車両内部において表示されるべき表示画像を、それぞれの車載カメラ、例えばフロントカメラの視野領域にずらすことができる。 In particular, at the initial startup of a device and/ or a driver assist system that operates according to this method, a situation may occur in which the first blind spot area image of the blind spot area is not yet available. The display image to be displayed inside the vehicle can then be shifted to the viewing area of the respective on-board camera, for example the front camera, in order to hide the blind spot area.
この方法は、死角領域が、車両が走行する地表面、又は、車体によって覆われた地表面である場合に、特に有利に使用することができる。プレースホルダの代わりに、合成された、例えば、レンダリングされた表示画像を表示することができる。 This method can be used particularly advantageously when the blind spot area is the ground surface on which the vehicle travels or the ground surface covered by the vehicle body . Instead of placeholders, a composite , e.g. rendered, display image can be displayed.
上述した方法は、例えば、車両の制御装置等の制御手段に実装することができる。制御手段は、記憶装置とデータ処理装置を有していることができる。 The method described above can be implemented, for example , in a control means such as a control device of a vehicle . The control means may include a storage device and a data processing device .
本発明の更なる様態は、目下の、第二の時点において、車両内に車両周辺部を表示するための装置に関する。装置は、以下を装備している。
-車両周辺部の対応する視野領域を把握するための少なくとも一つの車載カメラ。
-第二時点よりも前の第一時点における、視野領域の外側に配置されている車両周辺部の死角領域の画像合成を含む、正確に一枚の死角領域画像が維持されている記憶装置。
-以下を実施するため、即ち、
i)死角領域の各々の第一死角領域ピクセルを、第二時点に対して推定された新ポジションに配置すること、ii)第二時点における各々の死角領域ピクセルの新ポジションが、引き続き死角領域内にあるか否かを決定すること、かつ、iii)新ポジションが死角領域内にあると決定された場合は、各々の第一死角領域ピクセルが、車両のモーションデータに基づいて動き補正されることにより、第二時点での各々の第二死角領域ピクセルを生成すること、
を実施するために適合されたデータ処理装置。
A further aspect of the invention relates to a device for displaying a vehicle surroundings within a vehicle at a current, second point in time . The device is equipped with :
- at least one onboard camera for determining a corresponding viewing area around the vehicle;
- Exactly one blind spot area image is maintained , including an image composition of the blind spot area around the vehicle located outside the viewing area at the first point in time before the second point in time. storage device .
- to carry out the following, namely:
i) placing each first blind spot region pixel of the blind spot region in a new position estimated with respect to a second point in time; ii) the new position of each blind spot region pixel at the second point in time continues to be in the blind spot region; and iii) if the new position is determined to be within the blind spot region, each first blind spot region pixel is motion compensated based on motion data of the vehicle. generating each second blind spot region pixel at a second point in time by ;
data processing equipment adapted to carry out .
装置は、上述の方法に応じて発展させることが可能であり、特に、原理的に、再帰的な方法によって有意にメモリリソースを節約できると言う利点を有している。 The device can be developed according to the method described above and has the particular advantage that, in principle, a recursive method can save memory resources significantly.
本発明は、特に、車両内部に配置された表示装置、例えば、ディスプレーを備えた車両用のドライバーアシストシステムに適している。 The invention is particularly suitable for a driver assist system for a vehicle equipped with a display device arranged inside the vehicle, for example a display.
以下、本発明の有利な実施形態を、添付されている図を用いて詳細に説明する。 BRIEF DESCRIPTION OF THE DRAWINGS Advantageous embodiments of the invention will be explained in detail below using the accompanying figures.
図面は、単なる概略図であり、本発明を説明するためだけに使用する。同じ、又は、同じ効果を有するエレメントには、一貫して、同じ参照番号が与えられている。 The drawings are only schematic illustrations and are used only to explain the invention. Elements that are the same or have the same effect are consistently given the same reference numbers .
図1は、地表面上にある車両1を示していて、この車両は、基本的に、x方向及びy方向に移動でき、ドライバーアシストシステム又はサラウンドビューシステムでの形態の装置100を備える。これにより、車両の乗員は、車両内で目下の車両周辺部のサラウンドビューを、表示又は視覚的表現として見ることが可能になる。 FIG. 1 shows a vehicle 1 on the ground surface , which can essentially move in the x and y directions and is equipped with a device 100 in the form of a driver assist system or a surround view system. Be prepared . This allows the occupants of the vehicle to see a surround view of the current vehicle surroundings within the vehicle as a display or visual representation .
このため、装置100は、車両1の内部に配置され、表示画像Iを視覚的に表示するディスプレーの形態での表示装置110を備える。更に、装置100は、表示装置110と共に作用する、少なくとも一つの(詳しくは説明しない)プロセッサを備えるデータ処理装置120、及び同様に共に作用する記憶装置130を備える。加えて、装置100は、複数の車載カメラ140F,140R,140LL,140LRを備え、この車載カメラ140F,140R,140LL,140LRは、車両1の異なる位置に装備され、かつ異なる視角又は視野領域141F,141R,141LL,141LRを有する。したがって、車載カメラ140Fは車両前方に、車載カメラ140Rは車両後方に、車載カメラ140LLは横方向左に、車載カメラ140LRは横方向右に、配置されている。視野領域141F,141R,141LL,141LRは、各々のカメラ画像I_F,I_R,I_LL,I_LRを把握でき、かつ直接的に表示装置110に再生され、場合によって、記憶装置130に(一時的に)保存される。表示するために、カメラ画像I_F,I_R,I_LL,I_LRは、データ処理装置120によって、表示画像Iに合成される又は組み合わされる(図2A~2C参照)。 For this purpose , the device 100 comprises a display device 110 in the form of a display, which is arranged inside the vehicle 1 and visually displays the display image I. Furthermore , the device 100 comprises a data processing device 120 , comprising at least one processor (not described in detail), which acts together with a display device 110, and a storage device 130, which also acts together. In addition, the device 100 includes a plurality of on-vehicle cameras 140F, 140R, 140LL, 140LR, which are installed at different positions of the vehicle 1 and have different viewing angles or viewing areas. It has 141F, 141R, 141LL, and 141LR . Therefore , the vehicle-mounted camera 140F is disposed at the front of the vehicle , the vehicle-mounted camera 140R is disposed at the rear of the vehicle , the vehicle-mounted camera 140LL is disposed laterally to the left , and the vehicle-mounted camera 140LR is disposed laterally to the right. The viewing areas 141F, 141R, 141LL, and 141LR can grasp the respective camera images I_F, I_R, I_LL, and I_LR, and can be directly reproduced on the display device 110, and may be (temporarily) stored in the storage device 130. be done. For display, camera images I_F, I_R, I_LL, I_L R are composited or combined into a display image I by data processing device 120 (see FIGS. 2A-2C).
図1から、地表面では、その地表面上に位置する車両1又はその車両1の車体により、いずれの視野領域141F,141R,141LL,141LR内にもない死角領域Bが存在し、したがって、車体がそれぞれの視野を遮るため、いずれの車載カメラ140F,140R,140LL,140LRによっても把握できないことがわかる。その結果、表示装置110における表示画像Iの死角領域画像I_Bとして、死角領域Bについて直接的なカメラ画像を再現することはできない。 From FIG. 1, on the ground surface , there is a blind spot area B that is not within any of the viewing areas 141F, 141R, 141LL, 141LR due to the vehicle 1 located on the ground surface or the body of the vehicle 1 , and therefore, It can be seen that none of the vehicle-mounted cameras 140F, 140R, 140LL, and 140LR can detect this because the vehicle body blocks their respective fields of view. As a result , a direct camera image of the blind spot area B cannot be reproduced as the blind spot area image I_B of the display image I on the display device 110.
それにもかかわらず、表示装置110において死角領域画像I_Bの形態で、基本的に写実的な表示で死角領域Bを表示するために、装置100は、図2A~2Cと図3を参照して以下に記述されている方法によって作動することができる。 Nevertheless, in order to display the blind spot area B in an essentially photorealistic representation in the form of a blind spot area image I_B on the display device 110 , the device 100 is configured to may operate by the method described below with reference to .
原則的には、表示装置110で車両周辺部を表示することは、目下の時点tにおいて、基本的にリアルタイムで実施するべきであるため、表示画像Iは、目下の時点tの車両周辺を含むべきである。これは、以下の説明及び図2A~2Cにおいて、同じ参照番号での時間変数[t]によって示される。それに応じて、目下の、第二時点tよりも前の第一時点t-1は、図2A~2Cでは、[t-1]で示されている。 In principle , displaying the surrounding area of the vehicle on the display device 110 should be performed basically in real time at the current time t, so the display image I is the display of the vehicle at the current time t. It should include the surrounding area. This is indicated by the time variable [t 2 ] with the same reference number in the following description and in FIGS. 2A-2C. Accordingly , the current first time point t-1, which is earlier than the second time point t, is designated as [t-1] in FIGS. 2A-2C.
装置100の初期起動時には、任意のステップS0において、表示装置110の表示画像I内の死角領域Bは、車両周辺部の表示画像Iを車載カメラ140F,140R,140LL,140LRの視野領域141F,141R,141LL,141LRの内の一つに、死角領域Bがこのように空白になる程度にずらされることにより、空白にされる。視野領域141F,141R,141LL,141LRの選択は、例えば、車両の走行方向x,yに応じて、車両速度v_x,v_y、操舵角、トランスミッションのギヤ選択などの車両のデータに応じて行うことができる。具象的に表現すると、表示画像Iは、時点tにおける実際の車両周辺部よりも、例えば、一台の車体の長さ分先行し、死角領域Bが空白となる。これにより、死角領域Bの代わりに、それぞれのカメラ画像IF[t-1],IR[t-1],ILL[t-1],ILR[t-1]の一部分を含む初期死角領域画像I_B[t-1]を記憶し、利用可能な状態に保つことができる。 At the time of initial startup of the device 100, in an arbitrary step S0, the blind spot area B in the display image I of the display device 110 converts the display image I of the vehicle periphery into the viewing area 141F of the vehicle-mounted cameras 140F, 140R, 140LL, and 140LR. By shifting blind area B to one of 141R, 141LL, and 141LR to such an extent that it becomes blank , it becomes blank . The selection of the viewing areas 141F, 141R, 141LL, and 141L R is performed depending on vehicle data such as vehicle speeds v_x, v_y, steering angle, transmission gear selection, etc., for example, depending on the traveling directions x and y of the vehicle. It can be done by Expressed concretely , the display image I precedes the actual surrounding area of the vehicle at time t by, for example, the length of one vehicle body, and the blind spot area B becomes blank . As a result, instead of the blind spot area B, an initial blind spot area including a portion of each camera image I F[t-1], IR[t-1], ILL[t-1], ILR[t-1] is created. Image I_B[t-1] can be stored and kept available .
ステップS1では、時点t-1の死角領域画像I_B[t-1]が目下の時点tで記憶装置130から提供され、これは、装置100の初期起動直後の一回目にのみ上述の死角の内容を含み、動作中は、以下の説明の如く連続的に更新される。車両1が、例えば、x方向に15m/sで移動する場合、死角領域画像I_Bの画像内容は、対応する画像繰り返しレートに応じて更新され、各々の目下の時点tに対して提供された時は、それに先行する時点t-1の画像内容を含む。 In step S1, the blind spot area image I_B[t-1] at time t-1 is provided from the storage device 130 at the current time t, and this is the content of the above-mentioned blind spot only at the first time immediately after the initial startup of the device 100. During operation , it is continuously updated as described below . If the vehicle 1 moves , for example, at 15 m /s in the Time includes the image content of the preceding time point t-1.
ステップS2では、データ処理装置120によって、死角領域画像I_B[t-1]の各々の第一死角領域ピクセルIB_SP[t-1]が、目下の時点tに対して推定された又は予測された新ポジションに、例えば、特に、車両1のモーションデータv_x,v_yを考慮した、変換又は変換に似通った方法によって配置される。これらは、例えば、車両システム、例えば、車両バスによって提供される、又は、カメラ画像I_F,I_R,I_LL,I_LRから決定される。新ポジションの推定又は予測は、例えば、適した画像処理方法によって行ってもよい。車両1が、例えば、v_x=15m/sで、x方向にさらに移動した場合、対応する移動ベクトルSP_Vが、各々の死角領域ピクセルIB_SP[t-1]に対して決定され、これが、第二死角領域ピクセルIB_SP[t]として、図2Aに示唆されている如く、それぞれの新ポジションに配置される。 In step S2, the data processing device 120 determines that each first blind spot area pixel IB_SP[t-1] of the blind spot area image I_B[t-1] is estimated or predicted for the current time point t. position, for example by means of a transformation or a method resembling a transformation, taking into account, in particular, the motion data v_x, v_y of the vehicle 1. These are provided, for example, by a vehicle system, for example a vehicle bus, or determined from camera images I_F, I_R, I_LL, I_LR. The estimation or prediction of the new position may be performed , for example, by a suitable image processing method. If the vehicle 1 moves further in the x direction, for example with v_x=15 m/s, a corresponding movement vector SP_V is determined for each blind spot area pixel IB_SP[t-1], which As region pixels IB_SP[t] are placed at respective new positions as suggested in FIG. 2A.
続いてステップS3において、データ処理装置120は、各々の死角領域ピクセルIB_SPの新ポジションが、目下の時点tにおいて死角領域B内にあり続けるか否かを決定する。図2Aに示されている実施例では、移動ベクトルSP_Vによってシフトされる又は変換されたそれぞれの死角領域ピクセルIB_SPは、引き続き死角領域B内にある。 Subsequently, in step S3, the data processing device 120 determines whether the new position of each blind spot area pixel IB_SP remains within the blind spot area B at the current time t. In the example shown in FIG. 2A, each blind spot region pixel IB_SP that is shifted or transformed by the movement vector SP_V continues to be within the blind spot region B.
この場合、
各々の第一死角領域ピクセルIB_SP[t-1]が、ステップS5Aにおいて、車両1のモーションデータに基づいて、動き補正され、即ち、特に移動ベクトルSP_Vによってシフトされることによって、
ステップS4において、各々の第二死角領域ピクセルIB_SP[t]が、目下の時点tに対してデータ処理装置120において生成され、例えばレンダリングされる。二つの例示的な死角領域ピクセルIB_SPについて図2Aに示すように、これは、好ましくは、各々の第一死角領域ピクセルIB_SP[t-1]が、その新ポジションに配置され、そこから、第二死角領域画像I_B[t]が生成され、例えばレンダリングされ、死角領域Bの代わりに表示画像I[t]に表示されるまで繰り返される。続いて、第二死角領域画像I_B[t]は、記憶装置130に記憶され、ステップS1から始まる方法の次の実行において、内容的に更新された更なる第二時点t+nに対する第一死角領域画像I_B[t-1]として提供される。
In this case ,
Each first blind spot area pixel IB_SP[t-1] is motion compensated in step S5A on the basis of the motion data of the vehicle 1, i.e. in particular by being shifted by the movement vector SP_V .
In step S4, each second blind spot region pixel IB_SP[t] is generated , e.g. rendered, in the data processing device 120 for the current time point t . As shown in FIG. 2A for two exemplary blind spot area pixels IB_SP, this preferably means that each first blind spot area pixel IB_SP[t-1] is placed in its new position and from there A second blind spot area image I_B[t] is generated , eg rendered , and repeated until it is displayed in the display image I[t] instead of the blind spot area B. Subsequently, the second blind spot area image I_B[t] is stored in the storage device 130 and, in the next execution of the method starting from step S1, the first blind spot area image I_B[t] is updated in content for a further second point in time t+n. It is provided as a region image I_B[t-1].
これは、以下の如く一般化できる。
I_B[x,y,t]=I_B[x+v_x,y+v_y,t-1],
尚式中、I_Bは死角領域画像、v_xとv_yは、x方向とy方向へのモーションデータ、t-1は第一時点、tは、目下の、第二時点である。
This can be generalized as follows .
I_B[x, y, t] = I_B[x+v_x, y+v_y, t-1],
In the formula, I_B is a blind spot area image, v_x and v_y are motion data in the x direction and y direction, t-1 is the first time point, and t is the current second time point.
図2Bでは、ステップS3において決定する別の可能な場合が示されていて、このステップS3では、各々の第一死角領域ピクセルIB_SP[t-1]の新ポジションが、目下の時点tにおいて、死角領域B内になく、死角領域B外にある。よって、図2Bに示されている実施例では、移動ベクトルSP_Vによってシフトされた又は変換されたそれぞれの死角領域ピクセルIB_SPは、x方向への車両の移動によって、車載カメラ140Fの視野領域141Fに入っている。 In FIG. 2B, another possible case is shown , which is determined in step S3, in which the new position of each first blind spot region pixel IB_SP[t-1] is determined at the current time t in the blind spot . It is not within area B and is outside blind spot area B. Thus, in the example shown in FIG. 2B, each blind spot region pixel IB_SP shifted or transformed by the movement vector SP_V enters the field of view 141F of the onboard camera 140F due to the movement of the vehicle in the x direction. ing.
この場合、各々の第一死角領域ピクセルIB_SP[t]が、ステップS5Bにおいて、第一時点t-1で撮影され、提供されたカメラ画像I_F[t-1]に基づいて、合成され、例えばレンダリングされることによって、目下の時点tに対する各々の第二死角領域ピクセルIB_SP[t]をステップS4において生成され、例えばレンダリングされる。 In this case, each first blind spot area pixel IB_SP[t] is synthesized in step S5B based on the camera image I_F[t-1] taken and provided at the first time point t-1, for example Each second blind spot area pixel IB_SP[t] for the current time point t is generated in step S4 by being rendered , for example rendered .
図2Cは、右カーブ走行の例のステップS3において決定する場合を示していて、この右カーブ走行は、モーションデータv_x,v_yによるx方向及びy方向での移動を含む。図2Cに示されている如く、移動ベクトルSP_Vによってシフトされた又は変換された各々の死角領域ピクセルIB_SPは、x方向への車両の移動によって、車載カメラ140LRの視野領域141LRに入っている。 FIG. 2C shows the case determined in step S3 in the example of right curve travel , which includes movement in the x and y directions according to motion data v_x, v_y. As shown in FIG. 2C, each blind spot area pixel IB_SP shifted or transformed by the movement vector SP_V enters the viewing area 141LR of the on-vehicle camera 140LR due to the movement of the vehicle in the x direction.
この場合、ステップS4では、各々の第一死角領域ピクセルIB[t-1]が、ステップS5Bにおいて、第一時点t-1で撮影され、提供されたカメラ画像I_LR[t-1]に基づいて、それぞれの第一死角領域ピクセルIB[t-1]を合成、例えばレンダリングすることによって、目下の時点tに対して各々の第二死角領域ピクセルIB_SP[t]が生成される、例えばレンダリングされる。二つの例示的な死角領域ピクセルIB_SPについて図2Bに示すように、これは、好ましくは、各々の第一死角領域ピクセルIB_SP[t-1]が、その新ポジションに配置され、そこから、第二死角領域画像I_B[t]が生成され、例えばレンダリングされ、死角領域Bの代わりに表示画像I[t]に表示されるまで繰り返される。続いて、第二死角領域画像I_B[t]は、記憶装置130に記憶され、ステップS1から始まる方法の次の実行において、内容的に更新された更なる第二時点t+nに対する第一死角領域画像I_B[t-1]として提供される。 In this case, in step S4, each first blind spot region pixel IB[t-1] is determined based on the camera image I_LR[t-1] taken and provided at the first time point t-1 in step S5B. , each second blind spot region pixel IB_SP[t] is generated for the current time point t by compositing, e.g. rendering , the respective first blind spot region pixel IB[t-1], e.g. rendered . _ As shown in FIG. 2B for two exemplary blind spot area pixels IB_SP, this preferably means that each first blind spot area pixel IB_SP[t-1] is placed in its new position and from there A second blind spot area image I_B[t] is generated , eg rendered , and repeated until it is displayed in the display image I[t] instead of the blind spot area B. Subsequently, the second blind spot area image I_B[t] is stored in the storage device 130 and, in the next execution of the method starting from step S1, the first blind spot area image I_B[t] is updated in content for a further second point in time t+n. It is provided as a region image I_B[t-1].
図2Bと2Cによれば、ステップS5Bでは、表示される死角領域ピクセルIB_SP[t]の生成が、ここでは、画像合成、例えば、時点t-1に撮影されたカメラ画像I_F[t-1]又はI_LR[t-1]のレンダリングによって実施される。この原理は、言うまでもなく、他のカメラ画像I_RやI_LL同様に実施できる。 According to FIGS. 2B and 2C, in step S5B, the generation of the displayed blind spot area pixel IB_SP[t] is performed here by image synthesis, for example the camera image I_F[t-1] taken at time t-1. Alternatively, it is implemented by rendering I_LR[t-1]. Needless to say, this principle can be implemented similarly to other camera images I_R and I_LL.
これは、以下の如く一般化できる:
I_B[x,y,t]=I_F,I_R,I_LL,I_LR[x+v_x,y+v_y,t-1],
尚式中、I_Bは、死角領域画像、I_F-I_LRは、車載カメラ140F-140LRのカメラ画像、v_xとv_yは、x方向とy方向へのモーションデータ、t-1は第一時点、tは、目下の第二時点である。
This can be generalized as follows:
I_B [x, y, t] = I_F, I_R, I_LL, I_LR [x+v_x, y+v_y, t-1],
In the formula, I_B is the blind spot area image, I_F-I_LR is the camera image of the in-vehicle camera 140F-140LR, v_x and v_y are the motion data in the x direction and the y direction, t-1 is the first time point, and t is the , currently at the second point in time.
さらに、オプションであるステップS6では、第二死角領域画像I_B[t]と、第二時点tにおける目下のカメラ画像I_F[t],I_R[t],I_LL[t],I_LR[t]とから、表示装置110用の表示画像Iが、組み合わされる。 Furthermore, in step S6, which is an option, from the second blind spot area image I_B[t] and the current camera images I_F[t], I_R[t], I_LL[t], I_LR[t] at the second time t. , display image I for display device 110 are combined .
図3は、オプションであるステップS0、ステップS1~S5、並びにオプションであるステップS6を含む上述の方法が、再度、フローチャートとしてまとめられている。 FIG. 3 summarizes the method described above, including optional step S0, steps S1-S5, and optional step S6, again as a flowchart.
Claims (10)
この方法は、以下のステップ、即ち、
-第二時点(t)よりも前の第一時点(t-1)において、車載カメラ(140F,140R,140LL,140LR)の視野領域(141F,141R,141LL,141LR)の外側に配置されている車両周辺部の死角領域(B)の画像合成を含む第一死角領域画像(I_B[t])を提供するステップ(S1)、
-死角領域(B)の各々の第一死角領域ピクセル(IB_SP[t-1])を、第二時点(t)について推測された新ポジションに配置するステップ(S2)、
-各々の第一死角領域ピクセル(IB_SP[t-1])の新ポジションが、第二時点(t)において、死角領域(B)内にあるか否かを決定するステップ(S3)、及び、
新ポジションが、死角領域(B)内にあると決定された場合には、各々の第一死角領域ピクセル(IB_SP[t-1])が、車両(1)のモーションデータ(v_x,v_y)に基づいて合成(S5A)されることにより、第二時点(t)の各々の第二死角領域ピクセル(IB_SP[t])を生成するステップ(S4)、
を備えることを特徴とする方法。 A method for displaying a vehicle surrounding area within a vehicle (1) at a current second time point (t), the method comprising:
This method consists of the following steps:
- At the first time point (t-1) before the second time point (t) , outside the viewing area (141F, 141R, 141LL, 141LR) of the in-vehicle camera (140F, 140R, 140LL, 140LR) a step (S1) of providing a first blind spot area image (I_B[t]) including image synthesis of a blind spot area (B) in the peripheral area of the vehicle where the vehicle is located;
- placing each first blind spot area pixel (IB_SP[t-1]) of the blind spot area (B) in a new position estimated for the second time point (t) (S2);
- determining (S3) whether the new position of each first blind spot area pixel (IB_SP[t-1]) is within the blind spot area (B) at a second time point (t);
If the new position is determined to be within the blind spot area (B), each first blind spot area pixel (IB_SP[t-1]) is added to the motion data (v_x, v_y) of the vehicle (1). a step (S4) of generating each second blind spot area pixel (IB_SP[t]) at the second time point (t) by combining (S5A) based on the second time point (t) ;
A method characterized by comprising :
この装置(100)は、
-車両周辺部の対応する視野領域(141F,141R,141LL,141LR)を把握するための、少なくとも一台の車載カメラ(140F,140R,140LL,140LR)、
-第二時点(t)よりも前の第一時点(t-1)における、視野領域(141F,141R,141LL,141LR)の外側に配置されている車両周辺部の死角領域(B)の画像合成を含む、正確に一枚の死角領域画像(I_B[t-1])が維持されている記憶装置(130)、並びに、
-以下を実施するため、即ち、
i)死角領域(B)の各々の第一死角領域ピクセル(IB_SP[t-1])を、第二時点(t)に対して推定された新ポジションに配置すること、
ii)第二時点(t)における各々の第一死角領域ピクセル(IB_SP[t-1])の新ポジションが、引き続きブラインド領域(B)内にあるか否かを決定すること、
iii)新ポジションが死角領域(B)内にあると決定された場合には、各々の第一死角領域ピクセル(IB_SP[t-1])が、車両(1)のモーションデータ(v_x,v_y)に基づいて合成(S5)されることにより、第二時点(t)での各々の第二死角領域ピクセル(IB_SP[t])を生成すること、
を実施するために適合されたデータ処理装置(120)、
を備えることを特徴とする装置(100)。 A device (100) for displaying a vehicle surrounding area within a vehicle (1) at a current second time point (t), the device (100) comprising:
This device (100) is
- at least one onboard camera (140F, 140R, 140LL, 140LR) for understanding the corresponding viewing area (141F, 141R, 141LL, 141LR) around the vehicle;
- The blind spot area (B) of the vehicle peripheral area located outside the visual field (141F, 141R, 141LL, 141LR) at the first time point (t-1) before the second time point (t) a storage device (130) in which exactly one blind spot area image (I_B[t-1] ) is maintained, including image composition;
- to carry out the following, namely:
i) placing each first blind spot region pixel (IB_SP[t-1]) of the blind spot region (B) in a new position estimated with respect to a second time point (t);
ii) determining whether the new position of each first blind spot region pixel (IB_SP[t-1]) at the second time point (t ) is still within the blind region (B);
iii) If it is determined that the new position is within the blind spot area (B), each first blind spot area pixel (IB_SP[t-1]) is assigned the motion data (v_x, v_y) of the vehicle (1). generating each second blind spot area pixel (IB_SP[t]) at a second time point (t) by combining (S5) based on ;
a data processing device (120) adapted to perform
An apparatus (100) comprising :
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102018207976.5A DE102018207976A1 (en) | 2018-05-22 | 2018-05-22 | Method and device for displaying a vehicle environment |
DE102018207976.5 | 2018-05-22 | ||
PCT/DE2019/200044 WO2019223840A1 (en) | 2018-05-22 | 2019-05-16 | Method and device for displaying vehicle surroundings |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2021524959A JP2021524959A (en) | 2021-09-16 |
JPWO2019223840A5 true JPWO2019223840A5 (en) | 2023-09-29 |
JP7384830B2 JP7384830B2 (en) | 2023-11-21 |
Family
ID=66668649
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020562169A Active JP7384830B2 (en) | 2018-05-22 | 2019-05-16 | Method and device for displaying vehicle surroundings |
Country Status (6)
Country | Link |
---|---|
US (1) | US20210162923A1 (en) |
EP (1) | EP3797053B1 (en) |
JP (1) | JP7384830B2 (en) |
KR (1) | KR102659382B1 (en) |
DE (1) | DE102018207976A1 (en) |
WO (1) | WO2019223840A1 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102366944B1 (en) | 2020-06-17 | 2022-02-28 | (주)베이다스 | Appratus and method for generating bird viewpoint image |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4670460B2 (en) | 2005-04-27 | 2011-04-13 | アイシン・エィ・ダブリュ株式会社 | Parking support method and parking support device |
JP2010166196A (en) * | 2009-01-14 | 2010-07-29 | Clarion Co Ltd | Vehicle periphery monitoring device |
JP4914458B2 (en) * | 2009-02-12 | 2012-04-11 | 株式会社日本自動車部品総合研究所 | Vehicle periphery display device |
DE102010010906A1 (en) * | 2010-03-10 | 2011-01-05 | Daimler Ag | Method for producing representation and environment of vehicle for driver assistance system, involves detecting environmental areas in stored camera image, and utilizing image area of camera image for producing representation of areas |
JP2013541915A (en) * | 2010-12-30 | 2013-11-14 | ワイズ オートモーティブ コーポレーション | Blind Spot Zone Display Device and Method |
DE102013217699A1 (en) * | 2013-09-05 | 2015-03-05 | Robert Bosch Gmbh | Method for maneuvering a vehicle |
JP2015171106A (en) | 2014-03-10 | 2015-09-28 | 株式会社デンソー | Vehicle peripheral image display device and vehicle peripheral image display method |
JP6759899B2 (en) * | 2016-09-08 | 2020-09-23 | アイシン精機株式会社 | Image processing device for vehicles |
-
2018
- 2018-05-22 DE DE102018207976.5A patent/DE102018207976A1/en not_active Withdrawn
-
2019
- 2019-05-16 EP EP19726901.2A patent/EP3797053B1/en active Active
- 2019-05-16 WO PCT/DE2019/200044 patent/WO2019223840A1/en unknown
- 2019-05-16 KR KR1020207030491A patent/KR102659382B1/en active IP Right Grant
- 2019-05-16 US US17/057,241 patent/US20210162923A1/en active Pending
- 2019-05-16 JP JP2020562169A patent/JP7384830B2/en active Active
Similar Documents
Publication | Publication Date | Title |
---|---|---|
TWI600559B (en) | System and method for image processing | |
US7554461B2 (en) | Recording medium, parking support apparatus and parking support screen | |
JP4907883B2 (en) | Vehicle periphery image display device and vehicle periphery image display method | |
CN110877572A (en) | Periphery monitoring device | |
CN105009574A (en) | Periphery monitoring device and program | |
JP2007099261A (en) | Parking assistance method and parking assistance device | |
JP5658507B2 (en) | Image display system, image generation apparatus, and image display method | |
JP2007141098A (en) | Image-processing device and image-processing method | |
JP7426174B2 (en) | Vehicle surrounding image display system and vehicle surrounding image display method | |
JP2019054420A (en) | Image processing system | |
JP7013751B2 (en) | Image processing equipment | |
JP7384830B2 (en) | Method and device for displaying vehicle surroundings | |
JP2004147083A (en) | Driving support apparatus | |
JP4059309B2 (en) | In-vehicle camera image display control method and apparatus | |
JP6720729B2 (en) | Display controller | |
JP2011155651A (en) | Apparatus and method for displaying vehicle perimeter image | |
CN111402132B (en) | Reversing auxiliary method and system, image processor and corresponding auxiliary driving system | |
JPWO2019223840A5 (en) | ||
KR101861523B1 (en) | Apparatus and method for supporting driving of vehicle | |
JP4561512B2 (en) | Parking support method and parking support device | |
WO2021172037A1 (en) | Image processing device, image processing method, program, and image presentation system | |
CN114619965A (en) | Vehicle display control device and vehicle display control method | |
CN114332789A (en) | Image processing method, apparatus, device, vehicle, and medium | |
JP6747349B2 (en) | Driving support device, driving support method and program | |
JP6989213B2 (en) | Vehicle peripheral monitoring device |