WO2019035229A1 - 周辺監視装置 - Google Patents

周辺監視装置 Download PDF

Info

Publication number
WO2019035229A1
WO2019035229A1 PCT/JP2018/008409 JP2018008409W WO2019035229A1 WO 2019035229 A1 WO2019035229 A1 WO 2019035229A1 JP 2018008409 W JP2018008409 W JP 2018008409W WO 2019035229 A1 WO2019035229 A1 WO 2019035229A1
Authority
WO
WIPO (PCT)
Prior art keywords
vehicle
image
virtual viewpoint
display
generation unit
Prior art date
Application number
PCT/JP2018/008409
Other languages
English (en)
French (fr)
Inventor
渡邊 一矢
Original Assignee
アイシン精機株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by アイシン精機株式会社 filed Critical アイシン精機株式会社
Priority to US16/632,923 priority Critical patent/US11091096B2/en
Priority to CN201880051666.6A priority patent/CN111034188B/zh
Publication of WO2019035229A1 publication Critical patent/WO2019035229A1/ja

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/002Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles specially adapted for covering the peripheral part of the vehicle, e.g. for viewing tyres, bumpers or the like
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/167Driving aids for lane monitoring, lane changing, e.g. blind spot detection
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/20Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/22Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle
    • B60R1/23Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view
    • B60R1/27Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view providing all-round vision, e.g. using omnidirectional cameras
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/20Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/22Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle
    • B60R1/28Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with an adjustable field of view
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/05Geographic models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/60Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by monitoring and displaying vehicle exterior scenes from a transformed perspective
    • B60R2300/602Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by monitoring and displaying vehicle exterior scenes from a transformed perspective with an adjustable viewpoint
    • B60R2300/605Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by monitoring and displaying vehicle exterior scenes from a transformed perspective with an adjustable viewpoint the adjustment being automatic
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/60Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by monitoring and displaying vehicle exterior scenes from a transformed perspective
    • B60R2300/607Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by monitoring and displaying vehicle exterior scenes from a transformed perspective from a bird's eye viewpoint
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/80Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement
    • B60R2300/802Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement for monitoring and displaying vehicle exterior blind spot views
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/80Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement
    • B60R2300/8086Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement for vehicle path indication
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • B60W2050/146Display means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads

Definitions

  • Embodiments of the present invention relate to a perimeter monitoring device.
  • the periphery monitoring device of the embodiment a model in which a captured image obtained by capturing an image of the periphery of the vehicle by an imaging unit mounted on the vehicle is attached to a three-dimensional surface around the vehicle; And a generator configured to generate a display image when the fixation point in the virtual space including the three-dimensional vehicle image is viewed from the virtual viewpoint, and an output unit configured to output the display image to the display unit.
  • the generation unit is interlocked with the movement to the arbitrary position, Change the height of the virtual viewpoint. Therefore, as an example, the periphery monitoring device of the present embodiment can easily display a display image from a viewpoint position that the occupant of the vehicle wants to see.
  • the generation unit sets the transmittance of the vehicle image as the first transmittance, and the height of the virtual viewpoint is greater than the first height.
  • the transmittance of the vehicle image is set to a second transmittance lower than the first transmittance. Therefore, as one example, the periphery monitoring device of the present embodiment can display a display image with which it is easy to confirm the information of the purpose of moving the virtual viewpoint by the occupant of the vehicle with a simple operation.
  • FIG. 13 is a view showing an example of a display image generated in the vehicle according to the first embodiment.
  • FIG. 14 is a view showing an example of a display image generated in the vehicle according to the first embodiment.
  • FIG. 15 is a diagram for explaining an example of movement processing of a fixation point in the vehicle according to the second embodiment.
  • FIG. 16 is a view showing an example of a display image generated in the vehicle according to the second embodiment.
  • FIG. 17 is a view showing an example of a display image generated in the vehicle according to the second embodiment.
  • FIG. 18 is a view showing an example of a display image generated in the vehicle according to the second embodiment.
  • the operation input unit 10 is configured by a touch panel or the like, and enables an occupant to input various information.
  • the operation input unit 10 is provided on the display screen of the display device 8 and can transmit an image displayed on the display device 8. Thereby, the operation input unit 10 enables the occupant to visually recognize the image displayed on the display screen of the display device 8.
  • the operation input unit 10 receives an input of various information by the occupant by detecting a touch operation of the occupant on the display screen of the display device 8.
  • the imaging unit 15c is located, for example, on the front side of the vehicle body 2, that is, on the end 2c on the front side in the front-rear direction of the vehicle 1, and is provided on a front bumper, a front grille or the like. And imaging part 15c can picturize the field ahead of the vehicles 1 concerned among the circumferences of vehicles 1. As shown in FIG.
  • the imaging unit 15d is located, for example, on the left side of the vehicle body 2, that is, on the end 2d on the left side in the vehicle width direction, and is provided on the left side door mirror 2g. And imaging part 15d can picturize the field of the side of the vehicles 1 concerned among the circumferences of vehicles 1.
  • the brake sensor 18 b is a displacement sensor that detects the position of the brake pedal as the movable portion of the braking operation unit 6, and transmits the detection result of the position of the brake pedal to the ECU 14.
  • the ROM 14 b stores various programs and parameters necessary for the execution of the programs.
  • the RAM 14c temporarily stores various data used in the calculation in the CPU 14a.
  • the display control unit 14d mainly performs image processing on image data acquired from the imaging unit 15 and output to the CPU 14 among the arithmetic processing in the ECU 14, and an image for display that causes the display device 8 to display the image data acquired from the CPU 14a. Execute conversion to data etc.
  • the voice control unit 14 e mainly performs the processing of voice to be acquired from the CPU 14 a and output to the voice output device 9 among the calculation processing in the ECU 14.
  • the SSD 14 f is a rewritable non-volatile storage unit, and keeps storing data acquired from the CPU 14 a even when the power of the ECU 14 is turned off.
  • the display image generation unit 401 sets, via the operation input unit 10, the gaze point in the virtual space in which the three-dimensional vehicle image is provided in the space around the vehicle 1.
  • the image viewed from the virtual viewpoint that has been input is generated as a display image.
  • the virtual space is a space around the vehicle 1 and the vehicle (for example, the current position) at the time (for example, the current time) after the past time in the space It is a space provided with an image.
  • a vehicle image is an image of the three-dimensional vehicle 1 which can see through virtual space.
  • the height of the virtual viewpoint can be changed so that the display image from the viewpoint position that the occupant of the vehicle 1 wants to see can be displayed only by moving the virtual viewpoint in the vehicle width direction of the vehicle image.
  • the display image from the viewpoint position that the occupant of the vehicle 1 wants to see can be easily displayed.
  • the display image generation unit 401 changes the height of the virtual viewpoint in conjunction with the movement of the virtual viewpoint in the vehicle width direction of the vehicle image.
  • Absent For example, the display image generation unit 401 changes the height of the virtual viewpoint in conjunction with the movement including the directional component in the vehicle width direction of the vehicle image and the directional component in the front-rear direction of the vehicle image.
  • the display image output unit 402 outputs the display image generated by the display image generation unit 401 to the display device 8, and causes the display device 8 to display the display image (step S505). Thereafter, the display image generation unit 401 acquires an end instruction for instructing the display end of the display image (step S506). When the end instruction is acquired (step S507: Yes), the display image output unit 402 stops the output of the display image to the display device 8, and ends the display of the display image on the display device 8 (step S508).
  • the display image generating unit 401 generates a camera drawing model S including the first surface S1 and the second surface S2 in advance.
  • the first surface S1 is a flat surface corresponding to the road surface on which the vehicle 1 is present.
  • the first surface S1 is an elliptical flat surface.
  • the second surface S2 is a curved surface which gradually rises in the Y direction from the outer surface (outer edge) of the first surface S1 with the first surface S1 as a reference, as it is separated from the first surface S1.
  • the second surface S2 is a curved surface rising in an elliptical or parabolic shape in the Y direction from the outside of the first surface S1. That is, the display image generating unit 401 generates a bowl-shaped or cylindrical three-dimensional surface as the camera model S.
  • the display image generation unit 401 arranges the camera drawing model S to which the captured image is attached in the space around the vehicle 1. Furthermore, as shown in FIG. 8, the display image generation unit 401 generates, as a virtual space A, a space in which the vehicle image CG is arranged with respect to the current position P2 of the vehicle 1 in the space in which the camera drawing model S is arranged. Do.
  • the display image generation unit 401 causes the point on the virtual space A perpendicular to the first surface S1 from the front end of the vehicle image CG to be the gaze point P3.
  • the display image generation unit 401 generates a display image when the gaze point P3 is viewed from the virtual viewpoint P4 input from the operation input unit 10. Thereby, since the image of the obstacle included in the display image can be viewed simultaneously with the three-dimensional vehicle image CG, the positional relationship between the vehicle 1 and the obstacle can be easily grasped.
  • the display image generation unit 401 generates the vehicle image CG as shown in FIGS.
  • the virtual viewpoint P4 is moved to a position X2 further to the left than the center C in the vehicle width direction and at a height lower than the height of the position X1.
  • the height of the virtual viewpoint P4 is also changed so that the display image from the viewpoint position that the occupant of the vehicle 1 wants to see is displayed only by moving the virtual viewpoint P4 in the vehicle width direction of the vehicle image CG. Therefore, it is possible to easily display the display image from the viewpoint position that the occupant of the vehicle 1 wants to see.
  • FIGS. 11 to 14 are diagrams showing an example of a display image generated in the vehicle according to the first embodiment.
  • the display image generation unit 401 is, as shown in FIG. 11, located at the center C of the vehicle image CG in the vehicle width direction and above the vehicle image CG. From the virtual viewpoint P4, a display image G seen from the fixation point P3 is generated. Further, as shown in FIG. 11, the display image generation unit 401 can instruct the movement of the virtual viewpoint P4 to the left in the vehicle width direction of the vehicle image CG, the left button B1, and the right side in the vehicle width direction of the vehicle image CG.
  • the virtual viewpoint P4 is moved to a position lower than the height of the position X2 by a predetermined height. Then, as shown in FIG. 14, the display image generation unit 401 generates a display image G seen from the gaze point P3 from the virtual viewpoint P4 after movement.
  • the display image generation unit 401 sets the virtual viewpoint P4 to an arbitrary direction. It moves to the position of the horizontal position according to the component of the horizontal direction of the direction of (1) and the height according to the said horizontal position.
  • the display image generation unit 401 moves the virtual viewpoint P4 toward the front of the vehicle image CG as a GUI (Graphical User Interface) for designating an arbitrary direction.
  • the display image G may include a designating front button and a post button capable of designating movement of the virtual viewpoint P4 to the rear of the vehicle image CG.
  • display image generation unit 401 moves to the arbitrary position.
  • the height of the virtual viewpoint P4 may be changed in conjunction with the movement of.
  • the display image from the viewpoint position that the occupant of the vehicle 1 wants to see is displayed only by moving the virtual viewpoint in the vehicle width direction of the vehicle image
  • the display image from the viewpoint position that the occupant of the vehicle 1 wants to view can be easily displayed.
  • the vehicle image CG and the vehicle image CG have a high possibility of moving the virtual viewpoint P4 for the purpose of looking around the vehicle image CG.
  • the vehicle image CG To make it easy to look around the vehicle image CG via the vehicle image CG.
  • the virtual viewpoint P4 is moved to the side of the vehicle image CG, there is a high possibility that the virtual viewpoint P4 is moved for the purpose of visually recognizing the positional relationship between the vehicle image CG and the obstacle around it.
  • the transmittance of the vehicle image CG is lowered to facilitate visual recognition of the positional relationship between the vehicle image CG and the obstacle around it.
  • the display image generation unit 401 may change the transmittance of the vehicle image CG according to the traveling state of the vehicle 1. Specifically, when it is detected that the vehicle 1 travels off-road, such as when the shift operation unit 7 is switched to a low speed gear by the shift sensor 21, the display image generation unit 401 transmits the vehicle image CG.
  • the rate is a transmittance that allows the virtual space to be seen through the vehicle image CG.
  • the display image generating unit 401 determines the transmittance of the vehicle image CG. The transmittance can not be seen through the virtual space via the vehicle image CG.
  • the positional relationship between the vehicle image and the obstacle existing on the side of the vehicle image can be easily grasped.
  • it is desired to avoid contact with an obstacle present on the side of the vehicle 1, such as when moving the vehicle to the road shoulder it is possible to display a display image that the occupant of the vehicle 1 wants to see with few operations.

Abstract

実施形態の周辺監視装置は、一例として、車両が搭載する撮像部により当該車両の周囲を撮像して得られる撮像画像が、車両の周囲の三次元の面に貼り付けられたモデルと、三次元の車両画像と、を含む仮想空間内の注視点を仮想視点から見た表示用画像を生成する生成部と、表示用画像を表示部に出力する出力部と、を備える。また、生成部は、操作入力部を介して、仮想視点の移動が指示された場合、車両画像の車幅方向への方向成分を含む移動と連動して、仮想視点の高さを変化させる。

Description

周辺監視装置
 本発明の実施形態は、周辺監視装置に関する。
 撮像部によって車両の周囲を撮像して得られる撮像画像に基づいて、仮想視点から見た車両の周囲の仮想視点画像を表示させる際に、仮想視点の視線方向を連続的に変化させる技術が開発されている。
特開2016-213841号公報
 しかしながら、仮想視点の視線方向を連続的に変化させる技術では、車両内の固定された仮想視点から見た車両の周囲の仮想視点画像を表示するため、車両と障害物との客観的な位置関係が把握し難く、狭い道等を通過する際に、仮想視点画像を利用して、車両が障害物と接触するか否かが分かり難い。
 実施形態の周辺監視装置は、一例として、車両が搭載する撮像部により当該車両の周囲を撮像して得られる撮像画像が、車両の周囲の三次元の面に貼り付けられたモデルと、三次元の車両画像と、を含む仮想空間内の注視点を仮想視点から見た表示用画像を生成する生成部と、表示用画像を表示部に出力する出力部と、を備える。また、生成部は、操作入力部を介して、仮想視点の移動が指示された場合、車両画像の車幅方向への方向成分を含む移動と連動して、仮想視点の高さを変化させる。よって、本実施形態の周辺監視装置は、一例として、車両の乗員が見たい視点位置からの表示用画像を容易に表示させることができる。
 また、実施形態の周辺監視装置は、一例として、車両が搭載する撮像部により当該車両の周囲を撮像して得られる撮像画像が、車両の周囲の三次元の面に貼り付けられたモデルと、三次元の車両画像と、を含む仮想空間内の注視点を仮想視点から見た表示用画像を生成する生成部と、表示用画像を表示部に出力する出力部と、を備える。また、生成部は、操作入力部を介して、任意の方向への仮想視点の移動が指示された場合、仮想視点を、水平方向においては任意の方向の水平方向成分に応じた水平方向位置に、高さ方向においては水平方向における水平方向位置に応じた高さに移動させる。よって、本実施形態の周辺監視装置は、一例として、車両の乗員が見たい視点位置からの表示用画像を容易に表示させることができる。
 また、実施形態の周辺監視装置は、一例として、車両が搭載する撮像部により当該車両の周囲を撮像して得られる撮像画像が、車両の周囲の三次元の面に貼り付けられたモデルと、三次元の車両画像と、を含む仮想空間内の注視点を仮想視点から見た表示用画像を生成する生成部と、表示用画像を表示部に出力する出力部と、を備える。また、生成部は、操作入力部を介して、水平方向において、予め定められた軌跡上における任意の位置への仮想視点の移動が指示された場合、任意の位置への移動と連動して、仮想視点の高さを変化させる。よって、本実施形態の周辺監視装置は、一例として、車両の乗員が見たい視点位置からの表示用画像を容易に表示させることができる。
 また、実施形態の周辺監視装置は、生成部は、車両画像の車幅方向における車両画像の中央から仮想視点が離れるに従って、仮想視点の高さを低くする。よって、本実施形態の周辺監視装置は、一例として、車両の乗員が見たい視点位置からの表示用画像を容易に表示させることができる。
 また、実施形態の周辺監視装置は、生成部は、車両画像の車幅方向における車両画像の中央から仮想視点が離れるに従って、車両画像の前後方向における仮想視点の位置を、車両画像の進行方向に移動させる。よって、本実施形態の周辺監視装置は、一例として、車両の乗員が見たい方向により近い方向の表示用画像を容易に表示できる。
 また、実施形態の周辺監視装置は、生成部は、仮想視点の高さが第1高さである場合、車両画像の透過率を第1透過率とし、仮想視点の高さが第1高さより低い第2高さである場合、車両画像の透過率を第1透過率より低い第2透過率とする。よって、本実施形態の周辺監視装置は、一例として、簡単な操作で、車両の乗員が仮想視点を移動させた目的の情報が確認し易い表示用画像を表示させることができる。
 また、実施形態の周辺監視装置は、生成部は、車両画像の車幅方向における車両画像の中央から仮想視点が離れるに従って、表示用画像の視野角を狭くする。よって、本実施形態の周辺監視装置は、一例として、車両の乗員が見たい視野角の表示用画像を容易に表示できる。
 また、実施形態の周辺監視装置は、生成部は、車両画像の車幅方向における仮想視点の位置と、車両画像の車幅方向における注視点の位置とを一致させる。よって、本実施形態の周辺監視装置は、一例として、車両の側方に存在する障害物との接触を避けたい場合に、少ない操作で車両の乗員が見たい表示用画像を表示させることができる。
図1は、第1の実施形態にかかる周辺監視装置を搭載する車両の車室の一部が透視された状態の一例が示された斜視図である。 図2は、第1の実施形態にかかる車両の一例の平面図である。 図3は、第1の実施形態にかかる車両の機能構成の一例を示すブロック図である。 図4は、第1の実施形態にかかる車両が有するECUの機能構成の一例を示すブロック図である。 図5は、第1の実施形態にかかる車両による表示用画像の表示処理の流れの一例を示すフローチャートである。 図6は、第1の実施形態にかかる車両による表示用画像の生成に用いるカメラ画モデルの一例を説明するための図である。 図7は、第1の実施形態にかかる車両による表示用画像の生成に用いるカメラ画モデルの一例を説明するための図である。 図8は、第1の実施形態にかかる車両における表示用画像の生成に用いるカメラ画モデルおよび車両画像の一例を説明するための図である。 図9は、第1の実施形態にかかる車両における仮想視点の移動処理の一例を説明するための図である。 図10は、第1の実施形態にかかる車両における仮想視点の移動処理の一例を説明するための図である。 図11は、第1の実施形態にかかる車両において生成される表示用画像の一例を示す図である。 図12は、第1の実施形態にかかる車両において生成される表示用画像の一例を示す図である。 図13は、第1の実施形態にかかる車両において生成される表示用画像の一例を示す図である。 図14は、第1の実施形態にかかる車両において生成される表示用画像の一例を示す図である。 図15は、第2の実施形態にかかる車両における注視点の移動処理の一例を説明するための図である。 図16は、第2の実施形態にかかる車両において生成される表示用画像の一例を示す図である。 図17は、第2の実施形態にかかる車両において生成される表示用画像の一例を示す図である。 図18は、第2の実施形態にかかる車両において生成される表示用画像の一例を示す図である。
 以下、本発明の例示的な実施形態が開示される。以下に示される実施形態の構成、ならびに当該構成によってもたらされる作用、結果、および効果は、一例である。本発明は、以下の実施形態に開示される構成以外によって実現可能であるとともに、基本的な構成に基づく種々の効果や、派生的な効果のうち、少なくとも1つを得ることが可能である。
 本実施形態にかかる周辺監視装置(周辺監視システム)を搭載する車両は、内燃機関(エンジン)を駆動源とする自動車(内燃機関自動車)であっても良いし、電動機(モータ)を駆動源とする自動車(電気自動車、燃料電池自動車等)であっても良いし、それらの双方を駆動源とする自動車(ハイブリッド自動車)であっても良い。また、車両は、種々の変速装置、内燃機関や電動機の駆動に必要な種々の装置(システム、部品等)を搭載可能である。また、車両における車輪の駆動に関わる装置の方式、個数、レイアウト等は、種々に設定可能である。
(第1の実施形態)
 図1は、第1の実施形態にかかる周辺監視装置を搭載する車両の車室の一部が透視された状態の一例が示された斜視図である。図1に示すように、車両1は、車体2と、操舵部4と、加速操作部5と、制動操作部6と、変速操作部7と、モニタ装置11と、を備える。車体2は、乗員が乗車する車室2aを有する。車室2a内には、乗員としての運転手が座席2bに臨む状態で、操舵部4や、加速操作部5、制動操作部6、変速操作部7等が設けられている。操舵部4は、例えば、ダッシュボード24から突出したステアリングホイールである。加速操作部5は、例えば、運転手の足下に位置されたアクセルペダルである。制動操作部6は、例えば、運転手の足下に位置されたブレーキペダルである。変速操作部7は、例えば、センターコンソールから突出したシフトレバーである。
 モニタ装置11は、例えば、ダッシュボード24の車幅方向(すなわち、左右方向)の中央部に設けられる。モニタ装置11は、例えば、ナビゲーションシステムまたはオーディオシステム等の機能を有していても良い。モニタ装置11は、表示装置8、音声出力装置9、および操作入力部10を有する。また、モニタ装置11は、スイッチ、ダイヤル、ジョイスティック、および押しボタン等の各種の操作入力部を有しても良い。
 表示装置8は、LCD(Liquid Crystal Display)やOELD(Organic Electroluminescent Display)等で構成され、画像データに基づいて各種画像を表示可能である。音声出力装置9は、スピーカ等で構成され、音声データに基づいて各種音声を出力する。音声出力装置9は、車室2a内において、モニタ装置11以外の異なる位置に設けられていても良い。
 操作入力部10は、タッチパネル等で構成され、乗員による各種情報の入力を可能とする。また、操作入力部10は、表示装置8の表示画面に設けられ、表示装置8に表示される画像を透過可能である。これにより、操作入力部10は、表示装置8の表示画面に表示される画像を乗員に視認させることを可能とする。操作入力部10は、表示装置8の表示画面上における乗員のタッチ操作を検出することによって、乗員による各種情報の入力を受け付ける。
 図2は、第1の実施形態にかかる車両の一例の平面図である。図1および図2に示すように、車両1は、四輪自動車等であり、左右2つの前輪3Fと、左右2つの後輪3Rと、を有する。4つの車輪3の全てまたは一部が、転舵可能である。
 車両1は、複数の撮像部15を搭載する。本実施形態では、車両1は、例えば、4つの撮像部15a~15dを搭載する。撮像部15は、CCD(Charge Coupled Device)またはCIS(CMOS Image Sensor)等の撮像素子を有するデジタルカメラである。撮像部15は、所定のフレームレートで車両1の周囲を撮像可能である。そして、撮像部15は、車両1の周囲を撮像して得られた撮像画像を出力する。撮像部15は、それぞれ、広角レンズまたは魚眼レンズを有し、水平方向には、例えば、140°~220°の範囲を撮像可能である。また、撮像部15の光軸は、斜め下方に向けて設定されている場合もある。
 具体的には、撮像部15aは、例えば、車体2の後側の端部2eに位置し、リアハッチのドア2hのリアウィンドウの下方の壁部に設けられている。そして、撮像部15aは、車両1の周囲のうち、当該車両1の後方の領域を撮像可能である。撮像部15bは、例えば、車体2の右側の端部2fに位置し、右側のドアミラー2gに設けられている。そして、撮像部15bは、車両1の周囲のうち、当該車両1の側方の領域を撮像可能である。撮像部15cは、例えば、車体2の前側、すなわち、車両1の前後方向の前方側の端部2cに位置し、フロントバンパやフロントグリル等に設けられている。そして、撮像部15cは、車両1の周囲のうち、当該車両1の前方の領域を撮像可能である。撮像部15dは、例えば、車体2の左側、すなわち、車幅方向の左側の端部2dに位置し、左側のドアミラー2gに設けられている。そして、撮像部15dは、車両1の周囲のうち、当該車両1の側方の領域を撮像可能である。
 図3は、第1の実施形態にかかる車両の機能構成の一例を示すブロック図である。図3に示すように、車両1は、操舵システム13と、ブレーキシステム18と、舵角センサ19と、アクセルセンサ20と、シフトセンサ21と、車輪速センサ22と、車内ネットワーク23と、ECU(Electronic Control Unit)14と、を備える。モニタ装置11、操舵システム13、ブレーキシステム18、舵角センサ19、アクセルセンサ20、シフトセンサ21、車輪速センサ22、およびECU14は、電気通信回線である車内ネットワーク23を介して電気的に接続されている。車内ネットワーク23は、CAN(Controller Area Network)等により構成される。
 操舵システム13は、電動パワーステアリングシステムやSBW(Steer By Wire)システム等である。操舵システム13は、アクチュエータ13aおよびトルクセンサ13bを有する。そして、操舵システム13は、ECU14等によって電気的に制御され、アクチュエータ13aを動作させて、操舵部4に対して、トルクを付加して操舵力を補うことによって、車輪3を転舵する。トルクセンサ13bは、運転者が操舵部4に与えるトルクを検出し、その検出結果をECU14に送信する。
 ブレーキシステム18は、車両1のブレーキのロックを制御するABS(Anti-lock Brake System)、コーナリング時の車両1の横滑りを抑制する横滑り防止装置(ESC:Electronic Stability Control)、ブレーキ力を増強させてブレーキをアシストする電動ブレーキシステム、およびBBW(Brake By Wire)を含む。ブレーキシステム18は、アクチュエータ18aおよびブレーキセンサ18bを有する。ブレーキシステム18は、ECU14等によって電気的に制御され、アクチュエータ18aを介して、車輪3に制動力を付与する。ブレーキシステム18は、左右の車輪3の回転差等から、ブレーキのロック、車輪3の空回り、および横滑りの兆候等を検出して、ブレーキのロック、車輪3の空回り、および横滑りを抑制する制御を実行する。ブレーキセンサ18bは、制動操作部6の可動部としてのブレーキペダルの位置を検出する変位センサであり、ブレーキペダルの位置の検出結果をECU14に送信する。
 舵角センサ19は、ステアリングホイール等の操舵部4の操舵量を検出するセンサである。本実施形態では、舵角センサ19は、ホール素子等で構成され、操舵部4の回転部分の回転角度を操舵量として検出し、その検出結果をECU14に送信する。アクセルセンサ20は、加速操作部5の可動部としてのアクセルペダルの位置を検出する変位センサであり、その検出結果をECU14に送信する。
 シフトセンサ21は、変速操作部7の可動部(バー、アーム、ボタン等)の位置を検出するセンサであり、その検出結果をECU14に送信する。車輪速センサ22は、ホール素子等を有し、車輪3の回転量や単位時間当たりの車輪3の回転数を検出するセンサであり、その検出結果をECU14に送信する。
 ECU14は、撮像部15により車両1の周囲を撮像して得られる撮像画像に基づいて、仮想視点から、車両1の周囲の注視点を見た画像を生成し、当該生成した画像を表示装置8に表示させる。ECU14は、コンピュータ等で構成され、ハードウェアとソフトウェアが協働することにより、車両1の制御全般を司る。具体的には、ECU14は、CPU(Central Processing Unit)14a、ROM(Read Only Memory)14b、RAM(Random Access Memory)14c、表示制御部14d、音声制御部14e、およびSSD(Solid State Drive)14fを備える。CPU14a、ROM14b、およびRAM14cは、同一の回路基板内に設けられていても良い。
 CPU14aは、ROM14b等の不揮発性の記憶装置に記憶されたプログラムを読み出し、当該プログラムに従って各種の演算処理を実行する。例えば、CPU14aは、表示装置8に表示させる画像データに対する画像処理、車両1の周囲に存在する障害物までの距離の算出等を実行する。
 ROM14bは、各種プログラムおよび当該プログラムの実行に必要なパラメータ等を記憶する。RAM14cは、CPU14aでの演算で用いられる各種データを一時的に記憶する。表示制御部14dは、ECU14での演算処理のうち、主として、撮像部15から取得してCPU14aへ出力する画像データに対する画像処理、CPU14aから取得した画像データを表示装置8に表示させる表示用の画像データへの変換等を実行する。音声制御部14eは、ECU14での演算処理のうち、主として、CPU14aから取得して音声出力装置9に出力させる音声の処理を実行する。SSD14fは、書き換え可能な不揮発性の記憶部であって、ECU14の電源がオフされた場合にあってもCPU14aから取得したデータを記憶し続ける。
 図4は、第1の実施形態にかかる車両が有するECUの機能構成の一例を示すブロック図である。図4に示すように、ECU14は、表示用画像生成部401および表示用画像出力部402を備える。例えば、回路基板に搭載されたCPU14a等のプロセッサが、ROM14bまたはSSD14f等の記憶媒体内に格納された周辺監視用のプログラムを実行することにより、ECU14は、表示用画像生成部401および表示用画像出力部402の機能を実現する。表示用画像生成部401および表示用画像出力部402の一部または全部を回路等のハードウェアによって構成しても良い。
 表示用画像生成部401は、撮像部15から、車両1の周囲を撮像部15により撮像して得られる撮像画像を取得する。本実施形態では、表示用画像生成部401は、ある時刻(以下、過去時刻と言う)の車両1の位置(以下、過去位置と言う)における当該車両1の周囲を撮像部15によって撮像して得られる撮像画像を取得する。次いで、表示用画像生成部401は、取得した撮像画像に基づいて、車両1と当該車両1の周囲に存在する障害物との位置関係を視認可能とする表示用画像を生成する。
 具体的には、表示用画像生成部401は、取得した撮像画像に基づいて、車両1の周囲の空間に三次元の車両画像を設けた仮想空間内の注視点を、操作入力部10を介して入力された仮想視点から見た画像を表示用画像として生成する。ここでは、仮想空間は、車両1の周囲の空間であり、かつ当該空間内における、過去時刻より後の時刻(例えば、現在時刻)の車両1の位置(例えば、現在位置)に対して、車両画像を設けた空間である。また、車両画像は、仮想空間を透視可能な三次元の車両1の画像である。
 本実施形態では、表示用画像生成部401は、取得した撮像画像を、車両1の周囲の三次元の面(以下、カメラ画モデルと言う)に対して貼り付け、当該カメラ画モデルを含む空間を、車両1の周囲の空間として生成する。次いで、表示用画像生成部401は、生成した空間内の車両1の現在位置に対して、車両画像を配置した空間を仮想空間として生成する。その後、表示用画像生成部401は、生成した仮想空間内の注視点を、操作入力部10を介して入力された仮想視点から見た画像を表示用画像として生成する。
 その際、表示用画像生成部401は、操作入力部10を介して、車両画像の車幅方向への仮想視点の移動が指示された場合、車両画像の車幅方向への仮想視点の移動に連動して、仮想視点の高さを変化させる。言い換えると、表示用画像生成部401は、車両画像の車幅方向への仮想視点の移動に連動して、車両画像の上下方向における仮想視点の位置を変化させる。具体的には、表示用画像生成部401は、車両画像の車幅方向における中央から仮想視点が離れるに従って、当該仮想視点の高さを低くする。表示用画像出力部402は、表示用画像生成部401により生成される表示用画像を、表示装置8に出力する。
 これにより、車両画像の車幅方向に仮想視点を移動させるだけで、車両1の乗員が見たい視点位置からの表示用画像が表示されるように、仮想視点の高さも変化させることができるので、車両1の乗員が見たい視点位置からの表示用画像を容易に表示させることができる。本実施形態では、表示用画像生成部401は、仮想視点の移動が指示された場合、車両画像の車幅方向への仮想視点の移動に連動して、仮想視点の高さを変化させているが、仮想視点の移動が指示された場合に、車両画像の車幅方向への方向成分を含む移動と連動して、仮想視点の高さを変化させるものであれば、これに限定するものではない。例えば、表示用画像生成部401は、車両画像の車幅方向の方向成分および車両画像の前後方向の方向成分を含む移動と連動して、仮想視点の高さを変化させる。
 本実施形態では、表示用画像生成部401は、車両画像の車幅方向において当該車両画像の中央から仮想視点が離れるに従って、仮想視点の高さを低くしているが、車両画像の車幅方向への仮想視点の移動に連動して、仮想視点の高さを変化させるものであれば良い。例えば、表示用画像生成部401は、車両画像の車幅方向において当該車両画像の中央から仮想視点が離れるに従って、仮想視点の高さを高くしたり、車両画像の車幅方向における仮想視点の位置の変化に応じて、仮想視点の高さを周期的に変化させたりしても良い。また、本実施形態では、表示用画像生成部401は、車両画像の外部において仮想視点を移動させるものとする。これにより、表示用画像生成部401は、車両画像の内部への仮想視点の移動を禁止できる。
 また、本実施形態では、表示用画像生成部401は、操作入力部10を介して、車両画像の車幅方向への仮想視点の移動に加えて、仮想視点の高さ方向(車両画像の上下方向)への移動が指示された場合には、車両画像の車幅方向の仮想視点の移動に連動して、仮想視点の高さ方向において、操作入力部10を介して指示された高さに仮想視点を移動させることも可能である。さらに、本実施形態では、表示用画像生成部401は、車両画像の車幅方向への仮想視点の移動が指示された場合に、車両画像の車幅方向の仮想視点の移動に連動して、仮想視点の高さを変化させているが、車両画像の前後方向への仮想視点の移動が指示された場合も、車両画像の前後方向への仮想視点の移動に連動して、仮想視点の高さを変化させることも可能である。
 次に、図5を用いて、本実施形態にかかる車両1による表示用画像の表示処理の流れの一例について説明する。図5は、第1の実施形態にかかる車両による表示用画像の表示処理の流れの一例を示すフローチャートである。
 本実施形態では、表示用画像生成部401は、表示用画像の表示を指示する表示指示を取得する(ステップS501)。表示指示を取得した場合(ステップS502:Yes)、表示用画像生成部401は、過去位置における車両1の周囲を撮像部15により撮像して得られる撮像画像を取得する(ステップS503)。例えば、表示用画像生成部401は、現在時刻より予め設定された時間(例えば、数秒)前の過去時刻の車両1の過去位置(若しくは、車両1の現在位置よりも予め設定された距離(例えば、2m)手前の過去位置)において車両1の周囲を撮像部15により撮像して得られた撮像画像を取得する。
 次に、表示用画像生成部401は、取得した撮像画像に基づいて、仮想空間内の注視点を、操作入力部10を介して入力された仮想視点から見た表示用画像を生成する(ステップS504)。本実施形態では、表示用画像生成部401は、過去位置における車両1の周囲を撮像部15により撮像して得られる撮像画像に基づいて、表示用画像を生成しているが、撮像部15により車両1の周囲を撮像して得られる撮像画像に基づいて、表示用画像を生成するものであれば良い。例えば、表示用画像生成部401は、現在位置における車両1の周囲を撮像部15により撮像して得られる撮像画像に基づいて、表示用画像を生成しても良い。
 表示用画像出力部402は、表示用画像生成部401により生成された表示用画像を表示装置8に出力して、表示装置8に対して表示用画像を表示させる(ステップS505)。その後、表示用画像生成部401は、表示用画像の表示終了を指示する終了指示を取得する(ステップS506)。終了指示が取得された場合(ステップS507:Yes)、表示用画像出力部402は、表示装置8に対する表示用画像の出力を停止して、表示装置8に対する表示用画像の表示を終了させる(ステップS508)。
 一方、終了指示が取得されなかった場合(ステップS507:No)、表示用画像生成部401は、操作入力部10を介して、車両画像の車幅方向への仮想視点の移動が指示されたか否かを判断する(ステップS509)。車両画像の車幅方向への仮想視点の移動が指示されずに、予め設定された時間が経過した場合(ステップS509:No)、表示用画像出力部402は、表示装置8に対する表示用画像の出力を停止して、表示装置8に対する表示用画像の表示を終了させる(ステップS508)。
 車両画像の車幅方向への仮想視点の移動が指示された場合(ステップS509:Yes)、表示用画像生成部401は、車両画像の車幅方向への仮想視点の移動に連動して、当該仮想視点の高さを変化させる(ステップS510)。その後、表示用画像生成部401は、ステップS504に戻り、仮想空間内における注視点を、移動後の仮想視点から見た表示用画像を生成し直す。
 次に、図6~8を用いて、本実施形態にかかる車両1による表示用画像の生成処理の一例について説明する。図6,7は、第1の実施形態にかかる車両による表示用画像の生成に用いるカメラ画モデルの一例を説明するための図である。図6および図7において、車両1のタイヤの接地面(路面)と平行な1つの方向をZ方向とし、車両1のタイヤの接地面と平行かつZ方向と直交する方向をX方向とし、接地面に対して垂直な方向をY方向とする。図8は、第1の実施形態にかかる車両における表示用画像の生成に用いるカメラ画モデルおよび車両画像の一例を説明するための図である。
 本実施形態では、表示用画像生成部401は、図6および図7に示すように、第1面S1と第2面S2とを含むカメラ画モデルSを予め生成する。本実施形態では、第1面S1は、車両1が存在する路面に対応する平坦な面である。例えば、第1面S1は、楕円形の平坦な面である。第2面S2は、第1面S1を基準として、第1面S1の外側(外縁)から、当該第1面S1から離れるに従ってY方向に徐々に立ち上がる曲面である。例えば、第2面S2は、第1面S1の外側から、Y方向に楕円状または放物線状に立ち上がる曲面である。すなわち、表示用画像生成部401は、お椀型または円筒状の三次元の面をカメラ画モデルSとして生成する。
 本実施形態では、表示用画像生成部401は、平坦な第1面S1と、曲面の第2面S2と、を有する三次元の面である貼付面をカメラ画モデルSとして生成しているが、三次元の貼付面をカメラ画モデルSとして生成するものであれば、これに限定するものではない。例えば、表示用画像生成部401は、平坦な第1面S1と、当該第1面S1の外側から当該第1面S1に対して垂直または徐々に立ち上がる面の第2面S2と、を有する三次元の貼付面をカメラ画モデルSとして生成しても良い。
 次に、表示用画像生成部401は、過去位置P1において車両1の周囲を撮像部15によって撮像して得られた撮像画像を、カメラ画モデルSに対して貼り付ける。本実施形態では、表示用画像生成部401は、過去位置P1を原点とするワールド座標系で表されるカメラ画モデルS内の点(以下、貼付点と言う)の座標(以下、三次元座標と言う)と、当該三次元座標の貼付点に貼り付ける、撮像画像内の点(以下、カメラ画点と言う)の座標(以下、カメラ画座標と言う)とを対応付ける座標テーブルを予め作成する。そして、表示用画像生成部401は、撮像画像内のカメラ画点を、座標テーブルにおいて当該カメラ画点のカメラ画座標と対応付けられる三次元座標の貼付点に貼り付ける。本実施形態では、表示用画像生成部401は、車両1の内燃機関またはモータがスタートされる度に、当該座標テーブルを作成する。
 その後、表示用画像生成部401は、撮像画像を貼り付けたカメラ画モデルSを、車両1の周囲の空間に配置する。さらに、表示用画像生成部401は、図8に示すように、カメラ画モデルSを配置した空間内における車両1の現在位置P2に対して、車両画像CGを配置した空間を仮想空間Aとして生成する。仮想空間Aを生成すると、表示用画像生成部401は、図6に示すように、当該仮想空間Aにおける車両画像CGの前端から、第1面S1に対して垂直に下した点を注視点P3に設定する。次いで、表示用画像生成部401は、図8に示すように、操作入力部10から入力された仮想視点P4から注視点P3を見た表示用画像を生成する。これにより、表示用画像に含まれる障害物の画像を立体的な車両画像CGと同時に視認できるので、車両1と障害物との位置関係を把握し易くすることができる。
 また、過去位置P1における車両1の周囲(例えば、車両1の前方)を広角のカメラ(例えば、画角が180°のカメラ)により撮像して得られる撮像画像が貼り付けられたカメラ画モデルSを含む仮想空間Aの画像をそのまま表示装置8に表示させた場合、撮像画像に含まれる車両1の画像(例えば、車両1のフロントバンパの画像)が表示用画像に映り込んでしまい、車両1の乗員が、違和感を覚えることがある。これに対して、本実施形態では、表示用画像生成部401は、車両1の過去位置P1から、車両1の外側に向かって、隙間を空けて、カメラ画モデルSを設けることにより、撮像画像に含まれる車両1の画像が表示用画像に映り込むことを防止できるので、車両1の乗員が違和感を覚えることを防止できる。
 次に、図9および図10を用いて、本実施形態にかかる車両1における仮想視点の移動処理の一例について説明する。図9および図10は、第1の実施形態にかかる車両における仮想視点の移動処理の一例を説明するための図である。
 本実施形態では、表示用画像生成部401は、操作入力部10を介して車両画像CGの車幅方向への仮想視点P4の移動が指示された場合、車両画像CGの車幅方向への仮想視点P4の移動に連動して、仮想視点P4の高さを変化させる。例えば、車両画像CGの車幅方向において当該車両画像CGの中央Cから左側への仮想視点P4の移動が指示された場合、表示用画像生成部401は、図9および図10に示すように、車両画像CGの車幅方向において中央Cより左側、かつ中央Cに仮想視点P4が位置する際の当該仮想視点P4の高さ(車両画像CGの上方)より低い高さの位置X1へ仮想視点P4を移動させる。
 その後、再び、車両画像CGの車幅方向において中央Cから左側への仮想視点P4の移動が指示された場合、表示用画像生成部401は、図9および図10に示すように、車両画像CGの車幅方向において中央Cより更に左側、かつ位置X1の高さより低い高さの位置X2へ仮想視点P4を移動させる。これにより、車両画像CGの車幅方向に仮想視点P4を移動させるだけで、車両1の乗員が見たい視点位置からの表示用画像が表示されるように、仮想視点P4の高さも変化させることができるので、車両1の乗員が見たい視点位置からの表示用画像を容易に表示させることができる。
 また、本実施形態では、表示用画像生成部401は、操作入力部10を介して車両画像CGの車幅方向への仮想視点P4の移動が指示された場合、車両画像CGの車幅方向への仮想視点P4の移動に連動して、車両画像CGの前後方向へ仮想視点P4を移動させる。本実施形態では、表示用画像生成部401は、車両画像CGの車幅方向において中央Cから仮想視点P4が離れるに従って、車両画像CGの前後方向において当該車両画像CGの進行方向に仮想視点P4を移動させる。例えば、表示用画像生成部401は、図9に示すように、車両画像CGの上方から見て、放物線状に、仮想視点P4を移動させる。これにより、車両1の乗員が見たい方向の表示用画像が表示されるように、車両画像CGの前後方向における仮想視点P4の位置も変化させることができるので、車両1の乗員が見たい方向により近い方向の表示用画像を容易に表示できる。
 また、本実施形態では、表示用画像生成部401は、車両1の走行状態に応じて、車両画像CGの車幅方向への仮想視点P4の移動に連動して、車両画像CGの前後方向へ仮想視点P4を移動させるか否かを判断しても良い。具体的には、シフトセンサ21により変速操作部7が低速用のギアに切り替えられるなど、車両1がオフロードを走行することを検出した場合、表示用画像生成部401は、車両画像CGの車幅方向への仮想視点P4の移動に連動して、車両画像CGの前後方向において当該車両画像CGの進行方向に仮想視点P4を移動させる。
 一方、シフトセンサ21により変速操作部7が高速用のギアに切り替えられるなど、車両1がオンロードを走行することを検出した場合、表示用画像生成部401は、車両画像CGの車幅方向への仮想視点P4の移動に連動して、車両画像CGの前後方向に仮想視点P4を移動させないか、若しくは車両画像CGの前後方向における当該車両画像CGの進行方向への仮想視点P4の移動量を、車両1がオフロードを走行する場合より少なくする。
 また、本実施形態では、表示用画像生成部401は、車両画像CGの車幅方向において、仮想視点P4が移動した方向と同じ方向に注視点P3を移動させても良い。これにより、仮想視点P4の移動に連動して、車両1の乗員が確認したい位置に注視点P3を近づけることができるので、車両1の乗員が確認したい画像を表示用画像として生成できる。
 例えば、車両画像CGの車幅方向において中央Cから左側への仮想視点P4の移動が指示された場合、表示用画像生成部401は、車両画像CGの車幅方向において中央Cから左側への仮想視点P4の移動に連動して、車両画像CGの車幅方向において中央Cから左側へ注視点P3を移動させる。本実施形態では、表示用画像生成部401は、車両画像CGの車幅方向において、仮想視点P4が移動した方向と同じ方向に注視点P3を移動させているが、これに限定するものではなく、車両画像CGの車幅方向において、仮想視点P4が移動した方向と反対の方向に注視点P3を移動させても良い。
 また、本実施形態では、表示用画像生成部401は、仮想視点P4を移動させる場合、車両画像CGの車幅方向への注視点P3の移動量を、車両画像CGの車幅方向への仮想視点P4の移動量より少なくする。これにより、車両1の近傍に存在する障害物と車両1との位置関係を確認する場合に、注視点P3が大きく移動することを防止できるので、車両1の近傍に存在する障害物が表示用画像の視野角から外れることなく、車両1の乗員が見たい位置がより確認し易い位置に注視点P3を移動させることができる。
 次に、図11~14を用いて、本実施形態にかかる車両1において生成される表示用画像の一例について説明する。図11~14は、第1の実施形態にかかる車両において生成される表示用画像の一例を示す図である。
 例えば、仮想視点P4の移動が指示される前、表示用画像生成部401は、図11に示すように、車両画像CGの車幅方向の中央Cでありかつ当該車両画像CGの上方に存在する仮想視点P4から、注視点P3を見た表示用画像Gを生成する。また、表示用画像生成部401は、図11に示すように、車両画像CGの車幅方向において左側への仮想視点P4の移動を指示可能な左ボタンB1、車両画像CGの車幅方向において右側への仮想視点P4の移動を指示可能な右ボタンB2、視野角を広げることを指示可能なマイナスボタンB3、および視野角を狭めることを指示可能なプラスボタンB4を含む表示用画像Gを生成する。また、左ボタンB1および右ボタンB2は、仮想視点P4の移動がイメージできれば良いため、配置、向き、および形状は、図11に限定されず、例えば、斜め方向を向いていても良いし、曲線であっても良い。
 そして、左ボタンB1が操作された場合、表示用画像生成部401は、図12に示すように、位置X1(図9および図10参照)に移動した仮想視点P4から、注視点P3を見た表示用画像Gを生成する。さらに、左ボタンB1が操作された場合、表示用画像生成部401は、図13に示すように、位置X2(図9および図10参照)に移動した仮想視点P4から、注視点P3を見た表示用画像Gを生成する。その後、再び、左ボタンB1が操作された場合、表示用画像生成部401は、車両画像CGの車幅方向において位置X2より左側、車両画像CGの前後方向において位置X2より車両画像CGの進行方向側、かつ位置X2の高さより予め設定された高さ下げた位置に仮想視点P4を移動させる。そして、表示用画像生成部401は、図14に示すように、移動後の仮想視点P4から、注視点P3を見た表示用画像Gを生成する。
 これにより、車両画像CGの車幅方向に仮想視点P4を移動させるだけで、表示用画像Gが、車両1の乗員が見たい視点位置からの画像により近づくように、仮想視点P4の高さも変化させることができるので、車両1の乗員が見たい視点位置からの表示用画像Gを容易に表示できる。
 また、マイナスボタンB3が操作された場合、表示用画像生成部401は、表示用画像Gの視野角を広げる。一方、プラスボタンB4が操作された場合、表示用画像生成部401は、表示用画像Gの視野角を狭める。これにより、車両1の乗員は任意の視野角の表示用画像Gを表示装置8に表示させることができる。
 また、表示用画像生成部401は、車両画像CGの車幅方向において中央Cから仮想視点P4が離れるに従って、表示用画像Gの視野角を狭くしても良い。これにより、車両画像CGの車幅方向に仮想視点P4を移動させるだけで、表示用画像Gが、車両1の乗員が見たい視野角の画像により近づくように、視野角を変化させることができるので、車両1の乗員が見たい視野角の表示用画像Gを容易に表示できる。また、表示用画像生成部401は、車両画像CGの車幅方向において中央Cから仮想視点P4が離れるに従って、表示用画像Gの視野角を広くすることも可能である。
 また、表示用画像生成部401は、タッチパネル(操作入力部10の一例)上でのスライド操作等によって、任意の方向への仮想視点P4の移動が指示された場合、仮想視点P4を、当該任意の方向の水平方向の成分に応じた水平方向位置であり、かつ当該水平方向位置に応じた高さの位置に移動させる。また、表示用画像生成部401は、任意の方向を指示するためのGUI(Graphical User Interface)として、左ボタンB1および右ボタンB2に加えて、車両画像CGの前方への仮想視点P4の移動を指示可能な前ボタン、および車両画像CGの後方への仮想視点P4の移動を指示可能な後ボタンを表示用画像Gに含めても良い。さらに、表示用画像生成部401は、操作入力部10を介して、水平方向において、予め定められた軌跡上における任意の位置への仮想視点P4の移動が指示された場合、当該任意の位置への移動と連動して、仮想視点P4の高さを変化させても良い。
 このように、第1の実施形態にかかる車両1によれば、車両画像の車幅方向に仮想視点を移動させるだけで、車両1の乗員が見たい視点位置からの表示用画像が表示されるように、仮想視点の高さも変化させることができるので、車両1の乗員が見たい視点位置からの表示用画像を容易に表示させることができる。
(第2の実施形態)
 本実施形態は、車両画像の車幅方向における仮想視点の位置と、当該車幅方向における注視点の位置とを一致させる例である。以下の説明では、第1の実施形態と同様の構成については説明を省略する。
 図15は、第2の実施形態にかかる車両における注視点の移動処理の一例を説明するための図である。図15に示すように、表示用画像生成部401は、操作入力部10を介して、車両画像CGの車幅方向の中央Cから左側の位置X1への仮想視点P4の移動が指示された場合、仮想視点P4を位置X1に移動させる。それに伴い、表示用画像生成部401は、図15に示すように、車両画像CGの車幅方向における仮想視点P4の移動量と同じ移動量だけ、車両画像CGの車幅方向の中央Cから左側に向かって注視点P3を移動させる。 
 また、表示用画像生成部401は、図15に示すように、操作入力部10を介して、車両画像CGの車幅方向の中央Cから左側の位置X2への仮想視点P4の移動が指示された場合、仮想視点P4を位置X2へ移動させる。それに伴い、表示用画像生成部401は、図15に示すように、車両画像CGの車幅方向における仮想視点P4の移動量と同じ移動量だけ、車両画像CGの車幅方向の中央Cから左側に向かって注視点P3を移動させる。
 すなわち、表示用画像生成部401は、仮想空間A内に配置した車両画像CGの車幅方向における仮想視点P4の位置と注視点P3の位置とを一致させる。これにより、図15に示すように、車両画像CGと当該車両画像CGの前方に存在する障害物との位置関係が把握し易くなるので、細い路地をすり抜ける場合や車両1を路肩に寄せる場合など、車両1の側方に存在する障害物との接触を避けたい場合に、少ない操作で車両1の乗員が見たい表示用画像を表示させることができる。また、注視点P3と仮想視点P4とを結ぶ線を、車両画像CGの前後方向と平行にすることができるので、車両画像CGがその側部の障害物と接触するか否かの判断が容易な表示用画像を表示できる。
 本実施形態では、表示用画像生成部401は、図15に示すように、車両画像CGが有する前後方向の端のうち、車両画像CGの進行方向と反対側の端を基準として、車両画像CGの進行方向とは反対側において仮想視点P4を移動させているが、これに限定するものではない。例えば、表示用画像生成部401は、車両画像CGが有する前後方向の端のうち、車両画像CGの進行方向と反対側の端を基準として、車両画像CGの進行方向側において仮想視点P4を移動させても良い。
 例えば、車両1がオフロードを走行することを検出した場合、表示用画像生成部401は、車両画像CGが有する前後方向の端のうち、車両画像CGの進行方向と反対側の端を基準として、車両画像CGの進行方向側において仮想視点P4を移動させる(図9参照)。一方、車両1がオンロードを走行することを検出した場合、表示用画像生成部401は、車両画像CGが有する前後方向の端のうち、車両画像CGの進行方向と反対側の端を基準として、車両画像CGの進行方向とは反対側において仮想視点P4を移動させる。
 図16~18は、第2の実施形態にかかる車両において生成される表示用画像の一例を示す図である。例えば、仮想視点P4の移動が指示される前、表示用画像生成部401は、図16に示すように、車両画像CGの車幅方向の中央でありかつ当該車両画像CGの上方に存在するデフォルトの仮想視点P4から、注視点P3を見た表示用画像Gを生成する。これにより、仮想視点P4を車両画像CGの側部に移動させたい場合に、仮想視点P4の移動量を少なくすることができるので、仮想視点P4を所望の位置に短時間で移動させることができる。
 そして、左ボタンB1が操作された場合、表示用画像生成部401は、車両画像CGの車幅方向においてデフォルトの仮想視点P4の左側でありかつデフォルトの仮想視点P4より低い位置に仮想視点P4を移動させると共に、車両画像CGの車幅方向における移動後の仮想視点P4と同じ位置に注視点P3を移動させる。さらに、表示用画像生成部401は、図17に示すように、移動後の仮想視点P4から、移動後の注視点P3を見た表示用画像Gを生成する。
 本実施形態では、左ボタンB1または右ボタンB2の操作が開始されてから、当該ボタンの操作が解除されるまで、表示用画像生成部401は、車両画像CGの車幅方向において、当該ボタンの操作により移動が指示された方向に対して、仮想視点P4を移動させ続ける。これにより、車両画像CGの車幅方向において、仮想視点P4が所望の位置に移動するまで、仮想視点P4の移動を指示するための操作を複数回行う必要が無くなるので、簡単な操作で、仮想視点P4を所望の位置に移動させることができる。
 また、表示用画像生成部401は、仮想視点P4の高さの変化に応じて、車両画像CGの透過率を変更する。具体的には、表示用画像生成部401は、図16に示すように、仮想視点P4の高さが第1高さ(例えば、車両画像CGの上方)である場合、車両画像CGの透過率を第1透過率とする。本実施形態では、第1透過率は、車両画像CGを介して、仮想空間を透視可能な透過率である。一方、表示用画像生成部401は、図17に示すように、仮想視点P4の高さが第1高さより低い第2高さ(例えば、車両画像CGの屋根の高さ)である場合、車両画像CGの透過率を第2透過率とする。本実施形態では、第2透過率は、第1透過率より低い透過率であり、車両画像CGを介して仮想空間を透視可能な透過率である。
 さらに、表示用画像生成部401は、図18に示すように、仮想視点P4の高さが第2高さより低い第3高さ(例えば、車両画像CGの屋根より低い高さ)である場合、車両画像CGの透過率を第3透過率とする。本実施形態では、第3透過率は、第2透過率より低い透過率であり、車両画像CGを介して仮想空間を透視できない透過率である。すなわち、表示用画像生成部401は、仮想視点P4の高さが低くなるに従って、車両画像CGの透過率を下げる。
 これにより、仮想視点P4が車両画像CGの上方に移動された場合、車両画像CGおよび当該車両画像CGの周囲を見渡すことを目的として仮想視点P4を移動させた可能性が高いため、車両画像CGの透過率を上げて、車両画像CGを介して当該車両画像CGの周囲を見渡し易くする。一方、仮想視点P4が車両画像CGの側部に移動された場合、車両画像CGとその周囲の障害物との位置関係を視認することを目的として仮想視点P4を移動させた可能性が高いため、車両画像CGの透過率を下げて、車両画像CGとその周囲の障害物との位置関係を視認し易くする。
 よって、仮想視点P4を車両画像CGの車幅方向に移動させるだけで、車両画像CGの透過率を、車両1の乗員が仮想視点P4を移動させた目的の情報が確認し易い透過率に変更できるので、簡単な操作で、車両1の乗員が仮想視点P4を移動させた目的の情報が確認し易い表示用画像Gを表示させることができる。本実施形態では、表示用画像生成部401は、仮想視点P4の高さが低くなるに従って、車両画像CGの透過率を下げているが、これに限定するものではなく、仮想視点P4の高さが低くなるに従って、車両画像CGの透過率を上げることも可能である。
 さらに、表示用画像生成部401は、車両1の走行状態に応じて、車両画像CGの透過率を変更しても良い。具体的には、シフトセンサ21により変速操作部7が低速用のギアに切り替えられるなど、車両1がオフロードを走行することを検出した場合、表示用画像生成部401は、車両画像CGの透過率を、当該車両画像CGを介して仮想空間を透視可能な透過率とする。一方、シフトセンサ21により変速操作部7が高速用のギアに切り替えられるなど、車両1がオンロードを走行することを検出した場合、表示用画像生成部401は、車両画像CGの透過率を、当該車両画像CGを介して仮想空間を透視できない透過率とする。
 このように、第2の実施形態にかかる車両1によれば、車両画像と当該車両画像の側方に存在する障害物との位置関係が把握し易くなるので、細い路地をすり抜ける場合や車両1を路肩に寄せる場合など、車両1の側方に存在する障害物との接触を避けたい場合に、少ない操作で車両1の乗員が見たい表示用画像を表示させることができる。

Claims (8)

  1.  車両が搭載する撮像部により当該車両の周囲を撮像して得られる撮像画像が、前記車両の周囲の三次元の面に貼り付けられたモデルと、三次元の車両画像と、を含む仮想空間内の注視点を仮想視点から見た表示用画像を生成する生成部と、
     前記表示用画像を表示部に出力する出力部と、を備え、
     前記生成部は、操作入力部を介して、前記仮想視点の移動が指示された場合、前記車両画像の車幅方向への方向成分を含む移動と連動して、前記仮想視点の高さを変化させる、周辺監視装置。
  2.  車両が搭載する撮像部により当該車両の周囲を撮像して得られる撮像画像が、前記車両の周囲の三次元の面に貼り付けられたモデルと、三次元の車両画像と、を含む仮想空間内の注視点を仮想視点から見た表示用画像を生成する生成部と、
     前記表示用画像を表示部に出力する出力部と、を備え、
     前記生成部は、操作入力部を介して、任意の方向への前記仮想視点の移動が指示された場合、前記仮想視点を、水平方向においては前記任意の方向の水平方向成分に応じた水平方向位置に、高さ方向においては水平方向における前記水平方向位置に応じた高さに移動させる、周辺監視装置。
  3.  車両が搭載する撮像部により当該車両の周囲を撮像して得られる撮像画像が、前記車両の周囲の三次元の面に貼り付けられたモデルと、三次元の車両画像と、を含む仮想空間内の注視点を仮想視点から見た表示用画像を生成する生成部と、
     前記表示用画像を表示部に出力する出力部と、を備え、
     前記生成部は、操作入力部を介して、水平方向において、予め定められた軌跡上における任意の位置への前記仮想視点の移動が指示された場合、前記任意の位置への移動と連動して、前記仮想視点の高さを変化させる、周辺監視装置。
  4.  前記生成部は、前記車両画像の車幅方向における前記車両画像の中央から前記仮想視点が離れるに従って、前記仮想視点の高さを低くする請求項1から3のいずれか一に記載の周辺監視装置。
  5.  前記生成部は、前記車両画像の車幅方向における前記車両画像の中央から前記仮想視点が離れるに従って、前記車両画像の前後方向における前記仮想視点の位置を、前記車両画像の進行方向に移動させる請求項1または4に記載の周辺監視装置。
  6.  前記生成部は、前記仮想視点の高さが第1高さである場合、前記車両画像の透過率を第1透過率とし、前記仮想視点の高さが前記第1高さより低い第2高さである場合、前記車両画像の透過率を前記第1透過率より低い第2透過率とする請求項1から5のいずれか一に記載の周辺監視装置。
  7.  前記生成部は、前記車両画像の車幅方向における前記車両画像の中央から前記仮想視点が離れるに従って、前記表示用画像の視野角を狭くする請求項1から6のいずれか一に記載の周辺監視装置。
  8.  前記生成部は、前記車両画像の車幅方向における前記仮想視点の位置と、前記車両画像の車幅方向における注視点の位置とを一致させる請求項1から7のいずれか一に記載の周辺監視装置。
     
PCT/JP2018/008409 2017-08-14 2018-03-05 周辺監視装置 WO2019035229A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
US16/632,923 US11091096B2 (en) 2017-08-14 2018-03-05 Periphery monitoring device
CN201880051666.6A CN111034188B (zh) 2017-08-14 2018-03-05 周边监控装置

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2017156633A JP7056034B2 (ja) 2017-08-14 2017-08-14 周辺監視装置
JP2017-156633 2017-08-14

Publications (1)

Publication Number Publication Date
WO2019035229A1 true WO2019035229A1 (ja) 2019-02-21

Family

ID=65362227

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2018/008409 WO2019035229A1 (ja) 2017-08-14 2018-03-05 周辺監視装置

Country Status (4)

Country Link
US (1) US11091096B2 (ja)
JP (1) JP7056034B2 (ja)
CN (1) CN111034188B (ja)
WO (1) WO2019035229A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20210179086A1 (en) * 2019-12-13 2021-06-17 Honda Motor Co., Ltd. Parking assisting device, parking assisting method and storage medium storing program for the parking assisting device

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010274814A (ja) * 2009-05-29 2010-12-09 Fujitsu Ten Ltd 画像生成装置及び画像表示システム
JP2012025327A (ja) * 2010-07-27 2012-02-09 Fujitsu Ten Ltd 画像表示システム、画像処理装置及び画像表示方法
JP2013191969A (ja) * 2012-03-13 2013-09-26 Fujitsu Ten Ltd 画像処理装置、画像表示システム、表示装置、画像処理方法及びプログラム
JP2014068308A (ja) * 2012-09-27 2014-04-17 Fujitsu Ten Ltd 画像生成装置、画像表示システム、および、画像生成方法
WO2015053040A1 (ja) * 2013-10-11 2015-04-16 富士通テン株式会社 画像表示装置、画像表示システム、画像表示方法、及び、プログラム
WO2017061230A1 (ja) * 2015-10-08 2017-04-13 日産自動車株式会社 表示支援装置及び表示支援方法

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA2369648A1 (en) * 1999-04-16 2000-10-26 Matsushita Electric Industrial Co., Limited Image processing device and monitoring system
JP5627253B2 (ja) 2009-05-29 2014-11-19 富士通テン株式会社 画像処理装置、電子装置、および、画像処理方法
JP5658507B2 (ja) 2010-08-06 2015-01-28 富士通テン株式会社 画像表示システム、画像生成装置、及び、画像表示方法
JP2018534965A (ja) * 2015-09-23 2018-11-29 ノバダック テクノロジーズ ユーエルシー 組織の治癒を評価するための方法およびシステム
JP6370833B2 (ja) 2016-05-16 2018-08-08 株式会社デンソーテン 画像生成装置、画像表示システム及び画像生成方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010274814A (ja) * 2009-05-29 2010-12-09 Fujitsu Ten Ltd 画像生成装置及び画像表示システム
JP2012025327A (ja) * 2010-07-27 2012-02-09 Fujitsu Ten Ltd 画像表示システム、画像処理装置及び画像表示方法
JP2013191969A (ja) * 2012-03-13 2013-09-26 Fujitsu Ten Ltd 画像処理装置、画像表示システム、表示装置、画像処理方法及びプログラム
JP2014068308A (ja) * 2012-09-27 2014-04-17 Fujitsu Ten Ltd 画像生成装置、画像表示システム、および、画像生成方法
WO2015053040A1 (ja) * 2013-10-11 2015-04-16 富士通テン株式会社 画像表示装置、画像表示システム、画像表示方法、及び、プログラム
WO2017061230A1 (ja) * 2015-10-08 2017-04-13 日産自動車株式会社 表示支援装置及び表示支援方法

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20210179086A1 (en) * 2019-12-13 2021-06-17 Honda Motor Co., Ltd. Parking assisting device, parking assisting method and storage medium storing program for the parking assisting device
US11697408B2 (en) * 2019-12-13 2023-07-11 Honda Motor Co., Ltd. Parking assisting device, parking assisting method and storage medium storing program for the parking assisting device

Also Published As

Publication number Publication date
CN111034188B (zh) 2021-07-27
JP2019036831A (ja) 2019-03-07
US20200156542A1 (en) 2020-05-21
US11091096B2 (en) 2021-08-17
JP7056034B2 (ja) 2022-04-19
CN111034188A (zh) 2020-04-17

Similar Documents

Publication Publication Date Title
US20190244324A1 (en) Display control apparatus
JP7091624B2 (ja) 画像処理装置
JP7210965B2 (ja) 室内監視装置
JP6962036B2 (ja) 周辺監視装置
JP2018144526A (ja) 周辺監視装置
JP2020120327A (ja) 周辺表示制御装置
WO2018150642A1 (ja) 周辺監視装置
JP6876236B2 (ja) 表示制御装置
JP7013751B2 (ja) 画像処理装置
JP2017094922A (ja) 周辺監視装置
JP7009785B2 (ja) 周辺監視装置
JP7056034B2 (ja) 周辺監視装置
JP2020053819A (ja) 撮像システム、撮像装置、および信号処理装置
JP6962035B2 (ja) 周辺監視装置
WO2019035228A1 (ja) 周辺監視装置
JP6930202B2 (ja) 表示制御装置
JP7259914B2 (ja) 周辺監視装置
JP6965563B2 (ja) 周辺監視装置
JP2018191061A (ja) 周辺監視装置
JP2018186387A (ja) 表示制御装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18845767

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 18845767

Country of ref document: EP

Kind code of ref document: A1