WO2018061261A1 - 表示制御装置 - Google Patents

表示制御装置 Download PDF

Info

Publication number
WO2018061261A1
WO2018061261A1 PCT/JP2017/012069 JP2017012069W WO2018061261A1 WO 2018061261 A1 WO2018061261 A1 WO 2018061261A1 JP 2017012069 W JP2017012069 W JP 2017012069W WO 2018061261 A1 WO2018061261 A1 WO 2018061261A1
Authority
WO
WIPO (PCT)
Prior art keywords
vehicle
data
transmittance
display
shape data
Prior art date
Application number
PCT/JP2017/012069
Other languages
English (en)
French (fr)
Inventor
哲也 丸岡
いつ子 大橋
渡邊 一矢
陽司 乾
欣司 山本
崇 平槙
拓也 橋川
久保田 尚孝
木村 修
Original Assignee
アイシン精機株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by アイシン精機株式会社 filed Critical アイシン精機株式会社
Priority to US16/337,174 priority Critical patent/US20200035207A1/en
Priority to DE112017004970.9T priority patent/DE112017004970T5/de
Priority to CN201780055648.0A priority patent/CN109691089A/zh
Publication of WO2018061261A1 publication Critical patent/WO2018061261A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • G09G5/37Details of the operation on graphic patterns
    • G09G5/377Details of the operation on graphic patterns for mixing or overlaying two or more graphic patterns
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Arrangement of adaptations of instruments
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/20Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/22Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle
    • B60R1/23Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view
    • B60R1/27Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view providing all-round vision, e.g. using omnidirectional cameras
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/20Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/22Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle
    • B60R1/28Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with an adjustable field of view
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • G09G5/38Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory with means for controlling the display position
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • B60R2300/304Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing using merged images, e.g. merging camera image with stored images
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • B60R2300/304Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing using merged images, e.g. merging camera image with stored images
    • B60R2300/305Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing using merged images, e.g. merging camera image with stored images merging camera image with lines or icons
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2354/00Aspects of interface with display user

Definitions

  • Embodiments of the present invention relate to a display control device.
  • an imaging device installed in a vehicle images the surrounding environment of the vehicle and displays an image as an imaging result.
  • the present invention has been made in view of the above, and provides a display control device capable of recognizing the surrounding environment even when vehicle shape data is superimposed.
  • the display control apparatus includes predetermined data, an acquisition unit that acquires captured image data from an imaging unit that images the periphery of the vehicle, and a storage unit that stores vehicle shape data representing the three-dimensional shape of the vehicle And a display processing unit that switches the transmittance of the vehicle shape data based on predetermined data when the vehicle shape data is superimposed on the display data representing the periphery of the vehicle based on the captured image data. . Therefore, the driver can display the vehicle shape data and the surroundings of the vehicle according to the current situation by switching the transmittance of the vehicle shape data based on the predetermined data, improving convenience. Can be made.
  • the acquisition unit acquires detection data from the detection unit that detects an object around the vehicle as the predetermined data, and the object detected by the detection data, the vehicle,
  • the determination unit that determines whether or not the distance between is within a predetermined value determines that the distance is within the predetermined value
  • the display processing unit switches the transmittance of the vehicle shape data. Therefore, the driver switches the transmittance of the vehicle shape data according to the positional relationship between the object around the vehicle and the vehicle, thereby displaying the vehicle shape data and the vehicle periphery according to the current situation. Therefore, convenience can be improved.
  • the display processing unit switches the transmittance of the vehicle shape data according to the distance. Therefore, since the driver can recognize that the transmittance is switched according to the distance, the convenience can be improved.
  • the acquisition unit acquires, as the predetermined data, operation data indicating an operation to enlarge or an operation to reduce
  • the display processing unit acquires the operation data.
  • Display data on which vehicle shape data switched to a different transmittance from the transmittance of the vehicle shape data before the operation to enlarge or before the operation to reduce is displayed. Therefore, since the driver can confirm that the vehicle shape data has been enlarged or reduced by switching the transmittance of the vehicle shape data, the convenience can be improved.
  • the display processing unit when the display processing unit performs an enlarged display based on the operation data, the vehicle shape data that has been switched from the transmittance before the operation to be magnified to the high transmittance
  • the display data on which the vehicle shape data switched from the transmittance before the reduction operation to the low transmittance is superimposed is displayed. Therefore, the driver can display the vehicle shape data and the periphery of the vehicle corresponding to the operation of the driver by switching the transmittance according to the enlargement / reduction, and thus the convenience can be improved.
  • the display control unit moves a gazing point indicating a point serving as the center of the display to predetermined coordinates. Therefore, the driver can display the vehicle shape data and the surroundings of the vehicle corresponding to the driver's operation by moving the gazing point to predetermined coordinates when performing the enlarged display. Can be improved.
  • the display control device of the embodiment is a vehicle in which the display processing unit is switched from the transmittance before the operation to a high transmittance while performing the operation of moving the vehicle shape data according to the operation data.
  • the display data on which the shape data is superimposed is displayed. Therefore, since the driver can check the periphery of the vehicle by transmitting the vehicle shape data while moving the vehicle shape data, the convenience can be improved.
  • the display processing unit displays vehicle shape data whose transmittance is switched according to a display destination for displaying the display data. Therefore, since display according to the characteristics of the display destination can be realized, visibility can be improved.
  • FIG. 1 is a perspective view illustrating an example of a state in which a part of a passenger compartment of a vehicle on which the display control device according to the embodiment is mounted is seen through.
  • FIG. 2 is a plan view (bird's eye view) illustrating an example of a vehicle on which the display control device according to the embodiment is mounted.
  • FIG. 3 is a block diagram illustrating an example of a configuration of a display control system including the display control device according to the embodiment.
  • FIG. 4 is a block diagram illustrating a functional configuration of the ECU as the display control apparatus according to the embodiment.
  • FIG. 5 is a diagram illustrating vehicle shape data stored in the vehicle shape data storage unit of the embodiment.
  • FIG. 6 is a diagram exemplifying vehicle shape data when a region corresponding to a height of 2 m or more of the vehicle is completely transmitted.
  • FIG. 7 is a diagram illustrating vehicle shape data when a region corresponding to a height of 1 m or more of the vehicle is completely transmitted.
  • FIG. 8 is a diagram illustrating vehicle shape data in a case where the rear region is completely transmitted from a predetermined position of the vehicle.
  • FIG. 9 is a diagram illustrating vehicle shape data when a region corresponding to a height of 1 m or less of the vehicle is completely transmitted.
  • FIG. 10 is an exemplary schematic diagram illustrating projection of captured image data on a virtual projection plane in the image composition unit of the embodiment.
  • FIG. 10 is an exemplary schematic diagram illustrating projection of captured image data on a virtual projection plane in the image composition unit of the embodiment.
  • FIG. 11 is a schematic and exemplary side view showing vehicle shape data and a virtual projection plane.
  • FIG. 12 is a diagram illustrating an example of viewpoint image data displayed by the display processing unit of the embodiment.
  • FIG. 13 is a diagram illustrating an example of viewpoint image data displayed by the display processing unit of the embodiment.
  • FIG. 14 is a diagram illustrating an example of viewpoint image data displayed by the display processing unit of the embodiment.
  • FIG. 15 is a diagram illustrating an example of viewpoint image data displayed by the display processing unit of the embodiment.
  • FIG. 16 is a diagram illustrating an example of viewpoint image data displayed by the display processing unit of the embodiment.
  • FIG. 17 is a flowchart illustrating a procedure of first display processing in the ECU of the embodiment.
  • FIG. 18 is a flowchart illustrating a procedure of second display processing in the ECU of the embodiment.
  • FIG. 19 is a flowchart illustrating a procedure of third display processing in the ECU according to the embodiment.
  • FIG. 20 is a diagram illustrating a ground contact point between the wheel and the ground, which is a reference for the height of the vehicle according to the embodiment.
  • FIG. 21 is a diagram illustrating a horizontal plane serving as a reference for the height of the vehicle according to the first modification.
  • FIG. 22 is a diagram illustrating a display screen displayed by the display processing unit according to the modification.
  • the vehicle 1 equipped with a display control device may be, for example, an automobile using an internal combustion engine (not shown) as a drive source, that is, an internal combustion engine automobile, or an electric motor (not shown). It may be a vehicle as a drive source, that is, an electric vehicle, a fuel cell vehicle, or the like. Moreover, the hybrid vehicle which uses both of them as a drive source may be sufficient, and the vehicle provided with the other drive source may be sufficient. Further, the vehicle 1 can be mounted with various transmissions, and various devices necessary for driving the internal combustion engine and the electric motor, such as systems and components, can be mounted.
  • the driving method is not limited to the four-wheel driving method, and may be a front wheel driving method or a rear wheel driving method, for example.
  • the vehicle body 2 constitutes a passenger compartment 2a in which a passenger (not shown) gets.
  • a steering section 4 an acceleration operation section 5, a braking operation section 6, a shift operation section 7 and the like are provided in a state facing the driver's seat 2b as a passenger.
  • the steering unit 4 is, for example, a steering wheel protruding from the dashboard 24,
  • the acceleration operation unit 5 is, for example, an accelerator pedal positioned under the driver's feet
  • the braking operation unit 6 is, for example, a driver's foot It is a brake pedal located under the foot
  • the speed change operation unit 7 is, for example, a shift lever protruding from the center console.
  • the steering unit 4, the acceleration operation unit 5, the braking operation unit 6, the speed change operation unit 7 and the like are not limited to these.
  • a display device 8 and an audio output device 9 are provided in the passenger compartment 2a.
  • the display device 8 is, for example, an LCD (liquid crystal display) or an OELD (organic electroluminescent display).
  • the audio output device 9 is, for example, a speaker.
  • the display device 8 is covered with a transparent operation input unit 10 such as a touch panel. The occupant can visually recognize an image displayed on the display screen of the display device 8 via the operation input unit 10. In addition, the occupant can execute an operation input by touching, pushing, or moving the operation input unit 10 with a finger or the like at a position corresponding to the image displayed on the display screen of the display device 8. .
  • the display device 8, the audio output device 9, the operation input unit 10, and the like are provided, for example, in the monitor device 11 that is located in the vehicle width direction of the dashboard 24, that is, the central portion in the left-right direction.
  • the monitor device 11 can have an operation input unit (not shown) such as a switch, a dial, a joystick, and a push button.
  • a sound output device (not shown) can be provided at another position in the passenger compartment 2a different from the monitor device 11, and sound is output from the sound output device 9 of the monitor device 11 and other sound output devices. be able to.
  • the monitor device 11 can be used also as, for example, a navigation system or an audio system.
  • the vehicle 1 is, for example, a four-wheeled vehicle, and has two left and right front wheels 3F and two right and left rear wheels 3R. All of these four wheels 3 can be configured to be steerable.
  • the vehicle 1 includes a steering system 13 that steers at least two wheels 3.
  • the steering system 13 includes an actuator 13a and a torque sensor 13b.
  • the steering system 13 is electrically controlled by an ECU 14 (electronic control unit) or the like to operate the actuator 13a.
  • the steering system 13 is, for example, an electric power steering system, an SBW (steer by wire) system, or the like.
  • the steering system 13 adds torque, that is, assist torque to the steering unit 4 by the actuator 13a to supplement the steering force, or steers the wheel 3 by the actuator 13a.
  • the actuator 13a may steer one wheel 3 or may steer a plurality of wheels 3.
  • the torque sensor 13b detects the torque which a driver
  • the vehicle body 2 is provided with, for example, four imaging units 15a to 15d as the plurality of imaging units 15.
  • the imaging unit 15 is a digital camera that incorporates an imaging element such as a CCD (charge coupled device) or a CIS (CMOS image sensor).
  • the imaging unit 15 can output moving image data (captured image data) at a predetermined frame rate.
  • Each of the imaging units 15 includes a wide-angle lens or a fish-eye lens, and can capture a range of, for example, 140 ° to 220 ° in the horizontal direction. Further, the optical axis of the imaging unit 15 may be set obliquely downward.
  • the imaging unit 15 sequentially captures the external environment around the vehicle 1 including the road surface on which the vehicle 1 is movable and surrounding objects (obstacles, rocks, dents, puddles, dredging, etc.), and as captured image data. Output.
  • the imaging unit 15a is located, for example, at the rear end 2e of the vehicle body 2 and is provided on a wall portion below the rear window of the rear hatch door 2h.
  • the imaging unit 15b is located, for example, at the right end 2f of the vehicle body 2 and provided on the right door mirror 2g.
  • the imaging unit 15c is located, for example, on the front side of the vehicle body 2, that is, the front end 2c in the vehicle front-rear direction, and is provided on a front bumper, a front grill, or the like.
  • the imaging unit 15d is located, for example, at the left end 2d of the vehicle body 2 and is provided on the left door mirror 2g.
  • ECU14 which comprises the display control system 100 performs arithmetic processing and image processing based on the picked-up image data obtained by the several image pick-up part 15, produces
  • the ECU 14 displays the acquired image data on the display device 8 so that, for example, the peripheral monitoring information that allows the vehicle 1 to perform a safety check on the right side or the left side of the vehicle 1 or a safety check on the surroundings of the vehicle 1 can be performed. I will provide a.
  • the display control system 100 in addition to the ECU 14, the monitor device 11, the steering system 13, etc., the brake system 18, the steering angle sensor 19, the accelerator sensor 20, the shift A sensor 21, a wheel speed sensor 22, an acceleration sensor 26, and the like are electrically connected via an in-vehicle network 23 as an electric communication line.
  • the in-vehicle network 23 is configured as a CAN (controller area network), for example.
  • the ECU 14 can control the steering system 13, the brake system 18, and the like by sending a control signal through the in-vehicle network 23.
  • the ECU 14 also detects detection results of the torque sensor 13b, the brake sensor 18b, the rudder angle sensor 19, the accelerator sensor 20, the shift sensor 21, the wheel speed sensor 22, the acceleration sensor 26, and the like via the in-vehicle network 23, and an operation input unit.
  • An operation signal such as 10 can be received.
  • the ECU 14 includes, for example, a CPU 14a (central processing unit), a ROM 14b (read only memory), a RAM 14c (random access memory), a display control unit 14d, an audio control unit 14e, an SSD 14f (solid state drive, flash memory), and the like. ing.
  • the CPU 14a reads a program stored (installed) in a non-volatile storage device such as the ROM 14b, and executes arithmetic processing according to the program. For example, the CPU 14a executes image processing related to an image displayed on the display device 8.
  • the CPU 14a performs arithmetic processing or image processing on the captured image data captured by the imaging unit 15 to detect whether or not there is a specific region to be noted on the predicted course of the vehicle 1, For example, the user (driver or passenger) is notified of the presence of a specific region by changing the display mode of a course indicator (predicted course line) indicating the estimated travel direction of the vehicle 1.
  • a course indicator predicted course line
  • the RAM 14c temporarily stores various types of data used in computations by the CPU 14a.
  • the display control unit 14d mainly performs image processing using the captured image data obtained by the imaging unit 15 and image processing of image data displayed on the display device 8 (as an example) in the arithmetic processing performed by the ECU 14. Executes image composition).
  • the voice control unit 14 e mainly executes processing of voice data output from the voice output device 9 among the calculation processes in the ECU 14.
  • the SSD 14f is a rewritable nonvolatile storage unit, and can store data even when the ECU 14 is powered off.
  • the CPU 14a, the ROM 14b, the RAM 14c, and the like can be integrated in the same package.
  • the ECU 14 may have a configuration in which another logic operation processor, a logic circuit, or the like such as a DSP (digital signal processor) is used instead of the CPU 14a.
  • a DSP digital signal processor
  • an HDD hard disk drive
  • the SSD 14f and the HDD may be provided separately from the peripheral monitoring ECU 14.
  • the brake system 18 is, for example, an ABS (anti-lock brake system) that suppresses the locking of the brake, a skid prevention device (ESC: electronic stability control) that suppresses the skidding of the vehicle 1 during cornering, and enhances the braking force ( Electric brake system that executes brake assist), BBW (brake by wire), etc.
  • the brake system 18 applies a braking force to the wheels 3 and thus to the vehicle 1 via the actuator 18a.
  • the brake system 18 can execute various controls by detecting brake lock, idle rotation of the wheels 3, signs of skidding, and the like from the difference in rotation between the left and right wheels 3.
  • the brake sensor 18b is a sensor that detects the position of the movable part of the braking operation unit 6, for example.
  • the brake sensor 18b can detect the position of a brake pedal as a movable part.
  • the brake sensor 18b includes a displacement sensor.
  • the steering angle sensor 19 is a sensor that detects the steering amount of the steering unit 4 such as a steering wheel.
  • the rudder angle sensor 19 is configured using, for example, a hall element.
  • the ECU 14 obtains the steering amount of the steering unit 4 by the driver, the steering amount of each wheel 3 during automatic steering, and the like from the steering angle sensor 19 and executes various controls.
  • the rudder angle sensor 19 detects the rotation angle of the rotating part included in the steering unit 4.
  • the rudder angle sensor 19 is an example of an angle sensor.
  • the accelerator sensor 20 is a sensor that detects the position of the movable part of the acceleration operation part 5, for example.
  • the accelerator sensor 20 can detect the position of an accelerator pedal as a movable part.
  • the accelerator sensor 20 includes a displacement sensor.
  • the shift sensor 21 is, for example, a sensor that detects the position of the movable part of the speed change operation unit 7.
  • the shift sensor 21 can detect the position of a lever, arm, button, or the like as a movable part.
  • the shift sensor 21 may include a displacement sensor or may be configured as a switch.
  • the wheel speed sensor 22 is a sensor that detects the amount of rotation of the wheel 3 and the number of rotations per unit time.
  • the wheel speed sensor 22 outputs a wheel speed pulse number indicating the detected rotation speed as a sensor value.
  • the wheel speed sensor 22 may be configured using, for example, a hall element.
  • the ECU 14 calculates the amount of movement of the vehicle 1 based on the sensor value acquired from the wheel speed sensor 22 and executes various controls. Note that the wheel speed sensor 22 may be provided in the brake system 18. In that case, the ECU 14 acquires the detection result of the wheel speed sensor 22 via the brake system 18.
  • the acceleration sensor 26 is provided in the vehicle 1, for example. Based on the signal from the acceleration sensor 26, the ECU 14 calculates the front-rear direction inclination (pitch angle) and the left-right direction inclination (roll angle) of the vehicle 1.
  • the pitch angle is an angle that indicates the inclination of the vehicle 1 around the left-right axis. When the vehicle 1 is present on a horizontal surface (ground, road surface), the pitch angle is 0 degree.
  • the roll angle is an angle indicating the inclination around the longitudinal axis of the vehicle 1, and the roll angle is 0 degree when the vehicle 1 is present on a horizontal surface (ground, road surface).
  • the acceleration sensor 26 conventionally mounted in ESC is used. Note that the present embodiment does not limit the acceleration sensor 26 and may be any sensor that can detect the longitudinal and lateral accelerations of the vehicle 1.
  • the CPU 14a included in the ECU 14 displays the environment around the vehicle 1 based on the captured image data as described above.
  • the CPU 14a includes various modules as shown in FIG.
  • the CPU 14a includes, for example, an acquisition unit 401, a determination unit 402, a transmittance processing unit 403, an image composition unit 404, a viewpoint image generation unit 405, and a display processing unit 406. These modules can be realized by reading a program installed and stored in a storage device such as the ROM 14b and executing it.
  • the SSD 14f includes, for example, a vehicle shape data storage unit 451 that stores vehicle shape data representing the three-dimensional shape of the vehicle 1.
  • vehicle shape data stored in the vehicle shape data storage unit 451 also holds the shape of the interior of the vehicle 1.
  • the acquisition unit 401 includes an image acquisition unit 411, an operation acquisition unit 412, and a detection acquisition unit 413. Information necessary for displaying the surroundings of the vehicle 1 (for example, predetermined data acquired from the outside, Captured image data) is acquired.
  • the image acquisition unit 411 acquires captured image data from the imaging units 15 a to 15 d that capture the periphery of the vehicle 1.
  • the operation acquisition unit 412 acquires operation data representing an operation performed by the driver via the operation input unit 10.
  • As the operation data for example, an operation for enlarging / reducing the screen displayed on the display device 8 or an operation for changing the viewpoint of the screen displayed on the display device 8 can be considered.
  • the operation acquisition unit 412 further acquires operation data indicating the shift operation and steering angle data indicating the steering performed by the driver of the vehicle 1. Furthermore, the operation acquisition unit 412 also acquires operation data indicating a blinker lighting operation performed by the driver of the vehicle 1.
  • the detection acquisition unit 413 acquires detection data from a detection unit that detects objects around the vehicle 1.
  • the imaging units 15a to 15d are stereo cameras, and by using the stereo camera, an object around the vehicle 1 is detected, or a sonar or laser (not shown) is used. It can be considered that an object around the vehicle 1 is detected.
  • the determination unit 402 determines whether to switch the transmittance of the vehicle shape data representing the vehicle 1 based on the information acquired by the acquisition unit 401.
  • the determination unit 402 determines whether to switch the transmittance of the vehicle shape data representing the vehicle 1 based on the operation data acquired by the operation acquisition unit 412. For example, when the driver performs a reduction operation or an enlargement operation, the determination unit 402 determines that the transmission should be switched to the transmittance corresponding to the reduction operation or the enlargement operation.
  • the determination unit 402 determines whether to switch the transmittance of the vehicle shape data representing the vehicle 1 based on the detection data acquired by the detection acquisition unit 413. Specifically, the determination unit 402 determines whether or not the distance between the obstacle detected by the detection data acquired by the detection acquisition unit 413 and the vehicle 1 is within a predetermined value. Then, the determination unit 402 determines whether or not to switch the transmittance of the vehicle shape data representing the vehicle 1 based on the result. For example, when an obstacle is detected within a predetermined distance in the traveling direction of the vehicle 1 based on the detection data, it is conceivable that the obstacle can be easily visually recognized by increasing the transmittance of the vehicle shape data.
  • the predetermined distance is set according to the embodiment.
  • the transmittance processing unit 403 performs a transmittance change process on the vehicle shape data stored in the vehicle shape data storage unit 451 based on the determination result of the determination unit 402. At that time, the color of the vehicle shape data may be changed. For example, the color of the area closest to the obstacle may be changed so that the driver can recognize that the obstacle is approaching.
  • the display processing unit 406 of the present embodiment determines the transmittance of the region of the vehicle shape data corresponding to the part of the vehicle 1 that is close to the detected object based on the detection data.
  • the transmittance of the area may be displayed differently. For example, when the determination unit 402 determines that the distance between the obstacle and the vehicle 1 is within a predetermined value, the transmittance processing unit 403 corresponds to the portion of the vehicle 1 near the detected obstacle.
  • the transmittance of some areas of the vehicle shape data is made higher than the transmittance of other areas. Thereby, it becomes easy to visually recognize an obstacle.
  • the display processing unit 406 can also display the transmittance of some areas of the vehicle shape data different from the transmittance of other areas different from the some areas.
  • This partial area may be any area as long as it is an area in the vehicle shape data.
  • the partial region may be a region corresponding to a part of the vehicle 1 near the detected object, or may be a bumper or a wheel included in the vehicle shape data.
  • the area where the wheel is represented may be a part of the area, and the area where the roof may be represented may be the other area.
  • the transmittance may be gradually changed from one region toward another region.
  • the partial area and other areas of the present embodiment may be an area corresponding to one part of the vehicle 1, an area extending over a plurality of parts, or an area corresponding to a part in the part. good.
  • FIG. 5 is a diagram illustrating vehicle shape data stored in the vehicle shape data storage unit 451 of this embodiment.
  • the vehicle shape data shown in FIG. 5 makes it possible to adjust the direction of the wheels 3 and the like according to the steering angle of the vehicle 1.
  • the transmittance processing unit 403 performs a transmission process on the vehicle shape data so that the switched transmittance is obtained when the transmittance is switched according to the determination result of the determination unit 402.
  • the transmittance can be set to any value from 0% to 100%.
  • the transmittance processing unit 403 switches the transmittance according to the determination result of the determination unit 402
  • the transmission of the vehicle shape data is performed according to the distance between the obstacle detected from the detection data and the vehicle 1.
  • the rate may be switched.
  • the display processing unit 406 can realize display of vehicle shape data in which the transmittance is switched according to the distance.
  • the determination unit 402 may determine how to switch the transmittance based on the operation data.
  • the transmittance may be switched according to the time during which the vehicle shape data is touched. For example, when it is determined that the touching time is long, the transmittance processing unit 403 may perform the transmission processing so as to increase the transmittance. Furthermore, as the number of touches detected by the determination unit 402 increases, the transmittance processing unit 403 may perform the transmission process so as to increase the transmittance. As another example, the transmittance processing unit 403 may switch the transmittance according to the strength of the touch detected by the determination unit 402.
  • the transmittance processing unit 403 performs other processing on the arbitrary region. Processing such as increasing (or decreasing) the transmittance from that region may be performed.
  • the transmittance processing unit 403 is not limited to performing the transmission processing with the same transmittance for the entire vehicle shape data.
  • the transmittance may be different for each region of the vehicle shape data. For example, it is conceivable that the transmittance of a region where wheels or the like close to the ground are arranged in the vehicle shape data is lowered, and the transmittance is increased in a region far from the ground.
  • FIG. 6 is a diagram illustrating vehicle shape data when a region corresponding to a height of 2 m or more of the vehicle 1 is completely transmitted. As shown in FIG. 6, the region corresponding to the height of 2 m or more of the vehicle 1 is completely transmitted, the transmittance below the height of 2 m of the vehicle 1 is not completely transmitted, and the transmittance is lowered toward the bottom. As described above, the display range around the vehicle 1 can be expanded by completely transmitting the region corresponding to the height of 2 m or more while recognizing the situation between the wheel and the ground.
  • FIG. 7 is a diagram illustrating vehicle shape data when a region corresponding to a height of 1 m or more of the vehicle 1 is completely transmitted. As shown in FIG. 7, the vehicle 1 may be completely transmitted depending on whether or not the height of the vehicle 1 is 1 m or more.
  • the reference of the completely transmitting height shown in FIGS. 6 and 7 can be arbitrarily set according to the height of the vehicle 1 and the situation around the vehicle 1.
  • the transmittance processing unit 403 may perform the transmission processing in which the transmittance is increased from the region where the wheel is represented to the region where the roof is represented in the vehicle shape data.
  • the display processing unit 406 displays the vehicle shape data subjected to such a transmission process, thereby displaying the situation between the ground and the vehicle 1 and completely transmitting the vicinity of the roof of the vehicle 1. The situation around the vehicle 1 can be visually confirmed.
  • transmit completely is not restrict
  • FIG. 8 is a diagram exemplifying vehicle shape data when the rear region of the vehicle 1 is completely transmitted from a predetermined position.
  • the situation of the ground contact surface of the wheel can be recognized. Since the rear side of the vehicle 1 is not necessary for confirming the situation in the traveling direction, a wider area around the vehicle 1 can be displayed by transmitting the vehicle 1.
  • the transmittance processing unit 403 may switch the region to be transmitted. For example, when the determination unit 402 determines that the traveling direction has been switched from forward to backward, the transmittance processing unit 403 starts from a predetermined position of the vehicle 1 from a complete transmission of a region behind the predetermined position of the vehicle 1. Switch to full transparency in the front area. Thereby, the permeation
  • FIG. 9 is a diagram exemplifying vehicle shape data when the predetermined height T1 is 1 m and the region corresponding to the height 1 m or less of the vehicle 1 is completely transmitted. In the example shown in FIG. 9, the transmittance of 1 m or higher of the vehicle 1 is not completely transmitted, and the transmittance is lowered toward the top.
  • the display processing unit 406 of the present embodiment has an area where the roof (which is another area) is represented from an area where the wheel (which is a partial area) is represented in the vehicle shape data. As it goes to the display, it is possible to perform display for increasing the transmittance or display for decreasing the transmittance.
  • the image composition unit 404 synthesizes a plurality of captured image data acquired by the image acquisition unit 411, that is, a plurality of captured image data captured by the plurality of imaging units 15, and a boundary portion thereof. By doing so, one shot image data is generated.
  • the image composition unit 404 synthesizes a plurality of captured image data so that the captured image data is projected onto a virtual projection plane surrounding the vehicle 1.
  • FIG. 10 is an exemplary schematic diagram illustrating projection of the captured image data 1001 on the virtual projection plane 1002 in the image composition unit 404.
  • the virtual projection plane 1002 has a bottom surface 1002b along the ground Gr, and a bottom surface 1002b, that is, a side surface 1002a rising from the ground Gr.
  • the ground Gr is a horizontal plane orthogonal to the vertical direction Z of the vehicle 1 and is also a tire contact surface.
  • the bottom surface 1002b is a substantially circular flat surface and is a horizontal surface with the vehicle 1 as a reference.
  • the side surface 1002a is a curved surface in contact with the bottom surface 1002b.
  • the shape of the vertical virtual cross section of the vehicle 1 passing through the center Gc of the vehicle 1 on the side surface 1002a is, for example, elliptical or parabolic.
  • the side surface 1002a is configured as, for example, a rotation surface around the center line CL that passes through the center Gc of the vehicle 1 and extends in the vertical direction of the vehicle 1, and surrounds the periphery of the vehicle 1.
  • the image composition unit 404 generates composite image data obtained by projecting the captured image data 1001 onto the virtual projection plane 1002.
  • the viewpoint image generation unit 405 includes a superimposition unit 421 and a reduction / enlargement unit 422, and generates viewpoint image data viewed from a predetermined virtual viewpoint from composite image data projected on the virtual projection plane 1002.
  • this embodiment demonstrated the example which produces
  • FIG. 11 is a schematic and exemplary side view showing the vehicle shape data 1103 and the virtual projection plane 1002.
  • the superimposing unit 421 superimposes the vehicle shape data 1103 after the transmission processing by the transmittance processing unit 403 on the virtual projection plane 1002.
  • the viewpoint image generation unit 405 converts the composite image data projected on the virtual projection plane 1002 into viewpoint image data in which the gazing point 1102 is viewed from the viewpoint 1101.
  • the gazing point 1102 is a point that becomes the center of the display area of the viewpoint image data.
  • the viewpoint 1101 can be arbitrarily set by the user. Further, the viewpoint is not limited to the outside of the vehicle shape data 1103, and may be set inside the vehicle shape data 1103.
  • the viewpoint image generation unit 405 generates viewpoint image data from the viewpoint set according to the operation data acquired by the operation acquisition unit 412.
  • the reduction / enlargement unit 422 performs processing for moving the viewpoint 1101 closer to or away from the vehicle shape data 1103 in accordance with the operation data, so that the vehicle shape data represented in the viewpoint image data generated by the viewpoint image generation unit 405 is obtained.
  • the reduction / enlargement process 1103 is performed.
  • the gaze point 1102 can be arbitrarily set by the user. For example, when an enlargement operation is performed according to the operation data acquired by the operation acquisition unit 412, the reduction / enlargement unit 422 moves the gazing point 1102 indicating the center point of the display to a predetermined coordinate. Processing may be performed. For example, when the user performs an enlargement operation, the user considers that the user wants to see the situation of the wheel and the ground Gr, and the reduction / enlargement unit 422 causes the gazing point 1102 to reach the contact point between the wheel and the ground Gr. Process to move.
  • this embodiment demonstrated the case where the coordinate used as the movement destination of the gazing point 1102 was a contact point of a wheel and the ground Gr, it does not restrict the position of the coordinate of the movement destination, and depends on the embodiment. Appropriate coordinates are set.
  • the display processing unit 406 when the display processing unit 406 performs an enlarged display based on the operation data, the display processing unit 406 switches from the transmittance before the operation to be enlarged (for example, the current transmittance) to a higher transmittance, and sets a gaze point in advance.
  • the viewpoint image data to be moved to the specified coordinates is displayed.
  • the gazing point By moving the gazing point to the coordinates that the driver wants to confirm, the vehicle shape data corresponding to the driver's operation and the surroundings of the vehicle can be displayed, so the convenience can be improved.
  • the display processing unit 406 performs display processing of the viewpoint image data generated by the viewpoint image generation unit 405.
  • the viewpoint image data is displayed on the display device 8
  • the present invention is not limited to the example in which the viewpoint image data is displayed on the display device 8, and for example, the viewpoint image is displayed on a HUD (head-up display). Data may be displayed.
  • FIG. 12 is a diagram illustrating an example of viewpoint image data displayed by the display processing unit 406.
  • the vehicle shape data 1201 when processed by the transmittance processing unit 403 at a transmittance of 0% is superimposed.
  • the vehicle shape data 1201 shown in FIG. 12 the vehicle shape data 1201 is transmitted, and the situation on the opposite side cannot be confirmed.
  • the display processing unit 406 of the present embodiment has viewpoint image data obtained by superimposing vehicle shape data on the composite image data representing the periphery of the vehicle based on the captured image data according to the current position of the vehicle 1. Is displayed, a part of the vehicle shape data is displayed with a different transmittance from the other areas. Next, a display example of viewpoint image data in which a part of the vehicle shape data has a different transmittance from the other areas will be described.
  • this embodiment demonstrates the case where it superimposes according to the current position of the vehicle 1 when superimposing vehicle shape data, you may superimpose on another position.
  • the vehicle shape data may be superimposed on a position on the predicted course of the vehicle 1 or may be superimposed on a past position of the vehicle 1.
  • FIG. 13 is a diagram illustrating an example of viewpoint image data displayed by the display processing unit 406.
  • the transmittance processing unit 403 processes a predetermined height T1 or more with the transmittance K1, and processes below the predetermined height T1 with the transmittance K2 (K1> Assume that vehicle shape data 1301 of K2> 0%) is superimposed.
  • the transmittance of the vehicle shape data below the predetermined height is low, the positional relationship between the vehicle 1 and the ground can be recognized. Further, since the light is transmitted at the transmittance K2, the situation on the opposite side of the vehicle 1 can be recognized to some extent.
  • the transmittance of the vehicle shape data above the predetermined height T1 is high, the situation on the opposite side of the vehicle 1 can be confirmed in more detail. As a result, the driver can recognize the situation in a wider area.
  • FIG. 14 is a diagram illustrating an example of viewpoint image data displayed by the display processing unit 406.
  • vehicle shape data when the region 1401 corresponding to the wheel is processed with 0% transmittance and the region other than the wheel is processed with 100% transmittance is superimposed by the transmittance processing unit 403.
  • the transmittance processing unit 403. As an example.
  • the display can be considered, for example, when the display operation of only the wheel is performed by the driver.
  • the determination unit 402 determines that 100% of the area other than the wheel region is transmitted based on the operation data indicating the wheel display.
  • the transmittance processing unit 403 performs the above-described transmission processing according to the determination result.
  • this embodiment demonstrated the case where only a wheel was displayed, the structure displayed is not restrict
  • the region corresponding to the wheel is set to 0% transmittance and the transmittance of the other region is set to 100% has been described.
  • the transmittance of the region corresponding to the wheel ⁇ the transmittance of the other region. Any rate is acceptable.
  • the display processing unit 406 of the present embodiment uses the transmittance of the region corresponding to one or more of the bumper and the wheel (which is a partial region) and the transmittance of the other region of the vehicle 1. It is possible to display the vehicle shape data that has been subjected to the transmission processing so as to be lower than the vehicle shape data.
  • the transmission processing is performed so that the transmittance of the region corresponding to one or more of the bumper and the wheel (which is a partial region) is lower than the transmittance of the other region.
  • the transmission processing may be performed so as to be higher than the transmittance of other regions.
  • the present embodiment is not limited to performing the above-described transparent processing based on operation data.
  • the transmittance processing unit 403 as shown in FIG. Transmission processing may be performed so that any one or more of the bumpers have a lower transmittance than the other regions.
  • the operation data and the detection data are used.
  • permeability was demonstrated.
  • the data for switching the transmittance is not limited to the operation data and the detection data, and may be predetermined data acquired from the outside.
  • the image composition unit 404 synthesizes captured image data captured by the image capturing unit 15 in the past as composite image data.
  • captured image data captured 2 m before the current position by the vehicle 1 can be considered.
  • Such captured image data may be used as captured image data obtained by capturing the situation under the floor of the vehicle 1.
  • the area 1402 is not limited to displaying past captured image data, but may be simply filled with a predetermined color.
  • FIG. 15 is a diagram illustrating an example of viewpoint image data displayed by the display processing unit 406.
  • the vehicle shape data 1501 when processed by the transmittance processing unit 403 with a transmittance of 100% excluding the line of the vehicle shape data is superimposed. Thereby, since vehicle shape data is permeate
  • the display shown in FIG. 15 may be, for example, a case where “display only vehicle lines” is selected by the user.
  • FIG. 16 is a diagram illustrating an example of viewpoint image data displayed by the display processing unit 406.
  • the viewpoint is arranged in the vehicle shape data.
  • the periphery of the vehicle 1 is displayed through the interior that is included in the vehicle shape data.
  • the display shown in FIG. 16 may be, for example, a case where a viewpoint operation is performed by the user.
  • the transmittance is higher in the region lower than the predetermined height T2 than in the region higher than the predetermined height T2. That is, when displaying from the inside of the vehicle 1, the transmittance K3 of the region 1611 lower than the predetermined height T2 is increased in order to recognize the state of an object (for example, the rock 1601) existing on the ground. .
  • the region 1612 higher than the predetermined height T2 can be grasped inside the vehicle by reducing the transmittance K4 (transmittance K3> transmittance K4).
  • the display processing unit 406 displays viewpoint image data for displaying the periphery of the vehicle from the viewpoint through the interior of the vehicle.
  • viewpoint image data displayed, the surroundings of the vehicle 1 are transmitted by the transmittance processing unit 403 through vehicle shape data that has been subjected to transmission processing for decreasing the transmittance in the interior from the bottom to the ceiling.
  • the display processing unit 406 displays the viewpoint image data in which is displayed.
  • permeability processing part 403 performs the permeation
  • permeability becomes high as it goes to a ceiling from under a floor.
  • the permeation process may be performed.
  • the display processing unit 406 allows the vehicle shape data to be transmitted in a case where the viewpoint is located inside the vehicle shape data and a case where the viewpoint is located outside the vehicle shape data. I decided to make them different.
  • the determination unit 402 determines, based on the operation data acquired by the operation acquisition unit 412, whether or not the viewpoint is inside the vehicle shape data (vehicle 1) by an operation performed by the user.
  • the transmittance processing unit 403 has a transmittance K3 that is lower than the predetermined height T2> a region that is higher than the predetermined height T2.
  • the transmission process is performed after setting the transmission factor K4.
  • the transmittance processing unit 403 has a transmittance K2 of a region lower than the predetermined height T1 ⁇ the predetermined height T1. Transmission processing is performed after setting the transmittance K1 of the high region.
  • the transmission process switching control is performed according to whether the viewpoint is inside the vehicle shape data (vehicle 1).
  • the transmittance processing unit 403 determines a transmission region based on information such as vehicle speed information, shift operation data, and blinker acquired by the acquisition unit 401. You may switch. For example, when the determination unit 402 determines that the traveling direction has been switched by the shift operation, the transmittance processing unit 403 may perform processing to transmit the region on the traveling direction side.
  • the transmittance processing unit 403 determines that the driver has performed the right steering or the left steering based on the steering angle data or the operation data indicating the blinker lighting operation. Then, a transmission process is performed in which a part of the vehicle shape data in the side direction in which the vehicle 1 is bent has a higher transmittance than the other areas in the opposite direction.
  • the display processing unit 406 displays the vehicle shape data having high transmittance on the side in which the vehicle 1 bends, so that it is easy to check the surroundings on the direction in which the vehicle 1 is turned through the vehicle shape data.
  • this embodiment demonstrated the example which performs the permeation
  • the determination unit 402 may switch the displayed screen when detecting a touch in a predetermined area based on the operation data. For example, when the determination unit 402 determines that the blind spot area is touched in the vehicle shape data displayed on the display device 8, the display processing unit 406 displays, for example, 2 m of the vehicle 1 as an underfloor image of the vehicle 1. You may control to display the image data imaged when it exists behind (past) as an underfloor image of the vehicle 1.
  • the display processing unit 406 displays a luminance value in the vicinity of the arbitrary region. You may perform the display process which raises and makes it look bright, and is illuminated with what is called a virtual light.
  • FIG. 17 is a flowchart showing a procedure of the above-described processing in the ECU 14 of the present embodiment.
  • the image acquisition unit 411 acquires captured image data from the imaging units 15a to 15d that capture the periphery of the vehicle 1 (S1701).
  • the image composition unit 404 synthesizes a plurality of captured image data acquired by the image acquisition unit 411 to generate one composite image data (S1702).
  • the transmittance processing unit 403 reads the vehicle shape data stored in the vehicle shape data storage unit 451 of the SSD 14f (S1703).
  • the transmittance processing unit 403 performs a transmission process on the vehicle shape data with a predetermined transmittance (S1704).
  • the predetermined transmittance is set to a predetermined value according to the initial values of the viewpoint and the gazing point.
  • the superimposing unit 421 superimposes the vehicle shape data after the transmission process on the composite image data (S1705).
  • the viewpoint image generation unit 405 generates viewpoint image data from the composite image data on which the vehicle shape data is superimposed based on the initial values of the viewpoint and the gazing point (S1706).
  • the display processing unit 406 displays the viewpoint image data on the display device 8 (S1707).
  • the determination unit 402 determines whether or not the user has performed a change operation of the transmittance or a switching operation of the transparent configuration based on the operation data acquired by the operation acquisition unit 412. Is determined (S1708).
  • the transmittance processing unit 403 When it is determined that the operation for changing the transmittance or the operation for switching the configuration to be transmitted has been performed (S1708: Yes), the transmittance processing unit 403 follows the change processing of the transmittance changed for the vehicle shape data and the switching operation. Then, the entire vehicle shape data or the transmission process (for example, the configuration other than the wheels and the bumper) is transmitted (S1709). Thereafter, the processing is performed from S1705.
  • FIG. 18 is a flowchart showing the above-described processing procedure in the ECU 14 of the present embodiment.
  • the detection acquisition part 413 acquires detection data from a sonar, a laser, etc. (S1809).
  • the determination unit 402 determines whether the distance between the vehicle 1 and the obstacle present in the traveling direction of the vehicle 1 is within a predetermined value based on the detection data (S1810).
  • the transmittance processing unit 403 When it is determined that the distance between the vehicle 1 and the obstacle existing in the traveling direction of the vehicle 1 is within a predetermined value (S1810: Yes), the transmittance processing unit 403 approaches the entire vehicle shape data or the obstacle. For a region that is present, processing for switching to a transmittance higher than the transmittance that was set before detection and transmission processing for the entire vehicle shape data or a region that is close to an obstacle are performed (S1811). Thereafter, processing is performed from S1805.
  • the predetermined value may be, for example, a distance that is invisible to the driver on the vehicle 1 because an obstacle has entered within the blind spot area due to the vehicle body. It is sufficient that an appropriate value is determined.
  • This embodiment is not limited to changing the transmittance when the transmittance is directly manipulated by the user, and the transmittance may be changed according to other operations. Therefore, a case where the transmittance is changed according to the reduction / enlargement rate will be described. That is, when it is desired to display the vehicle in an enlarged manner, it is assumed that the relationship between the vehicle 1 and the ground is to be confirmed. To reduce the transmittance and to display the vehicle in a reduced size, it is desired to check the surroundings of the vehicle 1. For example, the transmittance may be increased.
  • the vehicle shape data is switched according to the positional relationship between the object around the vehicle 1 and the vehicle 1, so that the vehicle according to the current situation Since the shape data and the periphery of the vehicle 1 can be displayed, the convenience can be improved.
  • FIG. 19 is a flowchart showing a procedure of the above-described processing in the ECU 14 of the present embodiment.
  • the determination unit 402 makes the viewpoint closer to the vehicle shape data based on the operation data acquired by the operation acquisition unit 412 (in other words, the viewpoint close to the vehicle shape data). It is determined whether or not an operation of moving away is performed (S1908).
  • the transmittance processing unit 403 switches the vehicle shape data to a transmittance corresponding to the reduction / enlargement rate, and the vehicle shape data transmission processing. Is performed (S1909). It is assumed that the correspondence between the reduction / enlargement ratio and the transmittance is set in advance. Thereafter, processing is performed from S1905.
  • the reduction / enlargement unit 422 sets the gaze point and the position of the viewpoint according to the reduction / enlargement rate. Then, the viewpoint image generation unit 405 generates viewpoint image data based on the set gazing point and viewpoint.
  • the viewpoint image generation unit 405 may perform a process in which the gazing point moves to a predetermined position according to the enlargement ratio. That is, when the user performs an enlargement operation, it may be difficult to set up to the position of the point of interest. Furthermore, when performing an enlargement operation, there are many requests to see the situation between the vehicle and the ground. Therefore, in the present embodiment, when an enlargement operation is performed, control is performed so that the point of sight moves to the contact point between the wheel and the ground according to the enlargement process. Thereby, the operation until the user wants to confirm the location can be facilitated.
  • the display processing unit 406 of the present embodiment when the display processing unit 406 of the present embodiment performs enlarged display based on the operation data, the vehicle shape data that has been switched to the high transmittance from the transmittance before the operation to be enlarged is superimposed. View viewpoint image data.
  • the display processing unit 406 when the display processing unit 406 performs reduction display based on the operation data, the display processing unit 406 displays the viewpoint image data on which the vehicle shape data switched from the transmittance before the operation to reduce to the low transmittance is superimposed. .
  • the present embodiment shows an example of the switching of the transmittance
  • the display processing unit 406 displays the vehicle before the operation for enlarging or before the operation for reducing the image when enlarging or reducing the display. It is only necessary to display the viewpoint image data on which the vehicle shape data switched to the different transmittance from the transmittance of the shape data is superimposed.
  • the transmittance is switched in accordance with the enlargement operation or the reduction operation by the driver, so that the vehicle shape data corresponding to the operation of the driver and the surroundings of the vehicle are changed. Since display is possible, convenience can be improved.
  • the example has been described in which the contact point between the wheel and the ground is the reference position, and the distance in the vertical direction from the reference position is the height of the vehicle 1.
  • the height T3 which is higher than the wheel or bumper
  • the transmittance below 0% is set
  • the vehicle corresponds to the height T3 or higher.
  • the upper region of the shape data has a transmittance of 80%, wheels, bumpers, and the like are displayed so as to be visible.
  • the transmission processing unit 403 is not subjected to the transmission process. You may instruct.
  • FIG. 21 is a diagram illustrating an example in which the vertical distance from the horizontal plane is the height of the vehicle, with the horizontal plane where the vehicle 1 exists as a reference.
  • the detection acquisition unit 413 detects the inclination of the vehicle 1 based on the acceleration information acquired from the acceleration sensor 26.
  • the transmittance processing unit 403 estimates the position of the horizontal plane where the vehicle 1 is in contact with the ground.
  • permeability process part 403 performs the permeation
  • the transmittance T is set to 80% from the height T3 from the horizontal plane, in the example shown in FIG. 21, in the situation where the vehicle 1 rides on the rock, the front area of the vehicle shape data including wheels and bumpers is transmitted. The rate is 80%.
  • FIG. 22 is a diagram illustrating a display screen displayed by the display processing unit 406 according to the modification.
  • the vehicle 1 rides on a rock when the transmittance is set to 80% from the height T3 from the horizontal plane, the front area of the vehicle shape data including wheels and bumpers is almost transmitted. Take an example.
  • the embodiment and the modification described above are not limited to an example in which the current situation is displayed.
  • the display processing unit 406 may display a screen representing the past situation of the vehicle 1 based on a user operation.
  • the image processing unit 404 uses the captured image data combined in the past, and the transmittance processing unit 403 performs the transmission processing after changing the color of the vehicle shape data.
  • the transmission process is the same as that in the above-described embodiment.
  • the color of the vehicle shape data is a color representing the past, such as gray or sepia. Thereby, the user can confirm that the past situation is displayed.
  • Modification 3 The third modification is an example in which transmission processing is performed (increase the transmittance) during enlargement, reduction, or rotation.
  • the determination unit 402 determines that the driver is performing an enlargement, reduction, or rotation operation.
  • the transmittance processing unit 403 performs the transmission processing with a transmittance (for example, complete transmission) higher than the transmittance before the operation indicating enlargement, reduction, or rotation.
  • the display processing unit 406 is displayed while the driver is performing an operation of enlarging, reducing, or rotating (it is only necessary to perform an operation of moving the vehicle shape data).
  • the viewpoint image data on which the vehicle shape data switched from the transmittance before the enlargement, reduction or rotation operation to the high transmittance is superimposed is displayed.
  • processing may be performed so as to move the point of gaze to a predetermined position according to the enlargement processing.
  • the display processing unit 406 of the third modification can be switched from the current transmittance to a high transmittance when the vehicle shape data is moved according to the operation data (for example, by an operation such as enlargement / reduction / rotation).
  • the viewpoint image data on which the vehicle shape data is superimposed is displayed.
  • Modification 4 In the embodiment and the modification described above, the example in which the viewpoint image data is displayed on the display device 8 has been described. However, the embodiment and the modification described above are not limited to the example displayed on the display device 8. Therefore, in this modification, an example that can be displayed on a HUD (head-up display) will be described. In the fourth modification, the transmittance is changed according to the display destination of the viewpoint image data.
  • the determination unit 402 determines whether or not the display destination has been switched.
  • the transmittance processing unit 403 performs a transmission process based on the determination result. That is, since the contrast is different between the display device 8 and the HUD, the transmission process is performed with a transmittance that is easy for the user to see according to the display destination. Note that the transmittance for each display destination is set to an appropriate value according to the display performance of the display device 8 or the HUD.
  • the display processing unit 406 according to the modification 4 displays the viewpoint image data on which the vehicle shape data whose transmittance is switched according to the display destination is superimposed. Thereby, since the transmittance is switched according to the display destination, visual recognition becomes easy.
  • a part of the vehicle shape data is displayed with the transmittance different from that of the other areas, so that the driver can display the situation of the part of the area or the other area. Confirmation and visual recognition of the periphery of the vehicle 1 can both be achieved. In this way, the driver can check the situation of the vehicle 1 and can easily check the situation around the vehicle 1.
  • the vehicle shape data and the periphery of the vehicle 1 can be displayed according to the current situation by switching the transmittance of the vehicle shape data based on the acquired data. Therefore, convenience can be improved.

Abstract

実施形態の表示制御装置は、所定のデータ、及び車両の周辺を撮像する撮像部から撮像画像データを取得する取得部と、車両の三次元形状を表す車両形状データを記憶する記憶部と、撮像画像データに基づいた車両の周辺を表した表示データに対して、車両形状データを重畳して表示する際に、所定のデータに基づいて車両形状データの透過率を切り替える表示処理部と、を備える。

Description

表示制御装置
 本発明の実施形態は、表示制御装置に関する。
 従来、車両に設置された撮像装置で車両の周辺環境を撮像し、撮像結果である画像を表示する技術が提案されている。
 周辺環境を表示する際に、車室や車両を周辺環境が撮像された画像データに重畳して表示する技術がある。
特開2014-60646号公報
 従来技術においては、周辺環境が示された画像データに、車室画像を重畳する際に、周辺環境を把握させるために、車室の領域毎に透過率を変更する技術が提案されている。しかしながら、車両の三次元形状を表す車両形状データを、周辺環境が示された画像データに重畳する場合を考慮したものではない。
 本発明は、上記に鑑みてなされたものであって、車両形状データが重畳された場合においても、周辺環境を認識できる表示制御装置を提供する。
 実施形態の表示制御装置は、一例として、所定のデータ、及び車両の周辺を撮像する撮像部から撮像画像データを取得する取得部と、車両の三次元形状を表す車両形状データを記憶する記憶部と、撮像画像データに基づいた車両の周辺を表した表示データに対して、車両形状データを重畳して表示する際に、所定のデータに基づいて車両形状データの透過率を切り替える表示処理部と、を備える。よって、運転者は、所定のデータに基づいて車両形状データの透過率の切り替えを行うことで、現在の状況に応じた、車両形状データと車両の周辺との表示ができるため、利便性を向上させることができる。
 また、実施形態の表示制御装置は、一例として、取得部は、所定のデータとして、車両の周辺の物体を検出する検出部から検出データを取得し、検出データにより検出された物体と、車両と、の間の距離が所定値以内であるか否かを判定する判定部により、距離が所定値以内であると判定された場合に、表示処理部は、車両形状データの透過率を切り替える。よって、運転者は、車両の周辺の物体と車両との位置関係に応じて車両形状データの透過率の切り替えを行うことで、現在の状況に応じた、車両形状データと車両の周辺との表示ができるため、利便性を向上させることができる。
 また、実施形態の表示制御装置は、一例として、表示処理部は、距離に応じて、車両形状データの透過率を切り替える。よって、運転者は、距離に応じて透過率が切り替えられたことを認識できるので、利便性を向上させることができる。
 また、実施形態の表示制御装置は、一例として、取得部は、所定のデータとして、拡大する操作又は縮小する操作を示す操作データを取得し、表示処理部は、操作データを取得した場合に、拡大する操作の前又は縮小する操作の前における車両形状データの透過率から、異なる透過率に切り替えられた車両形状データが重畳された表示データを表示する。よって、運転者は、車両形状データの透過率が切り替えられたことで、車両形状データの拡大又は縮小されたことを確認できるため、利便性を向上させることができる。
 また、実施形態の表示制御装置は、一例として、表示処理部は、操作データに基づいて拡大表示をする場合に、拡大する操作の前の透過率から高い透過率に切り替えられた車両形状データが重畳された表示データを表示し、操作データに基づいて縮小表示をする場合に、縮小する操作の前の透過率から低い透過率に切り替えられた車両形状データが重畳された表示データを表示する。よって、運転者は、拡大縮小に応じて透過率の切り替えを行うことで、運転者の操作に対応した、車両形状データと車両の周辺との表示ができるため、利便性を向上させることができる。
 また、実施形態の表示制御装置は、一例として、表示処理部は、操作データに従って拡大表示をする場合に、表示の中心となる点を示した注視点を予め定められた座標に移動させる。よって、運転者は、拡大表示を行う際に、注視点を予め定められた座標まで移動させることで、運転者の操作に対応した、車両形状データと車両の周辺との表示ができるため、利便性を向上させることができる。
 また、実施形態の表示制御装置は、一例として、表示処理部は、操作データに従って車両形状データを動かしている操作を行っている間、当該操作前の透過率から高い透過率に切り替えられた車両形状データが重畳された表示データを表示する。よって、運転者は、車両形状データを動かしている間、車両形状データが透過することで、車両の周辺を確認できるため、利便性を向上させることができる。
 また、実施形態の表示制御装置は、一例として、表示処理部は、表示データを表示する表示先に応じて透過率が切り替えられた車両形状データを表示する。よって、表示先の特性に応じた表示を実現できるので、視認性を向上させることができる。
図1は、実施形態にかかる表示制御装置を搭載する車両の車室の一部が透視された状態の一例が示された斜視図である。 図2は、実施形態にかかる表示制御装置を搭載する車両の一例が示された平面図(鳥瞰図)である。 図3は、実施形態にかかる表示制御装置を有する表示制御システムの構成の一例を示すブロック図である。 図4は、実施形態にかかる表示制御装置としてのECUの機能的構成を示すブロック図である。 図5は、実施形態の車両形状データ記憶部に記憶された車両形状データを例示した図である。 図6は、車両の高さ2m以上に対応する領域について完全透過させた場合の車両形状データを例示した図である。 図7は、車両の高さ1m以上に対応する領域について完全透過させた場合の車両形状データを例示した図である。 図8は、車両の所定位置から後方の領域について完全透過させた場合の車両形状データを例示した図である。 図9は、車両の高さ1m以下に対応する領域について完全透過させた場合の車両形状データを例示した図である。 図10は、実施形態の画像合成部における撮影画像データを仮想投影面への投影を示す例示的かつ模式的な説明図である。 図11は、車両形状データと仮想投影面とを示す模式的かつ例示的な側面図である。 図12は、実施形態の表示処理部により表示される視点画像データの一例を示した図である。 図13は、実施形態の表示処理部により表示される視点画像データの一例を示した図である。 図14は、実施形態の表示処理部により表示される視点画像データの一例を示した図である。 図15は、実施形態の表示処理部により表示される視点画像データの一例を示した図である。 図16は、実施形態の表示処理部により表示される視点画像データの一例を示した図である。 図17は、実施形態のECUにおける第1の表示処理の手順を示すフローチャートである。 図18は、実施形態のECUにおける第2の表示処理の手順を示すフローチャートである。 図19は、実施形態のECUにおける第3の表示処理の手順を示すフローチャートである。 図20は、実施形態の車両の高さの基準となる、車輪と地面の接地点を例示した図である。 図21は、変形例1の車両の高さの基準となる、水平面を例示した図である。 図22は、変形例の表示処理部が表示する表示画面を例示した図である。
 以下、本発明の例示的な実施形態が開示される。以下に示される実施形態の構成、ならびに当該構成によってもたらされる作用、結果、および効果は、一例である。本発明は、以下の実施形態に開示される構成以外によっても実現可能であるとともに、基本的な構成に基づく種々の効果や、派生的な効果のうち、少なくとも一つを得ることが可能である。
 本実施形態において、表示制御装置(表示制御システム)を搭載する車両1は、例えば、不図示の内燃機関を駆動源とする自動車、すなわち内燃機関自動車であってもよいし、不図示の電動機を駆動源とする自動車、すなわち電気自動車や燃料電池自動車等であってもよい。また、それらの双方を駆動源とするハイブリッド自動車であってもよいし、他の駆動源を備えた自動車であってもよい。また、車両1は、種々の変速装置を搭載することができるし、内燃機関や電動機を駆動するのに必要な種々の装置、例えばシステムや部品等を搭載することができる。駆動方式としては、4つある車輪3すべてに駆動力を伝え、4輪すべてを駆動輪として用いる四輪駆動車両とすることができる。車輪3の駆動に関わる装置の方式や、数、レイアウト等は、種々に設定することができる。また、駆動方式も四輪駆動方式に限定されず、例えば、前輪駆動方式や後輪駆動方式でもよい。
 図1に例示されるように、車体2は、不図示の乗員が乗車する車室2aを構成している。車室2a内には、乗員としての運転者の座席2bに臨む状態で、操舵部4や、加速操作部5、制動操作部6、変速操作部7等が設けられている。操舵部4は、例えば、ダッシュボード24から突出したステアリングホイールであり、加速操作部5は、例えば、運転者の足下に位置されたアクセルペダルであり、制動操作部6は、例えば、運転者の足下に位置されたブレーキペダルであり、変速操作部7は、例えば、センターコンソールから突出したシフトレバーである。なお、操舵部4、加速操作部5、制動操作部6、変速操作部7等は、これらには限定されない。
 また、車室2a内には、表示装置8や、音声出力装置9が設けられている。表示装置8は、例えば、LCD(liquid crystal display)や、OELD(organic electroluminescent display)等である。音声出力装置9は、例えば、スピーカである。また、表示装置8は、例えば、タッチパネル等、透明な操作入力部10で覆われている。乗員は、操作入力部10を介して表示装置8の表示画面に表示される画像を視認することができる。また、乗員は、表示装置8の表示画面に表示される画像に対応した位置で手指等で操作入力部10を触れたり押したり動かしたりして操作することで、操作入力を実行することができる。これら表示装置8や、音声出力装置9、操作入力部10等は、例えば、ダッシュボード24の車幅方向すなわち左右方向の中央部に位置されたモニタ装置11に設けられている。モニタ装置11は、スイッチや、ダイヤル、ジョイスティック、押しボタン等の不図示の操作入力部を有することができる。また、モニタ装置11とは異なる車室2a内の他の位置に不図示の音声出力装置を設けることができるし、モニタ装置11の音声出力装置9と他の音声出力装置から、音声を出力することができる。なお、モニタ装置11は、例えば、ナビゲーションシステムやオーディオシステムと兼用されうる。
 また、図1、図2に例示されるように、車両1は、例えば、四輪自動車であり、左右二つの前輪3Fと、左右二つの後輪3Rとを有する。これら四つの車輪3は、いずれも転舵可能に構成されうる。図3に例示されるように、車両1は、少なくとも二つの車輪3を操舵する操舵システム13を有している。操舵システム13は、アクチュエータ13aと、トルクセンサ13bとを有する。操舵システム13は、ECU14(electronic control unit)等によって電気的に制御されて、アクチュエータ13aを動作させる。操舵システム13は、例えば、電動パワーステアリングシステムや、SBW(steer by wire)システム等である。操舵システム13は、アクチュエータ13aによって操舵部4にトルク、すなわちアシストトルクを付加して操舵力を補ったり、アクチュエータ13aによって車輪3を転舵したりする。この場合、アクチュエータ13aは、一つの車輪3を転舵してもよいし、複数の車輪3を転舵してもよい。また、トルクセンサ13bは、例えば、運転者が操舵部4に与えるトルクを検出する。
 また、図2に例示されるように、車体2には、複数の撮像部15として、例えば四つの撮像部15a~15dが設けられている。撮像部15は、例えば、CCD(charge coupled device)やCIS(CMOS image sensor)等の撮像素子を内蔵するデジタルカメラである。撮像部15は、所定のフレームレートで動画データ(撮像画像データ)を出力することができる。撮像部15は、それぞれ、広角レンズまたは魚眼レンズを有し、水平方向には例えば140°~220°の範囲を撮影することができる。また、撮像部15の光軸は斜め下方に向けて設定されている場合もある。よって、撮像部15は、車両1が移動可能な路面やその周辺の物体(障害物、岩、窪み、水たまり、轍等)を含む車両1の周辺の外部環境を逐次撮影し、撮像画像データとして出力する。
 撮像部15aは、例えば、車体2の後側の端部2eに位置され、リアハッチのドア2hのリアウインドウの下方の壁部に設けられている。撮像部15bは、例えば、車体2の右側の端部2fに位置され、右側のドアミラー2gに設けられている。撮像部15cは、例えば、車体2の前側、すなわち車両前後方向の前方側の端部2cに位置され、フロントバンパやフロントグリル等に設けられている。撮像部15dは、例えば、車体2の左側の端部2dに位置され、左側のドアミラー2gに設けられている。表示制御システム100を構成するECU14は、複数の撮像部15で得られた撮像画像データに基づいて演算処理や画像処理を実行し、より広い視野角の画像を生成したり、車両1を上方から見た仮想的な俯瞰画像を生成したりすることができる。また、ECU14は、撮像部15で得られた広角画像のデータに演算処理や画像処理を実行し、特定の領域を切り出した画像を生成したり、特定の領域のみを示す画像データを生成したり、特定の領域のみ強調されるような画像データを生成したりする。また、ECU14は、撮像画像データを撮像部15が撮像した視点とは異なる仮想視点から撮像したような仮想画像データに変換(視点変換)することができる。ECU14は、取得した画像データを表示装置8に表示することで、例えば、車両1の右側方や左側方の安全確認、車両1を俯瞰してその周囲の安全確認を実行できるような周辺監視情報を提供する。
 また、図3に例示されるように、表示制御システム100(表示制御装置)では、ECU14や、モニタ装置11、操舵システム13等の他、ブレーキシステム18、舵角センサ19、アクセルセンサ20、シフトセンサ21、車輪速センサ22、加速度センサ26等が、電気通信回線としての車内ネットワーク23を介して電気的に接続されている。車内ネットワーク23は、例えば、CAN(controller area network)として構成されている。ECU14は、車内ネットワーク23を通じて制御信号を送ることで、操舵システム13、ブレーキシステム18等を制御することができる。また、ECU14は、車内ネットワーク23を介して、トルクセンサ13b、ブレーキセンサ18b、舵角センサ19、アクセルセンサ20、シフトセンサ21、車輪速センサ22、加速度センサ26等の検出結果や、操作入力部10等の操作信号等を、受け取ることができる。
 ECU14は、例えば、CPU14a(central processing unit)や、ROM14b(read only memory)、RAM14c(random access memory)、表示制御部14d、音声制御部14e、SSD14f(solid state drive、フラッシュメモリ)等を有している。CPU14aは、ROM14b等の不揮発性の記憶装置に記憶された(インストールされた)プログラムを読み出し、当該プログラムに従って演算処理を実行する。CPU14aは、例えば、表示装置8で表示される画像に関連した画像処理を実行する。例えば、CPU14aは、撮像部15が撮像した撮像画像データに演算処理や画像処理を実行して、車両1の予測進路上に、注意すべき特定領域が存在するか否かを検出したり、注意すべき特定領域の存在を例えば、車両1の進行推定方向を示す進路指標(予測進路線)の表示態様を変化させることでユーザ(運転者や搭乗者)に報知したりする。
 RAM14cは、CPU14aでの演算で用いられる各種のデータを一時的に記憶する。また、表示制御部14dは、ECU14での演算処理のうち、主として、撮像部15で得られた撮像画像データを用いた画像処理や、表示装置8で表示される画像データの画像処理(一例としては画像合成)等を実行する。また、音声制御部14eは、ECU14での演算処理のうち、主として、音声出力装置9で出力される音声データの処理を実行する。また、SSD14fは、書き換え可能な不揮発性の記憶部であって、ECU14の電源がオフされた場合であってもデータを記憶することができる。なお、CPU14aや、ROM14b、RAM14c等は、同一パッケージ内に集積されることができる。また、ECU14は、CPU14aに替えて、DSP(digital signal processor)等の他の論理演算プロセッサや論理回路等が用いられる構成であってもよい。また、SSD14fに替えてHDD(hard disk drive)が設けられてもよいし、SSD14fやHDDは、周辺監視用のECU14とは別に設けられてもよい。
 ブレーキシステム18は、例えば、ブレーキのロックを抑制するABS(anti-lock brake system)や、コーナリング時の車両1の横滑りを抑制する横滑り防止装置(ESC:electronic stability control)、ブレーキ力を増強させる(ブレーキアシストを実行する)電動ブレーキシステム、BBW(brake by wire)等である。ブレーキシステム18は、アクチュエータ18aを介して、車輪3ひいては車両1に制動力を与える。また、ブレーキシステム18は、左右の車輪3の回転差などからブレーキのロックや、車輪3の空回り、横滑りの兆候等を検出して、各種制御を実行することができる。ブレーキセンサ18bは、例えば、制動操作部6の可動部の位置を検出するセンサである。ブレーキセンサ18bは、可動部としてのブレーキペダルの位置を検出することができる。ブレーキセンサ18bは、変位センサを含む。
 舵角センサ19は、例えば、ステアリングホイール等の操舵部4の操舵量を検出するセンサである。舵角センサ19は、例えば、ホール素子などを用いて構成される。ECU14は、運転者による操舵部4の操舵量や、自動操舵時の各車輪3の操舵量等を、舵角センサ19から取得して各種制御を実行する。なお、舵角センサ19は、操舵部4に含まれる回転部分の回転角度を検出する。舵角センサ19は、角度センサの一例である。
 アクセルセンサ20は、例えば、加速操作部5の可動部の位置を検出するセンサである。アクセルセンサ20は、可動部としてのアクセルペダルの位置を検出することができる。アクセルセンサ20は、変位センサを含む。
 シフトセンサ21は、例えば、変速操作部7の可動部の位置を検出するセンサである。シフトセンサ21は、可動部としての、レバーや、アーム、ボタン等の位置を検出することができる。シフトセンサ21は、変位センサを含んでもよいし、スイッチとして構成されてもよい。
 車輪速センサ22は、車輪3の回転量や単位時間当たりの回転数を検出するセンサである。車輪速センサ22は、検出した回転数を示す車輪速パルス数をセンサ値として出力する。車輪速センサ22は、例えば、ホール素子などを用いて構成されうる。ECU14は、車輪速センサ22から取得したセンサ値に基づいて車両1の移動量などを演算し、各種制御を実行する。なお、車輪速センサ22は、ブレーキシステム18に設けられている場合もある。その場合、ECU14は、車輪速センサ22の検出結果をブレーキシステム18を介して取得する。
 加速度センサ26は、例えば車両1に設けられている。ECU14は、加速度センサ26からの信号に基づき、車両1の前後方向の傾き(ピッチ角)や左右方向の傾き(ロール角)を算出する。ピッチ角は、車両1の左右軸周りの傾きを示した角度であり、水平な面(地面、路面)上に車両1が存在する場合に、ピッチ角が0度となる。また、ロール角は、車両1の前後軸周りの傾きを示した角度であり、水平な面(地面、路面)上に車両1が存在する場合に、ロール角が0度となる。つまり、車両1が、水平な路面に存在するか否か、傾斜面(上り勾配の路面または下り勾配の路面)に存在するか否か等が検出できる。なお、車両1がESCを搭載する場合、ESCに従来から搭載されている加速度センサ26を用いる。なお、本実施形態は、加速度センサ26を制限するものではなく、車両1の前後左右方向の加速度を検出可能なセンサであればよい。
 なお、上述した各種センサやアクチュエータの構成や、配置、電気的な接続形態等は、一例であって、種々に設定(変更)することができる。
 ECU14に含まれるCPU14aは、上述したように撮像画像データに基づいた車両1周辺の環境を表示する。この機能を実現するために、CPU14aは、図4に示すような種々のモジュールを含んでいる。CPU14aは、例えば、取得部401と、判定部402と、透過率処理部403と、画像合成部404と、視点画像生成部405と、表示処理部406と、を含んでいる。これらのモジュールは、ROM14b等の記憶装置にインストールされ記憶されたプログラムを読み出し、それを実行することで実現可能である。
 また、SSD14fには、例えば、車両1の三次元形状を表した車両形状データを記憶する車両形状データ記憶部451を備えている。また、車両形状データ記憶部451に記憶された車両形状データは、車両1の外部形状の他に、車両1の内装の形状も保持している。
 取得部401は、画像取得部411と、操作取得部412と、検出取得部413と、を含み、車両1の周囲を表示するために必要な情報(例えば、外部から取得した所定のデータや、撮像画像データ)を取得する。
 画像取得部411は、車両1の周辺を撮像する撮像部15a~15dから、撮像画像データを取得する。
 操作取得部412は、操作入力部10を介して、運転者が行った操作を表した操作データを取得する。操作データとしては、例えば、表示装置8に表示された画面の拡大・縮小操作や、表示装置8に表示された画面について視点の変更操作等が考えられる。操作取得部412は、さらに、シフト操作を示した操作データや、車両1の運転者により行われた操舵を示した舵角データも取得する。さらには、操作取得部412は、車両1の運転者により行われたウィンカーの点灯操作を示した操作データも取得する。
 検出取得部413は、車両1の周辺の物体を検出する検出部から検出データを取得する。本実施形態では、検出部の例として、撮像部15a~15dがステレオカメラであって、当該ステレオカメラを用いることで車両1の周辺の物体を検出したり、(図示しない)ソナーやレーザ等を用いて、車両1の周辺の物体を検出することが考えられる。
 判定部402は、取得部401が取得した情報に基づいて、車両1を表した車両形状データの透過率を切り替えるか否かを判定する。
 例えば、判定部402は、操作取得部412が取得した操作データに基づいて、車両1を表した車両形状データの透過率を切り替えるか否かを判定する。例えば、判定部402は、運転者により縮小する操作又は拡大する操作が行われた場合に、縮小する操作又は拡大する操作に対応する、透過率に切り替えるべきと判定する。
 他の例としては、判定部402は、検出取得部413が取得した検出データに基づいて、車両1を表した車両形状データの透過率を切り替えるか否かを判定する。具体的には、判定部402は、検出取得部413が取得した検出データにより検出された障害物と、車両1と、の間の距離が所定値以内であるか否かを判定する。そして、判定部402は、当該結果に基づいて、車両1を表した車両形状データの透過率を切り替えるか否かを判定する。例えば、検出データにより車両1の進行方向に障害物が所定の距離以内に検出された場合に、車両形状データの透過率を上昇させることで、障害物を視認しやすくすることが考えられる。なお、所定の距離は、実施の態様に応じて設定されるものとする。
 透過率処理部403は、判定部402の判定結果に基づいて、車両形状データ記憶部451に記憶された車両形状データに対して、透過率の変更処理等を行う。その際に車両形状データの色を変更しても良い。例えば、障害物に最も近傍の領域の色を変更して、運転者に障害物が近づいていることを認識させるようにしても良い。
 本実施形態の表示処理部406は、車両形状データを表示する際に、検出データに基づいて、検知された物体に近い、車両1の部位に対応する車両形状データの領域の透過率を、他の領域の透過率と、を異ならせて表示してもよい。例えば、判定部402が、障害物と車両1との間の距離が所定値以内と判定された場合に、透過率処理部403は、検知された障害物近傍の車両1の部位に対応する、車両形状データの一部の領域の透過率を、他の領域の透過率より高くする。これにより、障害物を視認することが容易になる。
 このように、本実施形態の表示処理部406は、車車両形状データのうち一部の領域の透過率を、一部の領域と異なる他の領域の透過率と異ならせて表示することもできる。この一部の領域は、車両形状データ内の領域であれば、どのような領域であっても良い。例えば、一部の領域は、検知された物体近傍の車両1の部位に対応する領域でもよいし、車両形状データに含まれるバンパーや車輪であっても良い。他の例としては、車両形状データのうち、車輪が表された領域を一部の領域として、ルーフが表された領域を他の領域として、透過率を異ならせても表示しても良い。さらに本実施形態は、一部の領域から他の領域に向かうに従って透過率を徐々に変更しても良い。さらに、本実施形態の一部の領域及び他の領域は、車両1の一つのパーツに対応する領域、又は複数のパーツにまたがっている領域でも良いし、パーツ内の一部に対応する領域でも良い。
 図5は、本実施形態の車両形状データ記憶部451に記憶された車両形状データを例示した図である。図5に示される車両形状データは、車両1の舵角に応じて車輪3等の向きを調整可能とする。
 透過率処理部403は、判定部402の判定結果に従って透過率を切り替える場合に、切り替えられた透過率になるような透過処理を、車両形状データに対して行う。なお、透過率は0%~100%まで任意の値を設定可能とする。
 例えば、透過率処理部403は、判定部402の判定結果に従って透過率を切り替える場合に、検出データにより検出された障害物と、車両1と、の間の距離に応じて、車両形状データの透過率を切り替えても良い。これにより、表示処理部406は、当該距離に応じて透過率が切り替えられた車両形状データの表示を実現できる。
 例えば、判定部402は、操作データに基づいて、透過率をどのように切り替えるか判定しても良い。操作入力部10がタッチパネルを備えている場合に、車両形状データをタッチしている時間に応じて、透過率を切り替えても良い。例えば、タッチしている時間が長いと判定された場合に、透過率処理部403は、透過率を高くするように透過処理をしてもよい。さらには、判定部402が検出したタッチした回数の増加に従って、透過率処理部403は、透過率を高くするように透過処理をしてもよい。他の例として、判定部402が検出したタッチの強弱に従って、透過率処理部403は、透過率を切り替えても良い。
 さらには、判定部402は、操作データに基づいて、車両形状データのうち、任意の領域がタッチされていると判定された場合に、透過率処理部403は、任意の領域に対して、他の領域より透過率を高くする(又は低くする)などの処理を行っても良い。
 また、透過率処理部403は、車両形状データ全体について同一の透過率で透過処理を行うことに制限するものではない。車両形状データの領域毎に透過率を異ならせても良い。例えば、車両形状データのうち地面に近接する車輪等が配置されている領域の透過率を低くし、地面から離れた領域ほど透過率を高くすることが考えられる。
 図6は、車両1の高さ2m以上に対応する領域について完全透過させた場合の車両形状データを例示した図である。図6に示されるように、車両1の高さ2m以上に対応する領域について完全透過させ、車両1の高さ2mより下を完全透過させず、下に向かうに従って透過率を低くする。このように、車輪と地面との状況を認識させつつ、高さ2m以上に対応する領域を完全透過させることで、車両1の周囲の表示範囲を拡大させることができる。
 図7は、車両1の高さ1m以上に対応する領域について完全透過させた場合の車両形状データを例示した図である。図7に示されるように、車両1の高さ1m以上か否かに応じて完全透過させても良い。図6及び図7に示される、完全透過させる高さの基準は、車両1の高さや、車両1の周辺の状況に応じて、任意に設定可能とする。
 このように、透過率処理部403は、車両形状データのうち、車輪が表された領域から、ルーフが表された領域に向かうに従って、透過率を高くする透過処理を行ってもよい。これにより、表示処理部406が、このような透過処理が行われた車両形状データを表示することで、地面と車両1との状況を表示しつつ、車両1のルーフ近傍を完全透過させることで、車両1の周囲の状況の視認が可能となる。また、完全透過させるか否かの基準は、車両1の高さに制限するものではない。
 図8は、車両1の所定位置から後方の領域について完全透過させた場合の車両形状データを例示した図である。車両1の所定位置から前方の領域を表示することで、車両1と、進行方向に存在する物体との位置関係の他に、車輪の接地面の状況を認識できる。車両1の後方は、進行方向の状況の確認には不要なため、透過させることで、車両1の周囲のより広い領域の表示が実現できる。
 図8に示される例では、車両1が前方に進行する場合とする。判定部402が、操作取得部412により取得された操作データに従って、シフト操作が行われたと判定した場合に、透過率処理部403は、透過させる領域を切り替えても良い。例えば、判定部402により、進行方向が前進から後退に切り替えられたと判定された場合に、透過率処理部403は、車両1の所定位置から後方の領域の完全透過から、車両1の所定位置から前方の領域の完全透過に切り替える。これにより、進行方向に応じた透過処理を実現できる。
 また、図6及び図7においては、所定の高さT1以上を完全透過させる例について説明したが、所定の高さT1以下を完全透過させても良い。図9は、所定の高さT1が1mの場合であって、車両1の高さ1m以下に対応する領域について完全透過させた場合の車両形状データを例示した図である。図9に示される例では、車両1の高さ1m以上を完全透過させず、上に向かうに従って透過率を低くしている。
 これら車両形状データを、車両1の周辺を撮影した撮像画像データに重畳することになる。これにより、例えば、本実施形態の表示処理部406は、車両形状データのうち、(一部の領域である)車輪が表された領域から、(他の領域である)ルーフが表された領域に向かうに従って、透過率を高くする表示を行う又は透過率を低くする表示を行うことができる。
 図4に戻り、画像合成部404は、画像取得部411で取得された複数の撮影画像のデータ、すなわち、複数の撮像部15で撮影された複数の撮影画像データを、それらの境界部分を合成することで繋ぎ、一つの撮影画像データを生成する。
 画像合成部404は、撮影画像データを、車両1の周囲を取り囲む仮想投影面に投影するように、複数の撮像画像データを合成する。
 図10は、画像合成部404における撮影画像データ1001を仮想投影面1002への投影を示す例示的かつ模式的な説明図である。図10の例では、仮想投影面1002は、地面Grに沿った底面1002bと、底面1002bすなわち地面Grから立ち上がった側面1002aと、を有している。地面Grは、車両1の上下方向Zと直交する水平面であり、タイヤの接地面でもある。底面1002bは、略円形の平坦面であり、車両1を基準とする水平面である。側面1002aは、底面1002bと接した曲面である。
 図10に示されるように、側面1002aの、車両1の中心Gcを通り車両1の垂直な仮想断面の形状は、例えば、楕円状あるいは放物線状である。側面1002aは、例えば、車両1の中心Gcを通り車両1の上下方向に沿う中心線CL周りの回転面として構成され、車両1の周囲を取り囲んでいる。画像合成部404は、撮影画像データ1001を、仮想投影面1002に投影した合成画像データを生成する。
 視点画像生成部405は、重畳部421と、縮小・拡大部422と、を備え、仮想投影面1002に投影された合成画像データから、所定の仮想視点から見た、視点画像データを生成する。なお、本実施形態は、合成画像を生成した後、所定の視点から見た視点画像データを生成する例について説明したが、これら処理を一度に行うルックアップテーブルを用いて、視点画像データのみを生成しても良い。
 図11は、車両形状データ1103と、仮想投影面1002とを示す模式的かつ例示的な側面図である。図11に示されるように、重畳部421は、仮想投影面1002上に、透過率処理部403により透過処理がされた後の車両形状データ1103を重畳する。そして、視点画像生成部405は、仮想投影面1002に投影された合成画像データを、視点1101から注視点1102を見た視点画像データに変換する。なお、注視点1102は、視点画像データの表示領域の中心になる点となる。
 視点1101は、ユーザが任意に設定可能とする。また、視点は、車両形状データ1103の外部に制限するものではなく、車両形状データ1103の内部に設定しても良い。本実施形態においては、視点画像生成部405は、操作取得部412が取得する操作データに従って設定された視点からの視点画像データを生成する。
 縮小・拡大部422は、操作データに従って、視点1101を車両形状データ1103に近づけさせたり、遠ざけたりする処理を行うことで、視点画像生成部405により生成される視点画像データに表わされる車両形状データ1103の縮小・拡大処理を行う。
 また、注視点1102も、ユーザが任意で設定可能とする。例えば、操作取得部412が取得する操作データに従って拡大する操作が行われた場合に、縮小・拡大部422は、表示の中心となる点を示した注視点1102を予め定められた座標まで移動させる処理を行っても良い。例えば、ユーザが拡大操作を行った場合に、ユーザは車輪と地面Grの状況を見たいものとみなして、縮小・拡大部422は、注視点1102が車輪と地面Grとの接地点まで注視点を移動させる処理を行う。なお、本実施形態は、注視点1102の移動先となる座標が、車輪と地面Grとの接地点の場合について説明したが、移動先の座標の位置を制限するものではなく、実施態様に応じて適切な座標が設定される。
 これにより、表示処理部406は、操作データに基づいて拡大表示をする場合に、拡大する操作の前の透過率(例えば、現在の透過率)から高い透過率に切り替えると共に、注視点を予め定められた座標に移動させる視点画像データの表示を行うこととなる。運転者が確認したいと考えられる座標まで注視点が移動することで、運転者の操作に対応した、車両形状データと車両の周辺との表示ができるため、利便性を向上させることができる。
 表示処理部406は、視点画像生成部405により生成された視点画像データの表示処理を行う。本実施形態では、表示装置8に視点画像データを表示する例について説明するが、表示装置8に視点画像データを表示する例に制限するものではなく、例えば、HUD(ヘッドアップディスプレイ)に視点画像データを表示しても良い。
 図12は、表示処理部406により表示される視点画像データの一例を示した図である。図12に示される例では、透過率処理部403により透過率0%で処理された場合の車両形状データ1201が重畳された例とする。図12に示される車両形状データ1201においては、車両形状データ1201を透過させて、反対側の状況は確認できない例とする。
 これに対して、本実施形態の表示処理部406は、撮像画像データに基づいた車両の周辺を表した合成画像データに対して、車両1の現在の位置に従って車両形状データを重畳した視点画像データを表示する際に、車両形状データの一部の領域を、他の領域と透過率を異ならせた表示を行う。次に、車両形状データの一部の領域を、他の領域と透過率を異ならせた視点画像データの表示例について説明する。なお、本実施形態は、車両形状データを重畳する際に、車両1の現在の位置に従って重畳する場合について説明するが、他の位置に重畳しても良い。例えば、車両形状データを、車両1の予測進路上の位置に重畳しても良いし、車両1の過去の位置に重畳しても良い。
 次に、判定部402によって、車両1の所定の高さT1以上を透過させると判定された場合に、表示処理部406により表示される視点画像データについて説明する。
 図13は、表示処理部406により表示される視点画像データの一例を示した図である。図13に示される例では、透過率処理部403により所定の高さT1以上を透過率K1で処理され、当該所定の高さT1より下を透過率K2で処理された場合(なお、K1>K2>0%)の車両形状データ1301が重畳された例とする。このように、所定の高さより下の車両形状データの透過率が低いため、車両1と地面の位置関係を認識できる。また、透過率K2で透過されるため、車両1の反対側の状況もある程度認識できる。一方、所定の高さT1より上の車両形状データの透過率が高いため、車両1の反対側の状況をより詳細に確認できる。これにより、運転者は、より広い領域の状況を認識することができる。
 また、透過率を異ならせる他の手法としては、車両1の構成毎に、透過率を異ならせても良い。図14は、表示処理部406により表示される視点画像データの一例を示した図である。図14に示される例では、透過率処理部403により、車輪に対応する領域1401を透過率0%で処理され、車輪以外の領域を透過率100%で処理された場合の車両形状データが重畳された例とする。
 当該表示は、例えば、運転者により、車輪のみの表示の操作が行われた場合が考えられる。判定部402が、車輪の表示が示された操作データに基づいて、車輪の領域以外を100%透過させると判定する。そして、透過率処理部403が当該判定結果に従って、上述した透過処理を行う。なお、本実施形態では、車輪のみ表示する場合について説明したが、車両1の構成のうち、表示される構成を車輪のみに制限するものではなく、バンパー等を車輪と共に表示しても良い。なお、本実施形態は、車輪に対応する領域を透過率0%とし、他の領域の透過率を100%とした場合について説明したが、車輪に対応する領域の透過率<他の領域の透過率であればよい。
 このように、本実施形態の表示処理部406は、(一部の領域である)バンパー及び車輪のうちいずれか一つ以上に対応する領域の透過率を、車両1の他の領域の透過率と比べて低くなるように透過処理された車両形状データを表示することができる。なお、本実施形態は、(一部の領域である)バンパー及び車輪のうちいずれか一つ以上に対応する領域の透過率を、他の領域の透過率と比べて低くなるよう透過処理を行う場合について説明したが、他の領域の透過率と比べて高くなるよう透過処理を行っても良い。
 また、本実施形態は操作データに基づいて、上述した透過処理を行うことに制限するものではない。例えば、判定部402が、検出取得部413により取得された検出データに基づいて、オフロード走行していると判定した場合に、透過率処理部403が、図14に示されるように、車輪及びバンパーのうちいずれか一つ以上が他の領域より低い透過率になるように、透過処理を行っても良い。
 本実施形態においては、撮像画像データに基づいた車両の周辺を表した表示データに対して、車両の現在の位置に従って車両形状データを重畳して表示する際に、操作データや検出データに基づいて透過率を切り替える例について説明した。しかしながら、透過率を切り替えるためのデータを、操作データや検出データに制限するものではなく、外部から取得した所定のデータであればよい。
 ところで、領域1402は、現在の車両1の撮像部15では撮像できない。そこで、本実施形態においては、画像合成部404が、過去に撮像部15により撮像された撮像画像データを、合成画像データとして合成することとした。過去に撮像部15により撮像された撮像画像データとしては、車両1が現在の位置の2m手前で撮像した撮像画像データが考えられる。このような撮像画像データを、車両1の床下の状況を撮影した撮像画像データとして用いても良い。また、領域1402について、過去の撮像画像データを表示することに制限するものではなく、単に所定の色で塗りつぶすようにしても良い。
 図15は、表示処理部406により表示される視点画像データの一例を示した図である。図15に示される例では、透過率処理部403により、車両形状データの線を除いて透過率100%で処理された場合の車両形状データ1501が重畳された例とする。これにより、車両形状データを透過しているため、車両1の周囲の状況を確認できる。図15に示される表示は、例えば、ユーザにより“車両の線のみ表示”が選択された場合などが考えられる。
 図13~図15で示される例では、視点を車両(車両形状データ)の外に配置した場合について説明した。しかしながら、本実施形態は、視点を車両(車両形状データ)の外に配置した場合に制限するものではない。
 図16は、表示処理部406により表示される視点画像データの一例を示した図である。図16に示される例では、車両形状データの中に視点を配置した例とする。このため、車両形状データに含まれている、内装を介して、車両1の周囲が表示される。図16に示される表示は、例えば、ユーザにより視点操作が行われた場合などが考えられる。
 図16に示される例では、車両形状データによる車両1の内装表示においては、所定の高さT2より低い領域を、当該所定の高さT2より高い領域より、透過率を高くすることとした。つまり、車両1の内部から表示する場合には、地面に存在する物(例えば岩1601)の状況を認識させるために、所定の高さT2より低い領域1611の透過率K3を高くすることとした。一方、所定の高さT2より高い領域1612については、透過率K4を低くすることで、車両内部であることを把握できるようにした(透過率K3>透過率K4)。
 つまり、表示処理部406は、視点を車両形状データの内部に移動させる操作が行われた場合に、当該視点から車両の内装を介して、車両の周辺を表示する視点画像データを表示する。このような視点画像データを表示する場合、透過率処理部403により、内装において、床下から天井に向かうに従って、透過率を低くする透過処理が行われた車両形状データを介して、車両1の周囲が表された視点画像データを、表示処理部406が表示することとした。なお、本実施形態は、透過率処理部403が、内装において、床下から天井に向かうに従って、透過率を低くする透過処理を行う例について説明したが、床下から天井に向かうに従って、透過率を高くする透過処理を行っても良い。
 このように、本実施形態の表示処理部406は、視点が車両形状データの内部に位置する場合と、視点が車両形状データの外部に位置する場合と、では、車両形状データの透過させる態様を異ならせることとした。
 判定部402は、操作取得部412が取得した操作データに基づいて、ユーザにより行われた操作により、視点が車両形状データ(車両1)の内部か否かを判定する。透過率処理部403は、判定部402により、視点が車両形状データ(車両1)の内部と判定した場合に、所定の高さT2より低い領域の透過率K3>所定の高さT2より高い領域の透過率K4と設定した上で、透過処理を行う。一方、透過率処理部403は、判定部402により、視点が車両形状データ(車両1)の外部と判定した場合に、所定の高さT1より低い領域の透過率K2<所定の高さT1より高い領域の透過率K1と設定した上で、透過処理を行う。このように、本実施形態では、視点が車両形状データ(車両1)の内部か否かに応じて、透過処理の切り替え制御を行うこととした。
 さらには、透過率処理部403は、視点が車両形状データ(車両1)の内部の場合に、取得部401が取得した車速情報、シフト操作データ、ウィンカー等の情報に基づいて、透過する領域を切り替えても良い。例えば、透過率処理部403は、判定部402により、シフト操作で進行方向が切り替えられたと判定された場合に、進行方向側の領域を透過するよう処理してもよい。
 他の例としては、判定部402が、舵角データやウィンカーの点灯操作を示した操作データに基づいて、運転者が右操舵又は左操舵を行ったと判定した場合に、透過率処理部403は、車両1が曲がる側方向の、車両形状データの一部の領域を、反対側方向の他の領域より透過率を高くする透過処理を行う。表示処理部406は、車両1が曲がる方向側の透過率が高い車両形状データを表示することで、当該車両形状データを介して、曲がる方向側の周囲を確認することが容易となる。
 なお、本実施形態は、車両1が曲がる側方向の一部の領域の透過率を、反対側方向の他の領域の透過率より高くする透過処理を行う例について説明したが、曲がる側方向の一部の領域と、反対側方向の他の領域と、の透過率を異ならせるだけで良い。例えば、曲がる側方向の一部の領域の透過率を、反対側方向の他の領域の透過率より低くする透過処理を行ってもよい。
 さらには、判定部402は、操作データに基づいて、所定の領域のタッチを検出した場合に、表示される画面を切り替えても良い。例えば、判定部402は、表示装置8に表示されている車両形状データのうち、死角領域をタッチしたと判定した場合に、表示処理部406は、車両1の床下画像として、例えば車両1が2m後ろの存在している時(過去)に撮像した画像データを、車両1の床下画像として表示するように制御しても良い。
 さらには、判定部402は、操作データに基づいて、車両形状データのうち、任意の領域がタッチされていると判定された場合に、表示処理部406は、任意の領域を付近の輝度値を上昇させて、明るく見せる、所謂仮想ライトにより照らされたような表示処理を行っても良い。
 次に、本実施形態のECU14における第1の表示処理について説明する。図17は、本実施形態のECU14における上述した処理の手順を示すフローチャートである。
 まず、画像取得部411は、車両1の周辺を撮像する撮像部15a~15dから、撮像画像データを取得する(S1701)。
 次に、画像合成部404は、画像取得部411で取得された複数の撮影画像データを合成して、一つの合成画像データを生成する(S1702)。
 透過率処理部403は、SSD14fの車両形状データ記憶部451に記憶された車両形状データを読み取る(S1703)。
 透過率処理部403は、所定の透過率で車両形状データに対して透過処理を行う(S1704)。なお、所定の透過率は、視点及び注視点の初期値に応じた所定の値が設定されているものとする。
 次に、重畳部421が、透過処理後の車両形状データを、合成画像データに重畳する(S1705)。
 次に、視点画像生成部405が、視点及び注視点の初期値に基づいて、車両形状データが重畳された合成画像データから、視点画像データを生成する(S1706)。
 そして、表示処理部406が、視点画像データを、表示装置8に表示する(S1707)。
 次に、判定部402は、視点画像データが表示された後、操作取得部412が取得した操作データに基づいて、ユーザからの透過率の変更操作や透過させる構成の切替操作がなされたか否かを判定する(S1708)。
 透過率の変更操作や透過させる構成の切替操作がなされたと判定した場合(S1708:Yes)、透過率処理部403は、車両形状データに対して変更された透過率の切り替え処理、及び切り替え操作に従って、車両形状データ全体、又は透過させる構成(例えば車輪やバンパー以外の構成)の透過処理を行う(S1709)。その後、S1705から処理を行う。
 一方、透過率の変更操作や透過させる構成の切替操作がなされなかったと判定した場合(S1708:No)、処理を終了する。
 図17で示される処理手順においては、ユーザに行われた操作に従って、透過する構成や、透過率を切り替える例について説明した。しかしながら、透過率の切り替え等は、ユーザに行われた操作に基づくものに制限されない。そこで、車両1と障害物の距離に応じて透過率等を切り替える場合について説明する。
 次に、本実施形態のECU14における第2の表示処理について説明する。図18は、本実施形態のECU14における上述した処理の手順を示すフローチャートである。
 図18に示されるフローチャートにおいて、S1801~S1807までの処理は、図17に示されるフローチャートのS1701~S1707までの処理と同様として、説明を省略する。
 そして、検出取得部413が、ソナーやレーザ等から検出データを取得する(S1809)。
 判定部402は、検出データに基づいて、車両1と、車両1の進行方向に存在する障害物と、の距離が所定値以内か否かを判定する(S1810)。
 車両1と、車両1の進行方向に存在する障害物と、の距離が所定値以内と判定した場合(S1810:Yes)、透過率処理部403は、車両形状データ全体、又は障害物に近接している領域について、検出前に設定されていた透過率より高い透過率に切り替える処理、及び、車両形状データ全体又は障害物に近接している領域の透過処理を行う(S1811)。その後、S1805から処理を行う。なお、所定値は、例えば、車体による死角領域以内に障害物が入ったため、車両1に搭乗している運転者から見えなくなる距離を、所定値とすることが考えられるが、実施の態様に応じて適切な値が定められれば良い。
 一方、車両1と、車両1の進行方向に存在する障害物と、の距離が所定値以内ではないと判定した場合(S1810:No)、処理を終了する。
 本実施形態は、ユーザによって直接透過率を操作された場合に透過率を変更することに制限するものではなく、他の操作に応じて透過率を変更しても良い。そこで、縮小・拡大率に応じて、透過率を変更する場合について説明する。つまり、車両を拡大して表示したい場合には、車両1と地面との関係を確認したいものとして、透過率を低減させ、車両を縮小して表示したい場合には、車両1の周囲を確認したいものとして、透過率を上昇させる等が考えられる。
 本実施形態は、上述した処理を行うことで、車両1の周辺の物体と車両1との位置関係に応じて車両形状データの透過率の切り替えを行うことで、現在の状況に応じた、車両形状データと車両1の周辺との表示ができるため、利便性を向上させることができる。
 次に、本実施形態のECU14における第3の表示処理について説明する。図19は、本実施形態のECU14における上述した処理の手順を示すフローチャートである。
 図19に示されるフローチャートにおいて、S1901~S1907までの処理は、図17に示されるフローチャートのS1701~S1707までの処理と同様として、説明を省略する。
 次に、判定部402は、視点画像データが表示された後、操作取得部412が取得した操作データに基づいて、ユーザからの縮小・拡大操作(換言すれば、視点を車両形状データに近づけさせる又は遠ざける操作)がなされたか否かを判定する(S1908)。
 縮小・拡大操作がなされたと判定した場合(S1908:Yes)、透過率処理部403は、車両形状データに対して、縮小・拡大率に対応した透過率に切り替え処理、及び車両形状データの透過処理を行う(S1909)。縮小・拡大率と、透過率と、の対応関係は予め設定されているものとする。その後、S1905から処理を行う。
 その後、S1906において、視点画像データを生成する際に、縮小・拡大部422が、縮小・拡大率に応じた注視点及び視点の位置を設定する。そして、視点画像生成部405は設定された注視点及び視点に基づいた、視点画像データを生成する。
 また、拡大処理が行われる場合に、視点画像生成部405は、拡大率に従って、注視点が予め定められた位置まで移動するような処理を行っても良い。つまり、ユーザが拡大操作を行う場合には、注視点の位置まで設定するのが難しい場合がある。さらには、拡大操作を行う場合には、車両と地面との間の状況を見たいという要望が多い。そこで、本実施形態では、拡大操作が行われる場合に、拡大処理に従って、車輪と地面との接地点まで注視点が移動するよう制御を行うこととした。これにより、ユーザが確認したい場所を表示するまでの操作を容易にできる。
 一方、S1908において、縮小・拡大操作がなされなかったと判定した場合(S1908:No)、処理を終了する。
 このように、本実施形態の表示処理部406は、操作データに基づいて拡大表示をする場合に、拡大する操作の前の透過率から、高い透過率に切り替えられた車両形状データが重畳された視点画像データを表示する。一方、表示処理部406は、操作データに基づいて縮小表示をする場合に、縮小する操作の前の透過率から、低い透過率に切り替えられた車両形状データが重畳された視点画像データを表示する。
 なお、本実施形態は、透過率の切り替えの一例を示したものであって、表示処理部406は、拡大表示又は縮小表示をする場合に、拡大する操作の前又は縮小する操作の前における車両形状データの透過率から、異なる透過率に切り替えられた車両形状データが重畳された視点画像データを表示できれば良い。
 本実施形態は、上述した処理を行うことで、運転者による拡大操作又は縮小操作に応じて透過率の切り替えを行うことで、運転者の操作に対応した、車両形状データと車両の周辺との表示ができるため、利便性を向上させることができる。
 上述した実施形態では、図20に示されるように、車輪と地面の接地点を基準位置として、当該基準位置から垂直方向の距離を、車両1の高さとした例について説明した。例えば、基準位置からの高さT3(車輪やバンパーより高い位置とする)以上を、透過率80%とし、それ以下を透過率0%と設定した場合には、高さT3以上に対応する車両形状データの上部領域が透過率80%となる一方で、車輪やバンパー等は、視認できるように表示される。
 また、本実施形態においては、例えば、判定部402が、撮像部15により撮像された撮像画像データが異常と判定した場合には、透過率処理部403に対して、透過処理を行わないように指示しても良い。
(変形例1)
 図21は、車両1が存在している水平面を基準とし、水平面からの垂直方向の距離を、車両の高さとする例を示した図である。図21に示される例では、検出取得部413は、加速度センサ26から取得した加速度情報に基づいて、車両1の傾きを検出する。そして透過率処理部403が、車両1の傾きに基づいて、車両1が接地している水平面の位置を推測する。そして、透過率処理部403が、水平面からの高さに基づいて、車両形状データの透過処理を行う。水平面から高さT3から透過率80%と設定した場合には、図21に示される例において、車両1が岩に乗り上げた状況では、車輪やバンパーを含んだ車両形状データの前方領域が、透過率80%となる。
 図22は、変形例の表示処理部406が表示する表示画面を例示した図である。図22に示される例では、水平面から高さT3から透過率80%と設定した際に、車両1が岩に乗り上げた時に、車輪やバンパーを含んだ車両形状データの前方領域がほぼ透過された例とする。
 図22に示されるように、車両1が岩に乗り上げた場合には、車輪やバンパーを含んだ車両形状データ2201の前方領域がほぼ透過されているため、地面の状況を容易に認識できる。
(変形例2)
 上述した実施形態及び変形例においては、現在の状況を表示する際の処理について説明した。しかしながら、実施形態及び変形例は、現在の状況を表示する例に制限するものではない。例えば、ユーザの操作に基づいて、表示処理部406が、車両1の過去の状況を表した画面を表示しても良い。その際に、画像合成部404が過去に合成した撮像画像データを用いると共に、透過率処理部403は、車両形状データの色を異ならせた上で、透過処理を行うこととする。なお、透過処理は、上述した実施形態と同様とする。車両形状データの色としては、例えばグレーやセピア色など、過去であることを表す色とする。これにより、ユーザは、過去の状況が表示されていることを確認できる。
(変形例3)
 変形例3では、拡大、縮小、又は回転時に透過処理を行う(透過率を高くする)例とする。変形例3においては、操作取得部412が、拡大、縮小又は回転を示す操作データを取得した場合に、判定部402が、運転者が、拡大、縮小、又は回転操作を行っていると判定している間、透過率処理部403は、拡大、縮小又は回転を示す操作を行う前の透過率より高い透過率(例えば完全透過)で透過処理を行うものとする。
 つまり、本変形例では、運転者が拡大、縮小又は回転する操作を行っている間(なお、車両形状データを動かしている操作を行っている間であればよい)、表示処理部406は、当該拡大、縮小又は回転操作前の透過率から高い透過率に切り替えられた車両形状データが重畳された視点画像データを表示する。この際に、上述した実施形態と同様に、拡大処理に従って、注視点を予め定められた位置まで移動するように処理を行っても良い。
 これにより、ユーザに対して、操作が行われていることを直感的に認識できると共に、車両1の周囲を確認して、より適切な表示を行うための操作性を実現できる。
 このように、変形例3の表示処理部406は、操作データに従って車両形状データを動かす(例えば、拡縮・回転などの操作による)表示を行う場合に、現在の透過率から高い透過率に切り替えられた車両形状データが重畳された視点画像データを表示する。
(変形例4)
 上述した実施形態及び変形例では、表示装置8に視点画像データを表示する例について説明した。しかしながら、上述した実施形態及び変形例は、表示装置8に表示する例に制限するものではない。そこで、本変形例では、HUD(ヘッドアップディスプレイ)にも表示可能な例について説明する。本変形例4においては、視点画像データの表示先に応じて、透過率を変更する。
 例えば、操作取得部412が、表示先の切り替え等の操作データを取得した場合に、判定部402は、表示先が切り替えられたか否かの判定を行う。そして、透過率処理部403は、判定結果に基づいて、透過処理を行う。つまり、表示装置8とHUDとではコントラストが異なるため、表示先に応じて、ユーザが見やすい透過率で透過処理を行う。なお、表示先毎の透過率は、表示装置8やHUDの表示性能に応じて、適切な値が設定されるものとする。
 このように、変形例4の表示処理部406は、表示先に応じて透過率が切り替えられた車両形状データを重畳した視点画像データを表示することとした。これにより表示先に応じて透過率が切り替えられるため、視認が容易になる。
 上述した実施形態及び変形例においては、車両形状データの一部の領域を、他の領域と透過率を異ならせて表示することで、運転者は、一部の領域又は他の領域の状況を確認と、車両1の周辺の視認と、を両立することができる。このように、運転者は、車両1の状況の確認できるとともに、車両1の周辺の状況を容易に確認できる。
 上述した実施形態及び変形例においては、取得したデータに基づいて、車両形状データの透過率の切り替えを行うことで、現在の状況に応じた、車両形状データと車両1の周辺との表示ができるため、利便性を向上させることができる。
 本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、請求の範囲に記載された発明とその均等の範囲に含まれる。

Claims (8)

  1.  所定のデータ、及び車両の周辺を撮像する撮像部から撮像画像データを取得する取得部と、
     前記車両の三次元形状を表す車両形状データを記憶する記憶部と、
     前記撮像画像データに基づいた車両の周辺を表した表示データに対して、前記車両形状データを重畳して表示する際に、前記所定のデータに基づいて前記車両形状データの透過率を切り替える表示処理部と、
     を備える表示制御装置。
  2.  前記取得部は、前記所定のデータとして、前記車両の周辺の物体を検出する検出部から検出データを取得し、
     前記検出データにより検出された前記物体と、前記車両と、の間の距離が所定値以内であるか否かを判定する判定部により、前記距離が所定値以内であると判定された場合に、前記表示処理部は、前記車両形状データの透過率を切り替える、
     請求項1に記載の表示制御装置。
  3.  前記表示処理部は、前記距離に応じて、前記車両形状データの透過率を切り替える、
     請求項2に記載の表示制御装置。
  4.  前記取得部は、前記所定のデータとして、拡大する操作又は縮小する操作を示す操作データを取得し、
     前記表示処理部は、前記操作データを取得した場合に、前記拡大する操作の前又は前記縮小する操作の前における前記車両形状データの透過率から、異なる透過率に切り替えられた前記車両形状データが重畳された前記表示データを表示する、
     請求項1乃至3のいずれか一つに記載の表示制御装置。
  5.  前記表示処理部は、前記操作データに基づいて拡大表示をする場合に、拡大する操作の前の透過率から高い透過率に切り替えられた前記車両形状データが重畳された表示データを表示し、前記操作データに基づいて縮小表示をする場合に、縮小する操作の前の透過率から低い透過率に切り替えられた前記車両形状データが重畳された表示データを表示する、
     請求項4に記載の表示制御装置。
  6.  前記表示処理部は、前記操作データに従って拡大表示をする場合に、表示の中心となる点を示した注視点を、予め定められた座標に移動させる、
     請求項4又は5に記載の表示制御装置。
  7.  前記表示処理部は、前記操作データに従って車両形状データを動かしている操作を行っている間、当該操作前の透過率から高い透過率に切り替えられた車両形状データが重畳された表示データを表示する、
     請求項4乃至6のいずれか一つに記載の表示制御装置。
  8.  前記表示処理部は、前記表示データを表示する表示先に応じて透過率が切り替えられた前記車両形状データを表示する、
     請求項1に記載の表示制御装置。
PCT/JP2017/012069 2016-09-30 2017-03-24 表示制御装置 WO2018061261A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
US16/337,174 US20200035207A1 (en) 2016-09-30 2017-03-24 Display control apparatus
DE112017004970.9T DE112017004970T5 (de) 2016-09-30 2017-03-24 Anzeigesteuervorrichtung
CN201780055648.0A CN109691089A (zh) 2016-09-30 2017-03-24 显示控制装置

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2016194362A JP6876236B2 (ja) 2016-09-30 2016-09-30 表示制御装置
JP2016-194362 2016-09-30

Publications (1)

Publication Number Publication Date
WO2018061261A1 true WO2018061261A1 (ja) 2018-04-05

Family

ID=61760247

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2017/012069 WO2018061261A1 (ja) 2016-09-30 2017-03-24 表示制御装置

Country Status (5)

Country Link
US (1) US20200035207A1 (ja)
JP (1) JP6876236B2 (ja)
CN (1) CN109691089A (ja)
DE (1) DE112017004970T5 (ja)
WO (1) WO2018061261A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20210179086A1 (en) * 2019-12-13 2021-06-17 Honda Motor Co., Ltd. Parking assisting device, parking assisting method and storage medium storing program for the parking assisting device
CN113039781A (zh) * 2018-11-22 2021-06-25 索尼半导体解决方案公司 图像处理装置、相机系统和图像处理方法

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6686988B2 (ja) * 2017-08-28 2020-04-22 株式会社Soken 映像出力装置及び映像生成プログラム
JP2022101979A (ja) * 2020-12-25 2022-07-07 株式会社デンソー 画像生成装置、画像生成方法
DE102022209182A1 (de) 2022-09-05 2024-03-07 Robert Bosch Gesellschaft mit beschränkter Haftung Anzeigeverfahren zur Darstellung eines virtuellen Umgebungsmodells, Computerprogramm, Rechenvorrichtung und Fahrzeug

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005286938A (ja) * 2004-03-31 2005-10-13 Equos Research Co Ltd 車外情報表示装置
JP2010109684A (ja) * 2008-10-30 2010-05-13 Clarion Co Ltd 車両周辺画像表示システム
JP2010231276A (ja) * 2009-03-25 2010-10-14 Fujitsu Ltd 画像処理方法及び画像処理装置
WO2015104860A1 (ja) * 2014-01-10 2015-07-16 アイシン精機株式会社 画像表示制御装置および画像表示システム

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7212653B2 (en) * 2001-12-12 2007-05-01 Kabushikikaisha Equos Research Image processing system for vehicle
JP5031801B2 (ja) * 2009-07-28 2012-09-26 日立オートモティブシステムズ株式会社 車載用画像表示装置
CN102714710B (zh) * 2009-12-07 2015-03-04 歌乐牌株式会社 车辆周边图像显示系统
JP5479956B2 (ja) * 2010-03-10 2014-04-23 クラリオン株式会社 車両用周囲監視装置
JP6014433B2 (ja) 2012-09-19 2016-10-25 富士通テン株式会社 画像処理装置、画像処理方法、及び、画像処理システム
JP6056612B2 (ja) * 2013-03-29 2017-01-11 アイシン精機株式会社 画像表示制御装置および画像表示システム
TWI552897B (zh) * 2013-05-17 2016-10-11 財團法人工業技術研究院 影像動態融合方法與裝置
GB2535536B (en) * 2015-02-23 2020-01-01 Jaguar Land Rover Ltd Apparatus and method for displaying information

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005286938A (ja) * 2004-03-31 2005-10-13 Equos Research Co Ltd 車外情報表示装置
JP2010109684A (ja) * 2008-10-30 2010-05-13 Clarion Co Ltd 車両周辺画像表示システム
JP2010231276A (ja) * 2009-03-25 2010-10-14 Fujitsu Ltd 画像処理方法及び画像処理装置
WO2015104860A1 (ja) * 2014-01-10 2015-07-16 アイシン精機株式会社 画像表示制御装置および画像表示システム

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113039781A (zh) * 2018-11-22 2021-06-25 索尼半导体解决方案公司 图像处理装置、相机系统和图像处理方法
EP3886431A4 (en) * 2018-11-22 2021-12-22 Sony Semiconductor Solutions Corporation IMAGE PROCESSING DEVICE, CAMERA SYSTEM AND IMAGE PROCESSING METHOD
US20210179086A1 (en) * 2019-12-13 2021-06-17 Honda Motor Co., Ltd. Parking assisting device, parking assisting method and storage medium storing program for the parking assisting device
US11697408B2 (en) * 2019-12-13 2023-07-11 Honda Motor Co., Ltd. Parking assisting device, parking assisting method and storage medium storing program for the parking assisting device

Also Published As

Publication number Publication date
JP2018056951A (ja) 2018-04-05
US20200035207A1 (en) 2020-01-30
JP6876236B2 (ja) 2021-05-26
DE112017004970T5 (de) 2019-06-13
CN109691089A (zh) 2019-04-26

Similar Documents

Publication Publication Date Title
JP6806156B2 (ja) 周辺監視装置
WO2018070298A1 (ja) 表示制御装置
EP2974909B1 (en) Periphery surveillance apparatus and program
JP6897340B2 (ja) 周辺監視装置
JP7222254B2 (ja) 周辺表示制御装置
WO2018061261A1 (ja) 表示制御装置
JP2014069722A (ja) 駐車支援装置、駐車支援方法およびプログラム
JP2018144526A (ja) 周辺監視装置
WO2018150642A1 (ja) 周辺監視装置
EP3792868A1 (en) Image processing device
JP2019057800A (ja) 表示制御装置
JP2017094922A (ja) 周辺監視装置
WO2019053922A1 (ja) 画像処理装置
CN110997409B (zh) 周边监控装置
JP2019054439A (ja) 画像処理装置
US11475676B2 (en) Periphery monitoring device
JP7056034B2 (ja) 周辺監視装置
JP6977318B2 (ja) 周辺表示装置
JP2018186432A (ja) 表示制御装置
JP2019036832A (ja) 周辺監視装置
JP2019014397A (ja) 周辺監視装置
JP6965563B2 (ja) 周辺監視装置
JP6601097B2 (ja) 表示制御装置
JP2018186387A (ja) 表示制御装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 17855220

Country of ref document: EP

Kind code of ref document: A1

122 Ep: pct application non-entry in european phase

Ref document number: 17855220

Country of ref document: EP

Kind code of ref document: A1