WO2022176267A1 - 表示制御装置および表示制御方法 - Google Patents

表示制御装置および表示制御方法 Download PDF

Info

Publication number
WO2022176267A1
WO2022176267A1 PCT/JP2021/037777 JP2021037777W WO2022176267A1 WO 2022176267 A1 WO2022176267 A1 WO 2022176267A1 JP 2021037777 W JP2021037777 W JP 2021037777W WO 2022176267 A1 WO2022176267 A1 WO 2022176267A1
Authority
WO
WIPO (PCT)
Prior art keywords
display
area
vehicle
unit
image
Prior art date
Application number
PCT/JP2021/037777
Other languages
English (en)
French (fr)
Inventor
貴之 鈴木
明俊 山下
征之 柳田
Original Assignee
パナソニックIpマネジメント株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by パナソニックIpマネジメント株式会社 filed Critical パナソニックIpマネジメント株式会社
Priority to DE112021007108.4T priority Critical patent/DE112021007108T5/de
Priority to CN202180093993.XA priority patent/CN116918320A/zh
Priority to JP2023500522A priority patent/JPWO2022176267A1/ja
Publication of WO2022176267A1 publication Critical patent/WO2022176267A1/ja
Priority to US18/225,516 priority patent/US20230365064A1/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/20Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/22Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle
    • B60R1/23Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view
    • B60R1/27Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view providing all-round vision, e.g. using omnidirectional cameras
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/20Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of display used
    • B60R2300/202Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of display used displaying a blind spot scene on the vehicle part responsible for the blind spot
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • B60R2300/302Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing combining image information with GPS information or vehicle data, e.g. vehicle speed, gyro, steering angle data
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/80Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement
    • B60R2300/804Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement for lane monitoring

Definitions

  • the present disclosure relates to a display control device and a display control method.
  • an increasing number of vehicles are equipped with an electronic mirror that captures the surroundings of the vehicle with a camera and displays the captured image on a display device.
  • the surroundings of the own vehicle are, for example, the rear of the own vehicle.
  • the image displayed on the electronic mirror may also have blind spots on the rear and lateral sides, as in the case of checking the rear using the optical mirror. Therefore, the driver is still required to directly see the vehicle in order to check the vehicle or the like existing on the rear side. Therefore, for example, when changing lanes, the driver tends to neglect the forward gaze.
  • the area displaying the rear side of the vehicle has a high compression rate, so it may be difficult for the driver to see it visually. Therefore, when the driver makes a lane change or the like, there is a possibility that the driver may overlook the vehicle existing behind the vehicle.
  • the present disclosure has been made in view of the above, and aims to make it easier to visually recognize a vehicle that exists on the rear side.
  • the display control device of the present disclosure includes a first detection unit that detects the number of roads indicating the number of one or more roads including the road on which the vehicle travels, and the first detection unit detects a determination unit that determines processing conditions for areas other than the required display area indicating a predetermined display area in the captured image of the surroundings of the vehicle according to the number of roads determined by the determination unit; a display control unit that processes the captured image according to the processing conditions and controls display on a display device.
  • FIG. 1 is a schematic diagram showing an example of a vehicle provided with a drive recorder unit according to the first embodiment.
  • FIG. 2 is a block diagram illustrating an example of the configuration of the display control system according to the first embodiment; 3 is a functional block diagram illustrating an example of a functional configuration of a microcomputer of the drive recorder unit according to the first embodiment;
  • FIG. 4 is a diagram showing an example of a rear image of the own vehicle according to the first embodiment.
  • FIG. 5 is an image diagram showing an example of the essential display area determination process according to the first embodiment.
  • FIG. 6 is an image diagram showing an example of a clipping region determination process according to the first embodiment.
  • 7 is a diagram illustrating an example of a display image according to the first embodiment;
  • FIG. 8 is an image diagram showing an example of a cutout region before compression when the compression rate is changed depending on the position within the compression region according to the first embodiment.
  • 9 is a diagram illustrating an example of a display image according to the first embodiment;
  • FIG. 10 is a flowchart illustrating an example of processing of the drive recorder unit according to the first embodiment;
  • FIG. 11 is a functional block diagram showing an example of the functional configuration of a microcomputer of the drive recorder unit according to the second embodiment;
  • FIG. 12 is a diagram showing an example of a rear image of the own vehicle according to the second embodiment.
  • FIG. 13 is an image diagram showing an example of a clipping region determination process according to the second embodiment.
  • FIG. 14 is a diagram illustrating an example of a display image according to the second embodiment;
  • FIG. 14 is a diagram illustrating an example of a display image according to the second embodiment;
  • FIG. 15 is an image diagram showing an example of a cutout region before compression when the compression ratio is changed depending on the position within the compression region according to the second embodiment.
  • FIG. 16 is a diagram illustrating an example of a display image according to the second embodiment; 17 is a flowchart illustrating an example of processing of the drive recorder unit according to the second embodiment;
  • FIG. 18 is a diagram showing an example of a rear image of the own vehicle according to Modification 3.
  • FIG. 19A and 19B are diagrams illustrating an example of a display image according to Modification 3.
  • FIG. FIG. 20 is a diagram showing an example of a display image according to modification 4. As shown in FIG.
  • FIG. 1 is a schematic diagram showing an example of a vehicle 5 equipped with a drive recorder unit 10 according to the first embodiment.
  • the vehicle 5 of the first embodiment includes a drive recorder unit 10, a rear camera 32, and a display device 25, for example.
  • Vehicle 5 may include front camera 31 and display 45 .
  • An example in which the vehicle 5 includes the front camera 31 and the display 45 will be described below.
  • the front camera 31 is arranged on the windshield of the vehicle 5, for example.
  • the front camera 31 images the outside of the vehicle 5 and generates a forward video signal.
  • the front camera 31 images the front of the vehicle 5, for example.
  • the forward video signal includes, for example, forward video information.
  • the front image is, for example, an image of the front of the vehicle 5 captured by the front camera 31 .
  • the rear camera 32 is arranged on the rear glass of the vehicle 5, for example.
  • the rear camera 32 images the outside of the vehicle 5 and generates a rearward video signal.
  • the rear camera 32 images the rear of the vehicle 5, for example.
  • the rear camera 32 may be capable of wide-angle photography.
  • the rear video signal includes, for example, rear video information.
  • the rear image is, for example, an image of the rear of the vehicle 5 captured by the rear camera 32 capable of wide-angle shooting.
  • the drive recorder unit 10 is housed in the console box of the vehicle 5, for example. Processing of the drive recorder unit 10 will be described later.
  • the drive recorder unit 10 is an example of a display control device.
  • the display device 25 displays the rear of the vehicle 5.
  • the display device 25 displays an image behind the vehicle 5, for example.
  • the display device 25 is, for example, a liquid crystal display.
  • the display device 25 may be, for example, a mirror-type display device modeled after a mirror for checking the rear of the vehicle 5 .
  • the display device 25 is, for example, an electronic mirror.
  • the display device 25 displays a rear image that has undergone predetermined processing by an electronic control unit (ECU) formed integrally with the display device 25, for example.
  • the display device 25 is an electronic mirror in the form of a rear-view mirror.
  • the display device 25 is described as an electronic mirror in the form of a rear-view mirror.
  • the display device 25 may be an electronic mirror, for example in the form of a door mirror or fender mirror.
  • the display 45 displays information about the vehicle 5.
  • the display 45 displays a forward image of the vehicle 5, for example.
  • the display 45 is, for example, a liquid crystal display.
  • the display 45 may be, for example, a panel-type liquid crystal display embedded in an instrument panel or the like.
  • the display 45 may display images from other cameras (not shown) installed on the side of the vehicle 5 or inside the vehicle. Further, the display 45 may display an image obtained by synthesizing images of a plurality of cameras capturing the outside of the vehicle, including the front camera 31 and the rear camera 32 .
  • a video obtained by synthesizing videos from a plurality of cameras is, for example, an omnidirectional bird's-eye view video.
  • FIG. 2 is a block diagram showing an example of the configuration of the display control system 1 according to the first embodiment.
  • the display control system 1 of the first embodiment includes a drive recorder unit 10, a display unit 20, and a rear camera 32.
  • the display control system 1 of the first embodiment is configured to be mountable on the vehicle 5 described above, for example.
  • Display control system 1 may include front camera 31 and display unit 40 . An example in which the display control system 1 includes the front camera 31 and the display unit 40 will be described below.
  • the drive recorder unit 10 includes a microcomputer 11, a serializer 13m, and a deserializer 14m.
  • the drive recorder unit 10 may comprise a serializer 13p and a deserializer 14p.
  • An example in which the drive recorder unit 10 includes a serializer 13p and a deserializer 14p will be described below.
  • the microcomputer 11 is, for example, a computer equipped with a CPU (Central Processing Unit), ROM (Read Only Memory), and RAM (Random Access Memory).
  • the microcomputer 11 is configured as an SoC (System on Chip) including, for example, an image processor 11p and a controller 11c.
  • the control unit 11c controls the image processor 11p.
  • the microcomputer 11 can control the serializer 13m by sending a control signal SG3 to the serializer 13m. Further, the microcomputer 11 can control the deserializer 14m by transmitting a control signal SG4 to the deserializer 14m.
  • the microcomputer 11 controls the serializer 13p by transmitting a control signal SG1 to the serializer 13p. Further, the microcomputer 11 controls the deserializer 14p by transmitting a control signal SG2 to the deserializer 14p. Specifically, the control unit 11c controls the serializer 13m, the deserializer 14m, the serializer 13p, and the deserializer 14p by transmitting respective control signals.
  • the microcomputer 11 transmits the control signal SG4 to the deserializer 14m to receive the image signal SGr1 from the rear camera 32.
  • the video signal SGr1 received by the deserializer 14m is, for example, a serialized video signal.
  • the deserializer 14m Upon receiving the control signal SG4 from the microcomputer 11, the deserializer 14m receives the video signal SGr1 transmitted from the rear camera 32. The deserializer 14m transmits the video signal SGr1 to the microcomputer 11 and the serializer 13m. The deserializer 14m may convert the received video signal SGr1 into parallel data and then transmit the parallel data.
  • the microcomputer 11 transmits the control signal SG2 to the deserializer 14p to receive the image signal SGf1 from the front camera 31.
  • the video signal SGf1 received by the deserializer 14p is, for example, a serialized video signal.
  • the deserializer 14p Upon receiving the control signal SG2 from the microcomputer 11, the deserializer 14p receives the video signal SGf1 transmitted from the front camera 31. The deserializer 14p transmits the video signal SGf1 to the microcomputer 11. FIG. The deserializer 14p may convert the received video signal SGf1 into parallel data and then transmit the parallel data.
  • the microcomputer 11 receives the rear video signal generated by the rear camera 32 from the deserializer 14m as the video signal SGr1. Specifically, the image processor 11p receives the video signal SGr1 from the deserializer 14m.
  • the image processor 11p performs video processing such as clipping processing and compression processing, which will be described later, on the video signal SGr1 to generate a video signal SGr2.
  • the image signal SGr2 is a signal for displaying a rear image that has undergone image processing.
  • the image processor 11p transmits the video signal SGr2 to the serializer 13m.
  • the microcomputer 11 transmits the video signal SGr2 to the serializer 13m.
  • the microcomputer 11 may convert the video signal SGr2 into parallel data and transmit the parallel data to the serializer 13m.
  • the microcomputer 11 receives the front video signal generated by the front camera 31 from the deserializer 14p as the video signal SGf1. Specifically, the image processor 11p receives the video signal SGf1 from the deserializer 14p.
  • the image processor 11p applies image processing such as color and contrast adjustment to the image signal SGf1 to generate the image signal SGf2.
  • the image processor 11p transmits the video signal SGf2 and the video signal SGr2 to the serializer 13p.
  • the microcomputer 11 transmits the video signal SGf2 and the video signal SGr2 to the serializer 13p.
  • the microcomputer 11 may convert the video signal SGf2 and the video signal SGr2 into parallel data and transmit the parallel data to the serializer 13p.
  • the serializer 13m Upon receiving the control signal SG3 from the microcomputer 11, the serializer 13m transmits the video signal SGr2 received from the microcomputer 11 to the display unit 20. For example, when the serializer 13m receives the video signal SGr2 converted into parallel data from the microcomputer 11, the serializer 13m may transmit the video signal SGr2 after converting it into serial data.
  • the microcomputer 11 controls the serializer 13p to transmit the video signal SGf2 and the video signal SGr2 to the display unit 40 by transmitting the control signal SG1.
  • the serializer 13p Upon receiving the control signal SG1 from the microcomputer 11, the serializer 13p transmits the video signal SGf2 and the video signal SGr2 received from the microcomputer 11 to the display unit 40. For example, when the serializer 13p receives the video signal SGf2 and the video signal SGr2 converted into parallel data from the microcomputer 11, it may convert the data into serial data and then transmit the video signal SGf2.
  • Transmission of the control signal SG1 from the microcomputer 11 to the serializer 13p, transmission of the control signal SG2 to the deserializer 14p, transmission of the control signal SG3 to the serializer 13m, and transmission of the control signal SG4 to the deserializer 14m are performed, for example, by I2C (Inter-Integrated Circuit) format.
  • MIPI Mobile Industry Processor Interface
  • transmission of the video signal SGr1 from the rear camera 32 to the deserializer 14m, transmission of the video signal SGr2 from the serializer 13m to the display unit 20, transmission of the video signal SGf1 from the front camera 31 to the deserializer 14p, and transmission of the video signal SGf1 from the serializer 13p The transmission of the video signal SGf2 and the video signal SGr2 to the display unit 40 is performed, for example, in the FPD-Link III (Flat Panel Display-Link III) format.
  • FPD-Link III Full Panel Display-Link III
  • video transmissions may be performed by wired communication or by wireless communication.
  • video transmission may be performed by wired communication using a coaxial cable.
  • video transmission may be performed by wireless communication using Wi-Fi (registered trademark).
  • the display unit 40 includes a display 45.
  • the display unit 40 is configured as part of, for example, an in-vehicle infotainment (IVI) system.
  • IVI in-vehicle infotainment
  • the display unit 40 transmits the received video signal SGf2 and video signal SGr2 to the display 45 .
  • the display 45 can display a forward image based on the received image signal SGf2. Also, the display 45 can display a rear image based on the received image signal SGr2.
  • the display unit 20 includes a display device 25.
  • the display unit 20 may include an ECU (Electronic Control Unit) 21 .
  • ECU21 is a computer provided with CPU, ROM, and RAM, for example.
  • the display unit 20 transmits the received video signal SGr2 to the ECU 21.
  • the ECU 21 performs image processing on the image signal SGr2.
  • Video processing is, for example, color and contrast adjustments made suitable for display on display device 25 .
  • the video signal SGr2 subjected to video processing by the ECU 21 is transferred to the display device 25.
  • the display device 25 displays a rear image, which is an image generated based on the image signal SGr2.
  • FIG. 3 is a functional block diagram showing an example of the functional configuration of the microcomputer 11 of the drive recorder unit 10 according to the first embodiment.
  • the microcomputer 11 of the drive recorder unit 10 expands the control program stored in the ROM of the microcomputer 11 into the RAM, and causes the CPU and the image processor 11p to operate, thereby obtaining the acquisition unit 111 shown in FIG.
  • the detection unit 112, the first determination unit 113, the second determination unit 114, the generation unit 115, and the display control unit 116 are implemented as functional units.
  • the acquisition unit 111 acquires a photographed image of an area around the own vehicle including the rear side of the own vehicle. In the present disclosure, "obtaining” also includes receiving transmitted information, signals, images, and the like. Specifically, the acquisition unit 111 acquires the rear image generated by the rear camera 32 . For example, the acquisition unit 111 acquires the video signal SGr1. Acquisition unit 111 also acquires a forward image generated by front camera 31 . For example, the acquisition unit 111 acquires the video signal SGf1.
  • FIG. 4 is a diagram showing an example of a rear image of the own vehicle captured by the rear camera 32 according to the first embodiment.
  • Vehicle A1, vehicle A2, lane B1, lane B2, and lane B3 are drawn in the rear image D shown in FIG.
  • the rear image D is an image captured by the wide-angle rear camera 32 behind the vehicle traveling on the lane B2.
  • the vehicle A1 is traveling in the same lane B2 as the own vehicle, and the vehicle A2 is traveling in the lane B3 on the left of the own vehicle.
  • the first detection unit 112 detects the number of roads, which is one or more roads including the road on which the vehicle is traveling.
  • the number of roads represents the total number of lanes on which vehicles travel and sidewalks on which pedestrians walk. In other words, roads include lanes and sidewalks.
  • the first detection unit 112 detects the number of roads by detecting a lane change line, a boundary between a roadway and a sidewalk, or the like from the rear image acquired by the acquisition unit 111 .
  • a rear image is an example of a captured image.
  • the boundary between the roadway and the sidewalk is, for example, a curb.
  • the first detection unit 112 detects that the number of roads is "3" because there are three lanes, lane B1, lane B2, and lane B3.
  • the first detection unit 112 may not count the number of lanes for vehicles traveling in the opposite direction to the own vehicle as the number of roads.
  • the lane for vehicles traveling in the opposite direction to the own vehicle may be referred to as an oncoming lane.
  • the median strip or center line in the rear image is detected, and it is determined whether the lane is the oncoming lane from the positional relationship between the median strip or the center line and the lane. method. Further, for example, it may be determined whether or not the lane is the oncoming lane from the traveling direction of the vehicle traveling in the lane in the rear image.
  • the positioning signal which is a signal indicating the position of the vehicle 5, transmitted from an artificial satellite in the sky
  • information about the lane is acquired, and it is determined whether or not the lane is an oncoming lane.
  • the first detection unit 112 detects the number of roads from the captured image acquired by the acquisition unit 111, but the first detection unit 112 detects the number of roads based on the reception result of the positioning signal. You may
  • the first detection unit 112 may detect the number of roads by performing road-to-vehicle communication and acquiring information about roads.
  • the first determination unit 113 determines the clipping area according to the number of roads detected by the first detection unit 112 .
  • First decision unit 113 is an example of a decision unit.
  • the clipping area is an area displayed on the display device 25 in the captured image. Determination of the clipping region is an example of processing conditions.
  • the first determining unit 113 first determines a required display area indicating a predetermined area in the rear image acquired by the acquiring unit 111 .
  • the essential display area is determined by first determination unit 113 according to predetermined conditions.
  • the conditions for determining the mandatory display area can be freely set as long as they meet the provisions regarding the field of view of Regulation 46 (UN-R46: United Nations-Regulation 46) established by the United Nations.
  • the provisions of UN-R46 regarding the field of view are: ⁇ The field of view shall be a flat horizontal part of the road at least 20m wide centered on the vertical longitudinal median plane of the vehicle and 60m behind the driver's eyeball point to the horizon. shall be visible.”
  • FIG. 5 is an image diagram showing an example of the required display area determination process according to the first embodiment.
  • the first determination unit 113 determines a predetermined area (the area within the black frame) in the rear image D as the required display area E.
  • a predetermined area the area within the black frame
  • the first determination unit 113 determines a clipping area including the essential display area E according to the number of roads detected by the first detection unit 112 . For example, the first determination unit 113 determines a cutout region centering on the essential display region E based on a table that associates the number of roads detected by the first detection unit 112 with the size of the cutout region.
  • the number of roads is too large, there is a possibility that the cropped area will become too large. It may be arranged so that it does not become
  • FIG. 6 is an image diagram showing an example of the clipping area determination process according to the first embodiment.
  • the first determination unit 113 determines the size of the cutout region corresponding to the number of roads “3” detected by the first detection unit 112 .
  • the first determining unit 113 determines a clipping area C centered on the essential display area E. As shown in FIG.
  • the cut-out area C is composed of an essential display area E, a left area L located on the left side of the essential display area E on the image, and a right area R located on the right side of the essential display area E on the image.
  • the second determination unit 114 determines processing conditions for areas other than the essential display area within the cropped area of the captured image of the surroundings of the vehicle, according to the number of roads detected by the first detection unit 112 .
  • the area other than the essential display area in the cropped area of the captured image may be referred to as the compression target area.
  • Second decision unit 114 is an example of a decision unit. Note that the second determination unit 114 may also function as the first determination unit 113 described above. Also, the first determining unit 113 may also function as the second determining unit 114 .
  • the second determining unit 114 determines the compression ratio of the display in the vehicle width direction for the compression target area and within the clipping area according to the number of roads detected by the first detecting unit 112 .
  • the areas to be compressed are the left area L and the right area R.
  • the compression ratio of the display in the vehicle width direction refers to how much the photographed image is compressed in the vehicle width direction and displayed.
  • the second determination unit 114 determines the compression rate of the compression target area within the clipped area based on a table that associates the number of roads detected by the first detection unit 112 with the compression rate.
  • the second determination unit 114 determines the compression rate corresponding to the number of roads "3" detected by the first detection unit 112 as the compression rate of the left area L and the right area R.
  • the second determining unit 114 determines to compress the left region L and the right region R by a factor of two in the vehicle width direction, for example.
  • Generation unit 115 generates a display image to be displayed on a display device by processing the captured image according to the processing conditions determined by first determination unit 113 and second determination unit 114 .
  • the generation unit 115 first cuts out the cutout region C determined by the first determination unit 113 from the rear image D. Next, the generation unit 115 performs processing for compressing the left region L and the right region R of the clipped region C according to the compression rate determined by the second determination unit 114, and generates a display image to be displayed on the display device 25. do. For example, the generation unit 115 performs a process of compressing the left region L and the right region R by a factor of two in the vehicle width direction.
  • the display image here is, for example, an image displayed based on the video signal SGr2.
  • the generation unit 115 performs image processing such as adjustment of color and contrast on the forward image acquired by the acquisition unit 111 to generate a display image.
  • the display image here is, for example, an image displayed based on the video signal SGf2.
  • the display control unit 116 processes the captured image according to the processing conditions determined by the first determination unit 113 and the second determination unit 114, and controls display on the display device. Specifically, the display control unit 116 controls the display device 25 to display the display image generated by the generation unit 115 . Further, the display control unit 116 performs control to display the display image generated by the generation unit 115 on the display 45 .
  • FIG. 7 is an example of a display image displayed on the display device 25 according to the first embodiment.
  • the display image W is composed of a left compressed area LP, a mandatory display area E, and a right compressed area RP.
  • the essential display area E is displayed on the display device 25 by the display control unit 116 at the same scale as the rear image D.
  • FIG. 7 is an example of a display image displayed on the display device 25 according to the first embodiment.
  • the display image W is composed of a left compressed area LP, a mandatory display area E, and a right compressed area RP.
  • the essential display area E is displayed on the display device 25 by the display control unit 116 at the same scale as the rear image D.
  • the left compressed area LP is an area obtained by compressing the left area L of the cutout area C in FIG. 6 twice in the vehicle width direction.
  • the right compressed region RP is a region obtained by compressing the right region R of the clipped region C of FIG. 6 by a factor of two in the vehicle width direction. 7 are drawn for convenience of explanation, and are not displayed in the display image W actually displayed on the display device 25. As shown in FIG.
  • the second determining unit 114 determines that the compression target area of the cutout area C is uniformly compressed by a factor of two in the vehicle width direction. may For example, the second determining unit 114 may determine the compression rate so that the compression rate of the compressed region increases stepwise from the center of the clipped region C toward the outside.
  • FIG. 8 is an image diagram showing an example of a cutout area before compression when the compression rate is changed according to the position within the compression area according to the first embodiment.
  • the clipping area C is composed of a first left area L1, a second left area L2, an essential display area E, a first right area R1, and a second right area R2.
  • the first detection unit 112 and the first determination unit 113 are assumed to perform the same processing as the processing described with reference to FIGS. 5 and 6 .
  • the second determining unit 114 determines the compression rate and corresponding to the number of roads "3" detected by the first detecting unit 112. For example, second determining portion 114 compresses first left region L1 and first right region R1 by a factor of two in the vehicle width direction, and compresses second left region L2 and second right region R2 by four in the vehicle width direction. Decide to compress twice.
  • the generation unit 115 cuts out the cutout region C according to the determination of the first determination unit 113 . Then, generation unit 115 doubles first left region L1 and first right region R1 of clipped region C in the vehicle width direction according to the compression ratio determined by second determination unit 114, 2 A display image W to be displayed on the display device 25 is generated by performing a process of compressing the right side region R2 by a factor of four in the vehicle width direction.
  • the display control unit 116 displays the display image W generated by the generation unit 115 on the display device 25 .
  • FIG. 9 is an example of a display image displayed on the display device 25 according to the first embodiment.
  • the display image W is composed of a first left compressed area LP1, a second left compressed area LP2, an essential display area E, a first right compressed area RP1 and a second right compressed area RP2.
  • the essential display area E is displayed on the display device 25 by the display control unit 116 at the same scale as the rear image D.
  • the first left side compressed area LP1 is an area obtained by compressing the first left side area L1 of the cutout area C in FIG. 8 twice in the vehicle width direction.
  • the second left side compressed area LP2 is an area obtained by compressing the second left side area L2 four times in the vehicle width direction.
  • the first right side compressed region RP1 is a region obtained by compressing the first right side region R1 twice in the vehicle width direction.
  • the second right side compressed region RP2 is a region obtained by compressing the second right side region R2 four times in the vehicle width direction. 9 are drawn for convenience of explanation, and are not displayed in the display image W actually displayed on the display device 25. As shown in FIG.
  • the second determining unit 114 determines the compression rate of the captured image so that the compression rate in the vehicle width direction gradually increases from the inside to the outside of the own vehicle. can be displayed with a scale close to the rear image D, and a region far from the host vehicle can be displayed with a higher compression ratio. As a result, the display image W can be displayed without reducing the visibility of areas of high importance to the user while reducing blind spots.
  • the second determining unit 114 may determine whether the compression rate is uniform or varies for each region according to the number of roads. For example, when the number of roads is 3 or less, the second determination unit 114 sets the compression ratio uniformly as shown in FIG. good.
  • FIG. 10 is a flowchart showing an example of processing executed by the drive recorder unit 10 according to the first embodiment.
  • the acquisition unit 111 acquires a rear image generated by the rear camera 32 as a captured image (step S1).
  • the first detection unit 112 detects the number of roads based on the rear image acquired by the acquisition unit 111 (step S2).
  • the first determination unit 113 determines the required display area for the rear image. Then, the first determining unit 113 determines a clipping area around the required display area according to the number of roads detected by the first detecting unit 112 (step S3).
  • the second determining unit 114 determines the compression ratio of the compression target area in the cropped area according to the number of roads detected by the first detecting unit 112 (step S4).
  • the generation unit 115 cuts out the cut-out region determined by the first determination unit 113 from the rear image. Then, according to the compression rate determined by the second determination unit 114, the generation unit 115 performs processing for compressing the compression target area in the cut-out area in the vehicle width direction, and generates a display screen for display on the display device 25. (Step S5).
  • the display control unit 116 controls the display device 25 to display the display image generated by the generation unit 115 (step S6).
  • the display control unit 116 determines whether or not to end the display of the display image (step S7). For example, the display control unit 116 determines to end the display when a predetermined time has passed since the power source such as the engine of the vehicle 5 was stopped.
  • step S7: No If the display of the display image is not finished (step S7: No), the process proceeds to step S1. On the other hand, if the display of the display image is to end (step S7: Yes), the display control unit 116 ends this process.
  • the drive recorder unit 10 according to the present embodiment displays the above-mentioned essential display area in the photographed image of the surroundings of the vehicle according to the number of roads indicating the number of roads including one or more roads on which the vehicle travels. Determine processing conditions for areas other than
  • the second determining unit 114 determines the processing conditions so that the compression rate is increased in proportion to the number of roads. Therefore, if the number of roads is small, the compression ratio will be low. Therefore, it is possible to prevent a situation in which a photographed image is compressed at a high compression rate even though the number of roads is small, making it difficult to visually recognize a vehicle on the rear side. That is, according to the drive recorder unit 10 according to the present embodiment, it is possible to easily visually recognize a vehicle or the like existing on the rear side.
  • the drive recorder unit 10 according to the second embodiment differs from the drive recorder unit 10 according to the first embodiment in that it includes a second detection section 117 as a functional section.
  • the drive recorder unit 10 according to the second embodiment will be described below with reference to FIGS. 11 to 20.
  • FIG. Configurations and operations that are the same as those described in the first embodiment will be omitted or simplified by using the same reference numerals.
  • FIG. 11 is a functional block diagram showing an example of the functional configuration of the microcomputer 11 of the drive recorder unit 10 according to the second embodiment.
  • the drive recorder unit 10 according to the second embodiment further includes a second detection section 117 in addition to the functional sections included in the drive recorder unit 10 according to the first embodiment.
  • the second detection unit 117 detects the running position of the own vehicle.
  • the second detection unit 117 is an example of a detection unit. Specifically, the second detection unit 117 detects the lane change line, the boundary between the roadway and the sidewalk, and the like from the rear image acquired by the acquisition unit 111, and detects the positional relationship in the rear image to determine whether the vehicle is running. Detect position.
  • the second detection unit 117 detects the running position of the own vehicle from the captured image acquired by the acquisition unit 111. It is also possible to detect the running position of the own vehicle. Further, the second detection unit 117 may perform road-to-vehicle communication with equipment installed on the road, and detect the running position of the own vehicle based on the communication result or the like.
  • the communication results include, for example, communication speed and signal strength.
  • the second detection unit 117 may also function as the first detection unit 112 described above. Also, the first detection unit 112 may also function as the second detection unit 117 .
  • FIG. 12 is a diagram showing an example of a rear image of the own vehicle captured by the rear camera 32 according to the second embodiment.
  • Vehicle A1, vehicle A2, lane B1, lane B2, and lane B3 are drawn in the rear image D shown in FIG.
  • the rear image D is an image captured by the wide-angle rear camera 32 behind the vehicle traveling on the lane B1.
  • the vehicle A1 is traveling on the lane B1 like the own vehicle, and the vehicle A2 is traveling on the lane B3.
  • the second detection unit 117 detects from the positional relationship among lanes B1, B2, and B3 in the rear image D that the vehicle is traveling in the "leftmost lane in the image.” detect.
  • the leftmost lane on the image is lane B1.
  • the first determination unit 113 determines the clipping area according to the number of roads detected by the first detection unit 112 and the traveling position of the own vehicle detected by the second detection unit 117 .
  • the first determining unit 113 performs the same processing as in the first embodiment to determine the size of the clipping region. Next, the first determination unit 113 determines how to cut out the cut-out region according to the traveling position of the own vehicle detected by the second detection unit 117 .
  • the first determining unit 113 determines how to cut out such that the left end of the required display area and the left end of the cut-out area match.
  • FIG. 13 is an image diagram showing an example of the extraction region determination process according to the second embodiment.
  • the first determining unit 113 determines that the traveling position of the host vehicle detected by the second detecting unit 117 is the “leftmost lane on the image”, and the left end of the essential display area E is displayed. and the left end of the clipping region C are determined.
  • the cutout area C is composed of the required display area E and the compression target area O located on the right side of the required display area E on the video.
  • the second determination unit 114 determines processing conditions for areas other than the essential display area in the captured image according to the number of roads detected by the first detection unit 112 and the traveling position of the own vehicle detected by the second detection unit 117. decide.
  • the second determination unit 114 for example, based on a table that associates the number of roads detected by the first detection unit 112, the traveling position detected by the second detection unit 117, and the compression method including the compression rate, cuts out Determines the compression method for the compression target area in the area.
  • the driving position is expressed numerically, for example, the leftmost lane or sidewalk that can be confirmed in the captured image is "1", and the left lane is "2".
  • the compression method indicates, for example, the compression rate of the area on the left side of the mandatory display area and the compression rate of the area on the right side of the mandatory display area. In addition to this, the compression method may determine whether or not to change the compression rate in stages.
  • the second determining unit 114 increases the compression rate of the left area of the mandatory display area and decreases the compression rate of the right area. It should be noted that the second determining unit 114 may determine the right or left compression rate to be "no display”. The display device 25 does not display the area for which the second determination unit 114 has determined that the compression rate is “no display”. Determining the compression ratio of the right or left area as "no display” can be rephrased as compressing the right or left area at an infinite compression ratio.
  • the second determining unit 114 selects the compression method corresponding to the number of roads “3” detected by the first detection unit 112 and the travel position “1” detected by the second detection unit 117 as the compression target region. Determine the O compression method. For example, the second determining unit 114 determines that the left side of the mandatory display area E is not displayed, and that the right side of the mandatory display area E is doubled in the vehicle width direction. The travel position "1" is the leftmost lane on the video as described above.
  • FIG. 14 is an example of a display image displayed on the display device 25 according to the second embodiment.
  • the display image W is composed of a mandatory display area E and a compressed display area OP.
  • the essential display area E is displayed on the display device 25 by the display control unit 116 at the same scale as the rear image D.
  • FIG. 14 is an example of a display image displayed on the display device 25 according to the second embodiment.
  • the display image W is composed of a mandatory display area E and a compressed display area OP.
  • the essential display area E is displayed on the display device 25 by the display control unit 116 at the same scale as the rear image D.
  • the compressed display area OP is an area obtained by compressing the compression target area O on the right side of the clipped area C in FIG. 13 by a factor of two in the vehicle width direction. 13 are drawn for convenience of explanation, and are not displayed in the display image W actually displayed on the display device 25. As shown in FIG.
  • the second determining unit 114 uniformly compresses the compression target area of the cutout area C by a factor of two in the vehicle width direction. Compression ratios may differ. For example, the second determining unit 114 may determine the compression rate so that the compression rate of the compressed region increases stepwise from the center of the clipped region C toward the outside.
  • FIG. 15 is an image diagram showing an example of a cutout area before compression when the compression ratio is changed according to the position within the compression area according to the second embodiment.
  • the cutout area C is composed of a mandatory display area E, a first compression target area O1, and a second compression target area O2.
  • the first detection unit 112, the second detection unit 117, and the first determination unit 113 perform the same processing as the processing described with reference to FIG.
  • the second determination unit 114 determines the compression method corresponding to the number of roads "3" detected by the first detection unit 112 and the travel position "1" detected by the second detection unit 117. For example, the second determining unit 114 determines to compress the first compression target region O1 by a factor of two in the vehicle width direction, and to compress the second compression target region O2 by a factor of four in the vehicle width direction.
  • the generation unit 115 cuts out the cutout region C according to the determination of the first determination unit 113 . Then, according to the compression method determined by the second determination unit 114, the generation unit 115 doubles the first compression target region O1 of the clipped region C in the vehicle width direction, and 4 times the second compression target region O2 in the vehicle width direction. A double compression process is performed to generate a display image W to be displayed on the display device 25 .
  • the display control unit 116 displays the display image W generated by the generation unit 115 on the display device 25 .
  • FIG. 16 is an example of a display image displayed on the display device 25.
  • the display image W is composed of a mandatory display area E, a first compressed display area OP1, and a second compressed display area OP2.
  • the essential display area E is displayed on the display device 25 by the display control unit 116 at the same scale as the rear image D.
  • FIG. 16 is an example of a display image displayed on the display device 25.
  • the display image W is composed of a mandatory display area E, a first compressed display area OP1, and a second compressed display area OP2.
  • the essential display area E is displayed on the display device 25 by the display control unit 116 at the same scale as the rear image D.
  • the first compressed display area OP1 is an area obtained by compressing the first compression target area O1 of the cutout area C of FIG. 15 twice in the vehicle width direction.
  • the second compressed display area LP2 is an area obtained by compressing the second compression target area O2 four times in the vehicle width direction.
  • a frame such as a black frame in FIG. 15 is drawn for convenience of explanation, and the frame is not displayed in the display image W actually displayed on the display device 25 .
  • the second determination unit 114 may determine the compression method for each region according to the number of roads and the travel position. For example, when the number of roads is 3 or less, the second determination unit 114 sets the compression ratio uniformly as shown in FIG. good.
  • the second determining unit 114 may change the compression method between the left side and the right side of the essential display area according to the travel position. For example, in the clipping region, if the right region of the required display region is larger than the left region, the second determining unit 114 determines the compression rate so that the compression rate of the right region is higher than that of the left region. may The second determining unit 114, for example, compresses the left area by a factor of two in the vehicle width direction, compresses an area on the right side that is close to the required display area by a factor of two in the vehicle width direction, and compresses the area on the right side by a factor of two in the vehicle width direction. It may be determined that an area far from the required display area is compressed four times in the vehicle width direction.
  • FIG. 17 is a flowchart showing an example of processing executed by the drive recorder unit 10 according to the second embodiment.
  • the acquisition unit 111 acquires the rearward image generated by the rear camera 32 as a captured image (step S11).
  • the first detection unit 112 detects the number of roads based on the rear image acquired by the acquisition unit 111 (step S12).
  • the second detection unit 117 detects the travel position based on the rear image acquired by the acquisition unit 111 (step S13).
  • the first determination unit 113 determines the required display area for the rear image. Then, the first determination unit 113 determines the size of the clipping region and the clipping method according to the number of roads detected by the first detection unit 112 and the traveling position detected by the second detection unit 117 (step S14).
  • the second determination unit 114 determines a compression method for the compression target area according to the number of roads and the traveling position detected by the first detection unit 112 (step S15).
  • the generation unit 115 cuts out the cut-out region determined by the first determination unit 113 from the rear image. Then, according to the compression method determined by the second determination unit 114, the generation unit 115 performs processing for compressing the compression target area in the vehicle width direction, and generates a display screen for display on the display device 25 (step S16). .
  • the display control unit 116 controls the display device 25 to display the display image generated by the generation unit 115 (step S17).
  • the display control unit 116 determines whether or not to end the display of the display image (step S18). For example, the display control unit 116 determines to end the display when a predetermined time has passed since the power source such as the engine of the vehicle 5 was stopped.
  • step S18: No If the display of the display image is not finished (step S18: No), the process proceeds to step S11. On the other hand, if the display of the display image is to end (step S18: Yes), the display control unit 116 ends this process.
  • the drive recorder unit 10 according to the present embodiment determines processing conditions for areas other than the essential display area according to the travel position of the host vehicle.
  • the second determination unit 114 increases the compression ratio of the left area of the mandatory display area, and increases the compression ratio of the right area. Decrease compression ratio. This is because when the own vehicle is traveling in the leftmost lane, there is no vehicle or the like on the left side of the own vehicle, so there is little need to pay attention to the left side of the own vehicle. On the other hand, since there is a possibility that a vehicle or the like exists on the right side of the own vehicle, it is highly necessary to pay attention.
  • the drive recorder unit 10 can display only the highly important portion in a state of low compression rate that makes it easy to see. In other words, it is possible to make it easier to visually recognize a vehicle or the like existing on the rear side.
  • the display control system 1 is configured by the drive recorder unit 10, the display unit 20, the front camera 31, the rear camera 32, and the display unit 40.
  • the display control system 1 may be composed only of the display unit 20 and the rear camera 32 .
  • the ECU 21 of the display unit 20 expands the control program stored in the ROM of the ECU 21 into the RAM and causes the CPU to operate, thereby realizing each functional unit.
  • the ECU 21 implements, for example, an acquisition unit 111, a first detection unit 112, a first determination unit 113, a second determination unit 114, a generation unit 115, and a display control unit 116 included in the microcomputer 11 as functional units.
  • Mode 2 In the first embodiment and the second embodiment described above, the form in which the compressed backward image is displayed on the display device 25 has been described. However, the display control unit 116 may perform control to display the compressed rear image on the display 45 . Further, the display control unit 116 may perform control to display the compressed rear image on a head-up display (HUD) or the like mounted on the vehicle 5 .
  • HUD head-up display
  • the generation unit 115 places an image of the front left side of the own vehicle cut out from the forward video on the left side of the compressed rear video, and an image of the front right side of the own vehicle cut out from the front video on the right side.
  • a display image to be displayed on the display device 25 is generated by synthesizing the images.
  • the generation unit 115 may detect a pedestrian or a bicycle from the front image, and generate a display image to be displayed on the display device 25 by synthesizing the front image with the rear image only when there is a pedestrian or bicycle. good. Further, the generation unit 115 may generate a display screen by synthesizing the rear image and the front image, with only the roadway as the display target for the rear image and only the sidewalk as the display target for the front image.
  • the generation unit 115 generates a display image in which the rear image and the front image are synthesized, so that the user can obtain both rear and front information from one screen. This makes it easier for the user to visually recognize the surroundings of the own vehicle, thereby reducing the possibility of an accident occurring.
  • Mode 4 In the above-described second embodiment, the mode in which the second determination unit 114 determines the compression method of the captured image based on the number of roads and the travel position has been described. However, in addition to these, the second determination unit 114 may determine the compression method based on the presence or absence of a vehicle or the like.
  • the vehicle includes a two-wheeled vehicle.
  • the second determining unit 114 of this modified example increases the compression ratio of areas where other vehicles and the like do not exist in the captured image.
  • FIG. 18 is a diagram showing an example of a rear image of the own vehicle according to Modification 3.
  • FIG. 18 In the example of FIG. 18, no vehicle exists in the area ON, and a vehicle A2 exists in the area OE.
  • the second determining unit 114 increases the compression rate of the area ON and makes the compression rate of the area OE lower than that of the area ON.
  • FIG. 19 is an example of a display image displayed on the display device 25 according to Modification 3.
  • the display image W is composed of a mandatory display area E, a high compression area NP and a low compression area EP.
  • the essential display area E is displayed on the display device 25 by the display control unit 116 at the same scale as the rear image D.
  • FIG. 19 is an example of a display image displayed on the display device 25 according to Modification 3.
  • the display image W is composed of a mandatory display area E, a high compression area NP and a low compression area EP.
  • the essential display area E is displayed on the display device 25 by the display control unit 116 at the same scale as the rear image D.
  • the high compression area NP is an area obtained by compressing the area ON of the cutout area C in FIG. 18 four times in the vehicle width direction.
  • the low compression area EP is an area obtained by compressing the area OE of the clipped area C of FIG. 18 twice in the vehicle width direction. 19 are drawn for convenience of explanation, and are not displayed in the display image W actually displayed on the display device 25. As shown in FIG.
  • the second determining unit 114 sets a high compression rate for areas where vehicles and the like do not exist, and a low compression rate for areas where vehicles and the like exist. Makes the target easier to see. Therefore, the drive recorder unit 10 of this modified example can make it easier to visually recognize a vehicle or the like existing on the rear side.
  • the first determination unit 113 and the second determination unit 114 may determine the processing conditions for the captured image in conjunction with the user's operation of the direction indicator.
  • the first determination unit 113 of this modified example determines the clipping area according to the user's operation. For example, the first determining unit 113 predetermines the size of the clipping region and the clipping method when the direction indicator points to the left, and the size and clipping method of the clipping region when the direction indicator points to the right. Then, the clipping area is determined according to the user's operation.
  • the second determination unit 114 determines the compression rate of the compression target area in conjunction with the user's operation of the direction indicator. For example, the second determining unit 114 determines the processing condition so that the compression ratio of the area indicated by the direction indicator is low, with reference to the essential display area.
  • the first determining unit 113 determines the size of the clipping region and the clipping method when the direction indicator points to the right. In this example, the first determining unit 113 determines the essential display area E and the right area R in FIG.
  • the second determining unit 114 reduces the compression ratio of the side indicated by the direction indicator on the video.
  • the second determining unit 114 decreases the compression ratio of the right area R in FIG. 7 and determines no compression.
  • FIG. 20 is an example of a display image displayed on the display device 25 according to Modification 4.
  • FIG. in the example of FIG. 20, the display image W is composed of a mandatory display area E and a right area R.
  • the required display area E and the right area R are displayed on the display device 25 at the same scale as the rear image D by the display control unit 116 . 20 are drawn for convenience of explanation, and are not displayed in the display image W actually displayed on the display device 25.
  • FIG. 20 is an example of a display image displayed on the display device 25 according to Modification 4.
  • the display image W is composed of a mandatory display area E and a right area R.
  • the required display area E and the right area R are displayed on the display device 25 at the same scale as the rear image D by the display control unit 116 . 20 are drawn for convenience of explanation, and are not displayed in the display image W actually displayed on the display device 25.
  • the second determination unit 114 reduces the compression rate of the side indicated by the direction indicator on the image, so that, for example, when the user turns right or changes lanes to the right lane, the left rear becomes easier to see. That is, according to this modified example, it is possible to make it easier to visually recognize a vehicle or the like existing on the rear side.
  • the first determination unit 113 and the second determination unit 114 may determine the processing conditions for the captured image in conjunction with the user's operation of the steering wheel.
  • the first determination unit 113 of this modified example determines the clipping area according to the user's operation. For example, the first determining unit 113 determines in advance the size and method of clipping when the steering wheel is turned to the left and the size and method of clipping when the steering wheel is turned to the right. Determines the clipping area according to the operation of .
  • whether or not the steering wheel is turned left or right is determined, for example, by whether or not the steering angle exceeds a threshold.
  • the second determining unit 114 determines the compression rate of the compression target area in conjunction with the user's operation of the handle. For example, the second determining unit 114 determines the processing condition so that the compression ratio of the area on the side where the steering wheel is turned is low, with reference to the mandatory display area.
  • the first determining unit 113 determines the size of the clipping region and the clipping method when the steering wheel is turned to the right. In this example, the first determining unit 113 determines the essential display area E and the right area R in FIG.
  • the second determining unit 114 lowers the compression rate on the side of the image where the steering wheel is turned.
  • the second determining unit 114 decreases the compression ratio of the right area R in FIG. 7 and determines no compression. Since the image of the display image is the same as that of Modification 4, illustration and description are omitted.
  • the second determination unit 114 reduces the compression rate on the side where the steering wheel is turned on the image, so that, for example, when the user turns right or changes lanes to the right lane, the left rear Easier to see. That is, according to this modified example, it is possible to make it easier to visually recognize a vehicle or the like existing on the rear side.
  • the first determination unit 113 and the second determination unit 114 may determine the processing conditions for the captured image in conjunction with the movement of the user's line of sight.
  • the first determination unit 113 of this modified example determines the clipping region according to the movement of the user's line of sight. For example, the first determining unit 113 predetermines the size and method of clipping when the user looks to the left, and the size and method of clipping when the user looks to the right. Then, the clipping area is determined according to the movement of the user's line of sight.
  • the movement of the user's line of sight is detected by, for example, providing a camera or the like capable of capturing the user in the vehicle 5 and analyzing the video captured by the camera.
  • a user is, for example, a driver.
  • the second determining unit 114 determines the compression rate of the compression target area in conjunction with the movement of the user's line of sight. For example, the second determination unit 114 determines the processing condition so that the compression rate of the area on the side where the line of sight is directed is low, with reference to the essential display area.
  • the first determining unit 113 determines the size of the clipping region and the clipping method when the user turns his or her line of sight to the right. In this example, the first determining unit 113 determines the essential display area E and the right area R in FIG.
  • the second determining unit 114 lowers the compression rate of the side of the image to which the user's line of sight is directed.
  • the second determining unit 114 decreases the compression ratio of the right area R in FIG. 7 and determines no compression. Since the image of the display image is the same as that of Modification 4, illustration and description are omitted.
  • the second determination unit 114 reduces the compression rate on the side of the image on which the user's line of sight is directed, so that, for example, when the user turns right or changes lanes to the right lane, the left rear becomes easier to see. That is, according to this modified example, it is possible to make it easier to visually recognize a vehicle or the like existing on the rear side.
  • the first determination unit 113 and the second determination unit 114 may determine processing conditions for the captured image in conjunction with route guidance.
  • the first determination unit 113 of this modified example determines the clipping area according to the route guidance. For example, the first determining unit 113 predetermines the size and the method of cutting out a region to be cut out when guiding a left turn, and the size and method of cutting out a region to be cut out in the case of guiding a right turn. Determine the clipping area.
  • the route guidance for example, identifies the current position and direction of travel of the vehicle by analyzing the positioning signal, and guides the route to the destination.
  • the second determining unit 114 determines the compression rate of the compression target area according to route guidance. For example, the second determining unit 114 determines the processing condition so that the compression ratio of the area indicated by the route guidance is low with the essential display area as a reference.
  • the first determining unit 113 determines the size of the clipping region and the clipping method when the right turn is guided. In this example, the first determining unit 113 determines the essential display area E and the right area R in FIG.
  • the second determining unit 114 reduces the compression ratio of the side indicated by route guidance on the video.
  • the second determining unit 114 decreases the compression ratio of the right area R in FIG. 7 and determines no compression. Since the image of the display image is the same as that of Modification 4, illustration and description are omitted.
  • the second determination unit 114 reduces the compression ratio of the side indicated by the route guidance on the video, so that the user can easily view the rear side of the image before operating the direction indicator. You can check your status. That is, according to this modified example, it is possible to make it easier to visually recognize a vehicle or the like existing on the rear side.
  • the first determination unit 113 and the second determination unit 114 may determine processing conditions for the captured image according to the running speed of the own vehicle.
  • the first determination unit 113 determines a predetermined area in the captured image as the clipping area regardless of the number of roads or travel position.
  • the second determination unit 114 sets the compression rate of the compression target area to 0 when the running speed of the host vehicle is below a predetermined threshold value.
  • a compression rate of 0 means no compression.
  • the user can manually switch whether the first determination unit 113 and the second determination unit 114 perform the process of determining the processing conditions of the captured image based on the number of roads and the traveling position, or the above-described process. You may do so.
  • the drive recorder unit 10 when there is little need to pay attention to the rear side of the vehicle, such as when the vehicle is stopped, a natural, uncompressed display image is displayed on the display device 25. It is possible to display As a result, it is possible to reduce situations in which the user feels uncomfortable with the displayed image.
  • the first determination unit 113 and the second determination unit 114 may determine processing conditions for the captured image according to the vehicle-to-vehicle distance.
  • the first determination unit 113 determines a predetermined area in the captured image as a cut-out area, regardless of the number of roads or travel position.
  • the second determination unit 114 sets the compression rate of the compression target area to 0 when the inter-vehicle distance exceeds a predetermined threshold.
  • a compression rate of 0 means no compression.
  • the inter-vehicle distance between the vehicle and the other vehicle is calculated by analyzing the rear image D.
  • the drive recorder unit 10 in situations where there is little need to pay attention to the rear and side directions, such as when the inter-vehicle distance exceeds a certain distance, a natural, uncompressed display image is displayed on the display device 25. It is possible to display As a result, it is possible to reduce situations in which the user feels uncomfortable with the displayed image.
  • Modification 11 In the modification 3 described above, a mode in which the second determination unit 114 reduces the compression rate of the region in which the vehicle or the like exists has been described. However, the second determining unit 114 may reduce the compression ratio of the lane area where the entrance of the service area is present.
  • the service area or the like includes, for example, a service area and a parking area.
  • the second determining unit 114 of this modified example reduces the compression ratio of the lane area where the entrance of the service area or the like exists in the captured image.
  • the lane where the entrance to the service area or the like exists may be detected by analyzing the captured image, or may be detected from the reception result of the positioning signal. Further, the second determining unit 114 may perform the above processing only when a certain period of time has passed since the driver started driving or took a previous break.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Mechanical Engineering (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • Theoretical Computer Science (AREA)
  • Signal Processing (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

本開示の表示制御装置は、自車両が走行する道路を含む1以上の道路の数を示す道路数を検知する第1検知部と、前記第1検知部が検知した道路数に応じて、前記自車両の周囲を撮影した撮影画像のうち、予め定められた表示領域を示す必須表示領域以外の領域の処理条件を決定する決定部と、前記決定部が決定した前記処理条件に従って前記撮影画像を処理し、表示装置に表示させる制御を行う表示制御部と、を備える。

Description

表示制御装置および表示制御方法
 本開示は、表示制御装置および表示制御方法に関する。
 近年、自車両の周囲をカメラで撮影し、撮影した映像を表示機器に表示する電子ミラーを搭載する車両が増加しつつある。自車両の周囲とは、例えば自車両の後方である。しかし、光学ミラーでの後方確認時と同様に、電子ミラーに表示される映像にも後側方に死角が存在し得る。したがって、ドライバーが、後側方に存在する車両等を確認するためには、依然として直接目視することが求められる。そのため、例えば車線変更等の際に、ドライバーの前方注視が疎かになりやすい。
 これに対し、車両後方の領域として、光学ミラーで視認可能な範囲を超える領域をカメラで撮影し、当該撮影画像に対して車両内側から外側へ向かって徐々に車幅方向の圧縮率が高くなるように圧縮して表示装置に表示する技術が提案されている(例えば、特許文献1参照)。
特開2019-145982号公報
 しかしながら、従来の技術では、自車両の後側方を表示する領域は圧縮率が高くなっているため、ドライバーにとって視認しにくい場合がある。したがって、ドライバーが車線変更等を行う際、後側方に存在する車両を見落としてしまう可能性があった。
 本開示は、上記に鑑みてなされたものであって、後側方に存在する車両を視認しやすくすることを目的とする。
 上記目的を達成するために、本開示の表示制御装置は、自車両が走行する道路を含む1以上の道路の数を示す道路数を検知する第1検知部と、前記第1検知部が検知した道路数に応じて、前記自車両の周囲を撮影した撮影画像のうち、予め定められた表示領域を示す必須表示領域以外の領域の処理条件を決定する決定部と、前記決定部が決定した前記処理条件に従って前記撮影画像を処理し、表示装置に表示させる制御を行う表示制御部と、を備える。
 本開示によれば、後側方に存在する車両等を視認しやすくすることができる。なお、ここに記載された効果は必ずしも限定されるものではなく、本明細書中に記載された何れかの効果であってもよい。
図1は、第1実施形態にかかるドライブレコーダユニットを備える車両の一例を示す模式図である。 図2は、第1実施形態にかかる表示制御システムの構成の一例を示すブロック図である。 図3は、第1実施形態にかかるドライブレコーダユニットのマイコンの機能構成の一例を示す機能ブロック図である。 図4は、第1実施形態にかかる自車両の後方映像の一例を示す図である。 図5は、第1実施形態にかかる必須表示領域の決定処理の一例を示すイメージ図である。 図6は、第1実施形態にかかる切り出し領域の決定処理の一例を示すイメージ図である。 図7は、第1実施形態にかかる表示画像の一例を示す図である。 図8は、第1実施形態にかかる圧縮領域内の位置によって圧縮率を変化させる場合の圧縮前の切り出し領域の一例を示すイメージ図である。 図9は、第1実施形態にかかる表示画像の一例を示す図である。 図10は、第1実施形態にかかるドライブレコーダユニットの処理の一例を示すフローチャートである。 図11は、第2実施形態にかかるドライブレコーダユニットのマイコンの機能構成の一例を示す機能ブロック図である。 図12は、第2実施形態にかかる自車両の後方映像の一例を示す図である。 図13は、第2実施形態にかかる切り出し領域の決定処理の一例を示すイメージ図である。 図14は、第2実施形態にかかる表示画像の一例を示す図である。 図15は、第2実施形態にかかる圧縮領域内の位置によって圧縮率を変化させる場合の圧縮前の切り出し領域の一例を示すイメージ図である。 図16は、第2実施形態にかかる表示画像の一例を示す図である。 図17は、第2実施形態にかかるドライブレコーダユニットの処理の一例を示すフローチャートである。 図18は、変形例3にかかる自車両の後方映像の一例を示す図である。 図19は、変形例3にかかる表示画像の一例を示す図である。 図20は、変形例4にかかる表示画像の一例を示す図である。
 以下、図面を参照しながら、本開示にかかる表示制御装置および表示制御方法の実施形態について説明する。
[第1実施形態]
(車両の構成例)
 図1は、第1実施形態にかかるドライブレコーダユニット10を備える車両5の一例を示す模式図である。図1に示すように、第1実施形態の車両5は、例えばドライブレコーダユニット10、リアカメラ32、および表示装置25を備える。車両5は、フロントカメラ31、およびディスプレイ45を備えてもよい。以下では、車両5がフロントカメラ31およびディスプレイ45を備える例について説明する。
 フロントカメラ31は、例えば車両5のフロントガラスに配置される。フロントカメラ31は、車両5の外部を撮像し、前方映像信号を生成する。フロントカメラ31は、例えば、車両5の前方を撮像する。前方映像信号は、例えば、前方映像の情報を含む。前方映像とは、例えば、車両5の前方をフロントカメラ31で撮像した映像である。
 リアカメラ32は、例えば車両5のリアガラスに配置される。リアカメラ32は、車両5の外部を撮像し、後方映像信号を生成する。リアカメラ32は、例えば、車両5の後方を撮像する。リアカメラ32は、広角撮影が可能であってもよい。後方映像信号は、例えば、後方映像の情報を含む。後方映像とは、例えば、車両5の後方を、広角撮影可能なリアカメラ32で撮像した映像である。
 ドライブレコーダユニット10は、例えば車両5のコンソールボックス内に収納される。ドライブレコーダユニット10の処理については後述する。ドライブレコーダユニット10は、表示制御装置の一例である。
 表示装置25は、車両5の後方を表示する。表示装置25は、例えば、車両5の後方映像を表示する。表示装置25は、例えば、液晶ディスプレイである。表示装置25は、例えば車両5の後方を確認するミラーを象ったミラー型表示装置であってもよい。表示装置25は、例えば電子ミラーである。
 表示装置25は、例えば表示装置25と一体に形成された電子制御ユニット(ECU:Electronic Control Unit)によって所定の処理を施された後方映像を表示する。本実施形態において、表示装置25はルームミラーの形をした電子ミラーである。
 なお、図1において表示装置25はルームミラーの形をした電子ミラーとして記載されているが、表示装置25が電子ミラーである場合、表示装置25は後方確認用の他の形の電子ミラーであってもよい。表示装置25は、例えばドアミラーまたはフェンダーミラーの形を有した電子ミラーであってもよい。
 ディスプレイ45は、車両5に関する情報を表示する。ディスプレイ45は、例えば、車両5の前方映像を表示する。ディスプレイ45は、例えば、液晶ディスプレイである。ディスプレイ45は、例えば、インストルメントパネル等にはめ込まれたパネル型の液晶ディスプレイであってもよい。
 ディスプレイ45は、車両5の側面または室内等に設けられた、図示しない他のカメラの映像を表示してもよい。また、ディスプレイ45は、フロントカメラ31およびリアカメラ32を含む、車外を撮像する複数のカメラの映像を合成した映像を表示してもよい。複数のカメラの映像を合成した映像とは、例えば全方位俯瞰映像である。
(表示制御システムの構成例)
 図2は、第1実施形態にかかる表示制御システム1の構成の一例を示すブロック図である。
 図2に示すように、第1実施形態の表示制御システム1は、ドライブレコーダユニット10、表示ユニット20、およびリアカメラ32を備える。第1実施形態の表示制御システム1は、例えば上述の車両5に搭載可能に構成されている。表示制御システム1は、フロントカメラ31およびディスプレイユニット40を含んでもよい。以下、表示制御システム1がフロントカメラ31およびディスプレイユニット40を含む例について説明する。
 ドライブレコーダユニット10は、マイコン11、シリアライザ13m、およびデシリアライザ14mを備える。ドライブレコーダユニット10は、シリアライザ13pおよびデシリアライザ14pを備えてもよい。以下、ドライブレコーダユニット10がシリアライザ13pおよびデシリアライザ14pを備える例について説明する。
 マイコン11は、例えば、CPU(Central Processing Unit)、ROM(Read Only Memory)、およびRAM(Random Access Memory)を備えるコンピュータである。マイコン11は、例えば画像処理プロセッサ11pと、制御部11cと、を備えるSoC(System on Chip)として構成される。制御部11cは、画像処理プロセッサ11pを制御する。
 マイコン11は、シリアライザ13mに制御信号SG3を送信することで、シリアライザ13mを制御可能である。また、マイコン11は、デシリアライザ14mに制御信号SG4を送信することで、デシリアライザ14mを制御可能である。
 マイコン11は、シリアライザ13pに制御信号SG1を送信することで、シリアライザ13pを制御する。また、マイコン11は、デシリアライザ14pに制御信号SG2を送信することで、デシリアライザ14pを制御する。具体的には、制御部11cが、それぞれの制御信号を送信することで、シリアライザ13m、デシリアライザ14m、シリアライザ13p、およびデシリアライザ14pを制御する。
 マイコン11は、リアカメラ32から後方映像信号として映像信号SGr1が送信されてくると、デシリアライザ14mに制御信号SG4を送信することで、リアカメラ32からの映像信号SGr1を受信させる。デシリアライザ14mが受信する映像信号SGr1は、例えばシリアル化された映像信号である。
 デシリアライザ14mは、マイコン11からの制御信号SG4を受信すると、リアカメラ32から送信された映像信号SGr1を受信する。デシリアライザ14mは、映像信号SGr1を、マイコン11とシリアライザ13mとに送信する。デシリアライザ14mは、受信した映像信号SGr1をパラレルデータに変換した上で送信してもよい。
 マイコン11は、フロントカメラ31から前方映像信号として映像信号SGf1が送信されてくると、デシリアライザ14pに制御信号SG2を送信することで、フロントカメラ31からの映像信号SGf1を受信させる。デシリアライザ14pが受信する映像信号SGf1は、例えばシリアル化された映像信号である。
 デシリアライザ14pは、マイコン11からの制御信号SG2を受信すると、フロントカメラ31から送信された映像信号SGf1を受信する。デシリアライザ14pは映像信号SGf1を、マイコン11に送信する。デシリアライザ14pは、受信した映像信号SGf1をパラレルデータに変換した上で送信してもよい。
 マイコン11は、リアカメラ32が生成した後方映像信号を、デシリアライザ14mから映像信号SGr1として受信する。具体的には、画像処理プロセッサ11pが、デシリアライザ14mから映像信号SGr1を受信する。
 画像処理プロセッサ11pは、映像信号SGr1に、例えば、後述する、切り出し処理、圧縮処理等の映像処理を施し、映像信号SGr2を生成する。映像信号SGr2は、映像処理が施された後方映像を表示するための信号である。
 画像処理プロセッサ11pは、映像信号SGr2をシリアライザ13mに送信する。言い換えると、マイコン11は、映像信号SGr2をシリアライザ13mに送信する。マイコン11は、映像信号SGr2をパラレルデータに変換した上でシリアライザ13mに送信してもよい。
 マイコン11は、フロントカメラ31が生成した前方映像信号を、デシリアライザ14pから映像信号SGf1として受信する。具体的には、画像処理プロセッサ11pが、デシリアライザ14pから映像信号SGf1を受信する。
 画像処理プロセッサ11pは、映像信号SGf1に、色彩およびコントラストの調整等の映像処理を施し、映像信号SGf2を生成する。画像処理プロセッサ11pは、映像信号SGf2および映像信号SGr2をシリアライザ13pに送信する。
 言い換えると、マイコン11は、映像信号SGf2および映像信号SGr2をシリアライザ13pに送信する。マイコン11は、映像信号SGf2および映像信号SGr2をパラレルデータに変換した上でシリアライザ13pに送信してもよい。
 シリアライザ13mは、マイコン11からの制御信号SG3を受信すると、マイコン11から受信した映像信号SGr2を表示ユニット20に送信する。例えば、シリアライザ13mは、マイコン11からパラレルデータに変換された映像信号SGr2を受信したとき、シリアルデータに変換した上で映像信号SGr2を送信してもよい。
 マイコン11は、制御信号SG1を送信することによって、映像信号SGf2および映像信号SGr2をディスプレイユニット40に送信させるようにシリアライザ13pを制御する。
 シリアライザ13pは、マイコン11からの制御信号SG1を受信すると、マイコン11から受信した映像信号SGf2および映像信号SGr2をディスプレイユニット40に送信する。例えば、シリアライザ13pは、マイコン11からパラレルデータに変換された映像信号SGf2および映像信号SGr2を受信したとき、シリアルデータに変換した上で映像信号SGf2を送信してもよい。
 なお、マイコン11からシリアライザ13pへの制御信号SG1の送信、デシリアライザ14pへの制御信号SG2の送信、シリアライザ13mへの制御信号SG3の送信、およびデシリアライザ14mへの制御信号SG4の送信は、例えば、I2C(Inter-Integrated Circuit)形式で行われる。
 また、デシリアライザ14pからのマイコン11への映像信号SGf1の送信、マイコン11からのシリアライザ13pへの映像信号SGf2および映像信号SGr2の送信、デシリアライザ14mからのマイコン11への映像信号SGr1の送信、およびマイコン11からのシリアライザ13mへの映像信号SGr2の送信は、例えばMIPI(Mobile Industry Processor Interface)形式で行われる。
 また、リアカメラ32からのデシリアライザ14mへの映像信号SGr1の送信、シリアライザ13mからの表示ユニット20への映像信号SGr2の送信、フロントカメラ31からのデシリアライザ14pへの映像信号SGf1の送信、シリアライザ13pからのディスプレイユニット40への映像信号SGf2および映像信号SGr2の送信は、例えばFPD-Link III(Flat Panel Display-Link III)形式で行われる。
 これらの映像伝送は、有線通信で行われてもよく、無線通信で行われてもよい。例えば、同軸ケーブルを用いた有線通信で映像伝送が行われてもよい。例えば、Wi-Fi(登録商標)を用いた無線通信で映像伝送が行われてもよい。
 ディスプレイユニット40は、ディスプレイ45を備える。ディスプレイユニット40は、例えば車載インフォテインメント(IVI:In-Vehicle Infortainment)システムの一部として構成される。
 ディスプレイユニット40は、受信した映像信号SGf2および映像信号SGr2をディスプレイ45に送信する。ディスプレイ45は、受信した映像信号SGf2に基づき、前方映像を表示可能である。また、ディスプレイ45は、受信した映像信号SGr2に基づき、後方映像を表示可能である。
 表示ユニット20は、表示装置25を備える。表示ユニット20は、ECU(Electronic Control Unit)21を備えてもよい。以下、表示ユニット20がECU21を備える例について説明する。ECU21は、例えば、CPU、ROM、およびRAMを備えるコンピュータである。
 表示ユニット20は、受信した映像信号SGr2を、ECU21に送信する。ECU21は、映像信号SGr2に映像処理を施す。映像処理は、例えば、表示装置25での表示に適するように行われる、色彩およびコントラストの調整である。
 ECU21によって映像処理が施された映像信号SGr2は、表示装置25に受け渡される。表示装置25は、映像信号SGr2に基づいて生成した映像である後方映像を表示する。
(第1実施形態のドライブレコーダユニットの機能構成)
 次に、図3を用いて、第1実施形態にかかるドライブレコーダユニット10の機能構成を説明する。図3は、第1実施形態にかかるドライブレコーダユニット10のマイコン11の機能構成の一例を示す機能ブロック図である。
 ドライブレコーダユニット10のマイコン11は、当該マイコン11のROMに格納された制御プログラムをRAMに展開して、CPUおよび画像処理プロセッサ11pに動作させることによって、図3に示す取得部111と、第1検知部112と、第1決定部113と、第2決定部114と、生成部115と、表示制御部116とを機能部として実現する。
 取得部111は、自車両の後側方を含む当該自車両の周囲の領域を撮影した撮影画像を取得する。本開示において、「取得する」とは、送信されてきた情報、信号、および画像等を受信することも含む。具体的には、取得部111は、リアカメラ32が生成した後方映像を取得する。例えば、取得部111は、映像信号SGr1を取得する。また、取得部111は、フロントカメラ31が生成した前方映像を取得する。例えば、取得部111は、映像信号SGf1を取得する。
 図4は、第1実施形態にかかるリアカメラ32が撮影した自車両の後方映像の一例を示す図である。図4に示す後方映像Dには、車両A1、車両A2、車線B1、車線B2、および車線B3が描画されている。この例で後方映像Dは、車線B2を走行する自車両の後方を広角のリアカメラ32で撮影した映像である。車両A1は、自車両と同じく車線B2を、車両A2は、自車両の左隣の車線B3をそれぞれ走行している。
 第1検知部112は、自車両が走行する道路を含む1以上の道路の数を示す道路数を検知する。なお、本明細書において、道路数とは、車両が走行する車線および歩行者が歩行する歩道の合計数を表すものとする。言い換えると、道路とは車線および歩道を含む。
 具体的には、第1検知部112は、取得部111が取得した後方映像から、車線変更線、あるいは車道と歩道との境界等を検出することにより、道路数を検知する。後方映像は、撮影画像の一例である。車道と歩道との境界とは、例えば縁石である。例えば、図4の例では、第1検知部112は、車線B1、車線B2、および車線B3の3つの車線が存在することから、道路数が「3」であることを検知する。
 なお、第1検知部112は、自車両と反対方向へ走行する車両のための車線については、その数を道路数としてカウントしないこととしてもよい。以下、自車両と反対方向側へ走行する車両のための車線を対向車線と呼ぶことがある。
 対向車線を判別する方法としては、例えば、後方映像中の中央分離帯またはセンターラインを検出し、中央分離帯またはセンターラインと車線との位置関係から当該車線が対向車線であるか否かを判別する方法が挙げられる。また、例えば、後方映像中の車線を走行する車両の走行方向から当該車線が対向車線であるか否かを判別してもよい。
 また、例えば、上空の人工衛星から送信され、車両5の位置を示す信号である測位用信号の受信結果を基に車線に関する情報を取得し、当該車線が対向車線であるか否かを判別してもよい。
 また、例えば、道路に設置された機器と路車間通信(Vehicle-to-roadside-Infrastructure)を行って車線に関する情報を取得することにより、当該車線が対向車線であるか否かを判別してもよい。
 本実施形態では、第1検知部112は、取得部111が取得した撮影画像から道路数を検知しているが、第1検知部112は、測位用信号の受信結果を基に道路数を検知してもよい。
 また、第1検知部112は、路車間通信を行って道路に関する情報を取得することにより、道路数を検知してもよい。
 第1決定部113は、第1検知部112が検知した道路数に応じて、切り出し領域を決定する。第1決定部113は、決定部の一例である。切り出し領域は、撮影画像のうち、表示装置25に表示される領域である。切り出し領域の決定は、処理条件の一例である。
 具体的には、第1決定部113は、まず、取得部111が取得した後方映像中の、予め定められた領域を示す必須表示領域を決定する。必須表示領域は、予め定めた条件に従って、第1決定部113が決定する。
 必須表示領域を決定するための条件は、国際連合が定める規則46(UN-R46:United Nations-Regulation46)の視野に関する規定を満たすものであれば、原則として自由に設定することができる。
 UN-R46の視野に関する規定とは、「視野は、車両の垂直長手方向正中面を中心とする道路の少なくとも20m幅の平坦な水平部分、およびドライバーの眼球ポイントの後方60mから水平線までを、ドライバーが目視可能であるものとする。」というものである。
 図5は、第1実施形態にかかる必須表示領域の決定処理の一例を示すイメージ図である。図5に示すように、第1決定部113は、後方映像Dの中の予め定められた領域(黒枠内の領域)を必須表示領域Eとして決定する。
 第1決定部113は、必須表示領域Eを決定した後、第1検知部112が検知した道路数に応じて、必須表示領域Eを含む切り出し領域を決定する。例えば、第1決定部113は、第1検知部112が検知した道路数と、切り出し領域の大きさとを対応付けたテーブルに基づいて、必須表示領域Eを中心として切り出し領域を決定する。
 なお、原則として、道路数が多くなれば切り出し領域は大きくなり、少なくなれば切り出し領域は小さくなる。しかし、道路数が多過ぎるような場合に、切り出し領域が大きくなり過ぎてしまう可能性があるため、第1決定部113は、切り出し領域の大きさの上限を決めておき、上限を超える大きさにはならないようにしてもよい。
 図6は、第1実施形態にかかる切り出し領域の決定処理の一例を示すイメージ図である。まず、第1決定部113は、第1検知部112が検知した道路数「3」に対応する切り出し領域の大きさを決定する。そして、図6に示すように、第1決定部113は、必須表示領域Eを中心とした切り出し領域Cを決定する。
 切り出し領域Cは、必須表示領域E、映像上で必須表示領域Eの左側に位置する左側領域L、および、映像上で必須表示領域Eの右側に位置する右側領域Rで構成される。
 図3に戻り説明を続ける。第2決定部114は、第1検知部112が検知した道路数に応じて、自車両の周囲を撮影した撮影画像の切り出し領域内のうち、必須表示領域以外の領域の処理条件を決定する。以下、撮影画像の切り出し領域内のうち、必須表示領域以外の領域のことを圧縮対象領域と呼ぶことがある。第2決定部114は、決定部の一例である。なお、第2決定部114は、上述の第1決定部113の機能を兼ねてもよい。また、第1決定部113が、第2決定部114の機能を兼ねてもよい。
 第2決定部114は、切り出し領域内の圧縮対象領域およびについて、第1検知部112が検知した道路数に応じて、車幅方向における表示の圧縮率を決定する。図6の例では、圧縮対象領域は左側領域Lおよび右側領域Rである。車幅方向における表示の圧縮率とは、撮影画像を車幅方向にどの程度圧縮して表示するか、を指す。
 例えば、第2決定部114は、第1検知部112が検知した道路数と圧縮率とを対応付けたテーブルに基づいて、切り出し領域内の圧縮対象領域の圧縮率を決定する。
 なお、原則として、道路数が多くなれば圧縮率は高くなり、少なくなれば圧縮率は低くなる。しかし、道路数が多過ぎるような場合に、圧縮率が高くなり過ぎてしまう可能性があるため、第1決定部113は、圧縮率の上限を決めておき、上限を超える圧縮率にはならないようにしてもよい。
 図6の例では、第2決定部114は、第1検知部112が検知した道路数「3」に対応する圧縮率を、左側領域Lおよび右側領域Rの圧縮率として決定する。第2決定部114は、左側領域Lおよび右側領域Rを、例えば車幅方向に2倍に圧縮すると決定する。
 図3に戻り説明を続ける。生成部115は、第1決定部113および第2決定部114が決定した処理条件に従って撮影画像を処理することによって、表示装置に表示するための表示画像を生成する。
 具体的には、生成部115は、まず、第1決定部113が決定した切り出し領域Cを、後方映像Dから切り出す。次に、生成部115は、第2決定部114が決定した圧縮率に従い、切り出し領域Cの左側領域Lおよび右側領域Rを圧縮する処理を行い、表示装置25に表示するための表示画像を生成する。例えば、生成部115は、左側領域Lおよび右側領域Rを車幅方向に2倍に圧縮する処理を行う。ここでの表示画像は、例えば映像信号SGr2に基づいて表示される画像である。
 また、生成部115は、取得部111が取得した前方映像に、色彩およびコントラストの調整等の映像処理を施し、表示画像を生成する。ここでの表示画像は、例えば映像信号SGf2に基づいて表示される画像である。
 表示制御部116は、第1決定部113および第2決定部114が決定した処理条件に従って撮影画像を処理し、表示装置に表示させる制御を行う。具体的には、表示制御部116は、生成部115が生成した表示画像を表示装置25に表示させる制御を行う。また、表示制御部116は、生成部115が生成した表示画像をディスプレイ45に表示させる制御を行う。
 図7は、第1実施形態にかかる表示装置25に表示される表示画像の一例である。図7の例では、表示画像Wは、左側圧縮領域LP、必須表示領域E、および右側圧縮領域RPで構成される。必須表示領域Eは、表示制御部116により、後方映像Dと同じ縮尺で、表示装置25に表示される。
 左側圧縮領域LPは、図6の切り出し領域Cの左側領域Lを車幅方向に2倍に圧縮した領域である。右側圧縮領域RPは、図6の切り出し領域Cの右側領域Rを車幅方向に2倍に圧縮した領域である。なお、図7中の黒枠等の枠は、説明の便宜上描画しているものであり、実際に表示装置25に表示される表示画像Wに枠は表示されない。
 また、上記の例では、第2決定部114は、切り出し領域Cの圧縮対象領域を一律に車幅方向に2倍に圧縮すると決定しているが、圧縮領域内の位置によって圧縮率が異なっていてもよい。例えば、第2決定部114は、切り出し領域Cの中心から外側に向かうに連れ、段階的に圧縮領域の圧縮率が高くなるように圧縮率を決定してもよい。
 図8は、第1実施形態にかかる圧縮領域内の位置によって圧縮率を変化させる場合の圧縮前の切り出し領域の一例を示すイメージ図である。図8の例では、切り出し領域Cは、第1左側領域L1、第2左側領域L2、必須表示領域E、第1右側領域R1、第2右側領域R2から構成される。なお、第1検知部112および第1決定部113は、図5および図6で説明した処理と同様の処理を行うものとする。
 第2決定部114は、第1検知部112が検知した道路数「3」に対応する圧縮率およびおよびを決定する。例えば、第2決定部114は、第1左側領域L1および第1右側領域R1は、車幅方向に2倍に圧縮し、第2左側領域L2および第2右側領域R2は、車幅方向に4倍に圧縮すると決定する。
 生成部115は、第1決定部113の決定に従い、切り出し領域Cを切り出す。そして、生成部115は、第2決定部114が決定した圧縮率に従い、切り出し領域Cの第1左側領域L1および第1右側領域R1を車幅方向に2倍に、第2左側領域L2および第2右側領域R2を車幅方向に4倍に圧縮する処理を行い、表示装置25に表示するための表示画像Wを生成する。表示制御部116は、生成部115が生成した表示画像Wを表示装置25に表示する。
 図9は、第1実施形態にかかる表示装置25に表示される表示画像の一例である。図9の例では、表示画像Wは、第1左側圧縮領域LP1、第2左側圧縮領域LP2、必須表示領域E、第1右側圧縮領域RP1、および第2右側圧縮領域RP2で構成される。必須表示領域Eは、表示制御部116により、後方映像Dと同じ縮尺で、表示装置25に表示される。
 第1左側圧縮領域LP1は、図8の切り出し領域Cの第1左側領域L1を車幅方向に2倍に圧縮した領域である。第2左側圧縮領域LP2は、第2左側領域L2を車幅方向に4倍に圧縮した領域である。
 第1右側圧縮領域RP1は、第1右側領域R1を車幅方向に2倍に圧縮した領域である。第2右側圧縮領域RP2は、第2右側領域R2を車幅方向に4倍に圧縮した領域である。なお、図9中の黒枠等の枠は、説明の便宜上描画しているものであり、実際に表示装置25に表示される表示画像Wに枠は表示されない。
 このように、第2決定部114が、撮影画像に対して自車両の内側から外側へ向かって徐々に車幅方向の圧縮率が高くなるように圧縮率を決定することで、例えば、自車両に近い領域を後方映像Dに近い縮尺で、自車両に遠い領域をより高い圧縮率で表示することができる。これにより、死角となる領域を低減しつつ、ユーザにとって重要度の高い領域の視認性を低下させずに表示画像Wを表示することができる。
 なお、第2決定部114は、道路数に応じて、圧縮率を一律にするか、領域毎に圧縮率を変化させるかを決めてもよい。例えば、第2決定部114は、道路数が3以内の場合は、図7のように圧縮率を一律にし、3を超える場合は、図9のように段階的に圧縮率を変化させてもよい。
(第1実施形態のドライブレコーダユニットの処理)
 次に、第1実施形態にかかるドライブレコーダユニット10が実行する処理について説明する。図10は、第1実施形態にかかるドライブレコーダユニット10が実行する処理の一例を示すフローチャートである。
 まず、取得部111は、撮影画像として、リアカメラ32が生成した後方映像を取得する(ステップS1)。
 次に、第1検知部112は、取得部111が取得した後方映像に基づいて、道路数を検知する(ステップS2)。
 次に、第1決定部113は、後方映像の必須表示領域を決定する。そして、第1決定部113は、第1検知部112が検知した道路数に応じて、必須表示領域を中心とした切り出し領域を決定する(ステップS3)。
 次に、第2決定部114は、第1検知部112が検知した道路数に応じて、切り出し領域中の圧縮対象領域の圧縮率を決定する(ステップS4)。
 次に、生成部115は、後方映像から第1決定部113が決定した切り出し領域を切り出す。そして、生成部115は、第2決定部114が決定した圧縮率に従い、切り出し領域中の圧縮対象領域を車幅方向に圧縮する処理を行い、表示装置25に表示するための表示画面を生成する(ステップS5)。
 次に、表示制御部116は、生成部115が生成した表示画像を表示装置25に表示させる制御を行う(ステップS6)。
 次に、表示制御部116は、表示画像の表示を終了するか否かを判断する(ステップS7)。例えば、表示制御部116は、車両5のエンジン等の動力源が停止されてから所定時間が経過した場合に、表示を終了すると判断する。
 表示画像の表示を終了しない場合(ステップS7:No)、ステップS1の処理に移行する。一方、表示画像の表示を終了する場合(ステップS7:Yes)、表示制御部116は、本処理を終了する。
(第1実施形態にかかるドライブレコーダユニットの効果)
 次に、第1実施形態にかかるドライブレコーダユニット10の効果について説明する。本実施形態にかかるドライブレコーダユニット10は、自車両が走行する道路を含む1以上の道路の数を示す道路数に応じて、自車両の周囲を撮影した撮影画像のうち、上記の必須表示領域以外の領域の処理条件を決定する。
 より具体的には、本実施形態では、第2決定部114は、道路数に比例して圧縮率を高くするように処理条件を決定する。したがって、道路数が少ない場合には、圧縮率は低くなる。このため、少ない道路数であるにも関わらず高い圧縮率で撮影画像が圧縮されてしまい、後側方の車両が視認し難くなってしまうような事態を防止することができる。つまり、本実施形態にかかるドライブレコーダユニット10によれば、後側方に存在する車両等を視認しやすくすることができる。
 また、「道路」には歩道が含まれる。このため、ユーザは表示装置25を見ることで、後側方の歩行者の行動を確認することもできる。
[第2実施形態]
 次に、第2実施形態にかかるドライブレコーダユニット10について説明する。
 第2実施形態にかかるドライブレコーダユニット10は、機能部として、第2検知部117を備える点で第1実施形態にかかるドライブレコーダユニット10と異なる。以下、図11から図20を用いて第2実施形態にかかるドライブレコーダユニット10について説明する。第1実施形態で説明した構成や動作と同一の構成や動作については、同一の符号を用いることで、その説明を省略又は簡略化する。
(第2実施形態のドライブレコーダユニットの機能構成)
 図11を用いて、第2実施形態にかかるドライブレコーダユニット10の機能構成を説明する。図11は、第2実施形態にかかるドライブレコーダユニット10のマイコン11の機能構成の一例を示す機能ブロック図である。
 第2実施形態にかかるドライブレコーダユニット10は、第1実施形態にかかるドライブレコーダユニット10が備える機能部に加えて、更に第2検知部117を備える。
 第2検知部117は、自車両の走行位置を検知する。第2検知部117は、検知部の一例である。具体的には、第2検知部117は、取得部111が取得した後方映像から、車線変更線、車道と歩道との境界等を検出し、これらの後方映像中における位置関係から自車両の走行位置を検知する。
 なお、本実施形態では、第2検知部117は、取得部111が取得した撮影画像から自車両の走行位置を検知しているが、第2検知部117は、測位用信号の受信結果を基に自車両の走行位置を検知してもよい。また、第2検知部117は、道路に設置された機器と路車間通信を行い、通信結果等に基づいて自車両の走行位置を検知してもよい。通信結果は、例えば通信速度や信号強度を含む。
 なお、第2検知部117は、上述の第1検知部112の機能を兼ねてもよい。また、第1検知部112が、第2検知部117の機能を兼ねてもよい。
 図12は、第2実施形態にかかるリアカメラ32が撮影した自車両の後方映像の一例を示す図である。図12に示す後方映像Dには、車両A1、車両A2、車線B1、車線B2、および車線B3が描画されている。この例で後方映像Dは、車線B1を走行する自車両の後方を広角のリアカメラ32で撮影した映像である。車両A1は、自車両と同じく車線B1を、車両A2は、車線B3をそれぞれ走行している。
 図12の例では、第2検知部117は、後方映像D中の車線B1、車線B2および車線B3の位置関係から、自車両の走行位置が「映像上で最も左側の車線」であることを検知する。映像上で最も左側の車線とは、車線B1である。
 第1決定部113は、第1検知部112が検知した道路数および第2検知部117が検知した自車両の走行位置に応じて、切り出し領域を決定する。
 具体的には、第1決定部113は、第1実施形態と同様の処理を行い、切り出し領域の大きさを決定する。次に、第1決定部113は、第2検知部117が検知した自車両の走行位置に応じて、切り出し領域の切り出し方を決定する。
 例えば、自車両の左側に車線又は歩道が存在しない場合、自車両の左側の情報の重要度は低くなる。したがって、この場合、第1決定部113は、必須表示領域の左端と切り出し領域の左端が一致するように、切り出し方を決定する。
 図13は、第2実施形態にかかる切り出し領域の決定処理の一例を示すイメージ図である。図13に示すように、第1決定部113は、第2検知部117が検知した自車両の走行位置が「映像上で最も左側の車線」であることに応じて、必須表示領域Eの左端と切り出し領域Cの左端が一致するように切り出し方を決定する。
 図13の例では、切り出し領域Cは、必須表示領域E、および、映像上で必須表示領域Eの右側に位置する圧縮対象領域Oで構成される。
 第2決定部114は、第1検知部112が検知した道路数および第2検知部117が検知した自車両の走行位置に応じて、撮影画像のうち、必須表示領域以外の領域の処理条件を決定する。
 第2決定部114は、例えば、第1検知部112が検知した道路数と、第2検知部117が検知した走行位置と、圧縮率を含む圧縮方法とを対応付けたテーブルに基づいて、切り出し領域内の圧縮対象領域の圧縮方法を決定する。
 走行位置は、例えば、撮影画像で確認できる1番左側の車線又は歩道を「1」、その左の車線を「2」といったように数値で表すものとする。また、圧縮方法は、例えば、必須表示領域の左側の領域の圧縮率と必須表示領域の右側の領域の圧縮率とを表したものである。なお、圧縮方法は、これに加え、段階的に圧縮率を変更するか否か等について定めるものであってもよい。
 第2決定部114は、例えば、自車両が最も左側の車線を走行している場合、必須表示領域の左側の領域の圧縮率を高くし、右側の領域の圧縮率を低くする。なお、第2決定部114は、右側または左側の圧縮率を「表示なし」と決定してもよい。第2決定部114によって圧縮率が「表示なし」と決定された領域は、表示装置25によって表示されない。右側または左側の領域の圧縮率を「表示なし」と決定する、とは、右側または左側の領域を無限大の圧縮率で圧縮する、と言い換えることができる。
 図13の例では、第2決定部114は、第1検知部112が検知した道路数「3」および第2検知部117が検知した走行位置「1」に対応する圧縮方法を、圧縮対象領域Oの圧縮方法として決定する。例えば、第2決定部114は、必須表示領域Eの左側を表示なし、必須表示領域Eの右側を車幅方向に2倍に圧縮、と決定する。走行位置「1」は、前述の通り映像上で最も左側の車線である。
 生成部115および表示制御部116の処理は第1実施形態と同様のため説明は省略する。図14は、第2実施形態にかかる表示装置25に表示される表示画像の一例である。図14の例では、表示画像Wは、必須表示領域E、および圧縮表示領域OPで構成される。必須表示領域Eは、表示制御部116により、後方映像Dと同じ縮尺で、表示装置25に表示される。
 圧縮表示領域OPは、図13の切り出し領域Cの右側の圧縮対象領域Oを車幅方向に2倍に圧縮した領域である。なお、図13中の黒枠等の枠は、説明の便宜上描画しているものであり、実際に表示装置25に表示される表示画像Wに枠は表示されない。
 また、上記の例では、第2決定部114は、切り出し領域Cの圧縮対象領域を一律に車幅方向に2倍に圧縮しているが、第1実施形態と同様、圧縮領域内の位置によって圧縮率が異なっていてもよい。例えば、第2決定部114は、切り出し領域Cの中心から外側に向かうに連れ、段階的に圧縮領域の圧縮率が高くなるように圧縮率を決定してもよい。
 図15は、第2実施形態にかかる圧縮領域内の位置によって圧縮率を変化させる場合の圧縮前の切り出し領域の一例を示すイメージ図である。図15の例では、切り出し領域Cは、必須表示領域E、第1圧縮対象領域O1、第2圧縮対象領域O2から構成される。なお、第1検知部112、第2検知部117および第1決定部113は、図13で説明した処理と同様の処理を行うものとする。
 第2決定部114は、第1検知部112が検知した道路数「3」および第2検知部117が検知した走行位置「1」に対応する圧縮方法を決定する。例えば、第2決定部114は、第1圧縮対象領域O1は、車幅方向に2倍に圧縮し、第2圧縮対象領域O2は、車幅方向に4倍に圧縮すると決定する。
 生成部115は、第1決定部113の決定に従い、切り出し領域Cを切り出す。そして、生成部115は、第2決定部114が決定した圧縮方法に従い、切り出し領域Cの第1圧縮対象領域O1を車幅方向に2倍に、第2圧縮対象領域O2を車幅方向に4倍に圧縮する処理を行い、表示装置25に表示するための表示画像Wを生成する。表示制御部116は、生成部115が生成した表示画像Wを表示装置25に表示する。
 図16は、表示装置25に表示される表示画像の一例である。図16の例では、表示画像Wは、必須表示領域E、第1圧縮表示領域OP1、および第2圧縮表示領域OP2で構成される。必須表示領域Eは、表示制御部116により、後方映像Dと同じ縮尺で、表示装置25に表示される。
 第1圧縮表示領域OP1は、図15の切り出し領域Cの第1圧縮対象領域O1を車幅方向に2倍に圧縮した領域である。第2圧縮表示領域LP2は、第2圧縮対象領域O2を車幅方向に4倍に圧縮した領域である。図15中の黒枠等の枠は、説明の便宜上描画しているものであり、実際に表示装置25に表示される表示画像Wに枠は表示されない。
 なお、第2決定部114は、道路数および走行位置に応じて、領域毎に圧縮方法を決めてもよい。例えば、第2決定部114は、道路数が3以内の場合は、図14のように圧縮率を一律にし、3を超える場合は、図16のように段階的に圧縮率を変化させてもよい。
 また、第2決定部114は、走行位置に応じて、必須表示領域の左側と右側で圧縮方法を変えてもよい。例えば、切り出し領域において、必須表示領域の左側よりも右側の領域の方が大きい場合、第2決定部114は、左側の領域よりも右側の領域の圧縮率が高くなるように圧縮率を決定してもよい。第2決定部114は、例えば、左側の領域は車幅方向に2倍に圧縮し、右側の領域のうち必須表示領域に近い領域は車幅方向に2倍に圧縮し、右側の領域のうち必須表示領域に遠い領域は車幅方向に4倍に圧縮すると決定してもよい。
(第2実施形態のドライブレコーダユニットの処理)
 次に、第2実施形態にかかるドライブレコーダユニット10が実行する処理について説明する。図17は、第2実施形態にかかるドライブレコーダユニット10が実行する処理の一例を示すフローチャートである。
 まず、取得部111は、撮影画像として、リアカメラ32が生成した後方映像を取得する(ステップS11)。
 次に、第1検知部112は、取得部111が取得した後方映像に基づいて、道路数を検知する(ステップS12)。
 次に、第2検知部117は、取得部111が取得した後方映像に基づいて、走行位置を検知する(ステップS13)。
 次に、第1決定部113は、後方映像の必須表示領域を決定する。そして、第1決定部113は、第1検知部112が検知した道路数および第2検知部117が検知した走行位置に応じて、切り出し領域の大きさおよび切り出し方を決定する(ステップS14)。
 次に、第2決定部114は、第1検知部112が検知した道路数および走行位置に応じて、圧縮対象領域の圧縮方法を決定する(ステップS15)。
 次に、生成部115は、後方映像から第1決定部113が決定した切り出し領域を切り出す。そして、生成部115は、第2決定部114が決定した圧縮方法に従い、圧縮対象領域を車幅方向に圧縮する処理を行い、表示装置25に表示するための表示画面を生成する(ステップS16)。
 次に、表示制御部116は、生成部115が生成した表示画像を表示装置25に表示させる制御を行う(ステップS17)。
 次に、表示制御部116は、表示画像の表示を終了するか否かを判断する(ステップS18)。例えば、表示制御部116は、車両5のエンジン等の動力源が停止されてから所定時間が経過した場合に、表示を終了すると判断する。
 表示画像の表示を終了しない場合(ステップS18:No)、ステップS11の処理に移行する。一方、表示画像の表示を終了する場合(ステップS18:Yes)、表示制御部116は、本処理を終了する。
(第2実施形態にかかるドライブレコーダユニットの効果)
 次に、第2実施形態にかかるドライブレコーダユニット10の効果について説明する。本実施形態にかかるドライブレコーダユニット10は、自車両の走行位置に応じて、上記の必須表示領域以外の領域の処理条件を決定する。
 より具体的には、本実施形態では、自車両が最も左側の車線を走行している場合、第2決定部114は、必須表示領域の左側の領域の圧縮率を高くし、右側の領域の圧縮率を低くする。これは、自車両が最も左側の車線を走行している場合、自車両の左側に車両等が存在することはないため、自車両の左側に注意を払う必要性が低いからである。一方、自車両の右側には車両等が存在する可能性があるため、注意を払う必要性が高いからである。
 したがって、本実施形態にかかるドライブレコーダユニット10は、重要度の高い部分のみを視認しやすい圧縮率が低い状態で表示することができる。つまり、後側方に存在する車両等を視認しやすくすることができる。
 なお、上述した実施の形態は、表示制御システム1が有する構成又は機能の一部を変更することで、適宜に変形して実施することも可能である。そこで、以下では、上述した実施の形態に係るいくつかの変形例を他の実施の形態として説明する。なお、以下では、上述した実施の形態と異なる点を主に説明することとし、既に説明した内容と共通する点については詳細な説明を省略する。また、以下で説明する変形例は、個別に実施されてもよいし、適宜組み合わせて実施されてもよい。
(変形例1)
 上述した第1実施形態および第2実施形態では、表示制御システム1が、ドライブレコーダユニット10、表示ユニット20、フロントカメラ31、リアカメラ32、およびディスプレイユニット40で構成される形態について説明した。しかし、表示制御システム1は、表示ユニット20およびリアカメラ32のみから構成されていてもよい。
 この場合、表示ユニット20のECU21が、当該ECU21のROMに格納された制御プログラムをRAMに展開して、CPUに動作させることによって、各機能部を実現する。ECU21は、例えば、マイコン11が備える取得部111、第1検知部112、第1決定部113、第2決定部114、生成部115、および表示制御部116を各機能部として実現する。
(変形例2)
 上述した第1実施形態および第2実施形態では、圧縮処理を施した後方映像を表示装置25に表示する形態について説明した。しかし、表示制御部116は、圧縮処理を施した後方映像をディスプレイ45に表示させる制御を行ってもよい。また、表示制御部116は、圧縮処理を施した後方映像を、車両5に搭載したヘッドアップディスプレイ(HUD)等に表示させる制御を行ってもよい。
(変形例3)
 上述した第1実施形態および第2実施形態では、表示装置25に後方映像のみを表示する形態について説明した。しかし、表示装置25に前方映像を合成した映像を表示してもよい。
 本変形例において、生成部115は、例えば、圧縮処理を施した後方映像の左側に、前方映像から切り出した自車両の左側前方の画像を、右側に前方映像から切り出した自車両の右側前方の画像を合成して表示装置25に表示する表示画像を生成する。
 なお、生成部115は、前方映像から歩行者や自転車を検知し、歩行者や自転車がいる場合のみ、後方画像に前方の画像を合成して表示装置25に表示する表示画像を生成してもよい。また、生成部115は、後方映像については車道のみを表示対象とし、前方映像については歩道のみを表示対象として、後方映像と前方映像とを合成して表示画面を生成してもよい。
 生成部115が、後方映像と前方映像とを合成した表示画像を生成することにより、ユーザは、1つの画面から後方および前方の両方の情報を得ることができる。これにより、ユーザが自車両の周囲をより視認しやすくなるため、事故が発生する可能性を低減できる。
(変形例4)
 上述した第2実施形態では、第2決定部114が、道路数および走行位置に基づいて、撮影画像の圧縮方法を決定する形態について説明した。しかし、第2決定部114は、これらに加えて、車両等の有無に基づいて圧縮方法を決定してもよい。ここで、車両とは二輪車を含む。
 本変形例の第2決定部114は、撮影画像において、他の車両等が存在しない領域の圧縮率を上昇させる。
 図18は、変形例3にかかる自車両の後方映像の一例を示す図である。図18の例では、領域ONには車両が存在せず、領域OEには車両A2が存在している。この場合、第2決定部114は、領域ONの圧縮率を上昇させ、領域OEの圧縮率は領域ONよりも低くする。
 図19は、変形例3にかかる表示装置25に表示する表示画像の一例である。図19の例では、表示画像Wは、必須表示領域E、高圧縮領域NPおよび低圧縮領域EPで構成される。必須表示領域Eは、表示制御部116により、後方映像Dと同じ縮尺で、表示装置25に表示される。
 高圧縮領域NPは、図18の切り出し領域Cの領域ONを車幅方向に4倍に圧縮した領域である。低圧縮領域EPは、図18の切り出し領域Cの領域OEを車幅方向に2倍に圧縮した領域である。なお、図19中の黒枠等の枠は、説明の便宜上描画しているものであり、実際に表示装置25に表示される表示画像Wに枠は表示されない。
 このように、第2決定部114が、車両等が存在しない領域については、高い圧縮率に、車両等が存在する領域については低い圧縮率にすることにより、後側方に存在する注意すべき対象が視認しやすくなる。したがって、本変形例のドライブレコーダユニット10は、後側方に存在する車両等を視認しやすくすることができる。
(変形例5)
 第1決定部113および第2決定部114は、ユーザによる方向指示器の動作と連動して、撮影画像の処理条件を決定してもよい。
 本変形例の第1決定部113は、ユーザが方向指示器を操作した場合、ユーザの操作に合わせて切り出し領域を決定する。例えば、第1決定部113は、予め、方向指示器が左側を指示した場合の切り出し領域の大きさと切り出し方、および、方向指示器が右側を指示した場合の切り出し領域の大きさと切り出し方を定めておき、ユーザの操作に合わせて切り出し領域を決定する。
 第2決定部114は、ユーザによる方向指示器の操作と連動して、圧縮対象領域の圧縮率を決定する。例えば、第2決定部114は、必須表示領域を基準として、方向指示器が指示する側の領域の圧縮率が低くなるように処理条件を決定する。
 ここで、表示装置25に図7の表示画像Wが表示されている状態で、ユーザが左側に車線変更するため、方向指示器を操作して右側を指示した場合を考える。この場合、第1決定部113は、方向指示器が右側を指示した場合の切り出し領域の大きさと切り出し方を決定する。この例では、第1決定部113は、図7の必須表示領域Eおよび右側領域Rを切り出し領域Cとして決定する。
 次に、第2決定部114は、映像上で方向指示器が指示した側の圧縮率を低下させる。この例では、第2決定部114は、図7の右側領域Rの圧縮率を低下させ、無圧縮に決定する。
 図20は、変形例4にかかる表示装置25に表示する表示画像の一例である。図20の例では、表示画像Wは、必須表示領域E、右側領域Rで構成される。必須表示領域Eおよび右側領域Rは、表示制御部116により、後方映像Dと同じ縮尺で、表示装置25に表示される。なお、図20中の黒枠等の枠は、説明の便宜上描画しているものであり、実際に表示装置25に表示される表示画像Wに枠は表示されない。
 このように、第2決定部114が、映像上で方向指示器が指示した側の圧縮率を低下させることにより、例えば、ユーザが、右折あるいは右側の車線への車線変更をする場合、左側後方を視認しやすくなる。つまり、本変形例によれば、後側方に存在する車両等を視認しやすくすることができる。
(変形例6)
 第1決定部113および第2決定部114は、ユーザによるハンドルの操作と連動して、撮影画像の処理条件を決定してもよい。
 本変形例の第1決定部113は、ユーザがハンドルを操作した場合、ユーザの操作に合わせて切り出し領域を決定する。例えば、第1決定部113は、予め、ハンドルを左側に切った場合の切り出し領域の大きさと切り出し方、および、ハンドルを右側に切った場合の切り出し領域の大きさと切り出し方を定めておき、ユーザの操作に合わせて切り出し領域を決定する。
 なお、ハンドルを左側又は右側に切ったか否かという判断は、例えば、操舵角が閾値を超えたか否かで判断するものとする。
 第2決定部114は、ユーザによるハンドルの操作と連動して、圧縮対象領域の圧縮率を決定する。例えば、第2決定部114は、必須表示領域を基準として、ハンドルが切られた側の領域の圧縮率が低くなるように処理条件を決定する。
 ここで、表示装置25に図7の表示画像Wが表示されている状態で、ユーザが右側に車線変更するため、ハンドルを右に切った場合を考える。この場合、第1決定部113は、ハンドルを右側に切った場合の切り出し領域の大きさと切り出し方を決定する。この例では、第1決定部113は、図7の必須表示領域Eおよび右側領域Rを切り出し領域Cとして決定する。
 次に、第2決定部114は、映像上でハンドルが切られた側の圧縮率を低下させる。この例では、第2決定部114は、図7の右側領域Rの圧縮率を低下させ、無圧縮に決定する。表示画像のイメージは、変形例4と同様のため、図示および説明を省略する。
 このように、第2決定部114が、映像上でハンドルが切られた側の圧縮率を低下させることにより、例えば、ユーザが、右折あるいは右側の車線への車線変更をする場合、左側後方を視認しやすくなる。つまり、本変形例によれば、後側方に存在する車両等を視認しやすくすることができる。
(変形例7)
 第1決定部113および第2決定部114は、ユーザの視線の動きと連動して、撮影画像の処理条件を決定してもよい。
 本変形例の第1決定部113は、ユーザが視線を動かした場合、ユーザの視線の動きに合わせて切り出し領域を決定する。例えば、第1決定部113は、予め、ユーザが視線を左側に向けた場合の切り出し領域の大きさと切り出し方、および、ユーザが視線を右側に向けた場合の切り出し領域の大きさと切り出し方を定めておき、ユーザの視線の動きに合わせて切り出し領域を決定する。
 なお、ユーザの視線の動きは、例えば、車両5内にユーザを撮影できるカメラ等を設け、カメラが撮影した映像を解析することにより検知するものとする。ユーザは、例えば運転者である。
 第2決定部114は、ユーザの視線の動きと連動して、圧縮対象領域の圧縮率を決定する。例えば、第2決定部114は、必須表示領域を基準として、視線が向いた側の領域の圧縮率が低くなるように処理条件を決定する。
 ここで、表示装置25に図7の表示画像Wが表示されている状態で、ユーザが左側に車線変更するため、視線を右に向けた場合を考える。この場合、第1決定部113は、ユーザが視線を右側に向けた場合の切り出し領域の大きさと切り出し方を決定する。この例では、第1決定部113は、図7の必須表示領域Eおよび右側領域Rを切り出し領域Cとして決定する。
 次に、第2決定部114は、映像上でユーザの視線が向いた側の圧縮率を低下させる。この例では、第2決定部114は、図7の右側領域Rの圧縮率を低下させ、無圧縮に決定する。表示画像のイメージは、変形例4と同様のため、図示および説明を省略する。
 このように、第2決定部114が、映像上でユーザの視線が向いた側の圧縮率を低下させることにより、例えば、ユーザが、右折や右側の車線への車線変更をする場合、左側後方を視認しやすくなる。つまり、本変形例によれば、後側方に存在する車両等を視認しやすくすることができる。
(変形例8)
 第1決定部113および第2決定部114は、経路案内と連動して、撮影画像の処理条件を決定してもよい。
 本変形例の第1決定部113は、経路案内に合わせて切り出し領域を決定する。例えば、第1決定部113は、予め、左折を案内した場合の切り出し領域の大きさと切り出し方、および、右折を案内した場合の切り出し領域の大きさと切り出し方を定めておき、経路案内に合わせて切り出し領域を決定する。
 なお、経路案内は、例えば、測位用信号を分析することにより、自車両の現在位置および進行方向を特定して、目的地までの経路を案内するものである。
 第2決定部114は、経路案内に合わせて、圧縮対象領域の圧縮率を決定する。例えば、第2決定部114は、必須表示領域を基準として、経路案内により指示される側の領域の圧縮率が低くなるように処理条件を決定する。
 ここで、表示装置25に図7の表示画像Wが表示されている状態で、経路案内により右折が指示された場合を考える。この場合、第1決定部113は、右折を案内した場合の切り出し領域の大きさと切り出し方を決定する。この例では、第1決定部113は、図7の必須表示領域Eおよび右側領域Rを切り出し領域Cとして決定する。
 次に、第2決定部114は、映像上で経路案内により指示された側の圧縮率を低下させる。この例では、第2決定部114は、図7の右側領域Rの圧縮率を低下させ、無圧縮に決定する。表示画像のイメージは、変形例4と同様のため、図示および説明を省略する。
 このように、第2決定部114が、映像上で経路案内により指示された側の圧縮率を低下させることにより、ユーザは、方向指示器を操作する前に、違和感の少ない表示画像により後側方の様子を確認することができる。つまり、本変形例によれば、後側方に存在する車両等を視認しやすくすることができる。
(変形例9)
 第1決定部113および第2決定部114は、自車両の走行速度に応じて、撮影画像の処理条件を決定してもよい。
 本変形例において、第1決定部113は、自車両の速度が予め定めた閾値を下回った場合、道路数や走行位置に関係なく、撮影画像中の予め定めた領域を切り出し領域として決定する。第2決定部114は、自車両の走行速度が予め定めた閾値を下回った場合、圧縮対象領域の圧縮率を0にする。圧縮率が0とは、無圧縮ということである。
 また、第1決定部113および第2決定部114が、道路数および走行位置に基づいて、撮影画像の処理条件を決定する処理を行うか、上述した処理を行うかをユーザが手動で切り替えられるようにしてもよい。
 本変形例にかかるドライブレコーダユニット10によれば、自車両が停止している場合等の後側方に注意を払う必要性が低い場面では、圧縮されていない自然な表示画像を表示装置25に表示することが可能である。これにより、ユーザが表示画像に違和感を覚える場面を少なくすることができる。
(変形例10)
 第1決定部113および第2決定部114は、車間距離に応じて、撮影画像の処理条件を決定してもよい。
 本変形例において、第1決定部113は、車間距離が予め定めた閾値を超える場合、道路数や走行位置に関係なく、撮影画像中の予め定めた領域を切り出し領域として決定する。第2決定部114は、車間距離が予め定めた閾値を超える場合、圧縮対象領域の圧縮率を0にする。圧縮率が0とは、無圧縮ということである。
 なお、自車両と他の車両との車間距離は、後方映像Dを解析することにより算出するものとする。
 本変形例にかかるドライブレコーダユニット10によれば、車間距離が一定距離を超える場合等の後側方に注意を払う必要性が低い場面では、圧縮されていない自然な表示画像を表示装置25に表示することが可能である。これにより、ユーザが表示画像に違和感を覚える場面を少なくすることができる。
(変形例11)
 上述した変形例3では、第2決定部114が、車両等が存在する領域の圧縮率を低下させる形態について説明した。しかし、第2決定部114は、サービスエリア等の入り口が存在する車線の領域の圧縮率を低下させてもよい。ここで、サービスエリア等とは、例えばサービスエリアおよびパーキングエリアを含む。
 本変形例の第2決定部114は、撮影画像において、サービスエリア等の入り口が存在する車線の領域の圧縮率を低下させる。サービスエリア等の入り口が存在する車線は、撮影画像を解析することにより検知してもよいし、測位用信号の受信結果等から検知してもよい。また、第2決定部114は、運転開始又は前回の休憩から一定時間経過している場合のみ、上記の処理を行ってもよい。
 このように、サービスエリア等の入り口が存在する車線の領域の圧縮率を低下させることで、ユーザが、サービスエリア等に進入するためにサービスエリア等の入り口が存在する車線へ車線変更する際、後側方を確認しやすくなる。
 以上、本開示の各実施形態を説明したが、上述の各実施形態は例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら新規な実施形態およびその変形は、発明の範囲および要旨に含まれるとともに、請求の範囲に記載された発明とその均等の範囲に含まれる。さらに、異なる実施形態および変形例にわたる構成要素を適宜組み合わせてもよい。
 また、本明細書に記載された各実施形態における効果はあくまで例示であって限定されるものでは無く、他の効果があってもよい。
 1 表示制御システム
 5 車両
 10 ドライブレコーダユニット
 11 マイコン
 20 表示ユニット
 25 表示装置
 31 フロントカメラ
 32 リアカメラ
 40 ディスプレイユニット
 45 ディスプレイ
 111 取得部
 112 第1検知部
 113 第1決定部
 114 第2決定部
 115 生成部
 116 表示制御部
 117 第2検知部
 

Claims (16)

  1.  自車両が走行する道路を含む1以上の道路の数を示す道路数を検知する第1検知部と、
     前記第1検知部が検知した道路数に応じて、前記自車両の周囲を撮影した撮影画像のうち、予め定められた表示領域を示す必須表示領域以外の領域の処理条件を決定する決定部と、
     前記決定部が決定した前記処理条件に従って前記撮影画像を処理し、表示装置に表示させる制御を行う表示制御部と、
     を備える表示制御装置。
  2.  前記道路には、歩行者が歩く歩道および車両が走行する車線が含まれる、
     請求項1に記載の表示制御装置。
  3.  前記自車両の走行位置を検知する第2検知部を更に備え、
     前記決定部は、前記第2検知部が検知した前記道路数および前記自車両の走行位置に応じて、前記撮影画像のうち、前記必須表示領域以外の領域の前記処理条件を決定する、
     請求項1または2に記載の表示制御装置。
  4.  前記決定部は、撮影画像に対して前記自車両の内側から外側へ向かって徐々に車幅方向の表示の圧縮率が高くなるように前記処理条件を決定する、
     請求項3に記載の表示制御装置。
  5.  前記決定部は、前記撮影画像において、他の車両が存在しない領域の車幅方向の表示の圧縮率が高くなるように前記処理条件を決定する、
     請求項3または4に記載の表示制御装置。
  6.  前記決定部は、ユーザによる方向指示器の操作と連動して、前記必須表示領域以外の領域の車幅方向における表示の圧縮率を含む前記処理条件を決定する、
     請求項3から5の何れか1項に記載の表示制御装置。
  7.  前記決定部は、前記必須表示領域を基準として、前記方向指示器が指示する側に存在する領域の車幅方向における表示の圧縮率が低くなるように前記処理条件を決定する、
     請求項6に記載の表示制御装置。
  8.  前記決定部は、ユーザによるハンドルの操作と連動して、前記必須表示領域以外の領域の車幅方向における表示の圧縮率を含む前記処理条件を決定する、
     請求項3から7の何れか1項に記載の表示制御装置。
  9.  前記決定部は、前記必須表示領域を基準として、前記ハンドルが切られた側に存在する領域の車幅方向における表示の圧縮率が低くなるように前記処理条件を決定する、
     請求項8に記載の表示制御装置。
  10.  前記決定部は、ユーザの視線の動きと連動して、前記必須表示領域以外の領域の車幅方向における表示の圧縮率を含む前記処理条件を決定する、
     請求項3から9の何れか1項に記載の表示制御装置。
  11.  前記決定部は、前記必須表示領域を基準として、前記視線が向いた側に存在する領域の車幅方向における表示の圧縮率が低くなるように前記処理条件を決定する、
     請求項10に記載の表示制御装置。
  12.  前記決定部は、経路案内に合わせて、前記必須表示領域以外の領域の車幅方向における表示の圧縮率を含む前記処理条件を決定する、
     請求項3から11の何れか1項に記載の表示制御装置。
  13.  前記決定部は、前記必須表示領域を基準として、経路案内により指示される側に存在する領域の車幅方向における表示の圧縮率が低くなるように前記処理条件を決定する、
     請求項12に記載の表示制御装置。
  14.  前記決定部は、前記自車両の走行速度が予め定めた閾値を下回った場合、車幅方向における表示の圧縮率が0になるように前記処理条件を決定する、
     請求項3から13の何れか1項に記載の表示制御装置。
  15.  前記決定部は、車間距離が予め定めた閾値を超える場合、車幅方向における表示の圧縮率が0になるように前記処理条件を決定する、
     請求項3から14の何れか1項に記載の表示制御装置。
  16.  表示制御装置による表示制御方法であって、
     自車両が走行する道路を含む1以上の道路の数を示す道路数を検知する検知ステップと、
     前記検知ステップで検知した道路数に応じて、前記自車両の周囲を撮影した撮影画像のうち、予め定められた表示領域を示す必須表示領域以外の領域の処理条件を決定する決定ステップと、
     前記決定ステップで決定した前記処理条件に従って前記撮影画像を処理し、表示装置に表示させる制御を行う表示制御ステップと、
     を含む表示制御方法。
PCT/JP2021/037777 2021-02-18 2021-10-12 表示制御装置および表示制御方法 WO2022176267A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
DE112021007108.4T DE112021007108T5 (de) 2021-02-18 2021-10-12 Anzeigesteuervorrichtung und Anzeigesteuerverfahren
CN202180093993.XA CN116918320A (zh) 2021-02-18 2021-10-12 显示控制装置和显示控制方法
JP2023500522A JPWO2022176267A1 (ja) 2021-02-18 2021-10-12
US18/225,516 US20230365064A1 (en) 2021-02-18 2023-07-24 Display control device and display control method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2021024671 2021-02-18
JP2021-024671 2021-02-18

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US18/225,516 Continuation US20230365064A1 (en) 2021-02-18 2023-07-24 Display control device and display control method

Publications (1)

Publication Number Publication Date
WO2022176267A1 true WO2022176267A1 (ja) 2022-08-25

Family

ID=82931284

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2021/037777 WO2022176267A1 (ja) 2021-02-18 2021-10-12 表示制御装置および表示制御方法

Country Status (5)

Country Link
US (1) US20230365064A1 (ja)
JP (1) JPWO2022176267A1 (ja)
CN (1) CN116918320A (ja)
DE (1) DE112021007108T5 (ja)
WO (1) WO2022176267A1 (ja)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11150726A (ja) * 1997-11-18 1999-06-02 Toyota Motor Corp 車両用動画像処理方法および車両用動画像処理装置
JP2001116567A (ja) * 1999-10-20 2001-04-27 Matsushita Electric Ind Co Ltd 車載運転支援情報表示装置
JP2010095086A (ja) * 2008-10-15 2010-04-30 Nissan Motor Co Ltd 車両用表示装置および表示方法
WO2010095206A1 (ja) * 2009-02-20 2010-08-26 パナソニック株式会社 画像圧縮装置、画像圧縮方法および車載画像記録装置
JP2011079338A (ja) * 2008-01-31 2011-04-21 Mitsubishi Electric Corp ナビゲーション装置
JP2016048839A (ja) * 2014-08-27 2016-04-07 株式会社小糸製作所 電子制御ユニットおよび車両用映像システム
JP2018006936A (ja) * 2016-06-30 2018-01-11 マツダ株式会社 車両用表示装置

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7188727B2 (ja) 2018-02-20 2022-12-13 株式会社東海理化電機製作所 車両用視認装置

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11150726A (ja) * 1997-11-18 1999-06-02 Toyota Motor Corp 車両用動画像処理方法および車両用動画像処理装置
JP2001116567A (ja) * 1999-10-20 2001-04-27 Matsushita Electric Ind Co Ltd 車載運転支援情報表示装置
JP2011079338A (ja) * 2008-01-31 2011-04-21 Mitsubishi Electric Corp ナビゲーション装置
JP2010095086A (ja) * 2008-10-15 2010-04-30 Nissan Motor Co Ltd 車両用表示装置および表示方法
WO2010095206A1 (ja) * 2009-02-20 2010-08-26 パナソニック株式会社 画像圧縮装置、画像圧縮方法および車載画像記録装置
JP2016048839A (ja) * 2014-08-27 2016-04-07 株式会社小糸製作所 電子制御ユニットおよび車両用映像システム
JP2018006936A (ja) * 2016-06-30 2018-01-11 マツダ株式会社 車両用表示装置

Also Published As

Publication number Publication date
US20230365064A1 (en) 2023-11-16
JPWO2022176267A1 (ja) 2022-08-25
DE112021007108T5 (de) 2024-01-25
CN116918320A (zh) 2023-10-20

Similar Documents

Publication Publication Date Title
US8559675B2 (en) Driving support device, driving support method, and program
US20180015879A1 (en) Side-view mirror camera system for vehicle
US20120133738A1 (en) Data Processing System and Method for Providing at Least One Driver Assistance Function
JP6935800B2 (ja) 車両制御装置、車両制御方法、および移動体
JP5169884B2 (ja) ヘッドアップディスプレイ装置
JP2010130646A (ja) 車両周辺確認装置
JP2010143411A (ja) ヘッドアップディスプレイ装置
EP4149809B1 (en) Motor-vehicle driving assistance in low meteorological visibility conditions, in particular with fog
CN111469762B (zh) 显示系统、行驶控制装置、显示控制方法以及存储介质
CN111497745B (zh) 显示系统、行驶控制装置、显示控制方法以及存储介质
WO2022176267A1 (ja) 表示制御装置および表示制御方法
US11584299B2 (en) Driver-assisting system for an industrial vehicle
JP2020161988A (ja) 情報処理装置及び情報処理方法
US20230271622A1 (en) Intelligent head-up display
JP2017040773A (ja) 頭部装着型表示装置
JP7300624B2 (ja) 電子ミラーカメラシステム
CN114078288A (zh) 影像处理装置和影像处理系统
JP2018087852A (ja) 虚像表示装置
US20190381936A1 (en) Device for assisting night-time road navigation
WO2015115103A1 (ja) 画像処理装置、カメラシステム、および画像処理方法
JP6878109B2 (ja) 画像表示装置
JP2021022325A (ja) 運転支援制御装置、運転支援システム、運転支援制御方法及びプログラム
CN109131083B (zh) 外后视镜系统和应用于外后视镜系统的方法
CN214929320U (zh) 一种加强adas系统功能的流媒体后视镜
JP2024138676A (ja) 表示制御装置、表示制御方法およびプログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21926696

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2023500522

Country of ref document: JP

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 202180093993.X

Country of ref document: CN

WWE Wipo information: entry into national phase

Ref document number: 112021007108

Country of ref document: DE

122 Ep: pct application non-entry in european phase

Ref document number: 21926696

Country of ref document: EP

Kind code of ref document: A1