WO2014017055A1 - 車両用視界支援装置 - Google Patents

車両用視界支援装置 Download PDF

Info

Publication number
WO2014017055A1
WO2014017055A1 PCT/JP2013/004392 JP2013004392W WO2014017055A1 WO 2014017055 A1 WO2014017055 A1 WO 2014017055A1 JP 2013004392 W JP2013004392 W JP 2013004392W WO 2014017055 A1 WO2014017055 A1 WO 2014017055A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
camera
reference line
control unit
cut
Prior art date
Application number
PCT/JP2013/004392
Other languages
English (en)
French (fr)
Inventor
典史 松川
宗昭 松本
Original Assignee
株式会社デンソー
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社デンソー filed Critical 株式会社デンソー
Priority to US14/411,125 priority Critical patent/US9725039B2/en
Priority to EP13822915.8A priority patent/EP2863633B1/en
Priority to CN201380039203.5A priority patent/CN104604218B/zh
Publication of WO2014017055A1 publication Critical patent/WO2014017055A1/ja

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/20Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/22Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle
    • B60R1/28Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with an adjustable field of view
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/20Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/22Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle
    • B60R1/23Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view
    • B60R1/26Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view to the rear of the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/183Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • B60R2300/304Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing using merged images, e.g. merging camera image with stored images
    • B60R2300/305Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing using merged images, e.g. merging camera image with stored images merging camera image with lines or icons
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • B60R2300/306Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing using a re-scaling of images
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/50Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the display information being shared, e.g. external display, data transfer to other traffic participants or centralised traffic controller
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/60Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by monitoring and displaying vehicle exterior scenes from a transformed perspective
    • B60R2300/602Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by monitoring and displaying vehicle exterior scenes from a transformed perspective with an adjustable viewpoint
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/80Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement
    • B60R2300/802Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement for monitoring and displaying vehicle exterior blind spot views
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/80Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement
    • B60R2300/8066Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement for monitoring rearward traffic
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/80Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement
    • B60R2300/8093Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement for obstacle warning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/22Cropping
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/61Scene description

Definitions

  • the present disclosure relates to a vehicular field of view support device that displays, on a display unit, an image (video) of a rear side of the vehicle, which is captured by a camera.
  • Patent Document 1 As a conventional vehicle vision support device, for example, the one shown in Patent Document 1 is known.
  • a rear camera that captures the rear of the vehicle, two left and right side cameras that capture the rear side of the vehicle, and images captured by the cameras are monitored.
  • the image taken by the rear camera is displayed on the monitor screen as a bird's-eye view when looking around the vehicle from different viewpoint directions.
  • the display means displays an icon having a frame shape in an area corresponding to a blind spot when the rear screen is photographed on the monitor screen. And the image image
  • the images taken by the left and right side cameras of the vehicle are displayed on one monitor screen together with the overhead view image. Therefore, when there are dangerous objects or obstacles behind or on the side of the vehicle, the driver Dangerous objects and obstacles can be easily detected and avoided with ease.
  • Patent Document 1 in the side camera, as an area for cutting out an image, as an outer area away from the vehicle, an inner area close to the vehicle, or an intermediate area between the outer side and the inner side
  • an outer area away from the vehicle As an outer area away from the vehicle, an inner area close to the vehicle, or an intermediate area between the outer side and the inner side
  • an intermediate area between the outer side and the inner side For the driver who sees the image on the monitor screen, there is no reference in the image, so the positional relationship between the rear side obstacle in the image and the vehicle can be grasped instantly. Difficult to do.
  • an object of the present disclosure is to provide a vehicular field of view support device that can easily grasp the positional relationship between a cut-out image and the own vehicle even when an image cut-out operation is performed.
  • This disclosure employs the following technical means in order to achieve the above object.
  • a camera that is provided on the side of the vehicle and captures the rear side of the vehicle to provide a camera image, and a desired range that the occupant desires to view in the camera image is changed.
  • a control unit that cuts out a desired range for the camera image to be a cut-out image
  • a control unit A display unit for displaying the cut-out image, and the control unit includes a vertical reference line including a part of the vehicle in the cut-out image before the input operation to the input unit, and a horizontal direction orthogonal to the vertical reference line
  • the camera image is cut out based on the reference line and the moving direction for changing to the desired range input to the input unit.
  • the cut-out image is changed based on the vertical reference line including a part of the vehicle in the cut-out image before the input operation, the horizontal reference line, and the moving direction of the desired range. Therefore, the cut-out screen after the change becomes a screen that can easily grasp the positional relationship with the own vehicle, and the cut-out screen before and after the change can be easily assumed.
  • FIG. 1 It is a block diagram showing the overall configuration of the vehicle vision support device, It is explanatory drawing which shows the moving direction of a camera image, a cutout image, each reference line, and a cutout image, It is a flowchart showing the point of the image clipping process from the camera image performed by the control unit, It is a flowchart which shows the switch operation process in FIG. It is a flowchart which shows the image processing in FIG. It is explanatory drawing which shows the moving direction with respect to the current cut image, and the cut image after a movement.
  • a vehicle vision support apparatus 100 uses a camera 110 to display an image / video of a landscape behind the vehicle as seen by a vehicle occupant through a conventional optical mirror (door mirror). , Called a camera image). Next, this camera image is displayed on the display 140 provided in the vehicle interior. Thus, instead of the door mirror, it is possible to assist the driver (occupant) in confirming the rear side.
  • the visual field support apparatus 100 includes a camera 110, an input unit 120, a control unit 130, a display 140, and the like.
  • the camera 110 captures the scenery behind the vehicle and is provided on the side of the vehicle.
  • the camera 110 is located in the vicinity of an intermediate portion in the vertical direction in front of the front door on the driver's seat side (right side of the vehicle) and in front of the front door on the passenger side (left side of the vehicle). Near the door mirror position).
  • the two left and right cameras 110 shoot the rear side of the driver side of the vehicle and the rear side of the passenger side of the vehicle, and basically have the same function.
  • the camera 110 captures a part of the vehicle (part of the side of the vehicle) and a wide range of scenery behind the vehicle, and provides (or generates) a camera image.
  • a camera image is an image like a television or a movie.
  • the camera image includes a first image (first image data) in which a landscape viewed from the rear side from the position of the camera 110 is an image, and a second image that is horizontally reversed with respect to the first image. Contains an image (second image data).
  • This second image is the same in the left-right relationship with the rear side scenery viewed by a vehicle occupant through a conventional optical mirror (door mirror).
  • the camera image (that is, the second image) is input to the control unit 130 as a video signal.
  • the conversion from the primary image to the secondary image is necessary separately, the conversion is performed by the camera 100, but the conversion may be performed by the control unit 130.
  • the camera image will be described as the second image.
  • the input unit 120 is an input operation unit that can switch (select) a desired range (a cut-out image described later) that the driver desires to see in the camera image by being input by the driver.
  • the input unit 120 is provided, for example, in the vicinity of a driver's seat (steering) in the passenger compartment.
  • the input unit 120 is provided with a selection switch 121 and an operation switch 122.
  • the selection switch 121 is a switch for selecting which one of the left and right cameras 110 is to be operated.
  • the selection switch 121 includes “OFF” for prohibiting the selection operation, “R (right)” for selecting the camera 110 on the driver seat side, and “L (left)” for the camera 110 on the passenger seat side.
  • Each position of “R + L” for both cameras 110 is provided, and either position can be selected by the lever 121a.
  • the operation switch 122 is a switch for determining a moving direction for changing a desired range in a camera image from a current position.
  • the operation switch 122 has a quadrangular shape and is supported at the center, and can be pressed at positions corresponding to the midpoints and corners of each side (total of 8 locations).
  • the position pressed on the operation switch 122 is determined as the moving direction of the desired range.
  • the movement directions are 1 to 8, where 1 is the upper side, 2 is the lower side, 3 is the upper right side, 4 is the right side, 5 is the lower right side, 6 is the upper left side, and 7 is the upper side.
  • the left side, 8 is the lower left side.
  • the contents selected and operated by the input operation to the selection switch 121 and the operation switch 122 are output to the control unit 130 as an input signal.
  • the control unit 130 is a control unit that processes (cuts out) the camera image (video signal) output from the camera 110, and is provided, for example, inside the instrument panel in front of the driver's seat. Based on the input signal input from the input unit 120, the control unit 130 receives a camera image from the camera 110 selected from the two, and sets a desired range set in the camera image to the selected moving direction. Then, the changed desired range is cut out from the camera image to create a cut-out image (video). Then, the control unit 130 outputs the clipped image as a video signal after being enlarged or reduced so as to fit the screen size of the display 140.
  • the camera image which is the second image
  • the camera image is an image that allows the driver to visually recognize the scenery of the rear side on the right side of the vehicle over a wide range through the right door mirror.
  • the left end part of a camera image is a part which has projected a part (front door part etc.) of the vehicle side. (If the rear side is a landscape viewed from the camera position, that is, if the left and right images are reversed, the side of the vehicle can be seen to the right of the image.)
  • the camera image shown in FIG. It is taken as a test, and it is assumed that the vehicle is traveling in the traveling lane, and the following vehicle in the overtaking lane is indicated by a square mark.
  • the cut-out image is selected as a range desired by the driver in the camera image, and is an image of an area smaller than the camera image.
  • the position of the left end side of the cut image matches the position of the left end side of the camera image.
  • a vertical reference line V and first to third horizontal reference lines H1 to H3 are defined.
  • the vertical reference line V is a reference line that includes a part of the projected vehicle and extends vertically along the left end side of the cut-out image.
  • the first to third horizontal reference lines H1 to H3 are reference lines orthogonal to the vertical reference line V, and the first horizontal reference line H1 is a horizontal direction along the upper edge of the cut image. Is a reference line extending to
  • the second horizontal reference line H2 is a reference line that extends in the horizontal direction through the center of the cut image.
  • the third horizontal direction reference line H3 is a reference line extending in the horizontal direction along the side of the lower end portion of the cut-out image.
  • the reference lines V and H1 to H3 may be displayed as shown in FIG. 2 on the actual display 140 or may not be displayed.
  • the vertical dimension H of the cut-out image is defined by H1-H3. Further, the horizontal dimension of the cut-out image is set as an image that is a predetermined multiple (eg, 4/3 times) of the vertical dimension H.
  • the power from the battery 151 of the vehicle is supplied to the control unit 130 when the ignition switch is turned on, and the control unit 130 supplies this power to the camera 110. It has become. Further, the control unit 130 includes a speed signal from the speed sensor 152, an operation signal from the direction indicator 153 (a signal indicating which of the left and right direction indicators is operating), a gear selection signal from the gear shift lever 154, and the like. , Is entered.
  • the direction indicator is also referred to as a blinker or unker.
  • the display 140 is a display unit that displays the cut-out image created by the control unit 130 as a display image (display video), and is provided at a position that is easy for the driver to see on the instrument panel, for example.
  • the display 140 can be configured using, for example, a liquid crystal display, an organic EL display, or the like.
  • the display unit of the display 140 is divided into, for example, two display areas on the left and right, an image taken by the driver's side camera 110 is displayed in the right display area, and the passenger's side camera is displayed in the left display area. An image photographed by 110 is displayed.
  • each section is expressed as S100, for example.
  • each section can be divided into a plurality of sections, while a plurality of sections can be combined into one section.
  • each section configured in this manner can be referred to as a device, module, or means.
  • the control unit 130 when the ignition switch is turned on and power is supplied to the control unit 130, the control unit 130 starts the control flow.
  • the control unit 130 supplies power to the camera 110 and activates the camera 110.
  • the control unit 130 performs a process (switch operation process) based on the operation content of the driver in each of the switches 121 and 122 of the input unit 120.
  • the control unit 130 performs the switch operation process based on the control flow shown in FIG. This switch operation process is repeatedly performed every predetermined time.
  • the control unit 130 determines whether the input state of the selection switch 121 is on or off.
  • the on state is a case where the selection state (position) in the selection switch 121 is any one of “R”, “L”, and “R + L”, and the off state is a selection state (in the selection switch 121). This is a case where the position) is “OFF”. If it is determined in S111 that the input state is ON, the control unit 130 generates and stores a selection switch flag (any one of R, L, and R + L) corresponding to the selected position in S112.
  • the control unit 130 determines whether the input state of the operation switch 122 is on or off.
  • the ON state is a case where the pressed position on the operation switch 122 is any one of “1” to “8”, and the OFF state is an operation that is not performed on the operation switch 122 (touching the switch). Is not). If it is determined in S113 that the input state is ON, the control unit 130 generates and stores an operation switch flag (any one of 1 to 8) corresponding to the pressed position in S114.
  • control unit 130 clears the operation switch flag stored so far in S115. Furthermore, if it is determined in S111 that the input state of the selection switch 121 is OFF, the control unit 130 clears the selection switch flag stored so far in S116.
  • control unit 130 determines whether or not the selection switch flag is stored in S ⁇ b> 120. If the selection switch flag is stored, the control unit 130 proceeds to S ⁇ b> 130. , Return to S110.
  • control unit 130 performs an image cutout process based on the selection switch flag, the operation switch flag, and the current image information (reference lines V, H1 to H3 in the cutout image). Then, the control unit 130 outputs the video signal of the cut image created by the image cut processing in S130 to the display 140 in S140, and causes the display 140 to display the cut image.
  • the control unit 130 performs the image clipping process in S130 based on the control flow shown in FIG.
  • the control unit 130 determines whether the selection switch flag is R, L, or R + L. If it is determined that the selection switch flag is R, the control unit 130 proceeds to S1302. In S1302, the control unit 130 determines which of the operation switch flags is 1 to 8. Then, depending on the determined operation switch flag (1 to 8), the process proceeds to any of S1303, S1306, S1309, S1312, S1315, S1318, S1321, and S1324, and the reference lines V, H1 to Based on H3 and the moving direction (operation switch flags 1 to 8), the positions of the reference lines H1 to H3 are changed, and new cut-out images are created in S1327 and S1328.
  • control unit 130 proceeds to S1303 and performs processing based on the operation switch flag 1. Specifically, the following S1304 and S1305 are performed.
  • control unit 130 reads the reference lines V and H1 to H3 in the current cut image (FIG. 6A) for the camera image.
  • step S1307 the control unit 130 reads the reference lines V and H1 to H3 in the current cut image (FIG. 6A) for the camera image.
  • control unit 130 proceeds to S1309 and performs processing based on the operation switch flag 3. Specifically, the following S1310 and S1311 are performed.
  • control unit 130 reads the reference lines V and H1 to H3 in the current cut image (FIG. 6A) for the camera image.
  • the current cutout image (FIG. 6A) is represented by the vertical reference line V and the third horizontal reference line H3.
  • the third horizontal reference line H3 is set to H3 ′ with the same coordinate position.
  • control unit 130 proceeds to S1312, and performs processing based on the operation switch flag 4. Specifically, the following S1313 and S1314 are performed.
  • control unit 130 reads the reference lines V and H1 to H3 in the current cut image (FIG. 6A) for the camera image.
  • a third horizontal reference line H3 ′ H3 ⁇ H / 2 obtained by subtracting the position by a predetermined amount ⁇ H / 2 is set. Note that the second horizontal reference line H2 is H2 'with the same coordinate position.
  • control unit 130 proceeds to S1315 and performs processing based on the operation switch flag 5. Specifically, the following S1316 and S1317 are performed. In S1316, the control unit 130 reads the reference lines V and H1 to H3 in the current cut image (FIG. 6A) for the camera image.
  • step S1317 since the moving direction of the cut image by the operation switch 122 is 3 (lower right side), the current cut image (FIG. 6A) is used as the vertical reference line V and the first horizontal reference line.
  • the third horizontal reference line H3 ′ H3 ⁇ H obtained by subtracting the coordinate position by a predetermined amount ⁇ H is set.
  • the first horizontal reference line H1 is set to H1 ′ with the same coordinate position.
  • control unit 130 proceeds to S1318 and performs processing based on the operation switch flag 6. Specifically, the following S1319 and S1320 are performed. In S1319, the control unit 130 reads the reference lines V and H1 to H3 in the current cut image (FIG. 6A) for the camera image.
  • a third horizontal reference line H3 ′ H3 + ⁇ H obtained by adding the position by a predetermined amount ⁇ H is set.
  • the first horizontal reference line H1 is set to H1 ′ with the same coordinate position.
  • control unit 130 proceeds to S1321 and performs processing based on the operation switch flag 7. Specifically, the following S1322 and S1323 are performed.
  • control unit 130 reads the reference lines V and H1 to H3 in the current cut image (FIG. 6A) for the camera image.
  • the third horizontal reference line H3 ′ H3 + ⁇ H / 2 obtained by adding a predetermined amount ⁇ H / 2 to the coordinate position. Note that the second horizontal reference line H2 is H2 'with the same coordinate position.
  • control unit 130 proceeds to S1324 and performs processing based on the operation switch flag 8. Specifically, the following S1325 and S1326 are performed.
  • control unit 130 reads the reference lines V and H1 to H3 in the current cut image (FIG. 6A) for the camera image.
  • control unit 130 stores the reference lines H1 ′ to H3 ′ set in S1305, S1308, S1311, S1314, S1317, S1320, S1323, and S1326 as the reference lines H1 to H3.
  • step S1328 the control unit 130 sets an area defined by the reference line V and the newly set reference lines H1 and H3 as a new cut-out image area.
  • FIG. 6A is a diagram in which the upper area of the current cutout image is newly taken in and the lower area is deleted.
  • FIG. 6B shows a state in which the lower area of the current cutout image 6A is newly captured and the upper area is deleted.
  • the operation switch flag is 3 (when the movement direction is the upper right side)
  • the reference lines H1 and H2 are moved upward with reference to the vertical reference line V and the third horizontal reference line H3.
  • the upper and right regions that is, the upper right region of the current cut image in FIG. 6A in the camera image are newly captured as shown in FIG.
  • the operation switch flag is 4 (when the movement direction is the right side)
  • the first horizontal reference line H1 is moved upward with reference to the vertical reference line V and the second horizontal reference line H2.
  • the third horizontal reference line H3 is moved downward, and the upper, lower, and right areas of the current cutout image in FIG. FIG. 6 (4) is obtained.
  • the second and third horizontal reference lines H2 are based on the vertical reference line V and the first horizontal reference line H1.
  • H3 are respectively moved to the lower side, and the lower and right sides of the current cutout image in FIG. 6A in the camera image, and the lower right region as a whole are newly taken in FIG. 6 (5). .
  • FIG. 6 is a diagram in which H3 is moved upward, the right and lower regions of the current cut image in FIG. 6A are deleted in the camera image, and a region with a weight placed on the upper left is newly taken in. (6)
  • FIG. 6 (7) shows that the area has been newly fetched.
  • the same control as S1302 to S1328 is performed for both cameras 110 provided on the driver seat side and the passenger seat side.
  • the control unit 130 performs the camera image clipping process by the driver-side camera 110 in the same manner as in S1302 to S1328, and for the camera image by the passenger-side camera 110, the camera by the driver-side camera 110 is used. Image cropping is performed so as to be symmetrical.
  • each of the vertical direction reference line V including a part of the vehicle in the cut image before the input operation and the vertical direction reference line (V) is orthogonal to each other. This is performed based on the horizontal reference lines H1 to H3 and the moving direction of the cut-out image. Therefore, a new cut-out image as described in FIG. 6 can be obtained for each movement direction request, and the cut-out screen after the change becomes a screen that can easily grasp the positional relationship with the own vehicle, and the change can be made. Assumption of front and rear cut-out screens becomes easy.
  • the control unit 130 uses the speed signal obtained from the speed sensor 152, the control unit 130 increases the switching speed from the current cut image to the new cut image as the speed signal increases. As a result, when the cut-out position of the cut-out image is changed, the new cut-out image can be confirmed faster as the vehicle speed increases, so that early risk-avoidance driving is possible, leading to safe driving. it can.
  • the control unit 130 performs an image cutting process.
  • the control unit 130 determines a suitable region as to which region in the camera image is suitable as a cut-out image when checking the right side or the left side of the vehicle when the vehicle turns right or left. Is stored in advance.
  • the suitable area is a predetermined range of the present disclosure, and is set by, for example, prior adjustment before traveling. That is, when the driver operates the direction indicator 153 and the input unit 120 in the pre-running stage, the operation signal from the direction indicator 153 and the input signal from the input unit 120, that is, the cut-out in the selected camera 110 are performed.
  • the desired range for is input to the control unit 130.
  • control unit 130 stores the desired range linked with the operation signal of the direction indicator 153.
  • This stored desired range is the preferred area.
  • the control unit 130 extracts the cut-out image of the camera 110 installed on the same side as the activated direction indicator from the stored preferred area. Switch to the cropped image.
  • the camera 110 has been described as being provided on both side surfaces of the vehicle.
  • the present invention is not limited thereto, and only one camera may be provided on any one side surface. In this case, it may be provided on the passenger seat side with a large area serving as a driver's blind spot, and a visual field support device that is easy to use can be obtained.
  • the moving direction of the cut-out image by the camera 110 on the passenger seat side is set to be bilaterally symmetric with respect to the moving direction, but both cut-out images may be moved in the same direction.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Mechanical Engineering (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Signal Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)
  • Image Analysis (AREA)

Abstract

 車両用視界支援装置(100)において、車両の前側面に位置するカメラ(110)は、車両の側面の一部が入る車両後側方の画像を、カメラ画像として提供する。入力部(120)は、入力操作を受け入れ、入力信号を生成する。制御部(130)は、入力信号に基づき、カメラ画像に対する希望範囲を切出して、切出し画像を得る。制御部は、入力部への入力操作前の切出し画像中の車両の側面の一部を含む縦方向基準線(V)、および縦方向基準線に直交する横方向基準線(H1~H3)と、入力部に入力された希望範囲に変更するための移動方向と、に基づいてカメラ画像に対する切出しを行う。

Description

車両用視界支援装置 関連出願の相互参照
 本開示は、2012年7月24日に出願された日本出願番号2012-163830号に基づくもので、ここにその記載内容を援用する。
 本開示は、例えば、カメラによって撮影した車両後側方の画像(映像)を表示部に表示する車両用視界支援装置に関するものである。
 従来の車両用視界支援装置として、例えば、特許文献1に示されたものが知られている。特許文献1の視界支援装置(車両後方モニタシステム)では、車両の後方を撮影する後方カメラと、車両の後側方を撮影する左右2つの側方カメラと、各カメラによって撮影された画像をモニタ画面上に表示する表示手段とを備えている。
 後方カメラによって撮影された画像は、異なる視点方向から車両周囲を見たときの俯瞰画像としてモニタ画面に表示される。また、表示手段には、モニタ画面上において後方カメラで撮影したときの死角に対応するエリアに枠形状を成すアイコンが表示されるようになっている。そして、側方カメラによって撮影された画像は、縮小されて、あるいは一部が切出されてアイコン内に表示されるようになっている。
 これにより、車両左右の側方カメラで撮影した画像が俯瞰画像と共に1つのモニタ画面上に表示されるので、車両の後方や側方に危険物又は障害物が存在するときは、運転者はその危険物や障害物を容易に発見し、余裕を持って回避することができるようになっている。
JP 2003-219413 A
 しかしながら、特許文献1では、側方カメラにおいて、画像の切出しを行うための領域として、車両から離れた外側の領域、車両に近い内側の領域、および外側と内側との中間の領域のいずれかとしており、モニタ画面にて画像を見る運転者にとっては画像中に基準となるものが存在しない表示となっているので、画像中の後側方障害物等と自車との位置関係を瞬時に把握することが難しい。
 本開示の目的は、上記問題に鑑み、画像の切り出し操作をしたときも、切出した画像と自車との位置関係が容易に把握可能となる車両用視界支援装置を提供することにある。 本開示は上記目的を達成するために、以下の技術的手段を採用する。
 本開示の観点では、車両の側方に設けられて、車両の後側方を撮影しカメラ画像を提供するカメラと、カメラ画像の中で、乗員が見たいと希望する希望範囲を変更するための入力操作が、乗員によって行われる入力部と、入力部への入力操作によって生成される入力信号に基づいて、カメラ画像に対する希望範囲を切出して切出し画像とする制御部と、制御部によって切出された切出し画像を表示する表示部とを備え、制御部は、入力部への入力操作前の切出し画像中の車両の一部を含む縦方向基準線、および縦方向基準線に直交する横方向基準線と、入力部に入力された希望範囲に変更するための移動方向と、に基づいてカメラ画像に対する切出しを行うことを特徴としている。
 この観点によれば、入力操作前の時点での切出し画像中の車両の一部を含む縦方向基準線、および横方向基準線と、希望範囲の移動方向とに基づいて、切出し画像が変更されるので、変更後の切出し画面は自車との位置関係を容易に把握可能な画面となると共に、変更前後の切出し画面の想定が容易となる。
 本開示についての上記目的およびその他の目的、特徴や利点は、添付の図面を参照しながら下記の詳細な記述により、より明確になる。
車両用視界支援装置の全体構成を示すブロック図であり、 カメラ画像、切出し画像、各基準線、および切出し画像の移動方向を示す説明図であり、 制御部が行うカメラ画像からの画像切出し処理の要領を示すフローチャートであり、 図3中のスイッチ操作処理を示すフローチャートであり、 図3中の画像処理を示すフローチャートであり、 現在の切出し画像に対する移動方向、および移動後の切出し画像を示す説明図である。
 以下に、図面を参照しながら本開示を実施するための複数の形態を説明する。各形態において先行する形態で説明した事項に対応する部分には同一の参照符号を付して重複する説明を省略する場合がある。各形態において構成の一部のみを説明している場合は、構成の他の部分については先行して説明した他の形態を適用することができる。各実施形態で具体的に組み合わせが可能であることを明示している部分同士の組み合わせばかりではなく、特に組み合わせに支障が生じなければ、明示していなくても実施形態同士を部分的に組み合せることも可能である。
 (第1実施形態)
 第1実施形態における車両用視界支援装置100について図1~図6を用いて説明する。車両用視界支援装置(以下、視界支援装置)100は、カメラ110を用いて、車両の乗員が従来の光学ミラー(ドアミラー)を介して見た車両の後側方の風景の画像・映像(以下、カメラ画像と呼ぶ)を得る。次に、このカメラ画像を車室内に設けられたディスプレイ140に表示する。これによって、ドアーミラーに代えて、運転者(乗員)に対する後側方確認の支援を可能とするものである。視界支援装置100は、図1に示すように、カメラ110、入力部120、制御部130、およびディスプレイ140等を備えている。
 カメラ110は、車両の後側方の景色を撮影するものであり、車両の側面に設けられている。ここでは、カメラ110は、例えば右ハンドル車において、運転席側(車両右側)のフロントドアの前方、および助手席側(車両左側)のフロントドアの前方で、上下方向の中間部近傍(従来のドアミラー位置近傍)にそれぞれ設けられている。左右2つのカメラ110は、それぞれ、車両の運転席側の後側方、および助手席側の後側方を撮影するものであり、基本的には同一の機能を備えるので、以下、運転席側に設けられるカメラ110を主体として説明していく。
 カメラ110は、例えば図2に示すように、自車の一部(車両側面の一部)、および車両の後側方の広い範囲にわたる景色を撮影し、カメラ画像を提供(あるいは生成)する。カメラ画像はテレビや映画のような映像である。尚、カメラ画像は、カメラ110の位置から後側方を見た風景を画像とした第一の画像(第一の画像データ)と、この第一の画像と左右反転の関係にある第二の画像(第二の画像データ)を含む。この第二の画像は、車両の乗員が従来の光学ミラー(ドアミラー)を介して見た後側方の風景と左右関係において同じである。そして、このカメラ画像(即ち、第二の画像)は、映像信号として、制御部130に入力される。なお、別途に、一次画像から二次画像への変換が必要な場合は、カメラ100で変換されるが、制御部130にてその変換を実施してもよい。以下、カメラ画像は、この第二の画像であるとして説明される。
 入力部120は、運転者によって入力操作されることで、カメラ画像中において運転者が見たいと希望する希望範囲(後述する切出し画像)を切替え(選択)可能とする入力操作部である。入力部120は、例えば車室内の運転席(ステアリング)の近傍に設けられている。入力部120には、選択スイッチ121と操作スイッチ122とが設けられている。
 選択スイッチ121は、左右2つのカメラ110のうち、どのカメラ110を操作したいかを選択するスイッチである。選択スイッチ121には、選択操作を禁止する「OFF」と、選択対象を運転席側のカメラ110とする「R(右)」と、助手席側のカメラ110とする「L(左)」と、両カメラ110とする「R+L」の各ポジションが設けられており、レバー121aによっていずれかのポジションが選択できるようになっている。
 また、操作スイッチ122は、カメラ画像の中で希望範囲をどこにするか、現状位置から変更するための移動方向を決定するスイッチである。操作スイッチ122は、四角形状を成して中心部で支持されており、各辺の中点および各角部に対応する位置(合計8ヶ所)で押下することが可能となっている。操作スイッチ122において押下された位置が、希望範囲の移動方向として決定されるようになっている。移動方向は、図1に示すように、1~8まで設けられおり、1は上側、2は下側、3は右上側、4は右側、5は右下側、6は左上側、7は左側、8は左下側となっている。
 上記選択スイッチ121および操作スイッチ122への入力操作によって、選択および操作された内容は、入力信号として制御部130に出力されるようになっている。
 制御部130は、カメラ110から出力されるカメラ画像(映像信号)を処理(切出し加工)する制御手段であり、例えば、運転席前のインストルメントパネルの内部に設けられている。制御部130は、入力部120から入力される入力信号に基づいて、2つのうち選択された方のカメラ110からカメラ画像を受け取り、カメラ画像中に設定される希望範囲を、選択された移動方向に変更して、その変更した希望範囲をカメラ画像から切出して切出し画像(映像)を作成するようになっている。そして、制御部130は、この切出し画像を、映像信号としてディスプレイ140の画面の大きさに合うように拡大、あるいは縮小して出力するようになっている。
 ここで、図2を参照し、説明を加える。カメラ110が右ハンドル車両の右側面に設置されたものであるとすると、車両の前右側の座席にドライバ-が位置する。この場合、第二の画像であるカメラ画像は、ドライバーが、あたかも、右側ドアーミラーを介して、車両の右側における後側方の景色を広い範囲にわたって視認できるような画像となっている。そして、カメラ画像の左端部が、車両側面の一部(フロントドア部等)を映し出している部位となっている。(もし、後側方をカメラ位置から見た風景ならば、即ち、左右が反転している第一の画像ならば、画像の右に車両側面が見える。)尚、図2に示すカメラ画像では、テスト的に撮影したものであって、車両は走行レーンを走行している想定で、追越しレーンにおける後続車は四角いマークによって表示されたものとしている。
 そして、切出し画像は、カメラ画像の中において、運転者が希望する範囲として選択されたものとなっており、カメラ画像よりも小さい領域の画像となっている。切出し画像の左端部の辺の位置は、カメラ画像の左端部の辺の位置と一致している。
 切出し画像には、縦方向基準線V、第1~第3横方向基準線H1~H3が定義されている。縦方向基準線Vは、映し出された車両の一部を含むと共に、切出し画像の左端部の辺に沿って上下に延びる基準線である。また、第1~第3横方向基準線H1~H3は、縦方向基準線Vに直交する基準線であり、第1横方向基準線H1は、切出し画像の上端部の辺に沿って水平方向に延びる基準線である。第2横方向基準線H2は、切出し画像の中心部を通って水平方向に延びる基準線である。第3横方向基準線H3は、切出し画像の下端部の辺に沿って水平方向に延びる基準線である。
 尚、各基準線V、H1~H3は、実際のディスプレイ140上に図2のように表示されるものとしても良いし、表示されないものとしても良い。
 カメラ画像における左下角部の位置をカメラ画像の原点としたとき、切出し画像の縦方向の寸法Hは、H1-H3で規定される。また、切出し画像の横方向の寸法は、縦方向寸法Hの所定倍(例えば4/3倍)となる画像として設定されている。
 図1に戻って、制御部130には、車両のバッテリ151からの電力が、イグニッションスイッチのオンと共に供給されるようになっており、制御部130は、この電力をカメラ110に供給するようになっている。また、制御部130には、速度センサ152からの速度信号、方向指示器153からの作動信号(左右どちらの方向指示器が作動しているかという信号)、ギャシフトレバー154からのギヤ選択信号等、が入力されるようになっている。方向指示器は、ブリンカー、ウンカーとも言及される。
 ディスプレイ140は、制御部130で作成された切出し画像を表示画像(表示映像)として表示する表示部であり、例えば、インストルメントパネルにおいて運転者の見やすい位置に設けられている。ディスプレイ140は、例えば、液晶ディスプレイ、有機ELディスプレイ等を用いて構成することができる。ディスプレイ140の表示部は、例えば左右の2つの表示領域に区画されており、右側の表示領域に運転席側のカメラ110によって撮影された画像が表示され、左側の表示領域に助手席側のカメラ110によって撮影された画像が表示されるようになっている。
 以上のように構成される視界支援装置100の作動について図3~図6を加えて説明する。
 ここで、この出願に記載されるフローチャート、あるいは、フローチャートの処理は、複数のセクション(あるいはステップと言及される)から構成され、各セクションは、たとえば、S100と表現される。さらに、各セクションは、複数のセクションに分割されることができる、一方、複数のセクションが合わさって一つのセクションにすることも可能である。さらに、このように構成される各セクションは、デバイス、モジュール、ミーンズとして言及されることができる。
 図3に示すフローチャートにおいて、イグニッションスイッチがオンされて、制御部130に電力供給されると、制御部130は制御フローをスタートさせる。まず、S100で、制御部130は、カメラ110に電力を供給して、カメラ110を起動させる。
 次に、S110で、制御部130は、入力部120の各スイッチ121、122における運転者の操作内容に基づく処理(スイッチ操作処理)を実施する。制御部130は、スイッチ操作処理を、図4に示す制御フローに基づいて実施する。このスイッチ操作処理は、予め定められた所定時間ごとに繰返し実施されるようになっている。
 まず、S111で、制御部130は、選択スイッチ121における入力状態がオン状態かオフ状態かを判定する。ここで、オン状態とは、選択スイッチ121における選択状態(ポジション)が、「R」、「L」、「R+L」のいずれかの場合であり、オフ状態とは、選択スイッチ121における選択状態(ポジション)が「OFF」の場合である。S111で入力状態がオンであると判定すると、制御部130は、S112で、選択されたポジションに対応する選択スイッチフラグ(R、L、R+Lのいずれか)を生成して記憶する。
 次に、S113で、制御部130は、操作スイッチ122における入力状態がオン状態かオフ状態かを判定する。ここで、オン状態とは、操作スイッチ122における押下位置が、「1」~「8」のいずれかの場合であり、オフ状態とは、操作スイッチ122における操作が行われていない(スイッチに触れられていない)場合である。S113で入力状態がオンであると判定すると、制御部130は、S114で、押下位置に対応する操作スイッチフラグ(1~8のいずれか)を生成して記憶する。
 また、S113で、操作スイッチ122における入力状態がオフ状態であると判定すると、制御部130は、S115で、今まで記憶していた操作スイッチフラグをクリアする。更に、S111で、選択スイッチ121における入力状態がオフ状態であると判定すると、制御部130は、S116で、今まで記憶していた選択スイッチフラグをクリアする。
 図3に戻って、上記S110の後に、制御部130は、S120で、選択スイッチフラグが記憶されているか否かを判定し、記憶されている場合は、S130に進み、記憶されていない場合は、S110に戻る。
 S130では、制御部130は、選択スイッチフラグ、操作スイッチフラグ、および現在の画像情報(切出し画像中の基準線V、H1~H3)に基づき、画像切出し処理を実施する。そして、制御部130は、S130の画像切出し処理で作成した切出し画像の映像信号を、S140で、ディスプレイ140に出力し、切出し画像をディスプレイ140に表示させる。制御部130は、S130における画像切出し処理を、図5に示す制御フローに基づいて実施する。
 まず、S1301にて、制御部130は、選択スイッチフラグがR、L、R+Lのうちのいずれであるかを判定し、Rであると判定すると、S1302へ進む。S1302では、制御部130は、操作スイッチフラグが1~8のうちのいずれであるかを判定する。そして、判定した操作スイッチフラグ(1~8)に応じて、それぞれS1303、S1306、S1309、S1312、S1315、S1318、S1321、S1324のいずれかに進み、現在の切出し画像における各基準線V、H1~H3と、移動方向(操作スイッチフラグ1~8)とに基づいて、各基準線H1~H3の位置を変更し、更にS1327、ス1328で新しい切出し画像を作成していく。
 即ち、操作スイッチフラグが1であると、制御部130は、S1303に進み、操作スイッチフラグ1に基づく処理を実施する。具体的には、以下のS1304、S1305を実施する。S1304では、制御部130はカメラ画像に対する現在の切出し画像(図6(A))における各基準線V、H1~H3を読み込む。
 そして、S1305では、操作スイッチ122による切出し画像の移動方向が1(上側)であることから、現在の切出し画像(図6(A))を縦方向基準線Vに従って、第2横方向基準線H2を上側に移動する。つまり、各横方向基準線H1、H2、H3に対して、座標位置をそれぞれ所定量ΔHだけ加えた横方向基準線H1´=H1+ΔH、H2´=H2+ΔH、H3´=H3+ΔHとする。
 また、操作スイッチフラグが2であると、制御部130は、S1306に進み、操作スイッチフラグ2に基づく処理を実施する。具体的には、以下のS1307、S1308を実施する。S1307では、制御部130はカメラ画像に対する現在の切出し画像(図6(A))における各基準線V、H1~H3を読み込む。
 そして、S1308では、操作スイッチ122による切出し画像の移動方向が2(下側)であることから、現在の切出し画像(図6(A))を縦方向基準線Vに従って、第2横方向基準線H2を下側に移動する。つまり、各横方向基準線H1、H2、H3に対して、座標位置をそれぞれ所定量ΔHだけ差し引いた横方向基準線H1´=H1-ΔH、H2´=H2-ΔH、H3´=H3-ΔHとする。
 また、操作スイッチフラグが3であると、制御部130は、S1309に進み、操作スイッチフラグ3に基づく処理を実施する。具体的には、以下のS1310、S1311を実施する。S1310では、制御部130はカメラ画像に対する現在の切出し画像(図6(A))における各基準線V、H1~H3を読み込む。
 そして、S1311では、操作スイッチ122による切出し画像の移動方向が3(右上側)であることから、現在の切出し画像(図6(A))を縦方向基準線Vと第3横方向基準線H3とに従って、第1横方向基準線H1、および第2横方向基準線H2を上側に移動する。つまり、第1横方向基準線H1に対して、座標位置を所定量ΔHだけ加えた第1横方向基準線H1´=H1+ΔHとし、第2横方向基準線H2に対して、座標位置を所定量ΔH/2だけ加えた第2横方向基準線H2´=H2+ΔH/2とする。尚、第3横方向基準線H3については、同一の座標位置のままH3´とする。
 また、操作スイッチフラグが4であると、制御部130は、S1312に進み、操作スイッチフラグ4に基づく処理を実施する。具体的には、以下のS1313、S1314を実施する。S1313では、制御部130はカメラ画像に対する現在の切出し画像(図6(A))における各基準線V、H1~H3を読み込む。
 そして、S1314では、操作スイッチ122による切出し画像の移動方向が4(右側)であることから、現在の切出し画像(図6(A))を縦方向基準線Vと第2横方向基準線H2とに従って、第1横方向基準線H1を上側に、また第3横方向基準線H3を下側に移動する。つまり、第1横方向基準線H1に対して、座標位置を所定量ΔH/2だけ加えた第1横方向基準線H1´=H1+ΔH/2とし、第3横方向基準線H3に対して、座標位置を所定量ΔH/2だけ差し引いた第3横方向基準線H3´=H3-ΔH/2とする。尚、第2横方向基準線H2については、同一の座標位置のままH2´とする。
 また、操作スイッチフラグが5であると、制御部130は、S1315に進み、操作スイッチフラグ5に基づく処理を実施する。具体的には、以下のS1316、S1317を実施する。S1316では、制御部130はカメラ画像に対する現在の切出し画像(図6(A))における各基準線V、H1~H3を読み込む。
 そして、S1317では、操作スイッチ122による切出し画像の移動方向が3(右下側)であることから、現在の切出し画像(図6(A))を縦方向基準線Vと第1横方向基準線H1とに従って、第2横方向基準線H2、および第3横方向基準線H3を下側に移動する。つまり、第2横方向基準線H2に対して、座標位置を所定量ΔH/2だけ差し引いた第2横方向基準線H2´=H2-ΔH/2とし、第3横方向基準線H3に対して、座標位置を所定量ΔHだけ差し引いた第3横方向基準線H3´=H3-ΔHとする。尚、第1横方向基準線H1については、同一の座標位置のままH1´とする。
 また、操作スイッチフラグが6であると、制御部130は、S1318に進み、操作スイッチフラグ6に基づく処理を実施する。具体的には、以下のS1319、S1320を実施する。S1319では、制御部130はカメラ画像に対する現在の切出し画像(図6(A))における各基準線V、H1~H3を読み込む。
 そして、S1319では、操作スイッチ122による切出し画像の移動方向が3(左上側)であることから、現在の切出し画像(図6(A))を縦方向基準線Vと第1横方向基準線H1とに従って、第2横方向基準線H2、および第3横方向基準線H3を上側に移動する。つまり、第2横方向基準線H2に対して、座標位置を所定量ΔH/2だけ加えた第2横方向基準線H2´=H2+ΔH/2とし、第3横方向基準線H3に対して、座標位置を所定量ΔHだけ加えた第3横方向基準線H3´=H3+ΔHとする。尚、第1横方向基準線H1については、同一の座標位置のままH1´とする。
 また、操作スイッチフラグが7であると、制御部130は、S1321に進み、操作スイッチフラグ7に基づく処理を実施する。具体的には、以下のS1322、S1323を実施する。S1322では、制御部130はカメラ画像に対する現在の切出し画像(図6(A))における各基準線V、H1~H3を読み込む。
 そして、S1323では、操作スイッチ122による切出し画像の移動方向が4(左側)であることから、現在の切出し画像(図6(A))を縦方向基準線Vと第2横方向基準線H2とに従って、第1横方向基準線H1を下側に、また第3横方向基準線H3を上側に移動する。つまり、第1横方向基準線H1に対して、座標位置を所定量ΔH/2だけ差し引いた第1横方向基準線H1´=H1-ΔH/2とし、第3横方向基準線H3に対して、座標位置を所定量ΔH/2だけ加えた第3横方向基準線H3´=H3+ΔH/2とする。尚、第2横方向基準線H2については、同一の座標位置のままH2´とする。
 また、操作スイッチフラグが8であると、制御部130は、S1324に進み、操作スイッチフラグ8に基づく処理を実施する。具体的には、以下のS1325、S1326を実施する。S1325では、制御部130はカメラ画像に対する現在の切出し画像(図6(A))における各基準線V、H1~H3を読み込む。
 そして、S1326では、操作スイッチ122による切出し画像の移動方向が3(左下側)であることから、現在の切出し画像(図6(A))を縦方向基準線Vと第3横方向基準線H3とに従って、第1横方向基準線H1、および第2横方向基準線H2を下側に移動する。つまり、第1横方向基準線H1に対して、座標位置を所定量ΔHだけ差し引いた第1横方向基準線H1´=H1-ΔHとし、第2横方向基準線H2に対して、座標位置を所定量ΔH/2だけ差し引いた第2横方向基準線H2´=H2-ΔH/2とする。尚、第3横方向基準線H3については、同一の座標位置のままH3´とする。
 次に、S1327で、制御部130は、上記S1305、S1308、S1311、S1314、S1317、S1320、S1323、S1326にて設定した各基準線H1´~H3´を各基準線H1~H3として記憶する。
 そして、S1328で、制御部130は、基準線Vと新たに設定した各基準線H1、H3とによって定まる領域を新しい切出し画像の領域として設定する。つまり、H1-H3(=H1´-H3´)によって定まる新しい切出し画像の縦方向の寸法に対して横方向の寸法が所定倍(4/3倍)となるようにして、新しい切出し画像としてカメラ画像から切出す。
 操作スイッチフラグが1の場合(移動方向が上側の場合)であると、縦方向基準線Vを基準にして各基準線H1~H3が上側に移動されて、カメラ画像中において図6(A)の現在の切出し画像の上側の領域が新たに取り込まれ、下側の領域が削除された図6(1)となる。
 また、操作スイッチフラグが2の場合(移動方向が下側の場合)であると、縦方向基準線Vを基準にして各基準線H1~H3が下側に移動されて、カメラ画像中において図6(A)の現在の切出し画像の下側の領域が新たに取り込まれ、上側の領域が削除された図6(2)となる。
 また、操作スイッチフラグが3の場合(移動方向が右上側の場合)であると、縦方向基準線Vおよび第3横方向基準線H3を基準にして各基準線H1、H2が上側に移動されて、カメラ画像中において図6(A)の現在の切出し画像の上側と右側、即ち右上側の領域が新たに取り込まれた図6(3)となる。
 また、操作スイッチフラグが4の場合(移動方向が右側の場合)であると、縦方向基準線Vおよび第2横方向基準線H2を基準にして第1横方向基準線H1が上側に移動され、第3横方向基準線H3が下側に移動されて、カメラ画像中において図6(A)の現在の切出し画像の上側、下側、および右側の領域、総じて右側の領域が新たに取り込まれた図6(4)となる。
 また、操作スイッチフラグが5の場合(移動方向が右下側の場合)であると、縦方向基準線Vおよび第1横方向基準線H1を基準にして第2、第3横方向基準線H2、H3がそれぞれ下側に移動されて、カメラ画像中において図6(A)の現在の切出し画像の下側と右側、総じて右下側の領域が新たに取り込まれた図6(5)となる。
 また、操作スイッチフラグが6の場合(移動方向が左上側の場合)であると、縦方向基準線Vおよび第1横方向基準線H1を基準にして第2、第3横方向基準線H2、H3がそれぞれ上側に移動されて、カメラ画像中において図6(A)の現在の切出し画像の右側および下側の領域が削除され、左上側にウエイトを置いた領域が新たに取り込まれた図6(6)となる。
 また、操作スイッチフラグが7の場合(移動方向が左側の場合)であると、縦方向基準線Vおよび第2横方向基準線H2を基準にして第1横方向基準線H1が下側に移動され、第3横方向基準線H3が上側に移動されて、カメラ画像中において図6(A)の現在の切出し画像の上側、下側、および右側の領域が削除され、左側にウエイトを置いた領域が新たに取り込まれた図6(7)となる。
 また、操作スイッチフラグが8の場合(移動方向が左下側の場合)であると、縦方向基準線Vおよび第3横方向基準線H3を基準にして各基準線H1、H2が下側に移動されて、カメラ画像中において図6(A)の現在の切出し画像の上側および右側の領域が削除され、左下側にウエイトを置いた領域が新たに取り込まれた図6(8)となる。
 尚、S1301で、選択スイッチフラグがLであると判定すると、S1329で、助手席側に設けられたカメラ110を対象にして、S1302~S1328と同様の制御を行う。
 また、S1301で、選択スイッチフラグがR+Lであると判定すると、S1329で、運転席側と助手席側とに設けられた両カメラ110を対象にして、S1302~S1328と同様の制御を行う。この場合、制御部130は、運転席側のカメラ110によるカメラ画像の切出し処理を上記S1302~S1328と同様に行い、助手席側のカメラ110によるカメラ画像については、運転席側のカメラ110によるカメラ画像の切出しとは、左右対称となるような切出しを行う。
 以上のように、本実施形態では、画像切出し処理を実施するにあたって、入力操作前の切出し画像中の車両の一部を含む縦方向基準線V、および縦方向基準線(V)に直交する各横方向基準線H1~H3と、切出し画像の移動方向と、に基づいて行うようにしている。よって、各移動方向要求に対して図6で説明したような新たな切出し画像を得ることができ、変更後の切出し画面は自車との位置関係を容易に把握可能な画面となると共に、変更前後の切出し画面の想定が容易となる。
 (第2実施形態)
 第2実施形態では、速度センサ152から得られる速度信号を用いて、制御部130は、速度信号が大きくなるほど、現在の切出し画像から新しい切出し画像への切替え速度を大きくする。これにより、切出し画像の切出し位置を変更したときに、車両の速度が大きいほど、新しい切出し画像をより速く確認することができるので、早め早めの危険回避運転が可能となり、安全運転に繋げることができる。
 (第3実施形態)
 第3実施形態では、方向指示器153の作動に合わせて、制御部130は、画像切出し処理を実施する。即ち、制御部130には、車両が右折あるいは左折する際に車両の右側、あるいは左側を確認するにあたって、切出し画像としてカメラ画像中のどの範囲の領域としたものが好適であるかという、好適領域が予め記憶されている。好適領域は、本開示の予め定められた範囲であり、例えば、走行前の事前調整によって設定される。つまり、走行前段階において、運転者が方向指示器153と入力部120とを操作すると、方向指示器153からの作動信号と、入力部120からの入力信号、即ち、選択されたカメラ110における切出しのための希望範囲とが、制御部130に入力される。すると、制御部130は、方向指示器153の作動信号と連動した上記の希望範囲を記憶する。この記憶された希望範囲が、好適領域となるのである。そして、走行時において、方向指示器153が作動されると、制御部130は、作動された方向指示器と同じ側に設置されているカメラ110の切出し画像を、記憶された好適領域を切出した切出し画像に切替える。
 これにより、右折あるいは左折時の車両の右側あるいは左側をより確実に確認することが可能となり、安全運転に繋げることができる。
 (その他の実施形態)
 上記各実施形態では、カメラ110は、車両の両側面に設けられるものとして説明したが、これに限らず、いずれか一方の側面に1つだけ設けられるものとしても良い。この場合は、運転者の死角となる領域の大きな、助手席側に設けられるものとすると良く、使い勝手のよい視界支援装置とすることができる。
 また、カメラ110が車両の両側面に設けられるものにおいて、上記第1実施形態では、選択スイッチ121による選択がR+Lの場合、切出し画像を移動させる際に、運転席側のカメラ110による切出し画像の移動方向を基準にして、助手席側のカメラ110による切出し画像の移動方向を左右対称となる方向としたが、両切出し画像とも同じ方向に移動させるものとしても良い。
 本開示は、実施例に準拠して記述されたが、本開示は当該実施例や構造に限定されるものではないと理解される。本開示は、様々な変形例や均等範囲内の変形をも包含する。加えて、様々な組み合わせや形態、さらには、それらに一要素のみ、それ以上、あるいはそれ以下、を含む他の組み合わせや形態をも、本開示の範疇や思想範囲に入るものである。

Claims (7)

  1.  車両の側方に設けられて、前記車両の後側方を撮影し、カメラ画像を提供するカメラ(110)と、
     前記カメラによって提供されるカメラ画像の中で、乗員が見たいと希望する希望範囲を変更するための入力操作が、前記乗員によって行われる入力部(120)と、
     前記入力部への入力操作によって生成される入力信号に基づいて、前記カメラ画像に対する前記希望範囲を切出して切出し画像とする制御部(130)と、
     前記制御部によって切出された前記切出し画像を表示する表示部(140)とを備え、
     前記制御部は、
     前記入力部への入力操作前の前記切出し画像中の前記車両の一部を含む縦方向基準線(V)、および前記縦方向基準線(V)に直交する横方向基準線(H1~H3)と、
     前記入力部に入力された前記希望範囲に変更するための移動方向と、に基づいて前記カメラ画像に対する切出しを行うことを特徴とする車両用視界支援装置。
  2.  前記横方向基準線(H1~H3)は、
     前記切出し画像の上端に位置する第1横方向基準線(H1)、前記切出し画像の中心に位置する第2横方向基準線(H2)、および前記切出し画像の下端に位置する第3横方向基準線(H3)のいずれかであり、
     前記制御部(130)は、
     前記移動方向が上、下、右、左のいずれかの場合に、前記横方向基準線(H1~H3)として、前記第2横方向基準線(H2)を使用し、
     前記移動方向が右上、左下のいずれかの場合に、前記横方向基準線(H1~H3)として、前記第3横方向基準線(H3)を使用し、
     前記移動方向が右下、左上のいずれかの場合に、前記横方向基準線(H1~H3)として、前記第1横方向基準線(H1)を使用することを特徴とする請求項1に記載の車両用視界支援装置。
  3.  前記車両の速度信号を生成する速度センサ(152)を備え、前記速度信号が前記制御部(130)に入力されるようになっており、
     前記制御部は、前記速度信号が大きくなるほど、新たに切出した切出し画像への切替え速度を大きくすることを特徴とする請求項1または請求項2に記載の車両用視界支援装置。
  4.  右左折時用の方向指示器(153)の作動信号が、前記制御部(130)に入力されるようになっており、
     前記制御部は、走行時において、前記方向指示器の作動信号に応じて、前記切出し画像を、前記カメラ画像中の予め定められた範囲の切出し画像に切替えることを特徴とする請求項1~請求項3のいずれか1つに記載の車両用視界支援装置。
  5.  前記制御部(130)は、走行前段階において、前記方向指示器(153)の作動信号が入力されると共に、前記入力部(120)からの前記入力信号が入力されると、前記方向指示器の作動信号に連動する前記カメラ画像に対する前記希望範囲を記憶するようにしており、
     前記予め定められた範囲の切出し画像として、記憶した前記希望範囲の切出し画像を用いることを特徴とする請求項4に記載の車両用視界支援装置。
  6.  前記カメラ(110)は、前記車両の左右側方の各々に設けられ、運転席側カメラ、助手席側カメラとして提供されており、
     前記入力部(120)への入力操作が、左右の両カメラ(110)によるカメラ画像を対象とする場合であると、
     前記制御部(130)は、運転席側のカメラ(110)によるカメラ画像の切出しを行うと共に、助手席側のカメラ(110)によるカメラ画像については、前記運転席側のカメラ(110)によるカメラ画像の切出しとは左右対称となるような切出しを行うことを特徴とする請求項1~請求項5のいずれか1つに記載の車両用視界支援装置。
  7.  前記カメラ(110)は、助手席側に設けられたことを特徴とする請求項1~請求項5のいずれか1つに記載の車両用視界支援装置。
PCT/JP2013/004392 2012-07-24 2013-07-18 車両用視界支援装置 WO2014017055A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
US14/411,125 US9725039B2 (en) 2012-07-24 2013-07-18 Vehicular visibility support apparatus
EP13822915.8A EP2863633B1 (en) 2012-07-24 2013-07-18 Visibility support device for vehicle
CN201380039203.5A CN104604218B (zh) 2012-07-24 2013-07-18 车辆用视场辅助装置

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2012163830A JP6011104B2 (ja) 2012-07-24 2012-07-24 車両用視界支援装置
JP2012-163830 2012-07-24

Publications (1)

Publication Number Publication Date
WO2014017055A1 true WO2014017055A1 (ja) 2014-01-30

Family

ID=49996883

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2013/004392 WO2014017055A1 (ja) 2012-07-24 2013-07-18 車両用視界支援装置

Country Status (5)

Country Link
US (1) US9725039B2 (ja)
EP (1) EP2863633B1 (ja)
JP (1) JP6011104B2 (ja)
CN (1) CN104604218B (ja)
WO (1) WO2014017055A1 (ja)

Families Citing this family (39)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102011077038A1 (de) * 2011-06-07 2012-12-13 Robert Bosch Gmbh Verfahren und Vorrichtung zur Erkennung von Objekten in einem Umfeld eines Fahrzeugs
JP6384053B2 (ja) * 2014-01-28 2018-09-05 アイシン・エィ・ダブリュ株式会社 後写鏡角度設定システム、後写鏡角度設定方法および後写鏡角度設定プログラム
JP6020507B2 (ja) * 2014-04-14 2016-11-02 トヨタ自動車株式会社 車両用画像表示装置及び車両用画像表示方法
KR101596751B1 (ko) * 2014-09-26 2016-02-23 현대자동차주식회사 운전자 맞춤형 사각 영역 표시 방법 및 장치
JP2016092782A (ja) * 2014-11-11 2016-05-23 トヨタ自動車株式会社 車両用視界支援装置
JP6558989B2 (ja) * 2015-07-16 2019-08-14 株式会社東海理化電機製作所 車両用電子ミラーシステム
KR101795180B1 (ko) * 2015-12-11 2017-12-01 현대자동차주식회사 페일 세이프 기능을 갖는 차량 측후방 모니터링 장치 및 방법
DE102015122997A1 (de) * 2015-12-30 2017-07-06 Huf Hülsbeck & Fürst Gmbh & Co. Kg Verfahren zur Darstellung eines rückwärtigen Außenbereiches eines Fahrzeuges
KR102585219B1 (ko) 2016-11-29 2023-10-05 삼성전자주식회사 차량 속도 제어 방법 및 장치
WO2018116588A1 (ja) * 2016-12-22 2018-06-28 カルソニックカンセイ株式会社 画像表示制御装置
JP6601422B2 (ja) * 2017-01-11 2019-11-06 トヨタ自動車株式会社 画像表示装置
WO2018176000A1 (en) 2017-03-23 2018-09-27 DeepScale, Inc. Data synthesis for autonomous control systems
US11157441B2 (en) 2017-07-24 2021-10-26 Tesla, Inc. Computational array microprocessor system using non-consecutive data formatting
US11893393B2 (en) 2017-07-24 2024-02-06 Tesla, Inc. Computational array microprocessor system with hardware arbiter managing memory requests
US11409692B2 (en) 2017-07-24 2022-08-09 Tesla, Inc. Vector computational unit
US10671349B2 (en) 2017-07-24 2020-06-02 Tesla, Inc. Accelerated mathematical engine
US20190098226A1 (en) * 2017-09-26 2019-03-28 Panasonic Automotive Systems Company Of America, Division Of Panasonic Corporation Of North America Smart field of view (fov) adjustment for a rearview display system in a motor vehicle
US11561791B2 (en) 2018-02-01 2023-01-24 Tesla, Inc. Vector computational unit receiving data elements in parallel from a last row of a computational array
CN111886858B (zh) * 2018-03-15 2022-06-21 株式会社小糸制作所 车辆用影像系统
JP7147255B2 (ja) 2018-05-11 2022-10-05 トヨタ自動車株式会社 画像表示装置
US11215999B2 (en) 2018-06-20 2022-01-04 Tesla, Inc. Data pipeline and deep learning system for autonomous driving
US11361457B2 (en) 2018-07-20 2022-06-14 Tesla, Inc. Annotation cross-labeling for autonomous control systems
US11636333B2 (en) 2018-07-26 2023-04-25 Tesla, Inc. Optimizing neural network structures for embedded systems
US11562231B2 (en) 2018-09-03 2023-01-24 Tesla, Inc. Neural networks for embedded devices
JP7073991B2 (ja) 2018-09-05 2022-05-24 トヨタ自動車株式会社 車両用周辺表示装置
SG11202103493QA (en) 2018-10-11 2021-05-28 Tesla Inc Systems and methods for training machine models with augmented data
US11196678B2 (en) 2018-10-25 2021-12-07 Tesla, Inc. QOS manager for system on a chip communications
JP7053437B2 (ja) * 2018-11-26 2022-04-12 本田技研工業株式会社 運転支援装置および車両
US11816585B2 (en) 2018-12-03 2023-11-14 Tesla, Inc. Machine learning models operating at different frequencies for autonomous vehicles
US11537811B2 (en) 2018-12-04 2022-12-27 Tesla, Inc. Enhanced object detection for autonomous vehicles based on field view
US11610117B2 (en) 2018-12-27 2023-03-21 Tesla, Inc. System and method for adapting a neural network model on a hardware platform
US11150664B2 (en) 2019-02-01 2021-10-19 Tesla, Inc. Predicting three-dimensional features for autonomous driving
US10997461B2 (en) 2019-02-01 2021-05-04 Tesla, Inc. Generating ground truth for machine learning from time series elements
US11567514B2 (en) 2019-02-11 2023-01-31 Tesla, Inc. Autonomous and user controlled vehicle summon to a target
US10956755B2 (en) 2019-02-19 2021-03-23 Tesla, Inc. Estimating object properties using visual image data
US10421401B1 (en) * 2019-05-02 2019-09-24 Richard C. Horian Video system for vehicles
EP3967552A1 (en) * 2020-09-11 2022-03-16 Ficosa Adas, S.L.U. Camera monitoring system for motor vehicles
US11405559B1 (en) 2021-02-19 2022-08-02 Honda Motor Co., Ltd. Systems and methods for live signal adjustment of a movable camera
US20230056757A1 (en) * 2021-08-23 2023-02-23 Frank Borland Blind turn safety camera

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003095028A (ja) * 2001-09-20 2003-04-03 Nippon Seiki Co Ltd 車両用監視装置
JP2003219413A (ja) 2002-01-24 2003-07-31 Clarion Co Ltd 車両後方モニタシステムおよびモニタ装置
JP2007109113A (ja) * 2005-10-14 2007-04-26 Alpine Electronics Inc 車載画像表示装置

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01226080A (ja) * 1988-03-05 1989-09-08 Fanuc Ltd 視覚センサのウィンドウ手動制御方式
JP3184656B2 (ja) 1993-03-04 2001-07-09 シャープ株式会社 車載用監視カメラ装置
JP3446277B2 (ja) 1993-12-24 2003-09-16 日産自動車株式会社 車両用周囲状況表示装置
JPH11321495A (ja) 1998-05-08 1999-11-24 Yazaki Corp 後側方監視装置
DE10246652B4 (de) * 2002-10-07 2012-06-06 Donnelly Hohe Gmbh & Co. Kg Verfahren zum Betrieb eines Darstellungssystems in einem Fahrzeug
JP4329525B2 (ja) 2003-12-16 2009-09-09 株式会社エクォス・リサーチ 車外情報表示装置
WO2005080134A1 (en) * 2004-02-20 2005-09-01 Sharp Kabushiki Kaisha Surroundings exhibiting system and surroundings exhibiting method
JP4698351B2 (ja) 2005-09-13 2011-06-08 パナソニック株式会社 車両側方確認装置
JP2008004990A (ja) 2006-06-20 2008-01-10 Nissan Motor Co Ltd 車両用表示制御装置
US8786704B2 (en) * 2007-08-09 2014-07-22 Donnelly Corporation Vehicle mirror assembly with wide angle element
EP2380348A4 (en) * 2008-12-19 2012-06-13 Delphi Tech Inc ELECTRONIC SIDE VIEW INDICATOR SYSTEM
CN101442618A (zh) * 2008-12-31 2009-05-27 葛晨阳 用于车辆辅助驾驶的360度环形视频合成方法
JP4840452B2 (ja) * 2009-01-22 2011-12-21 株式会社デンソー 車両周辺表示装置
US20110115913A1 (en) * 2009-11-17 2011-05-19 Werner Lang Automated vehicle surrounding area monitor and display system
US20120013742A1 (en) * 2010-07-16 2012-01-19 Delphi Technologies, Inc. Vision system and method for displaying a field of view dependent upon detecting an object
CN102069859B (zh) * 2011-01-07 2012-01-04 福耀玻璃工业集团股份有限公司 一种用于安装汽车玻璃后视镜座及支架的装置和方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003095028A (ja) * 2001-09-20 2003-04-03 Nippon Seiki Co Ltd 車両用監視装置
JP2003219413A (ja) 2002-01-24 2003-07-31 Clarion Co Ltd 車両後方モニタシステムおよびモニタ装置
JP2007109113A (ja) * 2005-10-14 2007-04-26 Alpine Electronics Inc 車載画像表示装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP2863633A4

Also Published As

Publication number Publication date
JP6011104B2 (ja) 2016-10-19
CN104604218B (zh) 2018-01-02
US20150191118A1 (en) 2015-07-09
EP2863633B1 (en) 2019-02-20
EP2863633A4 (en) 2016-03-30
JP2014027353A (ja) 2014-02-06
EP2863633A1 (en) 2015-04-22
CN104604218A (zh) 2015-05-06
US9725039B2 (en) 2017-08-08

Similar Documents

Publication Publication Date Title
WO2014017055A1 (ja) 車両用視界支援装置
US10166922B2 (en) On-vehicle image display device, on-vehicle image display method for vehicle, and on-vehicle image setting device
JP4807263B2 (ja) 車両用表示装置
JP5872517B2 (ja) 車両周辺表示装置
JP5744352B2 (ja) 車両周辺表示装置
JP6413207B2 (ja) 車両用表示装置
JP6252365B2 (ja) 安全確認支援システム、安全確認支援方法
JP2018157403A (ja) 車載表示装置、車載表示装置の制御方法及び車載表示装置の制御プログラム
US20100201508A1 (en) Cross traffic alert system for a vehicle, and related alert display method
JP6561616B2 (ja) 車載ヘッドアップディスプレイ装置及び車載表示システム
WO2018159017A1 (ja) 車両用表示制御装置、車両用表示システム、車両用表示制御方法およびプログラム
JP2018144526A (ja) 周辺監視装置
JP2009227245A (ja) 車載機器の操作装置
JP5852076B2 (ja) 車両周辺表示装置
EP3800111A1 (en) Periphery monitoring device
US20220086400A1 (en) Vehicular display system
JP5213578B2 (ja) 運転支援装置
JP2009171129A (ja) 車両用駐車支援装置および画像表示方法
JP2010208359A (ja) 車両用表示装置
JP2005297810A (ja) 車両用表示システム及びプログラム
JP2019040354A (ja) 運転支援装置、および運転支援方法
JP7155650B2 (ja) 周辺監視装置
JP2018100008A (ja) 車両用表示装置
JP2019116220A (ja) 車両用視認装置
JP6093338B2 (ja) 標識情報表示システム及び標識情報表示方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 13822915

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 14411125

Country of ref document: US

WWE Wipo information: entry into national phase

Ref document number: 2013822915

Country of ref document: EP

NENP Non-entry into the national phase

Ref country code: DE