WO2018055842A1 - 表示制御装置、表示制御方法及びプログラム - Google Patents

表示制御装置、表示制御方法及びプログラム Download PDF

Info

Publication number
WO2018055842A1
WO2018055842A1 PCT/JP2017/021218 JP2017021218W WO2018055842A1 WO 2018055842 A1 WO2018055842 A1 WO 2018055842A1 JP 2017021218 W JP2017021218 W JP 2017021218W WO 2018055842 A1 WO2018055842 A1 WO 2018055842A1
Authority
WO
WIPO (PCT)
Prior art keywords
display
vehicle
video data
auxiliary
line
Prior art date
Application number
PCT/JP2017/021218
Other languages
English (en)
French (fr)
Inventor
松本 英之
大場 貢
Original Assignee
株式会社Jvcケンウッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2017085243A external-priority patent/JP6747369B2/ja
Application filed by 株式会社Jvcケンウッド filed Critical 株式会社Jvcケンウッド
Priority to EP17852623.2A priority Critical patent/EP3517370B1/en
Priority to CN201780024190.2A priority patent/CN109070824B/zh
Publication of WO2018055842A1 publication Critical patent/WO2018055842A1/ja
Priority to US16/184,887 priority patent/US20190075255A1/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B62LAND VEHICLES FOR TRAVELLING OTHERWISE THAN ON RAILS
    • B62DMOTOR VEHICLES; TRAILERS
    • B62D15/00Steering not otherwise provided for
    • B62D15/02Steering position indicators ; Steering position determination; Steering aids
    • B62D15/027Parking aids, e.g. instruction means
    • B62D15/0275Parking aids, e.g. instruction means by overlaying a vehicle path based on present steering angle over an image without processing that image
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R21/00Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • B60R2300/304Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing using merged images, e.g. merging camera image with stored images
    • B60R2300/305Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing using merged images, e.g. merging camera image with stored images merging camera image with lines or icons

Definitions

  • the present invention relates to a display control device, a display control method, and a program.
  • Patent Documents 1 and 2 In recent years, a technique for displaying a rear image taken by a rear camera mounted on the rear of a vehicle on a display unit such as a monitor when the vehicle retreats has been widespread (Patent Documents 1 and 2).
  • an expected locus line traveling locus line is displayed on the display unit.
  • the display form is changed on the near side and the far side of the expected trajectory line. Specifically, the front side of the predicted trajectory line is displayed as a thick solid line, and the back side is displayed as a broken line, a thin color line, and a translucent line.
  • a travel locus line is displayed on the display unit. In Patent Document 2, when a travel locus line overlaps an obstacle, a portion overlapping the obstacle is deleted.
  • an object of the present embodiment is to provide a display control device, a display control method, and a program that allow a driver to recognize whether or not the traveling speed during parking is appropriate.
  • the display control apparatus includes a video data acquisition unit that acquires video data from a camera that captures the traveling direction of the vehicle, and a predetermined amount from the vehicle in the traveling direction of the vehicle based on the traveling operation of the vehicle. Generated by a superimposition data generation unit that generates superimposition data indicating a position separated by a distance, a display video generation unit that generates display video data in which the superimposition data is superimposed on the video data, and the display video generation unit.
  • a display control unit that displays a video based on the display video data on a display unit, and the display control unit causes the display unit to display at least one of (a) and (b).
  • the display video generation unit generates the display video data, and the display of (a) is performed in a predetermined time interval in which the display form of the plurality of superimposed data is sequentially from the far side of the vehicle. It is to display to vary the display of the (b) is to display the superimposed data as the predetermined distance is reduced with the passage of time, those.
  • the display control method includes a step of acquiring video data from a camera that captures the traveling direction of the vehicle, and a predetermined distance from the vehicle in the traveling direction of the vehicle based on the traveling operation of the vehicle. Generating superimposition data indicating a distant position; generating display video data in which the superimposition data is superimposed on the video data; and displaying a video based on the display video data on a display unit.
  • the display image data is generated so that at least one of (a) and (b) is displayed on the display unit, and the display form of (a) is a display form of a plurality of superimposed data.
  • the display of (b) is such that the predetermined distance decreases as time elapses. It is to display the superimposed data to so that is intended.
  • the program according to the present embodiment is based on the step of obtaining video data from a camera that captures the traveling direction of the vehicle and the traveling operation of the vehicle, and is separated from the vehicle by a predetermined distance in the traveling direction of the vehicle.
  • a step of generating superimposition data indicating a position, a step of generating display video data in which the superimposition data is superimposed on the video data, and a step of displaying a video based on the display video data on a display unit are executed on a computer
  • the display video data is generated so that at least one of (a) and (b) is displayed on the display unit, and the display of (a) has a display form of a plurality of the superimposed data. Display in a predetermined time interval in order from the far side of the vehicle, and the display in (b) is performed according to the passage of time. Is that the distance of displaying the superimposed data to be smaller, but.
  • 1 is a diagram illustrating a vehicle according to a first embodiment
  • 1 is a diagram illustrating the inside of a vehicle according to a first embodiment
  • 1 is a diagram illustrating a configuration of a display control apparatus according to a first embodiment and a display control system including the display control apparatus.
  • It is a figure which illustrates the image
  • 4 is a flowchart showing a display control method executed by the display control apparatus according to the first embodiment; It is a figure which illustrates the image
  • FIG. 10 is a flowchart showing a display control method executed by the display control apparatus according to the second embodiment; 10 is a flowchart showing a display control method executed by the display control apparatus according to the second embodiment; It is a figure which illustrates the image
  • FIG. 10 is a diagram illustrating an image shown by display image data in the third embodiment.
  • FIG. 10 is a diagram illustrating an image shown by display image data in the third embodiment.
  • FIG. 10 is a diagram illustrating an image shown by display image data in the third embodiment.
  • FIG. 20 is a diagram illustrating a video shown by display video data in a fourth embodiment.
  • FIG. 20 is a diagram illustrating a video shown by display video data in a fourth embodiment.
  • FIG. 20 is a diagram illustrating a video shown by display video data in a fourth embodiment.
  • FIG. 20 is a diagram illustrating a video shown by display video data in a fourth embodiment.
  • FIG. 20 is a diagram illustrating a video shown by display video data in a fourth embodiment. It is a figure which shows the image
  • FIG. 1 is a diagram illustrating a vehicle 1 according to the first embodiment.
  • the vehicle 1 includes a rear camera 2 and a display control device 100.
  • the rear camera 2 is installed at the rear of the vehicle 1 and photographs the rear of the vehicle 1 including the road surface 90.
  • the rear camera 2 is used when the vehicle 1 moves backward and parks.
  • an image of a front camera (not shown) is used instead of the rear camera 2.
  • the vehicle 1 should just have at least one of the front camera and the rear camera 2 as a camera which image
  • the vehicle 1 also has a door 3 that can be opened and closed.
  • the display control device 100 can be provided at any position of the vehicle 1.
  • the display control apparatus 100 can be connected to CAN (Control
  • FIG. 2 is a diagram illustrating the inside of the vehicle 1 according to the first embodiment.
  • FIG. 2 is a view of the cab inside the vehicle 1 as viewed from the driver's seat in the front direction of the vehicle 1.
  • the vehicle 1 includes a steering wheel 10, a dashboard 12, a windshield 14, a center console 16, a cluster panel 18 that displays a traveling speed of the vehicle, an engine speed, and the like.
  • the center console 16 may be provided with a center display unit 20 for displaying a navigation screen and the like.
  • the vehicle 1 may be provided with a head-up display display unit 22 that displays an image on a head-up display above the cluster panel 18. When the head-up display is a combiner type, the head-up display display unit 22 is a combiner.
  • the head-up display display unit 22 is an area where the virtual image is presented on the windshield 14.
  • the vehicle 1 may have a rear view monitor 24.
  • the rear view monitor 24 is disposed at the same position as a rear view mirror for rear confirmation in a general vehicle, that is, near the upper center of the windshield 14.
  • FIG. 3 is a diagram illustrating a configuration of the display control apparatus 100 according to the first embodiment and a display control system 140 including the display control apparatus 100.
  • the display control system 140 includes the rear camera 2, the display unit 50, and the display control device 100.
  • the display control device 100 is connected to the rear camera 2 and the display unit 50 so as to communicate with each other.
  • the display control apparatus 100 includes a backward movement detection unit 101, a video data acquisition unit 106, an extraction unit 107, an expected route line generation unit 109, a display video generation unit 110, and a display control unit 120.
  • the reverse movement detection unit 101 includes a reverse detection unit 102 and a steering angle information acquisition unit 104. Note that at least one component or all the components of the display control system 140 may be incorporated in the vehicle 1 or may be removed from the vehicle 1 and portable.
  • the display unit 50 displays an image captured by the rear camera 2.
  • the display unit 50 can be realized by the rear view monitor 24, the cluster panel 18, the center display unit 20, or the head-up display display unit 22, for example.
  • the display unit 50 may be realized by a mobile terminal device such as a smartphone or a tablet terminal that can communicate with the display control device 100.
  • the display control device 100 may be a computer device built in the center console 16 or the like, for example, or the above-described portable terminal device.
  • the display control device 100 includes a processor such as a CPU (Central Processing Unit), a storage device such as a memory, a user interface, and various peripheral circuits. That is, the display control apparatus 100 has a function as a computer. In addition, the display control device 100 is configured such that the processor executes a program stored in the storage device, thereby causing the backward movement detection unit 101, the backward detection unit 102, the steering angle information acquisition unit 104, the video data acquisition unit 106, and the extraction unit 107. The components such as the predicted route generation unit 109, the display video generation unit 110, and the display control unit 120 are realized. Further, each component of the display control apparatus 100 is not limited to being realized by software by a program, and may be realized by any combination of hardware, firmware, and software.
  • a processor such as a CPU (Central Processing Unit)
  • a storage device such as a memory, a user interface, and various peripheral circuits. That is, the display control apparatus 100 has a function as a computer.
  • the display control device 100
  • Each component of the display control device 100 may be realized by using an integrated circuit that can be programmed by the user, such as an FPGA (field-programmable gate array) or a microcomputer.
  • this integrated circuit may be used to realize a program composed of the above-described components. The same applies to other embodiments described later.
  • the reverse movement detection unit 101 detects the reverse movement of the vehicle 1. For this reason, the backward movement detection unit 101 includes a backward movement detection unit 102 and a steering angle information acquisition unit 104.
  • the reverse detection unit 102 detects whether or not the vehicle 1 is moving backward. For example, the reverse detection unit 102 acquires information indicating that the reverse gear is selected from CAN or the like, and detects that the vehicle 1 is moving backward.
  • Steering angle information acquisition unit 104 acquires a signal from CAN or the like and acquires steering angle information indicating the steering angle at the wheel of vehicle 1.
  • the steering angle information includes information indicating the steering direction such as right or left in addition to information indicating the steering angle. Note that the steering angle information may indicate the steering angle of the steering wheel 10.
  • the steering angle information acquisition unit 104 outputs the acquired steering angle information to the predicted route generation unit 109. In particular, the steering angle information acquisition unit 104 acquires steering angle information when the vehicle 1 is stopped or when the vehicle is moving backward.
  • the expected course line generation unit 109 generates an expected course line based on the steering angle detected by the steering angle information acquisition unit 104.
  • the predicted course line can be restated as a guide line, a predicted backward trajectory, an expected trajectory line, or the like.
  • the predicted route is generated according to the predicted traveling direction.
  • the expected traveling direction is a direction in which the vehicle 1 travels at the detected steering angle. Specifically, when the vehicle 1 moves backward while turning, the predicted traveling direction is along an arc having a turning radius corresponding to the steering angle on the road surface 90. Alternatively, when parking straight ahead, the expected traveling direction is a straight line on the road surface 90.
  • the predicted route generation unit 109 generates an auxiliary line for the predicted route.
  • the expected course line and the auxiliary line will be described later.
  • the predicted route generation unit 109 generates an auxiliary line in addition to the predicted route line, but may generate only the auxiliary line without generating the predicted route line.
  • the video data acquisition unit 106 acquires video data from a camera installed in the traveling direction of the vehicle 1. When the vehicle 1 moves backward, video data from the rear camera 2 is acquired. The video data acquisition unit 106 outputs the acquired video data to the display video generation unit 110 and the extraction unit 107.
  • the video data is data indicating a video of the rear of the vehicle 1 taken by the rear camera 2.
  • movement can include the image which shows the parking area and the parking area line which shows the boundary of a parking area.
  • the parking area is a parking space where the vehicle 1 can be parked.
  • the parking section may be partitioned by a parking section line such as a white line drawn on the road surface 90.
  • the partition boundary corresponds to the parking partition line drawn on the road surface 90.
  • the parking section may not be partitioned by the parking partition line, and may be partitioned by an obstacle such as a wall. In this case, the partition boundary corresponds to an obstacle.
  • the parking section does not need to be physically partitioned, and may simply be a space sufficient for parking the vehicle 1. In this case, the partition boundary corresponds to another vehicle or the like parked next.
  • the partition boundary corresponds to another vehicle that is parked out of the parking partition line.
  • the “obstacle” may include not only an object fixed in the vicinity of a parking section such as a wall but also other vehicles and the like.
  • the extraction unit 107 extracts a lane marking on the back side and a lane marking on the side of the parking lot based on the video data.
  • the lane markings of the parking lot usually include a back lane marking indicating the far side (rear side, that is, the far side) lane boundary, and a lateral lane marking indicating the side (left side and right side) lane boundaries. It is out.
  • the lane markings can be extracted by various existing methods.
  • the extraction unit 107 may extract a partition boundary by recognizing a parking lane line, an obstacle, or another vehicle by edge detection. When the partition boundary is a white line, the extraction unit 107 may extract the partition boundary by recognizing the white line.
  • the display control device 100 stores in advance dictionary data indicating parking lot lines, vehicles, and the like
  • the extraction unit 107 compares the dictionary data with objects in the video data to compare the parking lot lines, vehicles, and the like. By recognizing, the partition boundary may be extracted.
  • the extraction unit 107 may recognize a parking area. Parking area recognition can be performed by various existing methods. For example, a rectangular region formed by the partition boundary may be recognized as a parking partition.
  • FIG. 4 shows an example of parking lot lines and expected course lines.
  • FIG. 4 is a diagram schematically showing a display image displayed on the display unit 50.
  • the display image is obtained by projecting the road surface 90 onto an imaging surface orthogonal to the optical axis of the rear camera 2 (see also FIG. 1). Therefore, in the display image, the upward direction is the backward direction as the traveling direction of the vehicle 1. That is, the upper side of the display image is the back side of the parking section 40, and the lower side of the display image is the front side of the parking section 40.
  • the left-right direction is opposite to the left-right direction in FIG. 4 because it is based on the direction of the vehicle 1. 4 is the front side of the vehicle 1, the left side of FIG. 4 is the right side of the vehicle 1, and the right side of FIG. Further, FIG. 4 shows a case where the vehicle is parked by rectilinear receding. That is, the vehicle 1 recedes straight and enters the parking section 40.
  • the parking section 40 includes left and right horizontal dividing lines 41L and 41R and a back dividing line 42.
  • the horizontal dividing line 41L corresponds to the left boundary line
  • the horizontal dividing line 41R corresponds to the right boundary line.
  • the rear side dividing line 42 corresponds to the rear side dividing line 41L.
  • the back side dividing line 42 connects the left side dividing line 41L and the right side dividing line 41R on the back side (upper side in the display image).
  • Each lane marking indicates a boundary line between the parking lane 40 and a region outside the parking lane.
  • the parking section 40 is defined by a plurality of lane markings.
  • the left and right horizontal dividing lines 41L and 41R and the back dividing line 42 are usually formed in a U-shape.
  • the left side lane marking 41L and the right side lane marking 41R are usually parallel, but since the road surface 90 is projected onto the imaging surface, the display image has different angles. It has become. In other words, in the display image, the left lateral dividing line 41L and the right lateral dividing line 41R are not parallel.
  • the parking lot line may include a front lot line located on the front side of the vehicle 1.
  • the pair of expected course lines 61L and 61R correspond to the vehicle width of the vehicle 1. That is, in the display video data, the width of the pair of expected course lines 61L and 61R corresponds to the width of the vehicle 1. On the road surface 90, the pair of expected course lines 61L and 61R are parallel to the expected traveling direction. In FIG. 4, since the vehicle 1 is rectilinearly moving forward, the expected course lines 61L and 61R are straight lines.
  • Expected course lines 61L and 61R are drawn according to the backward movement of the vehicle 1 corresponding to the width of the vehicle 1.
  • the expected course lines 61L and 61R indicate the prediction of the trajectory of the backward movement of the vehicle 1.
  • the expected course lines 61L and 61R are the road surfaces 90 at the left end and the right end of the vehicle 1 when the vehicle 1 performs the reverse operation at the steering angle indicated by the steering angle information acquired by the steering angle information acquisition unit 104. Shows the expected trajectory.
  • auxiliary lines 62a to 62e are added to the expected route lines 61L and 61R.
  • Each of the auxiliary lines 62a to 62e indicates the distance from the end portion in the traveling direction of the vehicle 1, and is disposed between the pair of predicted course lines 61L and 61R as an example of arrangement.
  • the end portion in the traveling direction of the vehicle 1 is a rear end portion such as a rear bumper of the vehicle 1 when the vehicle 1 is in a backward operation, and the auxiliary lines 62a to 62e are respectively connected to the rear end portion of the vehicle 1.
  • Each indicates a preset distance. Since the rear camera 2 is fixed to the vehicle 1, the pixel position corresponding to the rear end portion of the vehicle 1 is constant in the display screen.
  • auxiliary lines 62 when the plurality of auxiliary lines 62a to 62 are not particularly identified, the auxiliary lines 62 will be described. In FIG. 4, five auxiliary lines 62a to 62e are shown, but the number of auxiliary lines 62 is not particularly limited, and may be three, for example.
  • the predicted route generation unit 109 may generate two or more auxiliary lines 62.
  • the auxiliary lines 62a to 62e are displayed so as to connect the pair of expected course lines 61L and the expected course line 61R.
  • the auxiliary line 62 is provided over the entire interval between the pair of expected course lines 61L and 61R, but may be provided only in part. That is, the auxiliary lines 62a to 62e are not limited to the line connecting the pair of expected course lines 61L and 61R, and may be provided partially in the lateral direction, and extend to the outside of the pair of expected course lines 61L and 61R. It may be.
  • the auxiliary line 62 is a solid line connecting a pair of expected course lines 61L and 61R.
  • the auxiliary line 62 is orthogonal to the expected course lines 61L and 61R at a position where the auxiliary line 62 intersects the pair of expected course lines 61L and 61R.
  • the auxiliary lines 62 are arranged along the horizontal direction of the display screen.
  • the auxiliary lines 62a to 62e are substantially parallel.
  • the plurality of auxiliary lines 62a to 62e are arranged in the expected traveling direction.
  • the auxiliary line 62 a is arranged at the rearmost position, that is, the position farthest from the vehicle 1, and the auxiliary line 62 e is arranged at the forefront, that is, the position closest to the vehicle 1.
  • the auxiliary line 62a, the auxiliary line 62b, the auxiliary line 62c, the auxiliary line 62d, and the auxiliary line 62e are arranged in this order.
  • the plurality of auxiliary lines 62 are superimposed on the display image so as to be arranged at equal intervals on the road surface 90. Since the road surface 90 is projected on the imaging surface, even if the plurality of auxiliary lines 62 are arranged at equal intervals on the road surface 90, the display screen does not have equal intervals.
  • the predicted route lines 61L and 61R and the auxiliary line 62 move in conjunction with the reverse direction of the vehicle 1. For example, when the steering angle is changed, the display positions of the expected course lines 61L and 61R and the auxiliary line 62 are changed. Further, as the vehicle 1 moves backward, the rear camera 2 and the parking section 40 approach each other. Therefore, as the vehicle 1 moves backward, the display positions of the Yokogawa lane markings 41L and 41R and the back lane marking 42 move downward.
  • the display video generation unit 110 When the vehicle 1 moves backward, the display video generation unit 110 generates display video data in which the pair of predicted route lines 61L and 61R and the auxiliary line 62 are superimposed on the video data acquired by the video data acquisition unit 106. .
  • the display control unit 120 causes the display unit 50 to display an image based on the display image data.
  • the display video generation unit 110 generates display video data so as to change the display form in order from the back side (far side) auxiliary line 62. Specifically, the display form is changed in the order of the auxiliary line 62a, the auxiliary line 62b, the auxiliary line 62c, the auxiliary line 62d, and the auxiliary line 62e.
  • the display video generation unit 110 generates display video data so as to change the display form from the back auxiliary line 62 at predetermined time intervals.
  • FIG. 5 is a flowchart showing the display control method.
  • the video data acquisition unit 106 acquires the video data of the rear video captured by the rear camera 2 (S12). Specifically, when the reverse detection unit 102 detects that the shift of the vehicle 1 has become the reverse gear, the rear camera 2 captures a rear image. Then, the rear camera 2 outputs the video data to the display control device 100. If the reverse movement detection unit 101 does not detect the reverse movement of the vehicle 1 (NO in S11), the determination in S11 is repeated until the reverse movement detection unit 101 detects the reverse movement.
  • the predicted route generation unit 109 generates the predicted route lines 61L and 61R and the auxiliary line 62 (S13). Specifically, after the steering angle information acquisition unit 104 acquires the steering angle information, the predicted route line generation unit 109 calculates the predicted route lines 61L and 61R and the auxiliary line 62 based on the steering angle information, and the extraction unit 107 extracts the rear lane marking 42 and the left and right horizontal lane markings 41L and 41R based on the video data (S14). Note that the order of S13 and S14 may be reversed, and S13 and S14 may be performed in parallel.
  • the display video generation unit 110 generates display video data (S15). As a result, display video data in which a pair of predicted route lines 61L and 61R and an auxiliary line 62 are superimposed on the video data is generated (see FIG. 4).
  • the display control unit 120 displays an image based on the display image data on the display unit 50 (S16). As a result, as shown in FIG. 4, an image in which the predicted route lines 61 ⁇ / b> L and 61 ⁇ / b> R and the auxiliary line 62 are superimposed is displayed on the display unit 50.
  • the display video generation unit 110 determines whether or not the farthest (most far side) auxiliary line 62a of the plurality of auxiliary lines 62 overlaps with the far side partition line 42 (S17). In S17, it is determined whether or not the trigger timing for changing the display form of the auxiliary line 62 has come. When the auxiliary line 62a does not overlap with the back side lane line 42 (NO in S17), the processing from S12 is repeated until it overlaps with the back side lane line 42. That is, when the auxiliary line 62a is in front of the back side lane line 42, the determination in S17 is repeated until it overlaps the back side lane line 42.
  • the imaging range of the rear camera 2 changes according to the backward movement of the vehicle 1, the position of the parking section 40 on the display screen changes. Therefore, the expected course lines 61L and 61R and the auxiliary line 62 can always be appropriately displayed by sequentially performing the steps S12 to S16.
  • the display video generation unit 110 changes the display form at predetermined time intervals from the back side auxiliary line 62 ( S18). That is, the display form is changed in the order of the auxiliary line 62a, the auxiliary line 62b, the auxiliary line 62c, the auxiliary line 62d, and the auxiliary line 62e.
  • FIG. 6 shows a display image at the timing at which the auxiliary line 62a overlaps the back side dividing line 42. At this next timing (frame), the display form of the auxiliary line 62a is changed.
  • FIG. 6 shows a display image at the timing at which the auxiliary line 62a overlaps the back side dividing line 42.
  • the display form of the auxiliary line 62a is changed.
  • auxiliary line 62a and the back side division line 42 are parallel, and the auxiliary line 62a and the back side division line 42 have overlapped completely.
  • the auxiliary line 62a and the back side dividing line 42 are non-parallel, and the auxiliary line 62a and the back side dividing line 42 partially overlap.
  • FIG. 7 shows a display image after the display form of the two auxiliary lines 62a and 62b is changed.
  • the two auxiliary lines 62a and 62b on the back side are deleted.
  • the auxiliary line 62a and the auxiliary line 62b are not displayed.
  • the auxiliary lines 62c, 62d, and 62e are before the display form is changed.
  • FIG. 7 shows an example in which the auxiliary line 62 is erased as a change in the display form, as another example, the line type, line width, and color may be changed.
  • the solid auxiliary line 62 may be a broken line
  • the thick auxiliary line 62 may be a thin line
  • the dark auxiliary line 62 may be light or translucent.
  • FIG. 7 although the part beyond the back side division line 42 is displayed among the predicted course lines 61L and 61R, you may erase
  • a typical reverse speed during parking (hereinafter referred to as a threshold speed) is 4 to 5 km / h.
  • the timing at which the display form changes is determined so that the timing at which the display form changes coincides with the timing at which the back side dividing line 42 and the auxiliary line overlap.
  • Threshold speed is set in advance as a generally safe speed as a reverse speed in a parking lot or the like. Moreover, since the reverse speed recognized as safe differs depending on the user of the vehicle, the threshold value may be changed by learning for each vehicle or for each driver. As a specific example, the reference threshold speed is set to 4 km / h (1.1 m / sec per second), and the reverse speed when the parking lot line is recognized is averaged over the threshold speed. If the speed is 0.6 km / h (0.17 m / sec per second), the threshold speed is set to 3.4 km / h (0.94 m / sec per second).
  • the threshold speed is set to 4.6 km / h. / H (speed of 1.28 m / sec per second) is set.
  • the driver is specified by the ID of the intelligent key, the setting may be changed for each driver.
  • the threshold speed may be set to a different value depending on the parking lot.
  • a server that acquires information stored as facility information of navigation (not shown) based on the size of a parking section or a road surface condition for each parking lot, or provides parking lot information by a communication device (not shown), You may acquire from the information provision apparatus etc. which were installed in the parking lot.
  • auxiliary lines 62 when the distance between the auxiliary lines 62 is 2.2 m on the road surface, and the typical backward gain is 1.1 m / sec, The timing for changing the display form of the auxiliary line 62 is every 2 seconds.
  • the auxiliary line 62a is deleted.
  • the auxiliary line 62b is erased after 2 seconds from the erasure of the auxiliary line 62a.
  • the auxiliary lines 62c to 62e are also deleted in order at intervals of 2 seconds.
  • a time interval for changing the display form of the auxiliary line 62 can be set according to the interval of the auxiliary line 62 on the road surface and the threshold speed.
  • the above values are merely examples, and can be changed as appropriate.
  • the display form may be changed not only at a fixed time interval but also at different time intervals.
  • the display video generation unit 110 determines whether or not the change of the display form has been completed (S19). That is, it is determined whether or not the display forms of all the auxiliary lines 62a to 62e have changed.
  • the process returns to S18, and the display form of the auxiliary line 62 is changed in order. Thereby, a display form can be changed in order from the auxiliary line 62a on the back side to the auxiliary line 62e.
  • the backward movement detection unit 101 determines whether the backward movement is finished (S20). If the reverse operation has not ended (NO in S20), the process returns to S12 and is repeated. Since the imaging range of the rear camera 2 changes according to the backward movement of the vehicle 1, the position of the parking section 40 on the display screen changes. Therefore, the expected course lines 61L and 61R and the auxiliary line 62 can always be appropriately displayed by sequentially performing the steps S12 to S16. When the backward movement is finished (YES in S20), the process is finished.
  • the driver can recognize whether or not the traveling speed at the time of parking is appropriate.
  • the display form of the auxiliary line 62 is changed before the auxiliary line 62 before the display form change is behind the rear side division line 42. Therefore, it can be recognized that the driver is moving backward at an appropriate speed.
  • the auxiliary line 62 before the display form change is displayed above the back side dividing line 42. For example, as shown in FIG. 8, the auxiliary line 62 b exceeds the back side dividing line 42.
  • the driver can recognize that the reverse speed is faster than the threshold speed when the auxiliary line 62 before the display form change is farther from the back side dividing line 42 (above the display screen). .
  • the driver can recognize that the reverse speed is equal to or less than the threshold speed. .
  • the driver can be made aware that the reverse speed is high, and the reverse speed can be reduced. In other words, it is an opportunity to drive at an appropriate reverse speed. In this way, by changing the display form of the auxiliary line 62, it is possible to assist the driver to travel at an appropriate speed.
  • the trigger timing is the timing when the farthest auxiliary line 62a is at a position corresponding to the back side dividing line 42.
  • the display forms of the auxiliary lines 62a to 62e are changed at predetermined time intervals from the trigger timing. In this way, the display form from the auxiliary line 62a to the auxiliary line 62e can be changed in order by simple processing.
  • the driver recognizes that the reverse speed is fast. Therefore, the driver can intuitively recognize that the reverse speed is high.
  • the trigger timing may be a timing at which the auxiliary line 62a reaches a pixel shifted up or down by a predetermined pixel from the back side partition line 42.
  • the trigger timing may be set by a position other than the back side dividing line 42.
  • the trigger timing may be set based on the parking stop of the parking section 40. In this case, the extraction unit 107 extracts a car stop from the video data.
  • the timing at which the auxiliary line 62a overlaps a pixel shifted by a predetermined number of pixels from the vehicle stop pixel is set as a trigger timing.
  • the predicted route generation unit 109 is a superimposition data generation unit that generates superimposition data to be superimposed on the video data acquired by the rear camera 2.
  • the superimposition data is an auxiliary line 62 indicating a position away from the vehicle 1 by a predetermined distance in the traveling direction of the vehicle 1.
  • the auxiliary line 62 is displayed at a position away from the vehicle 1 by a predetermined distance.
  • the predicted route generation unit 109 generates the auxiliary line 62 and the predicted route lines 61L and 61R as the superimposition data.
  • only the auxiliary line 62 may be generated.
  • the display video generation unit 110 generates display video data so that the display control unit 120 causes the display unit 50 to display (a).
  • (a) is to display a plurality of superimposed data in such a manner that the display form of the superimposed data changes at predetermined time intervals in order from the far side of the vehicle.
  • a plurality of auxiliary lines 62a to 62e which are superimposition data, are displayed so as to be erased in order from the far side of the vehicle at predetermined time intervals.
  • 9 and 10 are flowcharts of the display control method according to the second embodiment.
  • S21 and S22 are added to the flowchart of FIG. Since S11 to S18 are the same as those in the first embodiment, the description thereof will be omitted. Further, since S19 and S20 are the same as those in the first embodiment, the description thereof is omitted.
  • the display image generation unit 110 determines whether or not the auxiliary line 62 before the display form change is farther than the back side dividing line 42 (S21). ).
  • the auxiliary line 62 before the display form change is farther than the back side lane line 42 (YES in S21)
  • the auxiliary line 62 before the display form change that is farther than the back side lane line 42 is highlighted. (S22). For example, as shown in FIG. 11, the auxiliary line 62b before the display form change that is farther from the far side dividing line 42 is displayed with a bold line.
  • auxiliary line 62b before the display form change which became far from the back side division line 42 into emphasis colors, such as red.
  • emphasis colors such as red.
  • the determination as to whether or not the change of the display form in S19 has ended is that the auxiliary line 62e disposed closest to the vehicle 1 is excluded from the determination when the change of the display form is the erasure of the auxiliary line 62. Also good. If the auxiliary line 62e arranged closest to the vehicle 1 is deleted, the vehicle 1 may be too close to the back side lane line 42 or the vehicle 1 may exceed the back side lane line 42. Because.
  • the predicted route generation unit 109 is a superimposition data generation unit that generates superimposition data to be superimposed on the video data acquired by the rear camera 2.
  • the predicted route generation unit 109 generates the auxiliary line 62 and the predicted route lines 61L and 61R as the superimposition data, but may generate only the auxiliary line 62.
  • the display video generation unit 110 generates display video data so that the display control unit 120 causes the display unit 50 to display the above (a). Furthermore, in the present embodiment, the superimposed data that exceeds the back side dividing line 42 is highlighted.
  • the interval between the auxiliary lines 62 is arranged so as to be, for example, 1 m, 2 m, 3 m, or the like from the end of the vehicle with respect to the road surface of the video data by being superimposed on the video data. If the number of auxiliary lines is further increased, the visibility of the video data is hindered.
  • the auxiliary line 62a is erased by overlapping with the back side dividing line 42, and the auxiliary line 62b is erased after a predetermined time, but there is no object indicating the threshold speed during that time. For this reason, in the present embodiment, the following display is performed.
  • the basic configuration and operation of the control unit 100 are the same as those in the first embodiment, and thus detailed description thereof is omitted.
  • FIG. 12 shows the display image when the vehicle is moving straight back and forth approximately in the center in the width direction of the parking area.
  • FIG. 12 shows a display image at a timing when the vehicle 1 moves straight backwards and the auxiliary line 62a overlaps the back side dividing line 42. That is, FIG. 12 shows a display example in the case where the state further retracts from the state shown in FIG.
  • an area where the auxiliary line 62 exists (hereinafter referred to as the auxiliary area 65) is displayed on the display unit 50.
  • the predicted route generation unit 109 generates the auxiliary area 65 as superimposition data.
  • the auxiliary area 65 is a semi-transparent area and transmits the video data.
  • the auxiliary area 65 is colored gray.
  • the color of the auxiliary region 65 is not particularly limited. Since it is preferably different from the color of the road surface, the auxiliary region 65 may be semi-transparently painted in green or yellow.
  • the auxiliary area 65 indicates a position away from the rear end of the vehicle 1 by a predetermined distance.
  • the auxiliary area 65 is an area having a boundary at a position away from the vehicle 1 by a predetermined distance.
  • the auxiliary area 65 has an auxiliary line 62a and a rear partition line 42 overlapped with each other, so that an end 65a on the inner side of the auxiliary area 65 (hereinafter referred to as a rear end 65a) is a rear compartment. It coincides with the line 42. Further, a front side end portion 65b (hereinafter referred to as a front side end portion 65b) of the auxiliary region 65 coincides with a front side end of the predicted route lines 61L and 61R. In addition, the left and right ends of the auxiliary area coincide with the expected course lines 61L and 61R. In the case of rectilinear advancement, the auxiliary region 65 has a substantially trapezoidal shape.
  • the display video generation unit 110 generates display video data in which the auxiliary area 65, the auxiliary line 62, and the expected route lines 61L and 61R are superimposed on the video data acquired by the video data acquisition unit 106. Therefore, the driver can view the video based on the video data through the semi-transparent auxiliary area 65.
  • FIG. 13 shows a display image when the vehicle is further retracted from the state shown in FIG.
  • FIG. 13 shows a display image at the timing when the auxiliary line 62a and the auxiliary line 62b are not displayed, as in FIG.
  • FIG. 13 shows a case where the vehicle 1 moves backward at the threshold speed.
  • the display video generation unit 110 generates display video data so that the area of the auxiliary region 65 gradually decreases with the passage of time.
  • the display position of the back side end portion 65a moves as time passes. That is, the display position of the back end 65a moves to the lower side of the display screen (the front side in the traveling direction) with time. Further, the display position of the front side end portion 65b is substantially constant. Therefore, the area of the auxiliary region 65 shown in FIG. 13 is smaller than the area of the auxiliary region 65 shown in FIG.
  • the moving speed of the display position of the back end 65a is set according to the threshold speed. Specifically, when the reverse speed of the vehicle 1 matches the threshold speed, the display position of the back end 65a matches the back dividing line 42 as shown in FIG.
  • FIG. 14 shows a display example in which the reverse speed of the vehicle 1 is faster than the threshold speed.
  • the back end 65a is displayed above the back dividing line 42 as shown in FIG.
  • the back side end portion 65 a exceeds the back side dividing line 42.
  • the back end 65a is displayed above the auxiliary line 62b.
  • the driver can recognize that the reverse speed is faster than the threshold speed when the rear side end portion 65a is located farther from the rear side partition line 42 (above the display screen).
  • the driver can recognize that the reverse speed is faster than the threshold speed.
  • the driver can recognize that the reverse speed is less than the threshold speed.
  • the driver can recognize that the reverse speed is the threshold speed. By doing so, the driver can be made aware that the reverse speed is high, and the reverse speed can be reduced. In other words, it is an opportunity to drive at an appropriate reverse speed. In this way, by changing the display position of the back end 65a of the auxiliary area 65 with time, it is possible to assist the driver to travel at an appropriate speed.
  • the area of the auxiliary region 65 becomes smaller as time passes.
  • the display position of the back side end portion 65 a of the auxiliary area 65 continuously changes between the auxiliary lines in conjunction with the erasing timing of the auxiliary line 62. In this way, it can be recognized that the driver is moving backward at an appropriate speed.
  • the auxiliary line 62 before the display form change is displayed above the back side dividing line 42.
  • the auxiliary region 65 exceeds the back side dividing line 42. Therefore, it can be easily recognized that the driver is moving backward at a speed faster than the threshold speed.
  • the predicted route generation unit 109 is a superimposition data generation unit that generates superimposition data indicating a position away from the vehicle 1 by a predetermined distance in the traveling direction of the vehicle.
  • the superimposition data includes an auxiliary line 62, an auxiliary area 65, and predicted route lines 61L and 61R.
  • the display video generation unit 110 generates display video data so that the display control unit 120 causes the display unit 150 to display (b).
  • (b) is to display the superimposed data so that the predetermined distance becomes smaller as time passes.
  • the superimposition data is preferably a two-dimensional auxiliary region 65, but may be a straight line extending left and right arranged at a predetermined distance from the rear end of the vehicle 1. .
  • the display is performed so that the straight line as the superimposed data gradually approaches the vehicle 1. That is, on the display screen, the straight line as the superimposed data moves based on the speed corresponding to the threshold speed.
  • the display video generation unit 110 generates display video data in which the auxiliary area 65 is superimposed on the video data.
  • the present embodiment is different from the third embodiment in that the predicted route lines 61L and 61R are not displayed. That is, the predicted route generation unit 109 is a superimposed data generation unit that generates the auxiliary line 62 and the auxiliary region 65 without generating the predicted route lines 61L and 61R as the superimposed data.
  • the basic operation and configuration of the control unit 100 are the same as those in the above-described embodiment, and thus description thereof is omitted.
  • FIGS. 15 to 18 are diagrams showing examples of positions on the display screen in the present embodiment.
  • FIG. 15 shows a display screen in a state corresponding to FIG.
  • FIG. 16 shows a display screen in a state corresponding to FIG.
  • FIG. 16 shows a display screen in a state corresponding to FIG.
  • FIG. 18 shows a display screen in a state corresponding to FIG.
  • a display example in the case where the vehicle 1 goes straight backward will be described.
  • the auxiliary area 62 is not displayed because the auxiliary line 62a does not reach the far side dividing line 42.
  • the expected course lines 61L and 61R are not displayed. Therefore, at the timing shown in FIG. 15, the display video generation unit 110 generates display video data in which only the auxiliary line 62 is superimposed on the video data.
  • the predicted route generation unit 109 generates the auxiliary area 65 in addition to the auxiliary line 62 as the superimposed data. That is, the predicted course line generation unit 109 generates the auxiliary area 65 using the timing at which the auxiliary line 62 and the rear side dividing line 42 overlap as a trigger.
  • a back side end portion 65 a of the auxiliary region 65 coincides with the back side dividing line 42.
  • the width of the auxiliary region 65 in the left-right direction corresponds to the vehicle width of the vehicle 1.
  • FIG. 17 shows a display screen when the vehicle 1 moves backward at the threshold speed.
  • the back side end portion 65 a of the auxiliary region 65 coincides with the back side partition line 42.
  • FIG. 17 shows a display screen when the vehicle 1 moves backward at the threshold speed.
  • the back side end portion 65 a of the auxiliary region 65 goes to the back side with respect to the back side dividing line 42. Therefore, the auxiliary area 65 is displayed so as to straddle the rear side dividing line 42.
  • the predicted route generation unit 109 generates not only the auxiliary area 65 but also the auxiliary line 62 as the superimposed data. However, only the auxiliary area 65 may be displayed as the superimposed data. .
  • the display video generation unit 110 generates display video data so that the display control unit 120 causes the display unit 150 to display at least one of (a) and (b).
  • (a) is a display in which the display form of a plurality of the superimposed data is changed so as to sequentially change at a predetermined time interval from the far side of the vehicle.
  • (B) is according to the passage of time.
  • the superimposition data (auxiliary area 65) is displayed so that the predetermined distance becomes small.
  • the auxiliary lines 62 are generated on the road surface 90 so that the intervals between the auxiliary lines 62 are constant.
  • the intervals between the plurality of auxiliary lines 62 may not be constant.
  • the distance between the auxiliary lines 62 may be increased toward the far side (back side).
  • the driving assistance can be performed so that the reverse speed becomes slower as the vehicle 1 approaches the back side dividing line 42.
  • the threshold speed becomes slower as the vehicle 1 gets closer to the far side marking line 42. Therefore, the threshold speed can be changed dynamically. Therefore, it can assist to park while gradually reducing the reverse speed.
  • the display form of the auxiliary lines 62 may be changed at time intervals corresponding to the intervals of the auxiliary lines 62 on the road surface 90.
  • the timing for changing the display form may be set for each auxiliary line 62 in accordance with the interval between the auxiliary lines 62 on the road surface 90. For example, when the threshold speed is 1 m / sec and the distance between the auxiliary lines 62 is 3 m, 2 m, and 1 m from a distance, the time interval for changing the display mode is 3 seconds, 2 seconds, and 1 second. .
  • the time interval for changing the display form can be arbitrarily set according to the threshold speed and the arrangement interval of the auxiliary lines 62 on the road surface 90. That is, the time from the trigger timing to changing the display form can be adjusted as appropriate. In other words, a time pattern for changing the display form can be set according to the threshold speed and the arrangement interval of the auxiliary lines 62 on the road surface 90.
  • the threshold speed can be changed by adjusting the time interval for changing the display form.
  • the threshold speed can be dynamically decreased by shortening the time interval for changing the display mode as the auxiliary line 62 becomes farther. Therefore, it can assist to park while gradually reducing the reverse speed.
  • the driver can appropriately recognize the reverse speed when the vehicle 1 moves backward while decreasing the speed as the vehicle 1 approaches the backside dividing line 42.
  • the rear camera 2 is a wide-angle camera, even when the vehicle 1 is approaching the rear lane line 42 at a constant backward speed, the backward speed increases as the vehicle 1 approaches the rear lane line. Sometimes it looks faster. Even in such a state, the reverse speed can be recognized so that the driver can move backward with peace of mind.
  • the vehicle 1 stops once during parking, it is preferable to reset the trigger timing and the timing for changing the display form of the auxiliary line 62 once. That is, once the vehicle 1 stops, even if the reverse speed exceeds the threshold speed, the auxiliary line 62 is deleted sufficiently before the auxiliary line 62 reaches the back side dividing line 42. Therefore, it is preferable to reset the trigger timing and the timing for changing the display form.
  • Non-transitory computer readable media include various types of tangible storage media (tangible storage medium).
  • Examples of non-transitory computer-readable media include magnetic recording media (eg flexible disks, magnetic tapes, hard disk drives), magneto-optical recording media (eg magneto-optical discs), CD-ROMs (Read Only Memory), CD-Rs, CD-R / W, semiconductor memory (for example, mask ROM, PROM (Programmable ROM), EPROM (Erasable ROM), flash ROM, RAM (random access memory)) are included.
  • the program may also be supplied to the computer by various types of temporary computer-readable media. Examples of transitory computer readable media include electrical signals, optical signals, and electromagnetic waves.
  • the temporary computer-readable medium can supply the program to the computer via a wired communication path such as an electric wire and an optical fiber, or a wireless communication path.
  • This application is applicable to a display control device that generates display video data based on video data acquired by a camera.

Landscapes

  • Engineering & Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • Transportation (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Traffic Control Systems (AREA)

Abstract

本実施の形態にかかる表示制御装置(100)は、カメラ(2)からの映像データを取得する映像データ取得部(106)と、重畳データを生成する予想進路線生成部(109)と、映像データに重畳データを重畳させた表示映像データを生成する表示映像生成部(110)と、表示映像データによる映像を表示部(50)に表示させる表示制御部(120)と、を備えている。表示制御部(120)が、表示部(50)に(a)、及び(b)の少なくとも一方の表示をさせる。(a)の表示は、複数の補助線(62)の表示形態が前記車両の遠方側から順番に所定の時間間隔で変化するように表示することであり、(b)の表示は、時間の経過に応じて所定の距離が小さくなるように補助領域(65)を表示することである。

Description

表示制御装置、表示制御方法及びプログラム
 本発明は、表示制御装置、表示制御方法及びプログラムに関する。
 近年、車両の後退時等に、車両の後方に搭載された後方カメラによって撮影された後方映像をモニタ等の表示部に表示させる技術が普及している(特許文献1、2)。特許文献1の装置では、表示部に予想軌跡線走行軌跡線を表示している。さらに、特許文献1では、予想軌跡線の手前側と奥側とで表示形態を変えている。具体的には、予想軌跡線の手前側を太い実線とし、奥側を破線、薄いカラー線、半透明の線として、表示している。特許文献2の装置では、表示部に走行軌跡線を表示させている。特許文献2では、走行軌跡線が障害物と重なる場合、障害物と重なる部分を消去している。
特開2010-100267号公報 特開2007-43530号公報
 しかしながら、特許文献1、2の装置では、駐車時の走行速度が適切であるか否かを運転者が認識することが困難である。
 上記課題に鑑み、本実施形態は、駐車時の走行速度が適切であるか否かを運転者に認識させることができる表示制御装置、表示制御方法及びプログラムを提供することを目的とする。
 本実施形態にかかる表示制御装置は、車両の進行方向を撮影するカメラからの映像データを取得する映像データ取得部と、前記車両の走行動作に基づいて、前記車両の進行方向において前記車両から所定の距離だけ離れた位置を示す重畳データを生成する重畳データ生成部と、前記映像データに前記重畳データを重畳させた表示映像データを生成する表示映像生成部と、前記表示映像生成部によって生成された前記表示映像データによる映像を表示部に表示させる表示制御部と、を備え、前記表示制御部が、前記表示部に(a)、及び(b)の少なくとも一方の表示をさせるように、前記表示映像生成部は前記表示映像データを生成し、前記(a)の表示は、複数の前記重畳データの表示形態が前記車両の遠方側から順番に所定の時間間隔で変化するように表示することであり、前記(b)の表示は、時間の経過に応じて前記所定の距離が小さくなるように前記重畳データを表示することである、ものである。
 本実施形態にかかる表示制御方法は、車両の進行方向を撮影するカメラからの映像データを取得するステップと、前記車両の走行動作に基づいて、前記車両の進行方向において前記車両から所定の距離だけ離れた位置を示す重畳データを生成するステップと、前記映像データに前記重畳データを重畳させた表示映像データを生成するステップと、前記表示映像データによる映像を表示部に表示させるステップと、を備え、前記表示部に(a)、及び(b)の少なくとも一方の表示をさせるように、前記表示映像データが生成され、前記(a)の表示は、複数の前記重畳データの表示形態が前記車両の遠方側から順番に所定の時間間隔で変化するように表示することであり、前記(b)の表示は、時間の経過に応じて前記所定の距離が小さくなるように前記重畳データを表示することである、ものである。
 本実施形態にかかるプログラムは、車両の進行方向を撮影するカメラからの映像データを取得するステップと、前記車両の走行動作に基づいて、前記車両の進行方向において前記車両から所定の距離だけ離れた位置を示す重畳データを生成するステップと、前記映像データに前記重畳データを重畳させた表示映像データを生成するステップと、前記表示映像データによる映像を表示部に表示させるステップと、をコンピュータに実行させ、前記表示部に(a)、及び(b)の少なくとも一方の表示をさせるように、前記表示映像データが生成され、前記(a)の表示は、複数の前記重畳データの表示形態が前記車両の遠方側から順番に所定の時間間隔で変化するように表示することであり、前記(b)の表示は、時間の経過に応じて前記所定の距離が小さくなるように前記重畳データを表示することである、ものである。
 本実施形態によれば、駐車時の走行速度が適切であるか否かを運転者に認識させることができる表示制御装置、表示制御方法及びプログラムを提供することができる。
実施の形態1にかかる車両を示す図である。 実施の形態1にかかる車両の内部を示す図である。 実施の形態1にかかる表示制御装置及び表示制御装置を有する表示制御システムの構成を示す図である。 表示映像データによって示される映像を例示する図である。 実施の形態1にかかる表示制御装置によって実行される表示制御方法を示すフローチャートである。 表示映像データによって示される映像を例示する図である。 表示映像データによって示される映像を例示する図である。 表示映像データによって示される映像を例示する図である。 実施の形態2にかかる表示制御装置によって実行される表示制御方法を示すフローチャートである。 実施の形態2にかかる表示制御装置によって実行される表示制御方法を示すフローチャートである。 表示映像データによって示される映像を例示する図である。 実施の形態3における表示映像データによって示される映像を例示する図である。 実施の形態3における表示映像データによって示される映像を例示する図である。 実施の形態3における表示映像データによって示される映像を例示する図である。 実施の形態4における表示映像データによって示される映像を例示する図である。 実施の形態4における表示映像データによって示される映像を例示する図である。 実施の形態4における表示映像データによって示される映像を例示する図である。 実施の形態4における表示映像データによって示される映像を例示する図である。 補助線の間隔を変えた場合の映像を示す図である。
(実施の形態1)
 以下、図面を参照して本発明の実施の形態について説明する。なお、実質的に同じ構成要素には、同じ符号が付される。また、以下の実施の形態においては、車両が後退して駐車する場合について説明するが、車両が前進して駐車する場合においても同様に適用可能である。すなわち、後述する処理が、後退又は前進の走行動作に応じて実施される。
 図1は、実施の形態1にかかる車両1を示す図である。車両1は、後方カメラ2と、表示制御装置100とを有する。後方カメラ2は、車両1の後部に設置されており、路面90を含む車両1の後方を撮影する。後方カメラ2は、車両1が後退して駐車する場合に用いる。車両が前進して駐車する場合は、後方カメラ2に代えて図示しない前方カメラの映像を用いる。車両1は、進行方向を撮影するカメラとして、前方カメラ及び後方カメラ2の少なくとも一方を有していればよい。また、車両1は開閉可能なドア3を有している。表示制御装置100は、車両1の任意の位置に設けられ得る。表示制御装置100は、CAN(Control Area Network)に接続され得る。表示制御装置100は、後方カメラ2によって撮影された映像に、予想進路線を重畳するように制御を行う。詳しくは後述する。
 図2は、実施の形態1にかかる車両1の内部を示す図である。図2は、車両1の内部の運転室を運転席から車両1の前方向に見た図である。車両1は、ステアリングホイール10、ダッシュボード12、ウィンドシールド14、センターコンソール16、車両の走行速度及びエンジン回転数などを表示するクラスターパネル18などを有する。また、センターコンソール16には、ナビゲーション画面などを表示するセンター表示部20が設けられていてもよい。車両1には、クラスターパネル18の上部に、ヘッドアップディスプレイにより映像が表示されるヘッドアップディスプレイ表示部22が設けられていてもよい。ヘッドアップディスプレイがコンバイナ型である場合、ヘッドアップディスプレイ表示部22はコンバイナである。また、ヘッドアップディスプレイがウィンドシールド14に虚像を表示する場合、ヘッドアップディスプレイ表示部22は、ウィンドシールド14において虚像が提示される領域である。また、車両1は、リヤビューモニタ24を有してもよい。リヤビューモニタ24は、一般的な車両における後方確認用のリヤビューミラーと同様の位置、すなわち、ウィンドシールド14の上部中央付近に配置されている。
 図3は、実施の形態1にかかる表示制御装置100及び表示制御装置100を有する表示制御システム140の構成を示す図である。表示制御システム140は、後方カメラ2と、表示部50と、表示制御装置100とを有する。
 表示制御装置100は、後方カメラ2及び表示部50と通信可能に接続されている。表示制御装置100は、後退動作検出部101と、映像データ取得部106と、抽出部107と、予想進路線生成部109と、表示映像生成部110と、表示制御部120とを備えている。後退動作検出部101は、後退検出部102と、操舵角情報取得部104と、を備えている。なお、表示制御システム140の少なくとも1つの構成要素又は全ての構成要素は、車両1に組み込まれていてもよいし、車両1から取り外して携帯可能であってもよい。
 表示部50は、後方カメラ2によって撮影された映像を表示する。表示部50は、例えば、リヤビューモニタ24、クラスターパネル18、センター表示部20又はヘッドアップディスプレイ表示部22によって実現され得る。また、表示部50は、表示制御装置100と通信可能なスマートフォン又はタブレット端末等の携帯端末装置によって実現されてもよい。また、表示制御装置100は、例えばセンターコンソール16等に内蔵されたコンピュータ装置であってもよいし、上述した携帯端末装置であってもよい。
 表示制御装置100は、CPU(Central Processing Unit)等のプロセッサ、メモリ等の記憶装置、ユーザインタフェース及び各種周辺回路によって構成されている。つまり、表示制御装置100は、コンピュータとしての機能を有する。また、表示制御装置100は、記憶装置に格納されたプログラムをプロセッサが実行することによって、後退動作検出部101、後退検出部102、操舵角情報取得部104、映像データ取得部106、抽出部107、予想進路線生成部109、表示映像生成部110、及び表示制御部120といった構成要素を実現する。また、表示制御装置100の各構成要素は、プログラムによるソフトウェアで実現することに限ることなく、ハードウェア、ファームウェア、及びソフトウェアのうちのいずれかの組み合わせ等により実現してもよい。また、表示制御装置100の各構成要素は、例えばFPGA(field-programmable gate array)又はマイコン等の、使用者がプログラミング可能な集積回路を用いて実現してもよい。この場合、この集積回路を用いて、上記の各構成要素から構成されるプログラムを実現してもよい。このことは、後述する他の実施の形態においても同様である。
 後退動作検出部101は、車両1の後退動作を検出する。そのため、後退動作検出部101は、後退検出部102と、操舵角情報取得部104とを備えている。後退検出部102は、車両1が後退中か否かを検知する。例えば、後退検出部102は、CAN等からリバースギアを選択した情報を取得して、車両1が後退中であることを検出する。
 操舵角情報取得部104は、CAN等からの信号を取得して車両1の車輪における操舵角を示す操舵角情報を取得する。なお、操舵角情報は、操舵角度を示す情報に加えて、右又は左といった操舵方向を示す情報も含む。なお、操舵角情報は、ステアリングホイール10の操舵角を示してもよい。操舵角情報取得部104は、取得した操舵角情報を予想進路線生成部109に対して出力する。特に、操舵角情報取得部104は、車両1の停止時または後退動作時における操舵角情報を取得する。
 予想進路線生成部109は、操舵角情報取得部104で検出された操舵角に基づいて、予想進路線を生成する。ここで、予想進路線は、ガイド線、後退予測軌跡、又は予想軌跡線などと言い換えることができる。例えば、予想進路線は、予想進行方向に応じて生成される。予想進行方向は、検出された操舵角で車両1が進行する方向である。具体的には、車両1が曲がりながら後退する場合、予想進行方向は、路面90において、操舵角に応じた回転半径を有する円弧に沿っている。あるいは、直進して駐車する場合、路面90において、予想進行方向は直線となる。さらに予想進路線生成部109は、予想進路線の補助線を生成する。予想進路線、及び補助線については後述する。予想進路線生成部109は、予想進路線に加えて補助線を生成するが、予想進路線を生成せずに補助線のみを生成してもよい。
 映像データ取得部106は、車両1の進行方向に設置されているカメラからの映像データを取得する。車両1が後退する場合は、後方カメラ2からの映像データを取得する。映像データ取得部106は、取得した映像データを、表示映像生成部110、及び抽出部107に対して出力する。ここで、映像データは、後方カメラ2により車両1の後方が撮影された映像を示すデータである。なお、車両1が後方動作により駐車区画に駐車する際に撮影された映像は、駐車区画を示す画像、及び、駐車区画の境界を示す駐車区画線を示す画像を含み得る。
 また、駐車区画とは、車両1が駐車可能な駐車スペースである。例えば、路面90に描かれた白線等の駐車区画線によって駐車区画が仕切られていてもよい。この場合、区画境界は、路面90に描かれた駐車区画線に対応する。また、駐車区画は、駐車区画線によって仕切られていなくてもよく、壁等の障害物で仕切られていてもよい。この場合、区画境界は、障害物に対応する。また、駐車区画は、物理的に仕切られている必要はなく、単に、車両1を駐車するために十分な空間であってもよい。この場合、区画境界は、隣に駐車している他の車両等に対応する。なお、駐車区画線によって駐車スペースが仕切られている場合であっても、隣の駐車スペースに駐車した他の車両が駐車区画線からはみ出して駐車していることがある。この場合、区画境界は、駐車区画線からはみ出して駐車している他の車両に対応する。なお、以下、「障害物」は、壁等の駐車区画の近傍に固定された物体だけでなく、他の車両等を含み得る。
 抽出部107は、映像データに基づいて、駐車区画の奥側の区画線と横側の区画線とを抽出する。駐車区画の区画線は、通常、奥側(後方側、すなわち遠方側)の区画境界を示す奥側区画線と、横側(左側、及び右側)の区画境界を示す横側区画線とを含んでいる。区画線の抽出は、既存の様々な方法によって行われ得る。例えば、抽出部107は、エッジ検出によって、駐車区画線、障害物、又は他の車両を認識することで、区画境界を抽出してもよい。また、区画境界が白線である場合、抽出部107は、白線を認識することで、区画境界を抽出してもよい。また、表示制御装置100が駐車区画線及び車両等を示す辞書データを予め記憶している場合、抽出部107は、その辞書データと映像データ内のオブジェクトとを比較して駐車区画線及び車両等を認識することで、区画境界を抽出してもよい。
 抽出部107は、駐車区画を認識してもよい。駐車区画の認識は、既存の様々な方法によって行われ得る。例えば、区画境界によって形成される矩形の領域を、駐車区画と認識してもよい。
 図4に、駐車区画線と予想進路線の一例を示す。図4は、表示部50に表示された表示映像を模式的に示す図である。表示映像は、後方カメラ2の光軸に直交する撮像面に路面90を投影したものである(図1を合わせて参照)。よって、表示映像において、上方向が車両1の進行方向としての後退方向になる。すなわち、表示映像の上側が駐車区画40の奥側になり、表示映像の下側が駐車区画40の手前側となる。なお、以下の説明において、左右方向は、車両1の向きを基準にしているため、図4における左右方向と反対になっている。すなわち、図4の下側が車両1の前側であるため、図4の左側が車両1の右側となり、図4の右側が車両1の左側となる。また、図4では直進後退により、駐車する場合を示している。すなわち、車両1が真っ直ぐに後退して、駐車区画40に入っていく。
 駐車区画40には、左右の横側区画線41L,41Rと、奥側区画線42と、が含まれている。具体的には、横側区画線41Lは左側の境界線に対応し、横側区画線41Rは右側の境界線に対応している。奥側区画線42は、横側区画線41Lは奥側の境界線に対応している。奥側区画線42は、奥側(表示映像における上側)において、左の横側区画線41Lと右側の横側区画線41Rとを結んでいる。各区画線は、駐車区画40と駐車区画の外側の領域との境界線を示す。このように、駐車区画40は複数の区画線によって規定される。
 路面90において、通常、左右の横側区画線41L,41Rと、奥側区画線42とはコの字状に形成されている。路面90上においては、通常、左の横側区画線41Lと右側の横側区画線41Rは平行であるが、路面90が撮像面に投影されているため、表示映像上においては、異なる角度になっている。すなわち、表示映像においては、左の横側区画線41Lと右側の横側区画線41Rとが平行になっていない。また、図4には示されていないが、駐車区画線には、車両1の前側に位置する前側区画線があってもよい。
 一対の予想進路線61L、61Rは、車両1の車幅に対応している。すなわち、表示映像データにおいて、一対の予想進路線61L、61Rの幅は、車両1の幅に対応する。路面90上において、一対の予想進路線61L,61Rは予想進行方向と平行になっている。図4では、車両1が直進後退しているため、予想進路線61L,61Rは直線となっている。
 予想進路線61L、61Rは、車両1の幅に対応し車両1の後退動作に応じて描画される。そして、予想進路線61L、61Rは、車両1の後退動作の軌跡の予測を示している。言い換えると、予想進路線61L、61Rは、操舵角情報取得部104によって取得された操舵角情報によって示される操舵角で車両1が後退動作を行った場合の、車両1の左端及び右端の路面90における予想軌跡を示している。
 また、表示映像において、予想進路線61L、61Rには、複数の補助線62a~62eが付加されている。それぞれの補助線62a~62eは、車両1の進行方向における端部からの距離を示しており、配置例としては一対の予想進路線61L、61Rの間に配置される。車両1の進行方向における端部とは、車両1が後退動作時である場合は、車両1の後方バンパーなど後端部であり、それぞれの補助線62a~62eは、車両1の後端部から各々予め設定された距離を示している。後方カメラ2は、車両1に固定されているため、表示画面内において、車両1の後端部に対応する画素位置は一定である。
 以下の説明において、複数の補助線62a~62を特に識別しない場合、補助線62として説明する。なお、図4では5本の補助線62a~62eが示されているが補助線62の数は特に限定されるものではなく、例えば3本であってもよい。予想進路線生成部109は2本以上の補助線62を生成すればよい。
 補助線62a~62eは、一対の予想進路線61Lと予想進路線61Rとを結ぶように表示されている。補助線62は、一対の予想進路線61L、61Rの間隔全体に渡って設けられているが、一部にのみ設けられていてもよい。すなわち、補助線62a~62eは、一対の予想進路線61L、61Rをつなげる線に限らず、横方向において部分的に設けられていてもよく、一対の予想進路線61L、61Rの外側まで延伸していてもよい。
 補助線62は、一対の予想進路線61L、61Rを結ぶ実線である。路面90上において、補助線62は、一対の予想進路線61L、61Rと交わる位置において、予想進路線61L、61Rと直交している。図4では、車両1が直進後退しているため、補助線62のそれぞれは、表示画面の横方向に沿って配置されている。補助線62a~62eは、実質的に平行となっている。複数の補助線62a~62eは予想進行方向に並んでいる。
 図4では、補助線62aが最後方、すなわち、車両1から最も遠い位置に配置され、補助線62eが最前方、すなわち車両1から最も近い位置に配置されている。そして、後方から、補助線62a、補助線62b、補助線62c、補助線62d、補助線62eの順番で配置されている。複数の補助線62は、路面90上において等間隔に配置されるように、表示映像に重畳されている。なお、路面90が撮像面に投影されているため、路面90上において、複数の補助線62が等間隔に並んでいても、表示画面では等間隔とはならない。
 予想進路線61L、61Rと補助線62は、車両1の後退の向きに連動して移動する。例えば、操舵角を変えると、予想進路線61L、61Rと補助線62の表示位置が変化する。また、車両1の後退に応じて、後方カメラ2と駐車区画40が近づく。よって、車両1の後退に応じて、横川区画線41L、41Rと、奥側区画線42との表示位置が下に移動する。
 図3の説明に戻る。表示映像生成部110は、車両1が後退する場合、映像データ取得部106によって取得された映像データに、一対の予想進路線61L、61R、及び補助線62を重畳させた表示映像データを生成する。表示制御部120が表示映像データによる映像を表示部50に表示させる。
 表示映像生成部110は、奥側(遠方側)の補助線62から順番に表示形態を変えていくように、表示映像データを生成している。具体的には、補助線62a、補助線62b、補助線62c、補助線62d、補助線62eの順番で表示形態を変えていく。表示映像生成部110は、所定時間間隔で奥側の補助線62から表示形態を変えていくように、表示映像データを生成する。
 次に、本実施の形態にかかる表示制御装置100によって実行される表示制御方法について、図5を用いて説明する。図5は、表示制御方法を示すフローチャートである。
 後退動作検出部101が車両1の後退動作を検出しているか否かを判定する(S11)。後退動作検出部101が車両1の後退動作を検出すると(S11のYES)、後方カメラ2が撮像した後方映像の映像データを映像データ取得部106が取得する(S12)。具体的には、車両1のシフトがリバースギアとなったことを後退検出部102が検出すると、後方カメラ2が後方の映像を撮像する。そして、後方カメラ2が映像データを表示制御装置100に出力する。なお、後退動作検出部101が車両1の後退動作を検出しない場合(S11のNO)、後退動作検出部101が後退動作を検出するまで、S11の判定を繰り返す。
 次に、予想進路線生成部109が予想進路線61L、61Rと補助線62を生成する(S13)。具体的には、操舵角情報取得部104が操舵角情報を取得した後、予想進路線生成部109が操舵角情報に基づいて、予想進路線61L、61Rと補助線62を算出し、抽出部107が映像データに基づいて、奥側区画線42と左右の横側区画線41L,41Rとを抽出する(S14)。なお、S13とS14の順番は反対でもよく、S13とS14とを並行して行ってもよい。
 表示映像生成部110が表示映像データを生成する(S15)。これにより、映像データに一対の予想進路線61L、61Rと補助線62が重畳された表示映像データが生成される(図4を参照)。
 表示制御部120が表示映像データによる映像を表示部50に表示させる(S16)。これにより、図4に示したように、予想進路線61L、61Rと補助線62が重畳された映像が表示部50に表示される。
 表示映像生成部110は、複数の補助線62のうち、最も遠方(最も奥側)の補助線62aが、奥側区画線42と重なったか否かを判定する(S17)。S17では、補助線62の表示形態を変えるトリガタイミングになったか否かが判定されている。補助線62aが奥側区画線42と重なっていない場合(S17のNO)、奥側区画線42と重なるまでS12からの処理を繰り返す。すなわち、補助線62aが奥側区画線42よりも手前にある場合は、奥側区画線42と重なるまでS17の判定を繰り返す。車両1の後退に応じて後方カメラ2の撮像範囲が変わるため、表示画面上での駐車区画40の位置が変化する。そのため、S12~S16のステップを順番に行うことで、常時、予想進路線61L,61Rと補助線62を適切に表示することができる。
 最も遠方の補助線62aが奥側区画線42と重なったと判定された場合(S17のYES)、表示映像生成部110は、奥側の補助線62から所定時間間隔で表示形態を変えていく(S18)。すなわち、補助線62a、補助線62b、補助線62c、補助線62d、補助線62eの順番で表示形態を変えていく。図6に、補助線62aが奥側区画線42と重なっているタイミングでの表示映像を示す。この次のタイミング(フレーム)で補助線62aの表示形態が変えられる。なお、図6は、直進後退を示しているため、補助線62aと奥側区画線42とが平行になっており、補助線62aと奥側区画線42とが完全に重なっている。なお、操舵後退の場合、補助線62aと奥側区画線42とが非平行になっており、補助線62aと奥側区画線42とが部分的に重なる。
 図7は2本の補助線62a、補助線62bの表示形態が変わった後の表示映像を示す。図7は、奥側の2本の補助線62a、補助線62bが消去されている。補助線62a、補助線62bが非表示となっている。また、補助線62c、62d、62eは表示形態の変更前である。図7では、表示形態の変更として補助線62を消去する例を示しているが、他の例としては、線種、線幅、色を変更してもよい。具体的には、表示形態を変更するために、実線の補助線62を破線としたり、太線の補助線62を細線としたり、濃い色の補助線62を薄い色又は半透明としたりすることができる。また、図7においては、予想進路線61L、61Rのうち奥側区画線42を越えた部分を表示させているが、奥側区画線42を越えた部分を消去してもよい。すなわち、予想進路線61L、61Rのうち奥側区画線42を越えた部分については、補助線62a等と同様に表示形態を変更してもよい。これにより、後退動作に応じて予想進路線61L、61Rの長さが変化する。
 なお、複数の補助線62に表示形態を変えていく時間間隔は、駐車時における車両1の典型的な走行速度に応じて設定すればよい。例えば、駐車時の典型的な後退速度(以下、しきい値速度とする)は時速4~5km/hである。このようなしきい値速度で後退した場合に、表示形態が変わるタイミングと、奥側区画線42と補助線とが重なるタイミングとが一致するように表示形態が変わるタイミングが決定される。
 しきい値速度は、駐車場などにおける後退速度として一般的に安全とされる速度が予め設定される。また、車両の利用者によって安全と認識する後退速度が異なるため、しきい値を車両毎または運転者毎に学習させることで変更してもよい。具体例としては、基準となるしきい値速度が時速4km/h(秒速1.1m/sec)と設定されており、駐車区画線が認識されている場合の後退速度がしきい値速度より平均的に時速0.6km(秒速0.17m/sec)遅い場合は、しきい値速度を時速3.4km/h(秒速0.94m/sec)と設定する。また、同様に駐車区画線が認識されている場合の後退速度がしきい値速度より平均的に時速0.6km(秒速0.17m/sec)速い場合は、しきい値速度を時速4.6km/h(秒速1.28m/sec)と設定する。このような処理は、例えばインテリジェントキーのIDにより運転者が特定される場合は、運転者毎に設定が変更されてもよい。
 さらに、しきい値速度は、駐車場によって異なる値が設定されていてもよい。具体例としては、駐車場毎の駐車区画の広さや路面状況などに基づき、図示しないナビゲーションの施設情報として記憶されている情報を取得したり、図示しない通信装置により駐車場情報を提供するサーバや駐車場に設置された情報提供装置などから取得してもよい。
 図7による複数の補助線の説明に戻り、具体的には、路面上において補助線62の間隔が2.2mとなっており、典型的な後退得度を秒速1.1m/secとする場合、補助線62の表示形態を変えるタイミングは2秒毎になる。補助線62aが奥側区画線42と重なっているトリガタイミングにおいて、補助線62aが消去される。補助線62aの消去の2秒後に補助線62bが消去される。そして、補助線62c~62eについても2秒間隔で順番に消去されていく。
 路面上における補助線62の間隔と、しきい値速度とに応じて、補助線62の表示形態を変える時間間隔を設定することができる。もちろん、上記の値は一例であり、適宜変更することが可能である。もちろん、一定時間間隔に限らず、異なる時間間隔で表示形態を変えてもよい。
 図5の説明に戻る。表示映像生成部110は、表示形態の変更が終了したか否かを判定する(S19)。すなわち、全ての補助線62a~62eの表示形態が変わったか否かが判定される。表示形態の変更が終了していない場合(S19のNO)、S18に戻って、補助線62の表示形態を順番に変えていく。これにより、奥側の補助線62aから補助線62eまで順番に表示形態を変更させていくことができる。
 表示形態の変更が終了した場合(S19のYES)、後退が終了したか否かを後退動作検出部101が判定する(S20)。後退動作が終了していない場合(S20のNO)、S12に戻って処理を繰り返す。車両1の後退に応じて後方カメラ2の撮像範囲が変わるため、表示画面上での駐車区画40の位置が変化する。そのため、S12~S16のステップを順番に行うことで、常時、予想進路線61L,61Rと補助線62を適切に表示することができる。後退動作が終了した場合(S20のYES)、処理を終了する。
 このようにすることで、駐車時の走行速度が適切であるか否かを運転者が認識することができる。車両1の後退速度が、しきい値速度以下の場合、表示形態変更前の補助線62が奥側区画線42の後方になる前に、補助線62の表示形態が変わる。よって、運転者が適切な速度で後退していることを認識することができる。車両1の後退速度が、しきい値速度よりも速い場合、表示形態変更前の補助線62が奥側区画線42の上方に表示される。例えば、図8に示すように、補助線62bが奥側区画線42を越える。
 換言すると、表示形態変更前の補助線62が奥側区画線42よりも遠方(表示画面の上方)にある場合、後退速度がしきい値速度よりも速いことを運転者が認識することができる。一方、表示形態変更前の補助線62が奥側区画線42よりも遠方に表示される前に消去される場合、後退速度がしきい値速度以下であることを運転者が認識することができる。このようにすることで、後退速度が速いことを運転者に認識させることができ、後退速度を遅くすることができる。換言すると、適切な後退速度で運転するきっかけとなる。このように、補助線62の表示形態の変更をすることで、運転者が適切な速度で走行するよう支援することができる。
 さらに、S17では、最も遠方の補助線62aが奥側区画線42に対応する位置になったタイミングをトリガタイミングとしている。そして、トリガタイミングから所定の時間間隔で補助線62a~62eの表示形態を変えている。このようにすることで、簡便な処理で、補助線62a~補助線62eまでの表示形態が順番に変えることができる。表示形態変更前の補助線62が奥側区画線42を越えると、後退速度が速いことを運転者が認識する。よって、後退速度が速いことを運転者が直観的に認識させることが可能になる。
 もちろん、補助線62aが奥側区画線42と重なるタイミング以外のタイミングをトリガタイミングとしてもよい。例えば、奥側区画線42から所定画素分だけ上又は下にずれた画素に補助線62aが到達したタイミングをトリガタイミングとしてもよい。さらには、トリガタイミングは、奥側区画線42以外の位置によって設定されていてもよい。例えば、駐車区画40の車止めに基づいてトリガタイミングを設定してもよい。この場合、抽出部107が映像データから車止めを抽出する。車止めの画素から所定の画素数だけ上にずれた画素に補助線62aが重なったタイミングをトリガタイミングとする。
 このように、本実施の形態では、予想進路線生成部109は、後方カメラ2で取得した映像データに重畳される重畳データを生成する重畳データ生成部となる。ここでは、重畳データは、車両1の進行方向において車両1から所定の距離だけ離れた位置を示す補助線62である。補助線62は、車両1から所定の距離だけ離れた位置に表示される。予想進路線生成部109は、重畳データとして、補助線62と予想進路線61L、61Rを生成しているが、補助線62のみを生成するようにしてもよい。
 そして、表示制御部120が表示部50に(a)の表示をさせるように、表示映像生成部110が表示映像データを生成している。ここで、(a)は、複数の重畳データの表示形態が前記車両の遠方側から順番に所定の時間間隔で変化するように表示することである。具体的には、重畳データである複数の補助線62a~62eが車両の遠方側から順番に所定の時間間隔で消去されるように表示されている。
(実施の形態2)
 本実施の形態では、実施の形態1の方法に対して、奥側区画線42を越えた補助線62を強調表示するステップが追加されている。表示制御装置100、及び表示制御方法の基本的な構成、及び処理については、実施の形態1と同様であるため説明を省略する。
 図9、図10は、実施の形態2にかかる表示制御方法のフローチャートである。補助線を強調表示するため、図7のフローチャートにS21、S22が追加されている。S11~S18までは実施の形態1と同様であるため、説明を省略する。また、S19、S20も実施の形態1と同様であるため説明を省略する。
 S18において、奥側の補助線62から表示形態を変更したら、表示映像生成部110は、表示形態変更前の補助線62が奥側区画線42よりも遠方となったか否かを判定する(S21)。表示形態変更前の補助線62が奥側区画線42よりも遠方となった場合(S21のYES)、奥側区画線42よりも遠方となった表示形態変更前の補助線62を強調表示する(S22)。例えば、図11に示すように、奥側区画線42よりも遠方となった表示形態変更前の補助線62bを太線で表示する。あるいは、奥側区画線42よりも遠方となった表示形態変更前の補助線62bの色を赤色などの強調色に変更してもよい。線幅、線種、色等を変えることで、奥側区画線42よりも遠方となった表示形態変更前の補助線62bを強調させることができる。
 そして、強調表示を行ったら、表示形態の変更が終了したか否かを判定する(S19)。また、表示形態変更前の補助線62が奥側区画線42よりも遠方となっていない場合(S21のNO)、表示形態の変更が終了したか否かを判定する(S19)。補助線62を強調表示することで、表示形態変更前の補助線62が奥側区画線42よりも遠方になったことを容易に認識することができる。このようにすることで、後退速度が速いことを運転者に警告させることができる。
 S19による表示形態の変更が終了したか否かの判定は、表示形態の変更が補助線62の消去である場合、車両1から最も近い位置に配置されている補助線62eを判定の適用外としてもよい。車両1から最も近い位置に配置されている補助線62eが消去されてしまうと、車両1が奥側区画線42に近づきすぎる、または車両1が奥側区画線42を超えてしまう可能性があるためである。
 このように、本実施の形態では、予想進路線生成部109は、後方カメラ2で取得した映像データに重畳される重畳データを生成する重畳データ生成部となる。予想進路線生成部109は、重畳データとしては、補助線62と予想進路線61L、61Rを生成しているが、補助線62のみを生成するようにしてもよい。そして、表示制御部120が表示部50に上記の(a)の表示をさせるように、表示映像生成部110が表示映像データを生成している。さらに、本実施の形態では、奥側区画線42を越えた重畳データが強調表示されている。
 (実施の形態3)
 上述した実施形態においては、補助線62の表示形態を変えていく例について説明した。補助線62の間隔は、映像データに重畳されることで、映像データの路面に対して車両端部から、例えば1m、2m、3mなどの間隔となるように配置されている。補助線の数をこれ以上増やすと、映像データの視認性を阻害してしまう。
 例えば、奥側区画線42と重なったことで、補助線62aが消去され、所定時間経過後に補助線62bが消去されるが、その間は、しきい値速度を示す対象物が存在しない。このため、本実施の形態では、以下のような表示を行っている。なお、制御部100の基本的構成と動作は、実施形態1と同様であるため、詳細な説明を省略する。
 駐車区画の幅方向ほぼ中央に直進後退している場合の表示映像を図12に示す。図12は、車両1が直進後退して、補助線62aが奥側区画線42と重なったタイミングでの表示映像を示す。すなわち、図4に示す状態からさらに後退して、図6と同様のタイミングになった場合での表示例が図12に示されている。本実施形態では、表示部50に、補助線62が存在する領域(以下、補助領域65とする)が表示されている。予想進路線生成部109が補助領域65を重畳データとして生成する。
 補助領域65は、半透明に塗りつぶされた領域であり、映像データの映像を透過する。ここでは、補助領域65は、グレーに着色されている。もちろん、補助領域65の色は特に限定されるものではない。路面の色と異なることが好ましいため、補助領域65は緑色や黄色で半透明に塗りつぶされてもよい。補助領域65は、車両1の後端部から所定の距離だけ離れた位置を示している。具体的には、補助領域65は、車両1から所定の距離だけ離れた位置を境界とする領域である。
 補助領域65は、図12では、補助線62aと奥側区画線42が重なっているため、補助領域65の奥側の端部65a(以下、奥側端部65aと称する)は、奥側区画線42と一致している。また、補助領域65の手前側の端部65b(以下、手前側端部65bと称する)は、予想進路線61L、61Rの手前側の端と一致している。また、補助領域の左右両端は、予想進路線61L、61Rと一致している。直進後退の場合、補助領域65は、ほぼ台形状になっている。
 映像データ取得部106が取得した映像データに、補助領域65と、補助線62と、予想進路線61L、61Rとが重畳された表示映像データを、表示映像生成部110が生成する。したがって、運転者が、映像データによる映像を、半透明な補助領域65を通じて視認することができる。
 図12に示す状態からさらに後退した場合の表示映像が図13に示されている。図13は、図7と同様に、補助線62a、補助線62bが非表示となっているタイミングにおける表示映像を示している。また、図13は、しきい値速度で車両1が後退した場合を示している。時間の経過に応じて、補助領域65の面積が徐々に小さくなっていくように、表示映像生成部110が、表示映像データを生成している。
 具体的には、奥側端部65aの表示位置が、時間の経過に応じて移動している。すなわち、奥側端部65aの表示位置は、時間とともに表示画面の下側(進行方向の手前側)に移動していく。また、手前側端部65bの表示位置は、ほぼ一定になっている。従って、図13で示された補助領域65の面積が、図12で示された補助領域65の面積よりも小さくなっている。
 奥側端部65aの表示位置の移動速度は、しきい値速度に応じて、設定されている。具体的には、車両1の後退速度がしきい値速度と一致する場合、図13に示すように、奥側端部65aの表示位置が、奥側区画線42と一致している。ここで、車両1の後退速度がしきい値速度よりも速い表示例を図14に示す。車両1の後退速度が、しきい値速度よりも速い場合、図14に示すように、奥側端部65aが奥側区画線42の上方に表示される。図14に示すように、奥側端部65aが奥側区画線42を越える。ここでは、奥側端部65aが補助線62bよりも上側に表示されている。
 換言すると、奥側端部65aが奥側区画線42よりも遠方(表示画面の上方)にある場合、後退速度がしきい値速度よりも速いことを運転者が認識することができる。すなわち、補助領域65が奥側区画線42を跨いでいる場合、後退速度がしきい値速度よりも速いことを運転者が認識することができる。補助領域65が奥側区画線42よりも手前に表示されている場合、後退速度がしきい値速度未満であることを運転者が認識することができる。補助領域65の奥側端部65aが奥側区画線42と一致している場合、後退速度がしきい値速度であることを運転者が認識することができる。このようにすることで、後退速度が速いことを運転者に認識させることができ、後退速度を遅くすることができる。換言すると、適切な後退速度で運転するきっかけとなる。このように、補助領域65の奥側端部65aの表示位置を時間とともに変更をすることで、運転者が適切な速度で走行するよう支援することができる。
 このように、補助領域65の面積は、時間の経過に応じて小さくなっていく。補助領域65の奥側端部65aの表示位置は、補助線62の消去タイミングに連動して、補助線の間を連続的に変化する。このようにすることで、運転者が適切な速度で後退していることを認識することができる。車両1の後退速度が、しきい値速度よりも速い場合、表示形態変更前の補助線62が奥側区画線42の上方に表示される。例えば、図14に示すように、補助領域65が奥側区画線42を越える。よって、運転者が、容易にしきい値速度よりも速い速度で後退していることを認識することができる。
 本実施の形態では、予想進路線生成部109が車両の進行方向において車両1から所定の距離だけ離れた位置を示す重畳データを生成する重畳データ生成部となる。なお、ここで、重畳データは補助線62、補助領域65、及び予想進路線61L、61Rとなっている。表示制御部120が、表示部150に(b)の表示をさせるように、表示映像生成部110は表示映像データを生成する。ここで、(b)は、時間の経過に応じて所定の距離が小さくなるように重畳データを表示することである。(b)の表示を行う場合、重畳データとしては、2次元の補助領域65であることが好ましいが、車両1の後端部から所定の距離に配置された左右に延びる直線であってもよい。この場合、重畳データである直線が徐々に車両1の近づくように表示が行われる。すなわち、表示画面中において、しきい値速度に応じた速度に基づいて、重畳データである直線が移動していく。
(実施の形態4)
 実施の形態4では、実施の形態3と同様に、表示映像生成部110が映像データに補助領域65を重畳した表示映像データを生成している。本実施の形態では、予想進路線61L、61Rが表示されていない点で実施の形態3と異なっている。すなわち、予想進路線生成部109が、重畳データとして、予想進路線61L、61Rを生成せずに、補助線62、及び補助領域65を生成する重畳データ生成部となっている。なお、制御部100の基本的な動作、及び構成は、上記の実施形態と同様であるため、説明を省略する。
 図15~図18は、本実施の形態における表示画面の位置例を示す図である。図15は、図4に対応する状態での表示画面を示している。図16は、図6に対応する状態での表示画面を示している。図16は、図7に対応する状態での表示画面を示している。図18は、図8に対応する状態での表示画面を示している。また、本実施の形態においても、車両1が直進後退する場合の表示例について説明する。
 図15では、補助線62aが奥側区画線42まで到達していないため、補助領域65が表示されていない。なお、本実施の形態では、予想進路線61L、61Rが表示されないため、図15のタイミングでは、表示映像生成部110が映像データに補助線62のみを重畳した表示映像データを生成している。
 図16の状態になると、補助線62aが奥側区画線42まで到達している。従って、予想進路線生成部109が重畳データとして補助線62に加えて補助領域65を生成する。すなわち、補助線62と奥側区画線42とが重なったタイミングをトリガとして、予想進路線生成部109が、補助領域65を生成する。補助領域65の奥側端部65aは奥側区画線42と一致している。左右方向における補助領域65の幅は、車両1の車幅に対応している。
 図16の状態から、さらに車両1が後退すると、図17に示す状態となる。図17では、車両1がしきい値速度で後退した場合、表示画面が示されている。図17では、図13と同様に、補助領域65の奥側端部65aが奥側区画線42と一致している。
 図16の状態から、しきい値速度よりも速い速度で車両1が後退すると、図18に示す状態となる。図17では、車両1がしきい値速度で後退した場合、表示画面が示されている。図18では、図13と同様に、補助領域65の奥側端部65aが奥側区画線42よりも奥側に行っている。したがって、補助領域65が奥側区画線42を跨ぐように表示されている。このように表示することによって、実施の形態3と同様に後退速度が速いことを運転者に認識させることができ、後退速度を遅くすることができる。
 なお、実施の形態3、4では、予想進路線生成部109が重畳データとして、補助領域65だけでなく補助線62も生成したが、重畳データとして補助領域65のみを表示するようにしてもよい。表示制御部120が、表示部150に(a)、及び(b)の少なくとも一方の表示をさせるように、表示映像生成部110は表示映像データを生成する。ここで、(a)は、複数の前記重畳データの表示形態が前記車両の遠方側から順番に所定の時間間隔で変化するように表示することであり(b)は、時間の経過に応じて所定の距離が小さくなるように重畳データ(補助領域65)を表示することである。
 (その他の実施の形態)
 なお、実施の形態1、2では、路面90において、補助線62の間隔が一定となるように補助線62が生成されているが、複数の補助線62の間隔は一定でなくてもよい。例えば、図19に示すように、路面90上において、遠方(奥側)ほど補助線62の間隔を広くするようにしてもよい。この場合、一定時間間隔で補助線62の表示形態で変更させていくことで、車両1が奥側区画線42に近づくほど、後退速度が遅くなるように、運転支援することができる。換言すると、車両1が奥側区画線42に近づくほど、しきい値速度が遅くなる。よって、しきい値速度を動的に変えることができる。よって、徐々に後退速度を遅くしながら駐車するように支援することができる。
 あるいは、路面90上における補助線62の間隔に応じた時間間隔で補助線62の表示形態を変えていってもよい。路面90上における補助線62の間隔に応じて、表示形態を変えるタイミングを補助線62毎に設定してもよい。例えば、しきい値速度が1m/secであり、遠方から、補助線62の間隔が3m、2m、1mとなっている場合、表示形態を変える時間間隔を3秒、2秒、1秒とする。このように、表示形態を変える時間間隔は、しきい値速度と、路面90上における補助線62の配置間隔とに応じて任意に設定することができる。すなわち、トリガタイミングから表示形態を変えるまでの時間は、適宜調整が可能である。換言すると、しきい値速度と、路面90上における補助線62の配置間隔とに応じて、表示形態を変える時間パターンを設定することができる。
 例えば、補助線62の間隔が一定である場合において、表示形態を変える時間間隔を調整することで、しきい値速度を変化させることができる。奥側の補助線62になるほど、表示形態を変える時間間隔を短くすることで、しきい値速度を動的に遅くしていくことができる。よって、徐々に後退速度を遅くしながら駐車するように支援することができる。このようにしきい値速度が設定されることで、車両1が奥側区画線42に近づくにつれて速度を低下させながら後退する場合に、適切に後退速度を運転者に認識させることができる。また、後方カメラ2は広角のカメラが用いられるため、一定の後退速度で車両1が奥側区画線42に近づいている場合であっても、車両1が奥側区画線に近づくにつれて後退速度が速くなっているように見えることもある。このような状態であっても、運転者が安心して後退できるように、後退速度を認識させることができる。
 なお、駐車中に車両1が一旦停止した場合、トリガタイミング、及び補助線62の表示形態を変えるタイミングを一度リセットすることが好ましい。すなわち、車両1が一旦停止すると、後退速度がしきい値速度を越えたとしても、補助線62が奥側区画線42に到達する十分前に消去されることになる。よって、トリガタイミングと表示形態を変えるタイミングを再設定することが好ましい。
 また、上記の表示制御方法を実行するためのプログラムは、様々なタイプの非一時的なコンピュータ可読媒体(non-transitory computer readable medium)を用いて格納され、コンピュータに供給することができる。非一時的なコンピュータ可読媒体は、様々なタイプの実体のある記録媒体(tangible storage medium)を含む。非一時的なコンピュータ可読媒体の例は、磁気記録媒体(例えばフレキシブルディスク、磁気テープ、ハードディスクドライブ)、光磁気記録媒体(例えば光磁気ディスク)、CD-ROM(Read Only Memory)、CD-R、CD-R/W、半導体メモリ(例えば、マスクROM、PROM(Programmable ROM)、EPROM(Erasable PROM)、フラッシュROM、RAM(random access memory))を含む。また、プログラムは、様々なタイプの一時的なコンピュータ可読媒体(transitory computer readable medium)によってコンピュータに供給されてもよい。一時的なコンピュータ可読媒体の例は、電気信号、光信号、及び電磁波を含む。一時的なコンピュータ可読媒体は、電線及び光ファイバ等の有線通信路、又は無線通信路を介して、プログラムをコンピュータに供給できる。
 この出願は、2016年9月26日に出願された日本出願特願2016-186588、及び、2017年4月24日に出願された日本出願特願2017-85243を基礎とする優先権を主張し、その開示の全てをここに取り込む。
 本願は、カメラで取得された映像データに基づいて、表示映像データを生成する表示制御装置に適用可能である。
 1 車両
 2 後方カメラ
 50 表示部
 40 駐車区画
 41L、41R 横側区画線
 42 奥側区画線
 61L、61R 予想進路線
 62 補助線
 65 補助領域
 100 表示制御装置
 101 後退動作検出部
 102 後退検出部
 104 操舵角情報取得部
 106 映像データ取得部
 107 抽出部
 109 予想進路線生成部
 110 表示映像生成部
 120 表示制御部

Claims (12)

  1.  車両の進行方向を撮影するカメラからの映像データを取得する映像データ取得部と、
     前記車両の走行動作に基づいて、前記車両の進行方向において前記車両から所定の距離だけ離れた位置を示す重畳データを生成する重畳データ生成部と、
     前記映像データに前記重畳データを重畳させた表示映像データを生成する表示映像生成部と、
     前記表示映像生成部によって生成された前記表示映像データによる映像を表示部に表示させる表示制御部と、を備え、
     前記表示制御部が、前記表示部に(a)、及び(b)の少なくとも一方の表示をさせるように、前記表示映像生成部は前記表示映像データを生成し、
     前記(a)の表示は、複数の前記重畳データの表示形態が前記車両の遠方側から順番に所定の時間間隔で変化するように表示することであり、
     前記(b)の表示は、時間の経過に応じて前記所定の距離が小さくなるように前記重畳データを表示することである、
     表示制御装置。
  2.  前記車両の進行方向における前記車両からの距離を示す複数の補助線を前記複数の重畳データとして生成し、
     前記(a)の表示において、前記表示映像生成部は、前記車両の進行方向に対して遠方側の前記補助線から予め設定された時間間隔で順番に表示形態を変えていくように、前記表示映像データを生成する請求項1に記載の表示制御装置。
  3.  前記映像データから、駐車区画の奥側の境界に対応する奥側区画線を抽出する抽出部をさらに備え、
     前記表示映像生成部は、前記複数の補助線のうち前記車両の進行方向に対して遠方側に配置された補助線が前記奥側区画線に対応する位置となったタイミングをトリガタイミングとして、前記遠方側の補助線から表示形態を変えていくように、前記表示映像データを生成する請求項2に記載の表示制御装置。
  4.  前記表示映像データは、前記表示形態を変える前の補助線が前記奥側区画線を越えた場合、前記表示形態を変える前の補助線を強調して表示する請求項3に記載の表示制御装置。
  5.  前記表示映像生成部は、一定時間間隔で前記遠方側の補助線から表示形態を変えていくように、前記表示映像データを生成する請求項2~4のいずれか1項に記載の表示制御装置。
  6.  前記表示映像生成部は、前記車両に近接した位置に表示される補助線ほど表示形態を変えていく時間間隔が長くなるように、前記表示映像データを生成する、請求項2~5のいずれか1項に記載の表示制御装置。
  7.  前記複数の補助線が路面上において等間隔になるよう、前記重畳データ生成部が前記複数の補助線を生成する請求項2~6のいずれか1項に記載の表示制御装置。
  8.  路面上において、前記車両から遠方に位置するほど前記複数の補助線の間隔が広くなるように、前記重畳データ生成部が前記複数の補助線を生成する請求項2~6のいずれか1項に記載の表示制御装置。
  9.  前記(b)の表示において、前記重畳データが、前記車両から前記所定の距離だけ離れた位置を境界とする補助領域であり、
     前記補助領域が前記映像データによる映像を透過する半透明な領域である請求項1~8のいずれか1項に記載の表示制御装置。
  10.  予め設定された前記車両の路面上におけるしきい値速度に応じて、前記所定の距離が小さくなっていく請求項9に記載の表示制御装置。
  11.  車両の進行方向を撮影するカメラからの映像データを取得するステップと、
     前記車両の走行動作に基づいて、前記車両の進行方向において前記車両から所定の距離だけ離れた位置を示す重畳データを生成するステップと、
     前記映像データに前記重畳データを重畳させた表示映像データを生成するステップと、
     前記表示映像データによる映像を表示部に表示させるステップと、を備え、
     前記表示部に(a)、及び(b)の少なくとも一方の表示をさせるように、前記表示映像データが生成され、
     前記(a)の表示は、複数の前記重畳データの表示形態が前記車両の遠方側から順番に所定の時間間隔で変化するように表示することであり、
     前記(b)の表示は、時間の経過に応じて前記所定の距離が小さくなるように前記重畳データを表示することである、
     表示制御方法。
  12.  車両の進行方向を撮影するカメラからの映像データを取得するステップと、
     前記車両の走行動作に基づいて、前記車両の進行方向において前記車両から所定の距離だけ離れた位置を示す重畳データを生成するステップと、
     前記映像データに前記重畳データを重畳させた表示映像データを生成するステップと、
     前記表示映像データによる映像を表示部に表示させるステップと、を
     コンピュータに実行させ、
     前記表示部に(a)、及び(b)の少なくとも一方の表示をさせるように、前記表示映像データが生成され、
     前記(a)の表示は、複数の前記重畳データの表示形態が前記車両の遠方側から順番に所定の時間間隔で変化するように表示することであり、
     前記(b)の表示は、時間の経過に応じて前記所定の距離が小さくなるように前記重畳データを表示することである、
     プログラム。
PCT/JP2017/021218 2016-09-26 2017-06-07 表示制御装置、表示制御方法及びプログラム WO2018055842A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
EP17852623.2A EP3517370B1 (en) 2016-09-26 2017-06-07 Display control device, display control method, and program
CN201780024190.2A CN109070824B (zh) 2016-09-26 2017-06-07 显示控制装置、显示控制方法以及存储介质
US16/184,887 US20190075255A1 (en) 2016-09-26 2018-11-08 Display control apparatus, display control method, and program

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2016-186588 2016-09-26
JP2016186588 2016-09-26
JP2017085243A JP6747369B2 (ja) 2016-09-26 2017-04-24 表示制御装置、表示制御方法及びプログラム
JP2017-085243 2017-04-24

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US16/184,887 Continuation US20190075255A1 (en) 2016-09-26 2018-11-08 Display control apparatus, display control method, and program

Publications (1)

Publication Number Publication Date
WO2018055842A1 true WO2018055842A1 (ja) 2018-03-29

Family

ID=61690301

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2017/021218 WO2018055842A1 (ja) 2016-09-26 2017-06-07 表示制御装置、表示制御方法及びプログラム

Country Status (1)

Country Link
WO (1) WO2018055842A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114919662A (zh) * 2022-06-16 2022-08-19 岚图汽车科技有限公司 一种动态倒车辅助线的建立方法、装置和存储介质

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001180403A (ja) * 1999-12-24 2001-07-03 Toyota Autom Loom Works Ltd 操舵支援装置
JP2004276807A (ja) * 2003-03-17 2004-10-07 Denso Corp 車両の後退駐車支援装置
JP2006272990A (ja) * 2005-03-28 2006-10-12 Clarion Co Ltd 車両後退運転補助装置
JP2007226300A (ja) * 2006-02-21 2007-09-06 Aisin Aw Co Ltd 運転支援方法及び運転支援装置
JP2008120293A (ja) * 2006-11-14 2008-05-29 Aisin Seiki Co Ltd 車両周辺表示装置
JP2008132882A (ja) * 2006-11-28 2008-06-12 Aisin Aw Co Ltd 駐車支援方法及び駐車支援装置
JP2011255812A (ja) * 2010-06-10 2011-12-22 Aisin Seiki Co Ltd 駐車支援装置
WO2012102391A1 (ja) * 2011-01-27 2012-08-02 京セラ株式会社 車両の走行支援装置

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001180403A (ja) * 1999-12-24 2001-07-03 Toyota Autom Loom Works Ltd 操舵支援装置
JP2004276807A (ja) * 2003-03-17 2004-10-07 Denso Corp 車両の後退駐車支援装置
JP2006272990A (ja) * 2005-03-28 2006-10-12 Clarion Co Ltd 車両後退運転補助装置
JP2007226300A (ja) * 2006-02-21 2007-09-06 Aisin Aw Co Ltd 運転支援方法及び運転支援装置
JP2008120293A (ja) * 2006-11-14 2008-05-29 Aisin Seiki Co Ltd 車両周辺表示装置
JP2008132882A (ja) * 2006-11-28 2008-06-12 Aisin Aw Co Ltd 駐車支援方法及び駐車支援装置
JP2011255812A (ja) * 2010-06-10 2011-12-22 Aisin Seiki Co Ltd 駐車支援装置
WO2012102391A1 (ja) * 2011-01-27 2012-08-02 京セラ株式会社 車両の走行支援装置

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114919662A (zh) * 2022-06-16 2022-08-19 岚图汽车科技有限公司 一种动态倒车辅助线的建立方法、装置和存储介质

Similar Documents

Publication Publication Date Title
JP6747369B2 (ja) 表示制御装置、表示制御方法及びプログラム
US10930156B2 (en) Display control apparatus, display apparatus, display control method, and program
US9731717B2 (en) Driver assistance apparatus and method for operating the same
US8421863B2 (en) In-vehicle image display device
US10162360B2 (en) Vehicle environment imaging systems and methods
JP6562081B2 (ja) 駐車スペースの枠線の検出方法および装置
JP5316550B2 (ja) 後方視界支援システム
US10887568B2 (en) Image processing apparatus, and image processing method
JP6416293B2 (ja) 自動車に接近する対象車両を自動車のカメラシステムにより追跡する方法、カメラシステムおよび自動車
WO2017068701A1 (ja) 駐車スペース検出方法および装置
US20150179075A1 (en) Parking assistance apparatus and parking assistance method for vehicle
KR20180067643A (ko) 주차 지원 방법 및 주차 지원 장치
WO2013128917A1 (ja) 映像処理装置、映像処理方法、および映像表示システム
JP5595186B2 (ja) 目標軌道算出装置
JP2007090939A (ja) 駐車支援装置
US20200278743A1 (en) Control device
JP5169912B2 (ja) 駐車支援装置
JP2010195265A (ja) 駐車設備
WO2018055842A1 (ja) 表示制御装置、表示制御方法及びプログラム
JP6559083B2 (ja) 駐車支援装置および駐車支援方法
JP6658392B2 (ja) 表示制御装置、表示制御方法及びプログラム
JP6774605B2 (ja) 表示制御装置、表示装置、表示制御方法及びプログラム
JP6378594B2 (ja) 車外環境認識装置
JP2018047721A (ja) 表示制御装置、表示制御方法及びプログラム
JP6825731B2 (ja) 表示制御装置、表示制御方法及びプログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 17852623

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

WWE Wipo information: entry into national phase

Ref document number: 2017852623

Country of ref document: EP