WO2019139084A1 - 通知装置及び車載機 - Google Patents

通知装置及び車載機 Download PDF

Info

Publication number
WO2019139084A1
WO2019139084A1 PCT/JP2019/000543 JP2019000543W WO2019139084A1 WO 2019139084 A1 WO2019139084 A1 WO 2019139084A1 JP 2019000543 W JP2019000543 W JP 2019000543W WO 2019139084 A1 WO2019139084 A1 WO 2019139084A1
Authority
WO
WIPO (PCT)
Prior art keywords
vehicle
lane
unit
target
lane change
Prior art date
Application number
PCT/JP2019/000543
Other languages
English (en)
French (fr)
Inventor
守 細川
崇 植藤
秋田 英範
健司 三宅
田口 晋也
Original Assignee
株式会社デンソー
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社デンソー filed Critical 株式会社デンソー
Publication of WO2019139084A1 publication Critical patent/WO2019139084A1/ja
Priority to US16/923,357 priority Critical patent/US20200342761A1/en

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/0104Measuring and analyzing of parameters relative to traffic conditions
    • G08G1/0108Measuring and analyzing of parameters relative to traffic conditions based on the source of data
    • G08G1/0112Measuring and analyzing of parameters relative to traffic conditions based on the source of data from the vehicle, e.g. floating car data [FCD]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/0104Measuring and analyzing of parameters relative to traffic conditions
    • G08G1/0137Measuring and analyzing of parameters relative to traffic conditions for specific applications
    • G08G1/0141Measuring and analyzing of parameters relative to traffic conditions for specific applications for traffic information dissemination
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/0962Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
    • G08G1/0967Systems involving transmission of highway information, e.g. weather, speed limits
    • G08G1/096766Systems involving transmission of highway information, e.g. weather, speed limits where the system is characterised by the origin of the information transmission
    • G08G1/096775Systems involving transmission of highway information, e.g. weather, speed limits where the system is characterised by the origin of the information transmission where the origin of the information is a central station
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/0962Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
    • G08G1/0967Systems involving transmission of highway information, e.g. weather, speed limits
    • G08G1/096766Systems involving transmission of highway information, e.g. weather, speed limits where the system is characterised by the origin of the information transmission
    • G08G1/096791Systems involving transmission of highway information, e.g. weather, speed limits where the system is characterised by the origin of the information transmission where the origin of the information is another vehicle
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/161Decentralised systems, e.g. inter-vehicle communication
    • G08G1/162Decentralised systems, e.g. inter-vehicle communication event-triggered
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R11/00Arrangements for holding or mounting articles, not otherwise provided for
    • B60R11/04Mounting of cameras operative during drive; Arrangement of controls thereof relative to the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/07Target detection
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/167Driving aids for lane monitoring, lane changing, e.g. blind spot detection

Definitions

  • the present disclosure relates to a notification device mounted on a server or a vehicle and an in-vehicle device that communicates with the notification device.
  • a target may be present in front of the vehicle.
  • a target object a parking vehicle etc. are mentioned, for example.
  • Patent Document 1 discloses a technique for finding a target using a camera or the like mounted on a vehicle.
  • the following problems were found as a result of detailed examination of the inventor.
  • an object that impedes the detection of the target As such an object, a large truck etc. are mentioned, for example. If there is an object that interferes with the discovery of the target, the discovery of the target is delayed. As a result, it becomes difficult for the vehicle to avoid the target.
  • the first vehicle (9) starts to change lanes from the first lane (83) to the second lane (85) at a first time point (ta).
  • An image acquisition unit (45) configured to acquire, a target recognition unit (47) configured to recognize a target in the image acquired by the image acquisition unit, and the target recognition unit
  • a notification unit (61) configured to notify the second vehicle (65) located behind the first vehicle, of the presence of the recognized target; a notification device (5, 103) ).
  • the notification device which is one aspect of the present disclosure recognizes a target in an image captured by a camera included in a first vehicle.
  • the notification device which is an aspect of the present disclosure, notifies the presence of the recognized target to a second vehicle located behind the first vehicle. Therefore, for example, even when an object that inhibits the detection of the target is present in front of the second vehicle, the second vehicle can know the presence of the target.
  • the notification apparatus which is one aspect of this indication acquires the image which the camera imaged in the imaging period. Therefore, the notification device which is one aspect of the present disclosure can reduce the data amount of an image to be acquired. As a result, the notification device which is one aspect of the present disclosure can reduce the processing load such as processing of recognizing a target in an image.
  • the first vehicle has completed the lane change from the second lane to the first lane from the first time when the first vehicle starts to change lanes from the first lane to the second lane. It is at least a part of the period up to 2 time points.
  • the first vehicle is likely to have made the above-mentioned lane change in order to avoid the target. Therefore, the image which the camera imaged in the imaging period has high possibility of displaying the target. Since the notification device which is one aspect of the present disclosure recognizes a target from an image captured by a camera during an imaging period, there is a high possibility that the target can be recognized.
  • Another aspect of the present disclosure is an on-vehicle device (3) mounted on a vehicle (9) equipped with a camera (31), the lane change detection configured to detect a lane change of the vehicle The unit and the first lane (83) to the second lane (85) At the first point (ta) when the vehicle starts to change lanes, the second lane to the first lane And a transmission unit configured to transmit an image captured by the camera (31) to a server in an imaging period of at least a part of a period up to a second time point (tb) at which the image processing is completed.
  • the server can recognize the presence of the target and create information indicating the presence of the target.
  • Other vehicles may, for example, receive information representing the presence of the target via the server.
  • Another aspect of the present disclosure is an on-vehicle device (7) mounted on a vehicle (65), wherein the other vehicle (9) is a lane from the first lane (83) to the second lane (85).
  • An information receiving unit (71) configured to receive, via the server, information indicating the presence of a target recognized by the server (5) based on an image captured by the camera (31) included in the other vehicle in
  • a control unit (76) configured to control the on-board vehicle based on information indicating the presence of the target.
  • the in-vehicle device which is another aspect of the present disclosure, can receive information representing the presence of a target via the server and control the on-board vehicle based on the information.
  • FIG. 6A is an explanatory view showing the deviation D
  • FIG. 6B is an explanatory view showing the offset angle ⁇ .
  • FIG. 6 is an explanatory view showing a first position, a position Px, a position Py, a second position, an untravelable area and the like.
  • It is a flowchart showing the process which a server performs.
  • It is a flowchart showing the process which a vehicle-mounted apparatus performs.
  • FIG. 1 the notification system 1 includes an in-vehicle device 3, a server 5, and an in-vehicle device 7.
  • the server 5 corresponds to a notification device.
  • the in-vehicle device 3 is mounted on the first vehicle 9.
  • the first vehicle 9 for the in-vehicle device 3 corresponds to a mounted vehicle.
  • the in-vehicle device 3 includes a microcomputer having a CPU 11 and a semiconductor memory (hereinafter, referred to as a memory 13) such as, for example, a RAM or a ROM.
  • a memory 13 such as, for example, a RAM or a ROM.
  • Each function of the in-vehicle device 3 is realized by the CPU 11 executing a program stored in the non-transitional tangible storage medium.
  • the memory 13 corresponds to a non-transitional tangible storage medium storing a program. Also, by executing this program, a method corresponding to the program is executed.
  • the in-vehicle device 3 may include one microcomputer or a plurality of microcomputers.
  • the in-vehicle device 3 includes a lane change detection unit 15, a photographing unit 16, a period setting unit 17, a deviation acquisition unit 19, a lane keep probability calculation unit 21, and an offset angle calculation unit 23. , An information acquisition unit 25, a transmission unit 29, and a parking state detection unit 30.
  • the method for realizing the function of each part included in the on-vehicle apparatus 3 is not limited to software, and part or all of the function may be realized using one or more hardware.
  • the electronic circuit may be implemented by a digital circuit, an analog circuit, or a combination thereof.
  • the first vehicle 9 includes a camera 31, a gyro sensor 33, a GPS 35, a storage device 37, a speed sensor 38, a wireless device 39, and a winker sensor 40.
  • the camera 31 captures the periphery of the first vehicle 9 and generates an image.
  • the camera 31 can generate a moving image. Each frame constituting a moving image corresponds to an image.
  • the gyro sensor 33 detects an angular velocity in the yaw direction of the first vehicle 9.
  • the GPS 35 acquires position information of the first vehicle 9.
  • the positional information acquired by the GPS 35 is positional information represented by latitude and longitude. That is, the position information acquired by the GPS 35 is information representing a position at an absolute coordinate (hereinafter referred to as an absolute position).
  • the storage unit 37 stores map information.
  • the map information includes information such as the road type at each position and the traveling direction of the road. Examples of road types include intersections, straight roads, T-shaped roads, general roads, and motorways.
  • the speed sensor 38 detects the speed of the first vehicle 9.
  • the wireless device 39 can perform wireless communication with a wireless device 63 described later.
  • the turn signal sensor 40 detects the state of the turn signal in the first vehicle 9. There are a right blinker on, a left blinker on, and both blinkers off as the condition of the blinkers.
  • the server 5 is fixedly installed at a predetermined place.
  • the server 5 includes a microcomputer having a CPU 41 and a semiconductor memory (hereinafter, referred to as a memory 43) such as, for example, a RAM or a ROM.
  • a memory 43 such as, for example, a RAM or a ROM.
  • Each function of the server 5 is realized by the CPU 41 executing a program stored in the non-transitional tangible recording medium.
  • the memory 43 corresponds to a non-transitional tangible storage medium storing a program. Also, by executing this program, a method corresponding to the program is executed.
  • the server 5 may include one microcomputer or a plurality of microcomputers.
  • the server 5 includes an information acquisition unit 45, a target recognition unit 47, a relative position estimation unit 49, a vehicle information acquisition unit 51, a target position estimation unit 53, a vehicle position acquisition unit 55, and a travel impossible area.
  • a setting unit 57, a target determination unit 59, and a notification unit 61 are provided.
  • the information acquisition unit 45 corresponds to the image acquisition unit.
  • the method for realizing the functions of the units included in the server 5 is not limited to software, and some or all of the functions may be realized using one or more hardware.
  • the electronic circuit may be implemented by a digital circuit, an analog circuit, or a combination thereof.
  • the server 5 is connected to the wireless device 63.
  • the wireless device 63 can perform wireless communication with the wireless device 39 and a wireless device 81 described later.
  • the in-vehicle device 7 is mounted on a second vehicle 65.
  • the second vehicle 65 for the in-vehicle device 7 corresponds to the mounted vehicle.
  • the first vehicle 9 corresponds to another vehicle for the on-vehicle device 7.
  • the on-vehicle device 7 includes a microcomputer having a CPU 67 and a semiconductor memory (hereinafter, referred to as a memory 69) such as a RAM or a ROM.
  • a memory 69 semiconductor memory
  • Each function of the on-vehicle device 7 is realized by the CPU 67 executing a program stored in a non-transitional tangible storage medium.
  • the memory 69 corresponds to a non-transitional tangible storage medium storing a program. Also, by executing this program, a method corresponding to the program is executed.
  • the on-vehicle device 7 may include one microcomputer or a plurality of microcomputers.
  • the on-vehicle device 7 includes an information receiving unit 71, a display unit 73, a positional relationship determining unit 75, and a control unit 76.
  • the method for realizing the function of each part included in the on-vehicle device 7 is not limited to software, and part or all of the function may be realized using one or more hardware.
  • the electronic circuit may be implemented by a digital circuit, an analog circuit, or a combination thereof.
  • the second vehicle 65 includes a display 77, a speaker 79, a GPS 80, and a wireless device 81 in addition to the in-vehicle device 7.
  • the display 77 and the speaker 79 are provided in the interior of the second vehicle 65.
  • the display 77 can display an image.
  • the speaker 79 can output sound.
  • the GPS 80 acquires position information representing the absolute position of the second vehicle 65.
  • the wireless device 81 can perform wireless communication with the wireless device 63.
  • step 1 of FIG. 5 the lane change detection unit 15 turns off the right LC flag, the LK flag, and the left LC flag. These flags will be described later.
  • step 2 the information acquisition unit 25 acquires various types of information.
  • information to be acquired the absolute position of the first vehicle 9, the speed of the first vehicle 9, the azimuth angle of the first vehicle 9, the road type at the position of the first vehicle 9, the blinker in the first vehicle 9 A state etc. are mentioned.
  • the azimuth is the direction from the rear to the front of the vehicle.
  • the information acquisition unit 25 acquires the absolute position of the first vehicle 9 using the GPS 35.
  • the information acquisition unit 25 acquires the speed of the first vehicle 9 using the speed sensor 38.
  • the information acquisition unit 25 repeatedly measures the angular velocity in the yaw direction of the first vehicle 9 using the gyro sensor 33, and integrates the angular velocity to acquire the azimuth angle of the first vehicle 9.
  • the information acquisition unit 25 reads the road type at the position of the first vehicle 9 from the map information stored in the storage device 37.
  • the information acquisition unit 25 acquires the state of the turn signal in the first vehicle 9 using the turn signal sensor 40.
  • step 3 the lane change detection unit 15 determines whether the right LC flag is off. If the right LC flag is off, the process proceeds to step 4. If the right LC flag is on, the process proceeds to step 8.
  • step 4 the lane change detection unit 15 determines whether the right lane change has been started.
  • the right lane change is a lane change from the first lane 83 to the second lane 85 shown in FIG.
  • the lane change detection unit 15 determines that the right lane change has started when all of the following conditions J1 to J4 are satisfied. On the other hand, when at least one of J1 to J4 does not hold, the lane change detection unit 15 determines that the right lane change has not started.
  • the offset angle ⁇ is greater than or equal to a preset threshold T ⁇ .
  • the lane keep probability is the probability that the first vehicle 9 maintains the current lane.
  • the lane keeping probability is calculated as follows.
  • the deviation acquisition unit 19 acquires the deviation D in the lateral direction between the position 87 at the center of the lane where the first vehicle 9 is present and the position of the center 9A of the first vehicle 9, as shown in FIG. 6A.
  • the lateral direction is a direction orthogonal to the traveling direction of the road.
  • the lane keep probability calculation unit 21 inputs the deviation D to the function stored in advance in the memory 13 to obtain the lane keep probability.
  • the function calculates the lane keeping probability higher as the deviation D is smaller.
  • the offset angle ⁇ is an angle formed by the azimuth angle X of the first vehicle 9 and the traveling direction Y of the lane in which the first vehicle 9 exists, as shown in FIG. 6B.
  • the offset angle calculation unit 23 calculates the offset angle ⁇ using the azimuth angle X of the first vehicle 9 acquired in step 2 and the traveling direction Y read from the map information.
  • step 5 If the right lane change has been started, the process proceeds to step 5, and if the right lane change has not yet started, the process returns to step 2.
  • the lane change detection unit 15 sets the absolute position of the first vehicle 9 at the present time as the first position Pa, and stores the first position Pa.
  • the first position Pa is an absolute position of the first vehicle 9 at a first time point ta when the lane change from the first lane 83 to the second lane 85 starts.
  • the lane change detection unit 15 turns on the right LC flag.
  • step 7 the period setting unit 17 sets an imaging period starting from the first time point ta.
  • the imaging period continues until time point ty described later.
  • the imaging unit 16 captures a moving image using the camera 31 in the imaging period. Therefore, shooting of a moving image is started at a first time point ta.
  • the process returns to step 2.
  • step 8 the lane change detection unit 15 determines whether the LK flag is off. If the LK flag is off, the process proceeds to step 9; if the LK flag is on, the process proceeds to step 12.
  • step 9 the lane change detection unit 15 determines whether the lane keeping has been started.
  • the lane keeping in step 9 means keeping the second lane 85 shown in FIG.
  • the lane change detection unit 15 determines that the lane keeping is started if the lane keeping probability is equal to or more than the predetermined threshold TK2. If the lane keeping probability is equal to or greater than the threshold TK2, the process proceeds to step 10.
  • the threshold TK2 is larger than the threshold TK1.
  • the lane change detection unit 15 determines that the lane keep has not been started and the right lane change is continuing. If the lane keeping probability is less than the threshold TK2, the process returns to step 2.
  • step 10 the lane change detection unit 15 sets the absolute position of the first vehicle 9 at the current time to the position Px, and stores the position Px. As shown in FIG. 7, at position Px, when the lane change from the first lane 83 to the second lane 85 is completed and the second lane 85 starts to be kept, the absolute value of the first vehicle 9 at the time tx It is a position.
  • step 11 the lane change detection unit 15 turns on the LK flag. After step 11, the process returns to step 2.
  • step 12 the lane change detection unit 15 determines whether the left LC flag is off. If the left LC flag is off, the process proceeds to step 13. If the left LC flag is on, the process proceeds to step 18.
  • step 13 the lane change detection unit 15 determines whether the left lane change has been started.
  • the left lane change is a lane change from the second lane 85 to the first lane 83 shown in FIG.
  • the lane change detection unit 15 determines that the left lane change is started when all of the following conditions J1 to J3 and J5 are satisfied. On the other hand, when one of J1 to J3 and J5 does not hold, the lane change detection unit 15 determines that the left lane change is not started.
  • the offset angle ⁇ is greater than or equal to a preset threshold T ⁇ .
  • step 14 If the left lane change is started, the process proceeds to step 14. If the left lane change is not yet started, the process returns to step 2.
  • step 14 the lane change detection unit 15 sets the absolute position of the first vehicle 9 at the current point as the position Py, and stores the position Py.
  • the position Py is an absolute position of the first vehicle 9 at the time ty when the lane change from the second lane 85 to the first lane 83 is started.
  • the transmission unit 29 transmits the first information using the wireless device 39.
  • the first information is information including the first position Pa.
  • the server 5 receives the first information.
  • the lane change detection unit 15 turns on the left LC flag.
  • step 17 the period setting unit 17 ends the imaging period at time point ty.
  • the shooting unit 16 ends shooting of a moving image at time point ty.
  • the imaging period is part of a period from a first time point ta to a second time point tb described later. After step 17, return to step 2.
  • step 18 the lane change detection unit 15 determines whether or not the lane keeping has been started.
  • the lane keeping in the present step 18 means keeping the first lane 83 shown in FIG.
  • the lane change detection unit 15 determines that the lane keeping is started if the lane keeping probability is equal to or more than the predetermined threshold TK2. If the lane keeping probability is equal to or higher than the threshold TK2, the process proceeds to step 19.
  • the lane change detection unit 15 determines that the lane keep has not been started and the left lane change is continuing. If the lane keeping probability is less than the threshold TK2, the process returns to step 2.
  • step 19 the lane change detection unit 15 sets the absolute position of the first vehicle 9 at the current point in time as the second position Pb, and stores the second position Pb.
  • the second position Pb is an absolute position of the first vehicle 9 at a second time point tb at which the second lane 85 starts to be kept.
  • the transmission unit 29 transmits the second information using the wireless device 39.
  • the second information includes a first position Pa, a position Px, a position Py, and a second position Pb. As described later, the server 5 receives the second information.
  • the transmission unit 29 transmits the third information using the wireless device 39.
  • the third information includes a moving image captured in an imaging period. Furthermore, the third information includes the absolute position and the azimuth angle of the first vehicle 9 when each frame constituting the moving image is imaged. In the third information, the frame is associated with the absolute position and azimuth of the first vehicle 9 when the frame is imaged. As described later, the server 5 receives the third information. After step 21, the present process ends.
  • the parking state detection unit 30 detects that the first vehicle 9 has stopped as a parked vehicle on the road based on the signals from the GPS 35, the speed sensor 38, the turn signal sensor 40, the gyro sensor 33 and the parking brake not shown. Do.
  • the transmission unit 29 transmits to the server 5 by the wireless device 39 that the first vehicle 9 has become a parked vehicle on the road, together with the position of the first vehicle 9.
  • parked vehicle information information representing that the first vehicle 9 has stopped on the road as a parked vehicle and the position of the first vehicle 9 will be referred to as parked vehicle information. After step 21, the present process ends.
  • the information acquisition unit 45 receives the first to third information and the parked vehicle information using the wireless device 63.
  • the first to third information and the parked vehicle information are information transmitted by the on-vehicle device 3.
  • the target recognition unit 47 recognizes the target by a known image recognition technique in the frame.
  • the frame is a frame that constitutes a moving image included in the third information.
  • a target for example, a parked vehicle 89 shown in FIG. 7 and the like can be mentioned.
  • the target recognition unit 47 recognizes a target for each frame.
  • the relative position estimation unit 49 estimates the relative position of the target recognized in step 32 with respect to the position of the first vehicle 9.
  • the relative position estimation unit 49 can estimate the relative position of the target based on the position, size, etc. of the target in the frame.
  • the relative position estimation unit 49 estimates the relative position of the target for each frame.
  • step 34 the vehicle information acquisition unit 51 acquires, from the third information received in step 31, the absolute position and azimuth of the first vehicle 9 when the frame is captured.
  • the vehicle information acquisition unit 51 acquires the absolute position and the azimuth angle of the first vehicle 9 for each frame.
  • step 35 based on the absolute position and azimuth angle of the first vehicle 9 acquired in step 34, and the relative position of the target estimated in step 33, the target position estimation unit 53 calculates the absolute value of the target Guess the position.
  • the target position estimation unit 53 estimates the absolute position of the target for each frame.
  • the non-travelable area setting unit 57 sets the non-travelable area based on the first position Pa and the second position Pb included in the second information received in step 31 and the parked vehicle information.
  • the non-travelable area 91 is a range from the first position Pa to the second position Pb in the traveling direction of the road.
  • the impassable area 91 is the whole of the first lane 83 in which a target such as a parked vehicle 89 exists in the lateral direction.
  • step 37 the target determination unit 59 determines whether the absolute position of the target estimated in step 35 is within the non-travelable area set in step 36. If the absolute position of the target varies from frame to frame, an average value of the absolute position of the target in all frames is calculated, and it is determined whether the average value is within the non-travelable area.
  • step 38 If the absolute position of the target is in the non-travelable area, the process proceeds to step 38. If the absolute position of the target is not in the non-travelable area, the process proceeds to step 39.
  • the notification unit 61 transmits the presence notification using the wireless device 63.
  • the presence notification is information including information indicating that the target is present in the non-travelable area, the first position Pa, the position Px, the position Py, the second position Pb, the position of the non-travelable area, and the like. As described later, the in-vehicle device 7 receives the presence notification.
  • the notification unit 61 transmits the absence notification using the wireless device 63.
  • the absence notification is information including information indicating that a target does not exist in the non-travelable area, the first position Pa, the position Px, the position Py, and the second position Pb. As described later, the in-vehicle device 7 receives the absence notification.
  • step 40 the notification unit 61 transmits the first information using the wireless device 63. As described later, the in-vehicle device 7 receives the first information.
  • step 51 of FIG. 9 the information receiving unit 71 determines whether the wireless device 81 has received the periodic information.
  • the periodic information is information that the server 5 periodically transmits. If the periodic information is received, the process proceeds to step 52. If the periodic information is not received, the process proceeds to step 53.
  • step 52 the display unit 73 displays the content of the periodic information on the display 77.
  • step 53 the information receiving unit 71 determines whether the wireless device 81 has received the first information.
  • the first information is information transmitted by the server 5. If the first information is received, the process proceeds to step 54. If the first information is not received, the process proceeds to step 55.
  • step 54 the display unit 73 displays the content of the first information on the display 77.
  • step 55 the information receiving unit 71 determines whether the wireless device 81 has received the presence notification.
  • the presence notification is information transmitted by the server 5. If the presence notification is received, the process proceeds to step 56. If the presence notification is not received, the process proceeds to step 58.
  • step 56 the positional relationship determination unit 75 acquires positional information representing the absolute position of the second vehicle 65 using the GPS 80. Further, the positional relationship determination unit 75 reads out the positional information of the non-travelable area 91 included in the presence notification. Then, as shown in FIG. 7, the absolute position of the second vehicle 65 is behind the non-travelable area 91, and the distance L between the first position Pa and the second vehicle 65 is less than a predetermined threshold value. The positional relationship determination unit 75 determines whether or not. If the absolute position of the second vehicle 65 is behind the non-travelable area 91 and the distance L is less than or equal to the threshold value, the process proceeds to step 57. Otherwise, the process proceeds to step 58.
  • step 57 the display unit 73 displays the display content based on the presence notification on the display 77.
  • the display contents include the presence of a target ahead, the distance from the second vehicle 65 to the first position Pa, and the like.
  • step 58 the information receiving unit 71 determines whether the wireless device 81 has received the nonexistence notification.
  • the absence notification is information transmitted by the server 5.
  • the process proceeds to step 59, and when the absence notification is not received, the process ends.
  • the display unit 73 displays the display content based on the absence notification on the display 77.
  • the control unit 76 may control the second vehicle 65 based on the presence notification. Examples of the control include deceleration, stop, steering and the like.
  • the first vehicle 9 includes the camera 31.
  • the server 5 recognizes a target in a moving image captured by the camera 31.
  • the server 5 notifies the second vehicle 65 located behind the first vehicle 9 of the presence of the recognized target. Therefore, for example, even in the case where an object that inhibits the detection of the target is present in front of the second vehicle 65, the second vehicle 65 can know the presence of the target.
  • the server 5 acquires a moving image captured by the camera 31 in an imaging period. Therefore, the amount of moving image data to be acquired can be reduced. As a result, it is possible to reduce the processing load such as processing of recognizing a target in a moving image.
  • the first vehicle 9 starts from the second lane 85 to the first lane 83. It is a part of the period up to the second time point tb when the lane change is completed. There is a high possibility that the first vehicle 9 has performed the above-mentioned lane change in order to avoid the target. Therefore, the moving image captured by the camera 31 in the imaging period has a high possibility of displaying the target. Since the server 5 recognizes the target from the moving image captured by the camera 31 in the imaging period, there is a high possibility that the target can be recognized.
  • the server 5 acquires the absolute position and the azimuth angle of the first vehicle 9 when the moving image is captured. Also, the server 5 estimates the relative position of the target based on the absolute position of the first vehicle 9 based on the moving image. Further, the server 5 estimates the absolute position of the target based on the absolute position and azimuth angle of the first vehicle 9 and the relative position of the target.
  • the server 5 acquires the first position Pa and the second position Pb based on the detection result of the lane change detection unit 15. Then, the server 5 sets the non-travelable area based on the first position Pa and the second position Pb. The server 5 determines whether the absolute position of the target is within the non-travelable area. The server 5 notifies the second vehicle 65 of the presence of the target on condition that the absolute position of the target is within the non-travelable area.
  • the second vehicle 65 is not notified of the presence of the target even if the target is recognized outside the non-travelable area. As a result, it is possible to suppress transmission of a notification of low need to the second vehicle 65.
  • the in-vehicle device 3 determines the first time point ta by detecting the lane change of the first vehicle 9, and sets an imaging period starting from the first time point ta. Therefore, the imaging period can be set easily and accurately.
  • the in-vehicle device 3 calculates the lane keeping probability and the offset angle ⁇ , and detects that the first vehicle 9 has started the lane change based on them. Therefore, the lane change of the first vehicle 9 can be detected easily and accurately.
  • the on-vehicle device 3 detects that the first vehicle 9 has started to change lane based on the road type and the condition of the turn signal. Therefore, the lane change of the first vehicle 9 can be detected easily and accurately. In particular, by using the road type, it is possible to suppress false recognition of turning to the left or right at an intersection as a lane change.
  • the on-vehicle apparatus 3 detects that the first vehicle 9 has stopped on the road as a parked vehicle by the parking state detection unit 30.
  • the in-vehicle device 3 creates parked vehicle information representing that the first vehicle 9 has stopped as a parked vehicle on the road and the position of the first vehicle 9, and transmits the parked vehicle information to the server 5.
  • the server 5 can notify the second vehicle 65 of information of the first vehicle 9 that has become a parked vehicle, in addition to the parked vehicle recognized based on the camera image received from the in-vehicle device 3.
  • Second Embodiment 1 Differences from the First Embodiment
  • the basic configuration of the second embodiment is the same as that of the first embodiment, so the differences will be described below.
  • the same reference numerals as those in the first embodiment denote the same components, and reference is made to the preceding description.
  • the notification system 1 includes the on-vehicle device 3 mounted on the first vehicle 9, the server 5 fixedly installed, and the on-vehicle device 7 mounted on the second vehicle 65.
  • the notification system 101 of the second embodiment includes the on-vehicle device 103 mounted on the first vehicle 9 and the on-vehicle device 7 mounted on the second vehicle 65.
  • the onboard unit 103 has the functions of the onboard unit 3 and the server 5 in the first embodiment.
  • the in-vehicle device 103 corresponds to the notification device.
  • the in-vehicle device 103 creates the first to third information in the same manner as the in-vehicle device 3 in the first embodiment. Furthermore, in the same manner as the server 5 in the first embodiment, the in-vehicle device 103 creates a presence notification, a non-existence notification, and first information, and transmits the information to the in-vehicle device 7 by inter-vehicle communication. .
  • the start time point of the imaging period may be a time point other than the first time point ta.
  • any time point in a period from the first time point ta to the time point tx can be set as the start time point of the imaging period.
  • the end time point of the imaging period may be a time point other than the time point ty.
  • any time point in the period from the time point tx to the second time point tb can be set as the end time point of the imaging period.
  • the camera 31 may create still images not at a moving image but at a plurality of time points within the imaging period.
  • the server 5 or the on-vehicle device 103 may transmit the presence notification to the on-vehicle device 7 regardless of whether the absolute position of the target is in the non-travelable area.
  • the method of acquiring the first position Pa, the position Px, the position Py, and the second position Pb may be another method.
  • the first position Pa, the position Px, the position Py, and the second position Pb may be acquired from the traveling track of the first vehicle 9.
  • the plurality of functions possessed by one component in the above embodiment may be realized by a plurality of components, or one function possessed by one component may be realized by a plurality of components . Also, a plurality of functions possessed by a plurality of components may be realized by one component, or one function realized by a plurality of components may be realized by one component. In addition, part of the configuration of the above embodiment may be omitted. In addition, at least a part of the configuration of the above-described embodiment may be added to or replaced with the configuration of the other above-described embodiment.
  • a system including the notification device as a component, a program for causing a computer to function as the notification device, a non-transient actual recording medium such as a semiconductor memory recording the program, notification
  • the present disclosure can also be realized in various forms such as a method and a driving support method.

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Atmospheric Sciences (AREA)
  • Chemical & Material Sciences (AREA)
  • Analytical Chemistry (AREA)
  • Traffic Control Systems (AREA)

Abstract

通知装置(5)は、画像取得ユニットと、物標認識ユニットと、通知ユニットとを備える。画像取得ユニットは、第1の車両(9)が第1のレーンから第2のレーンへレーンチェンジし始めた第1時点から、前記第1の車両が前記第2のレーンから前記第1のレーンへレーンチェンジし終えた第2時点までの期間の少なくとも一部の撮像期間において前記第1の車両が備えるカメラ(31)が撮像した画像を取得する。物標認識ユニットは、前記画像取得ユニットが取得した前記画像において物標を認識する。通知ユニットは、前記物標認識ユニットが認識した前記物標の存在を、前記第1の車両よりも後方に位置する第2の車両(65)に通知する。

Description

通知装置及び車載機 関連出願の相互参照
 本国際出願は、2018年1月10日に日本国特許庁に出願された日本国特許出願第2018-001915号に基づく優先権を主張するものであり、日本国特許出願第2018-001915号の全内容を参照により本国際出願に援用する。
 本開示はサーバ上又は車両に搭載された通知装置及び当該通知装置と通信を行う車載機に関する。
 車両の前方に物標が存在することがある。物標として、例えば、駐車車両等が挙げられる。特許文献1には、車両に搭載されたカメラ等を用いて物標を発見する技術が開示されている。
特開2016-137819号公報
 発明者の詳細な検討の結果、以下の課題が見出された。車両と物標との間に、物標の発見を阻害する物体が存在することがある。そのような物体として、例えば、大型トラック等が挙げられる。物標の発見を阻害する物体が存在する場合、物標の発見が遅れる。その結果、車両が物標を回避することが困難になる。本開示の一局面では、物標の存在を車両に通知することができる通知装置及び車載機を提供することが好ましい。
 本開示の一局面は、第1の車両(9)が第1のレーン(83)から第2のレーン(85)へレーンチェンジし始めた第1時点(ta)から、前記第1の車両が前記第2のレーンから前記第1のレーンへレーンチェンジし終えた第2時点(tb)までの期間の少なくとも一部の撮像期間において前記第1の車両が備えるカメラ(31)が撮像した画像を取得するように構成された画像取得ユニット(45)と、前記画像取得ユニットが取得した前記画像において物標を認識するように構成された物標認識ユニット(47)と、前記物標認識ユニットが認識した前記物標の存在を、前記第1の車両よりも後方に位置する第2の車両(65)に通知するように構成された通知ユニット(61)と、を備える通知装置(5、103)である。
 本開示の一局面である通知装置は、第1の車両が備えるカメラが撮像した画像において物標を認識する。本開示の一局面である通知装置は、認識した物標の存在を、第1の車両よりも後方に位置する第2の車両に通知する。そのため、例えば、第2の車両の前方に、物標の発見を阻害する物体が存在する場合でも、第2の車両は、物標の存在を知ることができる。
 また、本開示の一局面である通知装置は、撮像期間においてカメラが撮像した画像を取得する。そのため、本開示の一局面である通知装置は、取得する画像のデータ量を低減できる。その結果、本開示の一局面である通知装置は、画像において物標を認識する処理等の処理負担を軽減できる。
 撮像期間は、第1の車両が第1のレーンから第2のレーンへレーンチェンジし始めた第1時点から、第1の車両が第2のレーンから第1のレーンへレーンチェンジし終えた第2時点までの期間の少なくとも一部である。第1の車両は、物標を避けるために、上記のレーンチェンジを行った可能性が高い。そのため、撮像期間においてカメラが撮像した画像は、物標を表示している可能性が高い。本開示の一局面である通知装置は、撮像期間においてカメラが撮像した画像から物標を認識するので、物標を認識できる可能性が高い。
 本開示の別の局面は、カメラ(31)を備えた搭載車両(9)に搭載された車載機(3)であって、前記搭載車両のレーンチェンジを検出するように構成されたレーンチェンジ検出ユニットと、前記搭載車両が第1のレーン(83)から第2のレーン(85)へレーンチェンジし始めた第1時点(ta)から、前記第2のレーンから前記第1のレーンへレーンチェンジし終えた第2時点(tb)までの期間の少なくとも一部の撮像期間において前記カメラ(31)が撮像した画像をサーバに送信するように構成された送信ユニットと、を備える車載機である。
 本開示の別の局面である車載機が送信する画像を用いて、例えば、サーバが物標の存在を認識し、物標の存在を表す情報を作成することができる。他の車両は、例えば、物標の存在を表す情報をサーバ経由で受け取ることができる。
 本開示の別の局面は、搭載車両(65)に搭載された車載機(7)であって、他の車両(9)が第1のレーン(83)から第2のレーン(85)へレーンチェンジし始めた第1時点(ta)から、前記他の車両が前記第2のレーンから前記第1のレーンへレーンチェンジし終えた第2時点(tb)までの期間の少なくとも一部の撮像期間において前記他の車両が備えるカメラ(31)が撮像した画像に基づいてサーバ(5)が認識した物標の存在を表す情報を、前記サーバ経由で受け取るように構成された情報受信ユニット(71)と、当該物標の存在を表す情報に基づいて前記搭載車両を制御するように構成された制御ユニット(76)と、を備える車載機である。
 本開示の別の局面である車載機は、物標の存在を表す情報をサーバ経由で受け取り、その情報に基づいて搭載車両を制御することができる。
通知システムの構成を表すブロック図である。 車載機の機能的構成を表すブロック図である。 サーバの機能的構成を表すブロック図である。 車載機の機能的構成を表すブロック図である。 車載機が実行する処理を表すフローチャートである。 図6Aは偏差Dを表す説明図であり、図6Bはオフセット角θを表す説明図である。 第1位置、位置Px、位置Py、第2位置、走行不可エリア等を表す説明図である。 サーバが実行する処理を表すフローチャートである。 車載機が実行する処理を表すフローチャートである。 通知システムの構成を表すブロック図である。
 本開示の例示的な実施形態について、図面を参照しながら説明する。
<第1実施形態>
 1.通知システム1の構成
 通知システム1の構成を図1~図4に基づき説明する。図1に示すように、通知システム1は、車載機3と、サーバ5と、車載機7とを備える。サーバ5は通知装置に対応する。
 車載機3は第1の車両9に搭載される。車載機3にとって第1の車両9は搭載車両に対応する。車載機3は、CPU11と、例えば、RAM又はROM等の半導体メモリ(以下、メモリ13とする)と、を有するマイクロコンピュータを備える。車載機3の各機能は、CPU11が非遷移的実体的記録媒体に格納されたプログラムを実行することにより実現される。この例では、メモリ13が、プログラムを格納した非遷移的実体的記録媒体に該当する。また、このプログラムが実行されることで、プログラムに対応する方法が実行される。なお、車載機3は、1つのマイクロコンピュータを備えてもよいし、複数のマイクロコンピュータを備えてもよい。
 車載機3は、図2に示すように、レーンチェンジ検出ユニット15と、撮影ユニット16と、期間設定ユニット17と、偏差取得ユニット19と、レーンキープ確率算出ユニット21と、オフセット角算出ユニット23と、情報取得ユニット25と、送信ユニット29と、駐車状態検出ユニット30とを備える。
 車載機3に含まれる各部の機能を実現する手法はソフトウェアに限るものではなく、その一部又は全部の機能は、一つあるいは複数のハードウェアを用いて実現されてもよい。例えば、上記機能がハードウェアである電子回路によって実現される場合、その電子回路は、デジタル回路、又はアナログ回路、あるいはこれらの組合せによって実現されてもよい。
 図1に示すように、第1の車両9は、車載機3に加えて、カメラ31、ジャイロセンサ33、GPS35、記憶装置37、速度センサ38、無線機39、及びウインカーセンサ40を備える。カメラ31は第1の車両9の周囲を撮影し、画像を生成する。カメラ31は、動画を生成することができる。動画を構成する各フレームは画像に対応する。
 ジャイロセンサ33は、第1の車両9のヨー方向の角速度を検出する。GPS35は、第1の車両9の位置情報を取得する。GPS35が取得する位置情報は、緯度及び経度で表される位置情報である。すなわち、GPS35が取得する位置情報は、絶対座標における位置(以下では絶対位置とする)を表す情報である。
 記憶装置37は地図情報を記憶している。地図情報は、各位置における道路種別、道路の走行方向等の情報を含んでいる。道路種別として、例えば、交差点、直線道路、T字路、一般道、自動車専用道路等が挙げられる。速度センサ38は、第1の車両9の速度を検出する。無線機39は、後述する無線機63との間で無線通信を行うことができる。ウインカーセンサ40は、第1の車両9におけるウインカーの状態を検出する。ウインカーの状態として、右ウインカーオン、左ウインカーオン、両ウインカーオフがある。
 サーバ5は所定の場所に固定設置されている。サーバ5は、CPU41と、例えば、RAM又はROM等の半導体メモリ(以下、メモリ43とする)と、を有するマイクロコンピュータを備える。サーバ5の各機能は、CPU41が非遷移的実体的記録媒体に格納されたプログラムを実行することにより実現される。この例では、メモリ43が、プログラムを格納した非遷移的実体的記録媒体に該当する。また、このプログラムが実行されることで、プログラムに対応する方法が実行される。なお、サーバ5は、1つのマイクロコンピュータを備えてもよいし、複数のマイクロコンピュータを備えてもよい。
 サーバ5は、図3に示すように、情報取得ユニット45、物標認識ユニット47、相対位置推測ユニット49、車両情報取得ユニット51、物標位置推測ユニット53、車両位置取得ユニット55、走行不可エリア設定ユニット57、物標判断ユニット59、及び通知ユニット61を備える。情報取得ユニット45は画像取得ユニットに対応する。
 サーバ5に含まれる各部の機能を実現する手法はソフトウェアに限るものではなく、その一部又は全部の機能は、一つあるいは複数のハードウェアを用いて実現されてもよい。例えば、上記機能がハードウェアである電子回路によって実現される場合、その電子回路は、デジタル回路、又はアナログ回路、あるいはこれらの組合せによって実現されてもよい。
 図1に示すように、サーバ5は無線機63と接続している。無線機63は、無線機39及び後述する無線機81との間で無線通信を行うことができる。
 車載機7は第2の車両65に搭載される。車載機7にとって第2の車両65は搭載車両に対応する。車載機7にとって第1の車両9は他の車両に対応する。車載機7は、CPU67と、例えば、RAM又はROM等の半導体メモリ(以下、メモリ69とする)と、を有するマイクロコンピュータを備える。車載機7の各機能は、CPU67が非遷移的実体的記録媒体に格納されたプログラムを実行することにより実現される。この例では、メモリ69が、プログラムを格納した非遷移的実体的記録媒体に該当する。また、このプログラムが実行されることで、プログラムに対応する方法が実行される。なお、車載機7は、1つのマイクロコンピュータを備えてもよいし、複数のマイクロコンピュータを備えてもよい。
 車載機7は、図4に示すように、情報受信ユニット71と、表示ユニット73と、位置関係判断ユニット75と、制御ユニット76と、を備える。車載機7に含まれる各部の機能を実現する手法はソフトウェアに限るものではなく、その一部又は全部の機能は、一つあるいは複数のハードウェアを用いて実現されてもよい。例えば、上記機能がハードウェアである電子回路によって実現される場合、その電子回路は、デジタル回路、又はアナログ回路、あるいはこれらの組合せによって実現されてもよい。
 図1に示すように、第2の車両65は、車載機7に加えて、ディスプレイ77、スピーカ79、GPS80、及び無線機81を備える。ディスプレイ77及びスピーカ79は、第2の車両65の車室内に設けられている。ディスプレイ77は画像を表示可能である。スピーカ79は音声を出力可能である。GPS80は、第2の車両65の絶対位置を表す位置情報を取得する。無線機81は、無線機63との間で無線通信を行うことができる。
 2.車載機3が実行する処理
 車載機3が実行する処理を図5~図7に基づき説明する。図5のステップ1では、レーンチェンジ検出ユニット15が、右LCフラグ、LKフラグ、及び左LCフラグをそれぞれオフにする。これらのフラグについては後述する。
 ステップ2では、情報取得ユニット25が各種の情報を取得する。取得する情報として、第1の車両9の絶対位置、第1の車両9の速度、第1の車両9の方位角、第1の車両9の位置における道路種別、第1の車両9におけるウインカーの状態等が挙げられる。方位角とは、車両の後方から前方に向かう方向である。
 情報取得ユニット25は、GPS35を用いて第1の車両9の絶対位置を取得する。情報取得ユニット25は、速度センサ38を用いて第1の車両9の速度を取得する。情報取得ユニット25は、ジャイロセンサ33を用いて、第1の車両9におけるヨー方向の角速度を繰り返し測定しておき、その角速度を積分することで、第1の車両9の方位角を取得する。情報取得ユニット25は、記憶装置37に記憶された地図情報から、第1の車両9の位置のおける道路種別を読み出す。情報取得ユニット25は、ウインカーセンサ40を用いて、第1の車両9におけるウインカーの状態を取得する。
 ステップ3では、右LCフラグがオフであるか否かをレーンチェンジ検出ユニット15が判断する。右LCフラグがオフである場合、本処理はステップ4に進み、右LCフラグがオンである場合、本処理はステップ8に進む。
 ステップ4では、右レーンチェンジが開始されたか否かをレーンチェンジ検出ユニット15が判断する。右レーンチェンジとは、図7に示す第1のレーン83から第2のレーン85へのレーンチェンジである。
 レーンチェンジ検出ユニット15は、以下の条件J1~J4の全てが成立する場合は、右レーンチェンジが開始されたと判断する。一方、レーンチェンジ検出ユニット15は、J1~J4のうちの一つでも成立しない場合は、右レーンチェンジは開始されていないと判断する。
 (J1)レーンキープ確率が予め設定された閾値TK1以下であること。
 (J2)オフセット角θが予め設定された閾値Tθ以上であること。
 (J3)直前の前記ステップ2で取得した道路種別が交差点ではないこと。
 (J4)直前の前記ステップ2で取得したウインカーの状態が、右ウインカーオンであること。
 レーンキープ確率は、第1の車両9が現在のレーンを維持する確率である。レーンキープ確率とは、以下のように算出される。偏差取得ユニット19は、図6Aに示すように、第1の車両9が存在するレーンの中央の位置87と、第1の車両9の中央9Aの位置との横方向における偏差Dを取得する。横方向とは、道路の走行方向に直交する方向である。次に、レーンキープ確率算出ユニット21は、メモリ13に予め記憶された関数に偏差Dを入力し、レーンキープ確率を得る。関数は、偏差Dが小さいほど、レーンキープ確率を高く算出するものである。
 オフセット角θは、図6Bに示すように、第1の車両9の方位角Xと、第1の車両9が存在するレーンの走行方向Yとが成す角度である。オフセット角算出ユニット23は、前記ステップ2で取得した第1の車両9の方位角Xと、地図情報から読み出した走行方向Yとを用いてオフセット角θを算出する。
 右レーンチェンジが開始された場合、本処理はステップ5に進み、未だ右レーンチェンジが開始されていない場合、本処理はステップ2に戻る。
 ステップ5では、レーンチェンジ検出ユニット15が、現時点での第1の車両9の絶対位置を第1位置Paとし、第1位置Paを記憶する。図7に示すように、第1位置Paは、第1のレーン83から第2のレーン85へレーンチェンジし始めた第1時点taにおける第1の車両9の絶対位置である。
 ステップ6では、レーンチェンジ検出ユニット15が、右LCフラグをオンにする。
 ステップ7では、期間設定ユニット17が、第1時点taから始まる撮像期間を設定する。撮像期間は、後述する時点tyまで継続する。撮像期間において、撮影ユニット16が、カメラ31を用いて動画を撮影する。よって、動画の撮影は、第1時点taに開始される。ステップ7の後、本処理はステップ2に戻る。
 ステップ8では、LKフラグがオフであるか否かをレーンチェンジ検出ユニット15が判断する。LKフラグがオフである場合、本処理はステップ9に進み、LKフラグがオンである場合、本処理はステップ12に進む。
 ステップ9では、レーンキープが開始されたか否かをレーンチェンジ検出ユニット15が判断する。ステップ9におけるレーンキープとは、図7に示す第2のレーン85をキープすることである。レーンチェンジ検出ユニット15は、レーンキープ確率が予め設定された閾値TK2以上であれば、レーンキープが開始されたと判断する。レーンキープ確率が閾値TK2以上である場合、本処理はステップ10に進む。閾値TK2は、閾値TK1より大きい。
 一方、レーンチェンジ検出ユニット15は、レーンキープ確率が閾値TK2未満であれば、レーンキープは開始されておらず、右レーンチェンジが継続していると判断する。レーンキープ確率が閾値TK2未満である場合、本処理はステップ2に戻る。
 ステップ10では、レーンチェンジ検出ユニット15が、現時点での第1の車両9の絶対位置を位置Pxとし、位置Pxを記憶する。図7に示すように、位置Pxは、第1のレーン83から第2のレーン85へのレーンチェンジが完了し、第2のレーン85をキープし始めた時点txにおける第1の車両9の絶対位置である。
 ステップ11では、レーンチェンジ検出ユニット15が、LKフラグをオンにする。ステップ11の後、本処理はステップ2に戻る。
 ステップ12では、左LCフラグがオフであるか否かをレーンチェンジ検出ユニット15が判断する。左LCフラグがオフである場合、本処理はステップ13に進み、左LCフラグがオンである場合、本処理はステップ18に進む。
 ステップ13では、左レーンチェンジが開始されたか否かをレーンチェンジ検出ユニット15が判断する。左レーンチェンジとは、図7に示す第2のレーン85から第1のレーン83へのレーンチェンジである。
 レーンチェンジ検出ユニット15は、以下の条件J1~J3、J5の全てが成立する場合は、左レーンチェンジが開始されたと判断する。一方、レーンチェンジ検出ユニット15は、J1~J3、J5のうちの一つでも成立しない場合は、左レーンチェンジは開始されていないと判断する。
 (J1)レーンキープ確率が予め設定された閾値TK1以下であること。
 (J2)オフセット角θが予め設定された閾値Tθ以上であること。
 (J3)直前の前記ステップ2で取得した道路種別が交差点ではないこと。
 (J5)直前の前記ステップ2で取得したウインカーの状態が、左ウインカーオンであること。
 左レーンチェンジが開始された場合、本処理はステップ14に進み、未だ左レーンチェンジが開始されていない場合、本処理はステップ2に戻る。
 ステップ14では、レーンチェンジ検出ユニット15が、現時点での第1の車両9の絶対位置を位置Pyとし、位置Pyを記憶する。図7に示すように、位置Pyは、第2のレーン85から第1のレーン83へレーンチェンジし始めた時点tyにおける第1の車両9の絶対位置である。
 ステップ15では、送信ユニット29が、無線機39を用いて、第1情報を送信する。第1情報は、第1位置Paを含む情報である。後述するように、サーバ5は第1情報を受信する。
 ステップ16では、レーンチェンジ検出ユニット15が、左LCフラグをオンにする。
 ステップ17では、期間設定ユニット17が、時点tyにおいて撮像期間を終了させる。撮影ユニット16は、時点tyにおいて動画の撮影を終了する。なお、撮像期間は、第1時点taから、後述する第2時点tbまでの期間の一部である。ステップ17の後、ステップ2に戻る。
 ステップ18では、レーンキープが開始されたか否かをレーンチェンジ検出ユニット15が判断する。本ステップ18におけるレーンキープとは、図7に示す第1のレーン83をキープすることである。レーンチェンジ検出ユニット15は、レーンキープ確率が予め設定された閾値TK2以上であれば、レーンキープが開始されたと判断する。レーンキープ確率が閾値TK2以上である場合、本処理はステップ19に進む。
 一方、レーンチェンジ検出ユニット15は、レーンキープ確率が閾値TK2未満であれば、レーンキープは開始されておらず、左レーンチェンジが継続していると判断する。レーンキープ確率が閾値TK2未満である場合、本処理はステップ2に戻る。
 ステップ19では、レーンチェンジ検出ユニット15が、現時点での第1の車両9の絶対位置を第2位置Pbとし、第2位置Pbを記憶する。図7に示すように、第2位置Pbは、第2のレーン85をキープし始めた第2時点tbにおける第1の車両9の絶対位置である。
 ステップ20では、送信ユニット29が、無線機39を用いて、第2情報を送信する。第2情報は、第1位置Pa、位置Px、位置Py、第2位置Pbを含む。後述するように、サーバ5は第2情報を受信する。
 ステップ21では、送信ユニット29が、無線機39を用いて、第3情報を送信する。第3情報は、撮像期間において撮影された動画を含む。さらに、第3情報は、動画を構成する各フレームを撮像したときの第1の車両9の絶対位置及び方位角を含む。第3情報において、フレームと、そのフレームを撮像したときの第1の車両9の絶対位置及び方位角とは関連付けられている。後述するように、サーバ5は第3情報を受信する。ステップ21の後、本処理を終了する。
 また、駐車状態検出ユニット30は、GPS35、速度センサ38、ウインカーセンサ40、ジャイロセンサ33及び図示しないパーキングプレーキからの信号に基づいて、第1の車両9が路上で駐車車両として停車したことを検出する。送信ユニット29は、第1の車両9が路上の駐車車両となったことを、第1の車両9の位置とともに、無線機39によってサーバ5に送信する。なお、第1の車両9が路上で駐車車両として停車したことと、第1の車両9の位置とを表す情報を以下では駐車車両情報とする。ステップ21の後、本処理を終了する。
 3.サーバ5が実行する処理
 サーバ5が実行する処理を、図7、及び図8に基づき説明する。図8のステップ31では、情報取得ユニット45が、無線機63を用いて第1~第3情報及び駐車車両情報を受信する。第1~第3情報及び駐車車両情報は、車載機3が送信した情報である。
 ステップ32では、物標認識ユニット47が、フレームにおいて周知の画像認識技術により物標を認識する。フレームは、第3情報に含まれる動画を構成するフレームである。物標として、例えば、図7に示す駐車車両89等が挙げられる。物標認識ユニット47は、それぞれのフレームについて物標を認識する。
 ステップ33では、相対位置推測ユニット49が、前記ステップ32において認識した物標の、第1の車両9の位置を基準とする相対位置を推測する。相対位置推測ユニット49は、フレームにおける物標の位置や大きさ等に基づき、物標の相対位置を推測することができる。相対位置推測ユニット49は、それぞれのフレームについて、物標の相対位置を推測する。
 ステップ34では、車両情報取得ユニット51が、前記ステップ31で受信した第3情報から、フレームが撮像されたときの第1の車両9の絶対位置及び方位角を取得する。車両情報取得ユニット51は、それぞれのフレームについて、第1の車両9の絶対位置及び方位角を取得する。
 ステップ35では、物標位置推測ユニット53が、前記ステップ34で取得した第1の車両9の絶対位置及び方位角と、前記ステップ33で推測した物標の相対位置とに基づき、物標の絶対位置を推測する。物標位置推測ユニット53は、それぞれのフレームについて、物標の絶対位置を推測する。
 ステップ36では、走行不可エリア設定ユニット57が、前記ステップ31で受信した第2情報に含まれる第1位置Pa及び第2位置Pb、並びに駐車車両情報に基づき走行不可エリアを設定する。図7に示すように、走行不可エリア91は、道路の走行方向においては、第1位置Paから第2位置Pbまでの範囲である。走行不可エリア91は、横方向においては、駐車車両89等の物標が存在する第1のレーン83の全体である。
 ステップ37では、物標判断ユニット59が、前記ステップ35で推測した物標の絶対位置が、前記ステップ36で設定した走行不可エリア内にあるか否かを判断する。物標の絶対位置がフレームごとにばらついている場合は、全フレームにおける物標の絶対位置の平均値を算出し、その平均値が走行不可エリア内にあるか否かを判断する。
 物標の絶対位置が走行不可エリア内にある場合、本処理はステップ38に進み、物標の絶対位置が走行不可エリア内にない場合、本処理はステップ39に進む。
 ステップ38では、通知ユニット61が、無線機63を用いて存在通知を送信する。存在通知は、走行不可エリア内に物標が存在することを表す情報、第1位置Pa、位置Px、位置Py、第2位置Pb、走行不可エリアの位置等を含む情報である。後述するように、車載機7は存在通知を受信する。
 ステップ39では、通知ユニット61が、無線機63を用いて不存在通知を送信する。不存在通知は、走行不可エリア内に物標が存在しないことを表す情報、第1位置Pa、位置Px、位置Py、第2位置Pbを含む情報である。後述するように、車載機7は不存在通知を受信する。
 ステップ40では、通知ユニット61が、無線機63を用いて第1情報を送信する。後述するように、車載機7は第1情報を受信する。
 4.車載機7が実行する処理
 車載機7が実行する処理を図7、図9に基づき説明する。図9のステップ51では、無線機81が定期情報を受信したか否かを情報受信ユニット71が判断する。定期情報とは、サーバ5が定期的に送信する情報である。定期情報を受信した場合、本処理はステップ52に進み、定期情報を受信しなかった場合、本処理はステップ53に進む。
 ステップ52では、表示ユニット73が、定期情報の内容をディスプレイ77に表示する。
 ステップ53では、無線機81が第1情報を受信したか否かを情報受信ユニット71が判断する。第1情報は、サーバ5が送信した情報である。第1情報を受信した場合、本処理はステップ54に進み、第1情報を受信しなかった場合、本処理はステップ55に進む。
 ステップ54では、表示ユニット73が、第1情報の内容をディスプレイ77に表示する。
 ステップ55では、無線機81が存在通知を受信したか否かを情報受信ユニット71が判断する。存在通知は、サーバ5が送信した情報である。存在通知を受信した場合、本処理はステップ56に進み、存在通知を受信しなかった場合、本処理はステップ58に進む。
 ステップ56では、位置関係判断ユニット75が、GPS80を用いて第2の車両65の絶対位置を表す位置情報を取得する。また、位置関係判断ユニット75は、存在通知に含まれる走行不可エリア91の位置情報を読み出す。そして、第2の車両65の絶対位置が、図7に示すように、走行不可エリア91よりも後方にあり、且つ、第1位置Paと第2の車両65との距離Lが所定の閾値以下であるか否かを位置関係判断ユニット75が判断する。第2の車両65の絶対位置が走行不可エリア91よりも後方にあり、且つ、距離Lが閾値以下である場合、本処理はステップ57に進む。それ以外の場合、本処理はステップ58に進む。
 ステップ57では、表示ユニット73が、存在通知に基づく表示内容をディスプレイ77に表示する。表示内容として、前方に物標が存在すること、第2の車両65から第1位置Paまでの距離等が挙げられる。
 ステップ58では、無線機81が不存在通知を受信したか否かを情報受信ユニット71が判断する。不存在通知は、サーバ5が送信した情報である。不存在通知を受信した場合、本処理はステップ59に進み、不存在通知を受信しなかった場合は本処理を終了する。
 ステップ59では、表示ユニット73が、不存在通知に基づく表示内容をディスプレイ77に表示する。表示内容として、走行不可エリア内に物標は存在しないこと等が挙げられる。なお、存在通知を受信した場合、制御ユニット76は、存在通知に基づき、第2の車両65を制御してもよい。制御として、例えば、減速、停止、操舵等が挙げられる。
 5.車載機3及びサーバ5が奏する効果
 (1A)第1の車両9はカメラ31を備える。サーバ5は、カメラ31が撮像した動画において物標を認識する。サーバ5は、認識した物標の存在を、第1の車両9よりも後方に位置する第2の車両65に通知する。そのため、例えば、第2の車両65の前方に、物標の発見を阻害する物体が存在する場合でも、第2の車両65は、物標の存在を知ることができる。
 また、サーバ5は、撮像期間においてカメラ31が撮像した動画を取得する。そのため、取得する動画のデータ量を低減できる。その結果、動画において物標を認識する処理等の処理負担を軽減できる。
 撮像期間は、第1の車両9が第1のレーン83から第2のレーン85へレーンチェンジし始めた第1時点taから、第1の車両9が第2のレーン85から第1のレーン83へレーンチェンジし終えた第2時点tbまでの期間の一部である。第1の車両9は、物標を避けるために、上記のレーンチェンジを行った可能性が高い。そのため、撮像期間においてカメラ31が撮像した動画は、物標を表示している可能性が高い。サーバ5は、撮像期間においてカメラ31が撮像した動画から物標を認識するので、物標を認識できる可能性が高い。
 (1B)サーバ5は、動画が撮像されたときの第1の車両9の絶対位置及び方位角を取得する。また、サーバ5は、動画に基づき、第1の車両9の絶対位置を基準とする物標の相対位置を推測する。また、サーバ5は、第1の車両9の絶対位置及び方位角と、物標の相対位置とに基づき、物標の絶対位置を推測する。
 サーバ5は、レーンチェンジ検出ユニット15の検出結果に基づき、第1位置Pa及び第2位置Pbを取得する。そして、サーバ5は、第1位置Pa及び第2位置Pbに基づき走行不可エリアを設定する。サーバ5は、物標の絶対位置が走行不可エリア内にあるか否かを判断する。サーバ5は、物標の絶対位置が走行不可エリア内にあることを必要条件として、物標の存在を第2の車両65に通知する。
 そのため、走行不可エリアの外に物標を認識しても、物標の存在を第2の車両65に通知しない。その結果、必要性が低い通知を第2の車両65に送信することを抑制できる。
 (1C)車載機3は、第1の車両9のレーンチェンジを検出することで、第1時点taを決定し、第1時点taから始まる撮像期間を設定する。そのため、撮像期間を容易且つ正確に設定できる。
 (1D)車載機3は、レーンキープ確率と、オフセット角θとを算出し、それらに基づいて、第1の車両9がレーンチェンジし始めたことを検出する。そのため、第1の車両9のレーンチェンジを容易且つ正確に検出できる。
 (1E)車載機3は、レーンキープ確率及びオフセット角θに加えて、道路種別及びウインカーの状態に基づき、第1の車両9がレーンチェンジし始めたことを検出する。そのため、第1の車両9のレーンチェンジを容易且つ正確に検出できる。特に、道路種別を用いることにより、交差点での右左折を、レーンチェンジであると誤認識することを抑制できる。
 (1F)車載機3は、駐車状態検出ユニット30により、第1の車両9が路上で駐車車両として停車したことを検出する。車載機3は、第1の車両9が路上で駐車車両として停車したことと、第1の車両9の位置とを表す駐車車両情報を作成し、サーバ5に送信する。サーバ5は、車載機3から受信したカメラ画像に基づいて認識した駐車車両に加え、駐車車両となった第1の車両9の情報も第2の車両65に通知することができる。
<第2実施形態>
 1.第1実施形態との相違点
 第2実施形態は、基本的な構成は第1実施形態と同様であるため、相違点について以下に説明する。なお、第1実施形態と同じ符号は、同一の構成を示すものであって、先行する説明を参照する。
 前述した第1実施形態では、通知システム1は第1の車両9に搭載された車載機3と、固定設置されたサーバ5と、第2の車両65に搭載された車載機7とを備えていた。これに対し、第2実施形態の通知システム101は、図10に示すように、第1の車両9に搭載された車載機103と、第2の車両65に搭載された車載機7とを備える。車載機103は、第1実施形態における車載機3及びサーバ5の機能を有する。車載機103は通知装置に対応する。
 2.車載機103が実行する処理
 車載機103は、第1実施形態における車載機3と同様にして、第1~第3情報を作成する。さらに、車載機103は、第1実施形態におけるサーバ5と同様にして、存在通知、不存在通知、及び第1情報を作成し、それらの情報を、車車間通信により、車載機7に送信する。
 3.車載機103が奏する効果
 以上詳述した第2実施形態によれば、前述した第1実施形態の効果(1A)~(1F)を奏する。
<他の実施形態>
 以上、本開示の実施形態について説明したが、本開示は上述の実施形態に限定されることなく、種々変形して実施することができる。
 (1)撮像期間の開始時点は、第1時点ta以外の時点であってもよい。例えば、第1時点taから時点txまでの期間におけるいずれかの時点を、撮像期間の開始時点とすることができる。また、撮像期間の終了時点は、時点ty以外の時点であってもよい。例えば、時点txから第2時点tbまでの期間におけるいずれかの時点を、撮像期間の終了時点とすることができる。
 (2)カメラ31は、動画ではなく、撮像期間内の複数の時点で静止画を作成してもよい。
 (3)サーバ5、又は車載機103は、物標の絶対位置が走行不可エリア内にあるか否かによらず、存在通知を車載機7に送信してもよい。
 (4)第1位置Pa、位置Px、位置Py、第2位置Pbを取得する方法は他の方法であってもよい。例えば、第1の車両9の走行軌跡から、第1位置Pa、位置Px、位置Py、第2位置Pbを取得してもよい。
 (5)上記実施形態における1つの構成要素が有する複数の機能を、複数の構成要素によって実現したり、1つの構成要素が有する1つの機能を、複数の構成要素によって実現したりしてもよい。また、複数の構成要素が有する複数の機能を、1つの構成要素によって実現したり、複数の構成要素によって実現される1つの機能を、1つの構成要素によって実現したりしてもよい。また、上記実施形態の構成の一部を省略してもよい。また、上記実施形態の構成の少なくとも一部を、他の上記実施形態の構成に対して付加又は置換してもよい。
 (6)上述した通知装置の他、当該通知装置を構成要素とするシステム、当該通知装置としてコンピュータを機能させるためのプログラム、このプログラムを記録した半導体メモリ等の非遷移的実態的記録媒体、通知方法、運転支援方法等、種々の形態で本開示を実現することもできる。

Claims (8)

  1.  第1の車両(9)が第1のレーン(83)から第2のレーン(85)へレーンチェンジし始めた第1時点(ta)から、前記第1の車両が前記第2のレーンから前記第1のレーンへレーンチェンジし終えた第2時点(tb)までの期間の少なくとも一部の撮像期間において前記第1の車両が備えるカメラ(31)が撮像した画像を取得するように構成された画像取得ユニット(45)と、
     前記画像取得ユニットが取得した前記画像において物標を認識するように構成された物標認識ユニット(47)と、
     前記物標認識ユニットが認識した前記物標の存在を、前記第1の車両よりも後方に位置する第2の車両(65)に通知するように構成された通知ユニット(61)と、
     を備える通知装置(5、103)。
  2.  請求項1に記載の通知装置であって、
     前記画像が撮像されたときの前記第1の車両の位置及び前記第1の車両の方位角を取得するように構成された車両情報取得ユニット(51)と、
     前記第1の車両の位置を基準とする、前記物標認識ユニットが認識した前記物標の相対位置を推測するように構成された相対位置推測ユニット(49)と、
     前記車両情報取得ユニットが取得した前記第1の車両の位置及び前記第1の車両の方位角と、前記相対位置推測ユニットが推測した前記物標の相対位置とに基づき、絶対座標における前記物標の位置を推測するように構成された物標位置推測ユニット(53)と、
     前記第1時点における前記第1の車両の第1位置(Pa)、及び、前記第2時点における前記第1の車両の第2位置(Pb)を取得するように構成された車両位置取得ユニット(55)と、
     前記車両位置取得ユニットが取得した前記第1位置及び第2位置に基づき走行不可エリアを設定するように構成されたエリア設定ユニット(57)と、
     前記物標位置推測ユニットが推測した前記物標の位置が、前記走行不可エリア内にあるか否かを判断するように構成された物標判断ユニット(59)と、
     をさらに備え、
     前記通知ユニットは、前記物標位置推測ユニットが推測した前記物標の位置が前記走行不可エリア内にあると前記物標判断ユニットが判断したことを必要条件として、前記物標の存在を前記第2の車両に通知するように構成された通知装置。
  3.  請求項1又は2に記載の通知装置であって、
     前記第1の車両のレーンチェンジを検出するように構成されたレーンチェンジ検出ユニット(15)と、
     前記レーンチェンジ検出ユニットの検出結果に基づき、前記第1時点を決定し、前記第1時点から始まる前記撮像期間を設定するように構成された期間設定ユニット(17)と、
     をさらに備える通知装置(103)。
  4.  請求項3に記載の通知装置であって、
     前記第1の車両が存在するレーンの中央の位置と、前記第1の車両の位置との横方向における偏差を取得するように構成された偏差取得ユニット(19)と、
     前記第1の車両が現在のレーンを維持する確率であるレーンキープ確率を、前記偏差が小さいほど高く算出するように構成されたレーンキープ確率算出ユニット(21)と、
     前記第1の車両の方位角と、前記第1の車両が存在するレーンの走行方向とが成すオフセット角を算出するように構成されたオフセット角算出ユニット(23)と、
     をさらに備え、
     前記レーンチェンジ検出ユニットは、以下の(J1)及び(J2)が成立することを必要条件として、前記第1の車両がレーンチェンジし始めたことを検出するように構成された通知装置。
     (J1)前記レーンキープ確率が予め設定された閾値以下であること。
     (J2)前記オフセット角が予め設定された閾値以上であること。
  5.  請求項4に記載の通知装置であって、
     前記第1の車両の周囲の道路種別、及び、前記第1の車両におけるウインカーの状態を取得するように構成された情報取得ユニット(25)と、
     をさらに備え、
     前記レーンチェンジ検出ユニットは、前記(J1)及び(J2)に加えて、以下の(J3)及び(J4)が成立することを必要条件として、前記第1の車両がレーンチェンジし始めたことを検出するように構成された通知装置。
     (J3)前記情報取得ユニットが取得した道路種別が交差点ではないこと。
     (J4)前記情報取得ユニットが取得したウインカーの状態がオンであること。
  6.  カメラ(31)を備えた搭載車両(9)に搭載された車載機(3)であって、
     前記搭載車両のレーンチェンジを検出するように構成されたレーンチェンジ検出ユニットと、
     前記搭載車両が第1のレーン(83)から第2のレーン(85)へレーンチェンジし始めた第1時点(ta)から、前記第2のレーンから前記第1のレーンへレーンチェンジし終えた第2時点(tb)までの期間の少なくとも一部の撮像期間において前記カメラ(31)が撮像した画像をサーバに送信するように構成された送信ユニットと、
    を備える車載機。
  7.  請求項6に記載の車載機であって、
     前記搭載車両が路上で駐車車両として停車したことを検出するように構成された駐車状態検出ユニット(30)をさらに備え、
     前記送信ユニットは、前記搭載車両が路上で駐車車両として停車したことを、前記搭載車両の位置とともに、前記サーバに送信するように構成された車載機。
  8.  搭載車両(65)に搭載された車載機(7)であって、
     他の車両(9)が第1のレーン(83)から第2のレーン(85)へレーンチェンジし始めた第1時点(ta)から、前記他の車両が前記第2のレーンから前記第1のレーンへレーンチェンジし終えた第2時点(tb)までの期間の少なくとも一部の撮像期間において前記他の車両が備えるカメラ(31)が撮像した画像に基づいてサーバ(5)が認識した物標の存在を表す情報を、前記サーバ経由で受け取るように構成された情報受信ユニット(71)と、
     当該物標の存在を表す情報に基づいて前記搭載車両を制御するように構成された制御ユニット(76)と、を備える車載機。
PCT/JP2019/000543 2018-01-10 2019-01-10 通知装置及び車載機 WO2019139084A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US16/923,357 US20200342761A1 (en) 2018-01-10 2020-07-08 Notification apparatus and in-vehicle device

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018001915A JP7069726B2 (ja) 2018-01-10 2018-01-10 通知装置及び車載機
JP2018-001915 2018-01-10

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US16/923,357 Continuation US20200342761A1 (en) 2018-01-10 2020-07-08 Notification apparatus and in-vehicle device

Publications (1)

Publication Number Publication Date
WO2019139084A1 true WO2019139084A1 (ja) 2019-07-18

Family

ID=67219544

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2019/000543 WO2019139084A1 (ja) 2018-01-10 2019-01-10 通知装置及び車載機

Country Status (3)

Country Link
US (1) US20200342761A1 (ja)
JP (1) JP7069726B2 (ja)
WO (1) WO2019139084A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE112021003339T5 (de) * 2020-06-23 2023-04-27 Denso Corporation Parkhaltepunktverwaltungsvorrichtung, parkhaltepunktverwaltungsverfahren und fahrzeugvorrichtung

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09139709A (ja) * 1995-11-13 1997-05-27 Aqueous Res:Kk 車両用通信装置
JP2005242552A (ja) * 2004-02-25 2005-09-08 Denso Corp 車載受信装置、車載送信装置、およびサーバ
JP2006313519A (ja) * 2005-04-04 2006-11-16 Sumitomo Electric Ind Ltd 障害物検出センター装置、障害物検出システム及び障害物検出方法
JP2007156755A (ja) * 2005-12-02 2007-06-21 Aisin Aw Co Ltd 車車間通信システム

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6349640B2 (ja) 2013-07-31 2018-07-04 日産自動車株式会社 情報提供装置及び方法
JP2017142591A (ja) 2016-02-09 2017-08-17 トヨタ自動車株式会社 車両用支援システム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09139709A (ja) * 1995-11-13 1997-05-27 Aqueous Res:Kk 車両用通信装置
JP2005242552A (ja) * 2004-02-25 2005-09-08 Denso Corp 車載受信装置、車載送信装置、およびサーバ
JP2006313519A (ja) * 2005-04-04 2006-11-16 Sumitomo Electric Ind Ltd 障害物検出センター装置、障害物検出システム及び障害物検出方法
JP2007156755A (ja) * 2005-12-02 2007-06-21 Aisin Aw Co Ltd 車車間通信システム

Also Published As

Publication number Publication date
JP7069726B2 (ja) 2022-05-18
JP2019121274A (ja) 2019-07-22
US20200342761A1 (en) 2020-10-29

Similar Documents

Publication Publication Date Title
US9815461B2 (en) Vehicle collision avoidance supporting apparatus and vehicle collision avoidance supporting method
US9536156B2 (en) Arrangement and method for recognizing road signs
EP3293488A2 (en) System and method of simulataneously generating a multiple lane map and localizing a vehicle in the generated map
US9070293B2 (en) Device and method for traffic sign recognition
US20110216938A1 (en) Apparatus for detecting lane-marking on road
US11214258B2 (en) Driving assistance system and driving assistance device
US20190073540A1 (en) Vehicle control device, vehicle control method, and storage medium
CN110580437B (zh) 道路交通标志识别装置
JP6500724B2 (ja) 危険情報報知システム、サーバ及びコンピュータプログラム
JP2008204281A (ja) 物体検出装置、および車車間通信システム
US20170243483A1 (en) Systems and methods for traffic sign validation
JP2008041058A (ja) 死角移動体を報知するための報知システム、画像処理装置、車載装置及び報知方法
KR20200066176A (ko) 서버 장치 및 차량
CN110580438A (zh) 驾驶辅助装置
US20220108602A1 (en) Vehicular communication system with turn signal identification
JP4225190B2 (ja) 車両運転支援装置
US11650321B2 (en) Apparatus and method for detecting tilt of LiDAR apparatus mounted to vehicle
US11361687B2 (en) Advertisement display device, vehicle, and advertisement display method
JP2013080286A (ja) 移動体識別装置及び移動体情報発信装置
JP2010072836A (ja) 周辺監視装置
WO2019139084A1 (ja) 通知装置及び車載機
JP2006344133A (ja) 道路区画線検出装置
JP2018045732A (ja) 移動体識別装置
US20220101025A1 (en) Temporary stop detection device, temporary stop detection system, and recording medium
US11066078B2 (en) Vehicle position attitude calculation apparatus and vehicle position attitude calculation program

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19737976

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 19737976

Country of ref document: EP

Kind code of ref document: A1