WO2015098510A1 - 車両制御装置、車両制御装置を搭載した車両、及び、移動体検出方法 - Google Patents

車両制御装置、車両制御装置を搭載した車両、及び、移動体検出方法 Download PDF

Info

Publication number
WO2015098510A1
WO2015098510A1 PCT/JP2014/082612 JP2014082612W WO2015098510A1 WO 2015098510 A1 WO2015098510 A1 WO 2015098510A1 JP 2014082612 W JP2014082612 W JP 2014082612W WO 2015098510 A1 WO2015098510 A1 WO 2015098510A1
Authority
WO
WIPO (PCT)
Prior art keywords
vehicle
position information
moving body
mobile terminal
mobile
Prior art date
Application number
PCT/JP2014/082612
Other languages
English (en)
French (fr)
Inventor
建志 伊藤
勇樹 堀田
辰昭 長船
Original Assignee
日立オートモティブシステムズ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日立オートモティブシステムズ株式会社 filed Critical 日立オートモティブシステムズ株式会社
Publication of WO2015098510A1 publication Critical patent/WO2015098510A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/166Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/161Decentralised systems, e.g. inter-vehicle communication
    • G08G1/163Decentralised systems, e.g. inter-vehicle communication involving continuous checking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands

Definitions

  • the present invention recognizes a mobile object carrying a mobile terminal around its own vehicle by wireless communication, and determines that the mobile object has a high risk of colliding with the own vehicle.
  • the present invention relates to a safe driving support system that improves the speed and accuracy of detecting a moving body when the moving body enters.
  • ⁇ ⁇ Pedestrians account for about 30% of all fatalities in Japan, and bicycles account for about 15%.
  • a safe driving support system using an environment recognition sensor such as a radar or a camera is effective.
  • the safe driving support system can notify the driver of the vehicle and automatically control the brake of the vehicle when a moving object such as a pedestrian or bicycle is detected in the captured image of the camera device mounted on the vehicle. This prevents the vehicle from colliding with the moving body. For this reason, in the safety support system, the speed and accuracy of detecting a particularly dangerous moving body in the captured image of the camera device are particularly important.
  • a dangerous moving body refers to a pedestrian, a bicycle, or the like that has a high possibility of colliding with the own vehicle.
  • Japanese Patent Laid-Open No. 2010-250501 proposes a system for detecting a pedestrian using a radar device and a camera device. According to this method, the degree of risk that the detected object collides with the host vehicle is calculated based on the predicted course of the host vehicle and information on a plurality of objects detected by the radar. Further, an object having a minimum relative distance with respect to the own vehicle or a predicted collision time is selected from objects having a risk level equal to or higher than a threshold, and whether the object is a pedestrian or not is determined using image information. By performing the determination, safety is ensured while reducing the processing load of the pedestrian determination means.
  • a moving body is detected using a radar device and a camera device.
  • obstacles such as a vehicle, a wall, and a building are viewed from the own vehicle. It is difficult to detect dangerous pedestrians and bicycles that exist on the other side and in many pedestrians and bicycles.
  • the present invention has been made in view of the above points.
  • the purpose is that even if a dangerous moving object is present in a location that cannot be seen from the own vehicle around the own vehicle or a dangerous moving object is present among many moving objects, it is dangerous.
  • the safe driving system can quickly detect the moving body. That is, an object of the present invention is to improve the speed and accuracy of detection of a moving object that may collide with the own vehicle in the safe driving support system mounted on the own vehicle.
  • the vehicle control device includes a communication unit that acquires first position information that is position information of a vehicle and second position information that is position information of a mobile terminal, and first position information and second position information. Based on the stored storage unit, the first position information, and the second position information, a collision risk that is a risk of a collision between the vehicle and the mobile object that holds the mobile terminal is determined, and the determination
  • a processing unit configured to set a moving body detection area in which a moving body detection process is performed in a captured image captured by a camera device mounted on a vehicle based on the result, and to detect an image of the moving body in the moving body detection area; Have.
  • a vehicle on which a vehicle control device and a camera device are mounted has a position information acquisition unit that acquires first position information that is position information of the vehicle, and a communication unit that receives second position information that is position information of the mobile terminal via a communication network.
  • the vehicle control device moves the vehicle and the mobile terminal based on the storage unit storing the first position information and the second position information, and the first position information and the second position information.
  • a collision risk that is a risk of collision with the body is determined, and based on the result of the determination, a moving body detection area in which a moving body detection process is performed in a captured image captured by the camera device is set.
  • a processing unit for detecting an image of the moving body in the detection area is provided.
  • a moving body detection method for detecting a moving body from a captured image captured by a camera device mounted on a vehicle.
  • the moving body detection method acquires first position information that is position information of a vehicle and second position information that is position information of a mobile terminal, and is based on the first position information and the second position information.
  • a mobile object that determines a collision risk that is a risk of a collision between the vehicle and the mobile object that possesses the mobile terminal, and that performs detection processing of the mobile object in an image captured by the camera device based on the determination result.
  • a detection area is set, and an image of the moving body in the moving body detection area is detected.
  • Example of system configuration of the present invention Example of location information database configuration
  • Example of detailed map information Processing flow showing an example of processing of the location information management unit
  • Processing flow showing an example of processing of the vehicle direction specifying unit
  • Processing flow showing an example of processing of the dangerous moving body extraction unit
  • Processing flow showing an example of processing of the dangerous moving object detection unit
  • Processing flow showing an example of processing of the moving object detection unit in the image
  • the figure which shows the positional relationship of a pedestrian and a vehicle Processing flow showing an example of processing of the vehicle vibration detection unit
  • FIG. 1 is a functional block diagram showing an example of the system configuration of the present invention.
  • one or more vehicles 10 and one or more portable terminals 11 are connected via a wireless network 12.
  • a roadside device or the like may be connected to the wireless network 12.
  • the wireless network 12 is assumed to be a road-to-vehicle communication network that communicates between vehicles and roadside devices, but is a network that communicates with a long-range wireless communication standard such as LTE (Long Term Evolution) or wireless. It may be a LAN (Local Area Network) network.
  • LTE Long Term Evolution
  • LAN Local Area Network
  • the mobile terminal 11 is a terminal carried by a mobile object such as a pedestrian or a bicycle, and includes a wireless communication device 150 and a position positioning device 151.
  • the mobile terminal 11 corresponds to, for example, a mobile phone or a PDA (Personal Digital Assistant).
  • a mobile body such as a bicycle, it may be a portable terminal attached to the bicycle or a portable terminal carried by a bicycle driver.
  • the wireless communication device 150 is a device used to connect to the wireless network 12 and communicate with the vehicle 10 and other portable terminals 11, and corresponds to a network interface card.
  • the position positioning device 151 is a device that measures the geographical position of the mobile terminal 11 and provides the information.
  • the position positioning device 151 corresponds to, for example, a device that provides a positioning result based on radio waves received from a satellite such as a quasi-zenith satellite or a GPS receiving device.
  • the position positioning device 151 may be configured to simply provide a positioning result based on radio waves received from a satellite, and although not shown in FIG. 1, such as map information managed by the mobile terminal 11 It may be configured to perform position interpolation and error correction from information.
  • the mobile terminal 11 periodically acquires the position information of the mobile terminal 11 itself from the position measurement device 151, and identifies the ID 200 for uniquely identifying the mobile terminal 11 and the type of the mobile terminal 11 (eg, pedestrian). Information including the type 201 and the location information of the portable terminal 11 is periodically transmitted to the wireless network 12.
  • the position information of the mobile terminal corresponds to, for example, the latitude 203 and longitude 204 of the mobile terminal, but may include information indicating other geographical positions.
  • the information which the portable terminal 11 transmits regularly is not limited above, For example, you may include information, such as a moving speed of the portable terminal 11, a moving direction.
  • the vehicle 10 includes a vehicle-mounted control device 101, a wireless communication device 102, a vehicle positioning device 103, a camera device 104, and a sensor group 105. Further, the vehicle 10 may include other devices.
  • the in-vehicle control device 101 is, for example, an ECU (Electronic Control Unit) mounted on the vehicle 10, and includes a communication unit 110, a processing unit 111, and a storage unit 112.
  • ECU Electronic Control Unit
  • the in-vehicle control device 101 may be a travel control device for realizing an advanced driver assistance system (ADAS: Advanced Driver Assistance Systems) of the vehicle 10.
  • ADAS Advanced Driver Assistance Systems
  • It may be a peripheral object detection processing device that detects an object, or may be an external device such as a smartphone connected to a vehicle-mounted network by a user of the vehicle 10.
  • the communication unit 110 includes, for example, a network card conforming to a communication standard such as Ethernet (registered trademark) or CAN (Controller Area Network), and data based on other devices and various protocols installed in the vehicle 10. Send and receive.
  • a network card conforming to a communication standard such as Ethernet (registered trademark) or CAN (Controller Area Network), and data based on other devices and various protocols installed in the vehicle 10. Send and receive.
  • the connection form between the communication unit 110 and another device mounted on the vehicle 10 is not limited to a wired connection such as Ethernet, but short-range wireless such as Bluetooth (registered trademark) or wireless LAN. It may be technology.
  • a plurality of communication units 110 may exist, and each communication unit 110 may be connected to each other device of the vehicle 10 via a separate network.
  • the processing unit 111 includes, for example, a CPU (Central Processing Unit), a RAM (Random Access Memory), and the like, and performs processing for realizing functions of the in-vehicle control device 101 by executing a predetermined operation program. .
  • the processing unit 111 includes a host vehicle information transmission unit 130, a position information management unit 131, a host vehicle direction specifying unit 132, a landmark detection unit 133, a dangerous moving body extraction unit 134, a dangerous moving body detection unit 135, and an in-image moving body.
  • a detection unit 136, a vehicle vibration detection unit 137, and the like are included. A part of these processes may be realized by another device in the vehicle 10.
  • the landmark detection unit 133 may be realized by the camera device 104, or may be realized by including the vehicle vibration detection unit 135 in the sensor group 105 described later as a sensor that detects the vibration of the vehicle. Further, these may be realized by software, or may be implemented by hardware such as FPGA (Field-Programmable Gate Array).
  • FPGA Field-Programmable Gate Array
  • the storage unit 112 includes, for example, a storage device such as an HDD (Hard Disk Drive), flash memory, ROM (Read Only Memory), etc., and a program executed by the processing unit 111 and data necessary for realizing the system. Etc. are stored.
  • the storage unit 112 includes a position information database 120, detailed map information 121, and a captured image database 122 as data necessary for realizing the present system.
  • the information stored in the storage unit 112 is not limited to the above, and other information may be stored.
  • the wireless communication device 102 is a device used for connecting to the wireless network 12 to communicate with other vehicles 10 and portable terminals 11, and corresponds to a network interface card. *
  • the own vehicle position measurement device 103 is a device that measures the geographical position of the vehicle 10 itself and provides the information.
  • the own vehicle position positioning device 103 corresponds to, for example, a device that provides a positioning result based on radio waves received from a satellite such as a quasi-zenith satellite or a GPS receiving device.
  • the own vehicle positioning device 103 may be configured to simply provide positioning results based on radio waves received from a satellite, or may perform position interpolation and error correction based on information (eg, vehicle speed) from the sensor group 105. It may be configured to do.
  • the camera device 104 is mounted on the vehicle 10 so that the outside of the vehicle 10 can be imaged, and image data or moving image data obtained by imaging the surrounding situation of the vehicle 10 can be provided to the in-vehicle control device 101 through an in-vehicle network or the like. It is configured.
  • the camera device 104 may be a monocular camera, a stereo camera equipped with a plurality of image sensors, or an arbitrary combination of a monocular camera and a stereo camera, or an ECU (Electronic Control) that performs other processing with the camera. (Unit) may be integrated.
  • the sensor group 105 is a device that detects the state of various parts of the vehicle 10 (eg, travel speed, steering angle, accelerator operation amount, brake operation amount, etc.), for example, a state detected by an in-vehicle network such as CAN. The amount is sent regularly.
  • the own vehicle information transmission unit 130 of the processing unit 111 periodically acquires information including the position information of the vehicle 10 and the state of various parts from the own vehicle position measurement device 103 and the sensor group 105, and sends the information to the vehicle 10 itself.
  • Information including the set ID 200 and type 201 is periodically transmitted to the other vehicle 10 and the portable terminal 11 via the wireless communication device 102.
  • the captured image database 122 is a database that stores an image captured by the camera device 104 together with time information, and this information is mainly used by the vehicle vibration detection unit 137.
  • FIG. 2 is a diagram illustrating an example of the configuration of the position information database 120.
  • the position information database 120 includes an ID 200, a type 201, a time 202, a latitude 203, a longitude 204, and a danger flag 205, but is not limited to the above, and may include information such as a moving speed and a moving direction.
  • a plurality of sets of information may be registered with a combination of the time 202, the latitude 203, and the longitude 204 as one set.
  • information on the vehicle 10 itself and information received from the other vehicle 10 and the portable terminal 11 via the wireless communication device 102 are registered.
  • ID 200 is an ID that can uniquely identify the vehicle 10 and the portable terminal 11, and is a value set in the vehicle 10 and the portable terminal 11, for example, a value expressed by an integer.
  • ID 200 is a primary key of the position information database 120.
  • the type 201 is information that can identify the type of the vehicle 10 or the portable terminal 11 indicated by the ID 200, and is represented by an integer, for example.
  • information indicating a normal vehicle (four-wheeled vehicle), a truck, a two-wheeled vehicle or the like is set for the vehicle 10, and information indicating a pedestrian or the like is set for the portable terminal 11.
  • the division of the type 201 is not limited to the above, and may be further subdivided, or conversely, a plurality of divisions may be divided as one division.
  • the time 202 is the time when the information about the vehicle 10 itself is acquired from the own vehicle position measurement device 103 or the like when the ID 200 indicates the vehicle 10 itself.
  • the ID 200 indicates another vehicle 10 or the portable terminal 11
  • it may be the time when the information is received via the wireless communication device 102, or may be included in the information received by the wireless network 12.
  • the time which the other vehicle 10 and the portable terminal 11 acquired from the own vehicle position positioning device 103 or the position positioning device 151 may be sufficient.
  • the time 202 may be expressed by, for example, year, month, day, hour, minute, second, or may be expressed by the number of seconds elapsed from a specific time.
  • Latitude 203 and longitude 204 are position information at the time 202 of the vehicle 10 or the portable terminal 11 pointed to by the ID 200. This position information is information acquired by the own vehicle position positioning device 103 or the position positioning device 151.
  • the danger flag 205 is a value set by the dangerous moving body extraction unit 134 and is an effective item when the value of the type 201 is a value indicating the mobile terminal 11.
  • the danger flag 205 is a value indicating how dangerous the moving body carrying the mobile terminal 11 is for the vehicle 10 itself, for example, a value indicating the danger of collision between the moving body and the vehicle 10 itself.
  • the danger flag 205 may be represented by an integer representing a level of danger, or may be represented by a binary value representing whether or not there is danger.
  • a value indicating that there is no danger is set.
  • FIG. 3 is a diagram illustrating an example of the configuration of the detailed map information 121. 3 will be described based on partial map information 300 that is a part of the information of the detailed map information 121.
  • FIG. The partial map information 300 is detailed map information centered on a certain intersection 302.
  • Detailed map information 121 includes direction information 301 indicating north on the map, road shape around intersection 302, objects existing around intersection 302 (signal 303, stop line 304, pedestrian crossing 305, road markings painted on the road. 306, road sign 307, etc.) and information such as position information (latitude, longitude) are set.
  • information such as a characteristic building existing around the road may be set, or information on an image of an object existing around the intersection 302 used for landmark detection described later may be included.
  • FIG. 4 is a diagram showing a processing flow of the location information management unit 131.
  • the location information management unit 131 performs the processing flow shown in FIG. 4 at regular time intervals, and may be performed in parallel with other processing of the processing unit 111.
  • the position information management unit 131 acquires the position information of the vehicle 10 itself including the latitude 203 and the longitude 204 from the own vehicle position measurement device 103 (400).
  • the location information management unit 131 confirms whether there is any information newly received from another vehicle 10 or the portable terminal 11 via the wireless communication device 102 (401).
  • information such as ID 200, type 201, latitude 203, longitude 204, etc. of other vehicle 10 or portable terminal 11 is acquired (402).
  • the received information includes information on the time 202 when the other vehicle 10 or the portable terminal 11 receives the latitude 203 and the longitude 204, it is also acquired.
  • the location information management unit 131 stores the information in the location information database 120 in steps 400 and 402.
  • the acquired information of the vehicle 10 itself, the other vehicle 10 or the portable terminal 11 is registered or updated (403). Specifically, when a line including the ID 200 of the vehicle 10 or the portable terminal 11 already exists in the position information database 120, the information on the line is updated to the latest information. At this time, if a plurality of sets of time 202, latitude 203, and longitude 204 can be registered, the acquired information may be registered as a new set.
  • a row including the ID 200 is added to the position information database 120.
  • For the danger flag 205 an initial value indicating that there is no danger is set.
  • the location information management unit 131 passes a predetermined time from the last updated time 202 for all the rows registered in the location information database 120 based on the information of the time 202 and the current time. Check if it is. If there is a line that has passed for a certain period of time, the position information management unit 131 deletes the line from the position information database 120 (404), and ends the processing of the position information management unit 131.
  • FIG. 5 is a diagram showing a processing flow of the vehicle direction identifying unit 132.
  • the vehicle direction identifying unit 132 may perform the processing of the processing flow illustrated in FIG. 5 at regular time intervals, and may be performed in parallel with other processing of the processing unit 111.
  • the processing flow can calculate the traveling direction information of the own vehicle with high accuracy, and is suitable for the calculation of the moving object detection area described later.
  • a sensor such as a direction sensor may be used as long as the traveling direction of the host vehicle can be obtained with high accuracy.
  • the vehicle direction identifying unit 132 searches the position information database 120 using the ID 200 of the vehicle 10 itself as a key, and acquires information on the latitude 203 and longitude 204 of the vehicle 10 itself (500).
  • the vehicle direction identifying unit 132 selects one landmark existing around the position of the vehicle 10 indicated by the latitude 203 and longitude 204 acquired in step 500 (501).
  • selecting the surrounding landmark for example, there is a method of searching for a landmark existing within a specific distance from the periphery of the vehicle 10 itself, and selecting the closest one to the vehicle 10 among them.
  • the landmark is a characteristic object or paint information that can be acquired from the detailed map information 121 such as the road marking 306 or the road sign 307, and the latitude and longitude information of the landmark is the detailed map information 121.
  • the vehicle direction specifying unit 132 uses the landmark to specify the direction of the vehicle 10 itself, it is desirable that the landmark has a small width (eg, road sign 307), and that the same type is used in the vicinity. It is desirable to select a plurality that does not exist.
  • the own vehicle direction identifying unit 132 uses the landmark detection unit 133 to perform landmark detection processing on the captured image data of the camera device 104. Specifically, the landmark detection unit 133 detects the landmark selected in step 501 from the captured image data of the camera device 104 using information on the type of landmark that can be acquired from the detailed map information 121 ( 502). For example, if the landmark type is a road sign 307 indicating that parking is prohibited, the landmark detection unit 133 scans the captured image data of the camera device 104 using the image of the parking prohibition sign, and performs pattern matching processing. Do.
  • the degree of coincidence between the matching portion and the landmark image (eg, parking prohibition sign image) is calculated, and when the degree of coincidence exceeds a predetermined value, it is determined that the landmark exists in the matching portion. Detect the mark.
  • a landmark image that can be acquired from the detailed map information 121 may be used as the landmark image.
  • Step 502 If the vehicle direction identifying unit 132 fails to detect the landmark in Step 502 (No in 503), it selects another landmark from the detailed map information 121 again, and repeats the processing in Steps 501 to 502.
  • the traveling direction of the vehicle 10 itself is set to 0 degree from the position of the landmark in the captured image data of the camera device 104.
  • the direction ⁇ in which the landmark exists from the vehicle 10 is calculated (504).
  • the landmark when the imaging direction of the camera device 104 is 0 degree is based on the angle of view of the horizontal axis of the camera device 104 and the position of the horizontal axis of the landmark in the captured image.
  • the direction of the existing position can be calculated.
  • the in-vehicle control device 101 knows information on the relative angle between the imaging direction of the camera device 104 and the traveling direction of the vehicle 10 itself.
  • the direction ⁇ can be calculated. Note that the method of calculating the direction ⁇ in which the landmark exists is not limited to the above, and may be calculated using another method.
  • the vehicle direction identifying unit 132 is based on the latitude 203 and longitude 204 information of the vehicle 10 acquired from the position information database 120 and the latitude and longitude information of the landmark acquired from the detailed map information 121. Then, the azimuth ⁇ ′ in which the landmark is present when viewed from the vehicle 10 itself when the north is 0 degree is calculated (505).
  • FIG. 6 is a diagram illustrating a processing flow of the dangerous moving body extraction unit 134.
  • the dangerous mobile body extraction unit 134 may perform the processing of the processing flow illustrated in FIG. 6 at regular intervals, and may be performed in parallel with other processing of the processing unit 111.
  • the dangerous moving body extraction unit 134 first predicts a moving route within a certain time from the current time of the vehicle 10 itself (600). For example, the movement vector of the vehicle 10 itself is calculated based on the time series information of the latitude 203 and longitude 204 of the vehicle 10 acquired from the position information database 120, and the future movement route of the vehicle 10 itself is calculated based on the movement vector. Based on information such as latitude 203, longitude 204, detailed map information 121, sensor group 105, etc. of the vehicle 10 itself, and a travel route is predicted by obtaining a lane in which the vehicle 10 is currently traveling. Alternatively, the travel route may be predicted by judging left turn or right turn from the blinker blinking information.
  • the movement route prediction method of the vehicle 10 itself is not limited to the above, and may be predicted using another method.
  • the dangerous moving body extraction unit 134 searches all the rows in the position information database 120 and selects one row that is assumed to be the mobile terminal 11 from the type 201 (601). For example, it may be determined based on whether the type 201 indicates a pedestrian or a vehicle other than an automobile, and the first found row may be selected.
  • the dangerous moving body extraction unit 134 predicts a moving route within a certain time from the current time of the moving body carrying the mobile terminal 11 selected in Step 601 (602).
  • time series information of the latitude 203 and longitude 204 of the mobile terminal 11 may be acquired from the position information database 120 to calculate a movement vector, and a future movement path of the mobile terminal 11 may be predicted based on the movement vector.
  • the prediction may be based on the information of latitude 203, longitude 204, and detailed map information 121.
  • As a prediction method based on the information of the detailed map information 121 if the mobile terminal 11 is moving in parallel with the sidewalk or road, it is predicted to move in parallel with the sidewalk. May be predicted to move.
  • the dangerous moving body extracting unit 134 determines whether or not the vehicle 10 predicted in Step 600 and Step 602 intersects the moving route of the mobile terminal 11 (603). If the moving routes intersect (Yes in 603), the dangerous moving body extraction unit 134 determines that the vehicle 10 itself has a risk of colliding with the moving body that owns the mobile terminal 11, and the danger of the position information database 120 A value indicating danger is set in the flag 205 (604). At this time, for example, the level of the danger level is adjusted according to the time until the collision of the mobile body in which the vehicle 10 itself carries the mobile terminal 11 or the mobile terminal 11 is moving on the sidewalk, and the value is set to the position.
  • the risk flag 205 of the database 120 may be set.
  • the dangerous mobile body extracting unit 134 checks the location information database 120 and checks whether there is another mobile terminal 11 that has not performed the processing of steps 602 to 604 ( 605). If the mobile terminal 11 is present (Yes in 605), the process returns to step 601, and the processes of steps 602 to 604 are performed on the other mobile terminals 11. On the other hand, when there is no other portable terminal 11 (No in 605), the process of the dangerous mobile body extracting unit 134 is terminated.
  • FIG. 7 is a diagram showing a processing flow of the dangerous moving object detection unit 135.
  • the dangerous mobile body detection unit 135 may perform the processing of the processing flow shown in FIG. 7 at regular time intervals, and may be performed in parallel with other processing of the processing unit 111.
  • the dangerous moving body detection unit 135 first acquires the latitude 203 and longitude 204 of the vehicle 10 from the position information database 120 using the ID 200 of the vehicle 10 as a key (700). *
  • the dangerous moving body detection unit 135 searches the position information database 120, and from the type 201, it is estimated that the mobile terminal 11 is used, and the line having a value indicating that the danger flag 205 is dangerous is displayed.
  • the search is performed, for example, the first found line is selected (701).
  • the dangerous mobile body detection part 135 acquires the information of the latitude 203 and the longitude 204 of the portable terminal 11 from the positional information database 120 (702).
  • the dangerous moving body detection unit 135 detects the vehicle 10 when north is 0 degree.
  • the azimuth ⁇ ′ where the mobile terminal 11 is present when viewed from itself and the distance d between the vehicle 10 itself and the mobile terminal 11 are calculated (703).
  • the dangerous moving body detection unit 135 calls the in-image moving body detection unit 136, and the in-image moving body detection unit 136 detects the moving body carrying the mobile terminal 11 from the captured image of the camera device 104 (704). ).
  • the process of step 704 will be described later.
  • the dangerous moving body detection unit 135 checks the position information database 120, and has not yet performed the processing of steps 702 to 704 in the portable terminal 11 indicating that the value of the danger flag 205 is dangerous. It is confirmed whether there is a thing (705). If there is another portable terminal 11 (Yes in 705), the portable terminal 11 is selected again in step 701, and the processes in steps 702 to 704 are performed. On the other hand, when all the mobile terminals 11 have been confirmed (No in 705), the process of the dangerous moving object detection unit 135 is terminated.
  • FIG. 8 is a diagram illustrating an example of a processing flow of the in-image moving body detection unit 136.
  • the in-image moving body detection unit 136 performs the processing flow shown in FIG. 8 in step 704 of the process of the dangerous moving body detection unit 135.
  • the in-image moving body detection unit 136 is a captured image of the camera device 104 based on the azimuth ⁇ ′ and the distance d in which the mobile terminal is seen from the vehicle 10 itself, which is calculated in Step 703 of the dangerous moving body detection unit 135.
  • the mobile object detection area for detecting the mobile object possessing the mobile terminal 11 being selected by the dangerous mobile object detection unit 135 is calculated (800).
  • the moving object detection area refers to an area where pattern matching is performed in a captured image in order to detect a moving object, or an area where pattern matching is preferentially performed. For example, an image of a human being walking is used. An area in which a captured image is scanned for pattern matching.
  • the in-image moving body detection unit 136 confirms whether the vehicle vibration information is used in estimating the moving body detection area (801). This obtains vertical vibration width information during traveling of the vehicle 10 itself from the vehicle vibration detection unit 137 or the sensor group 105 having a vehicle vibration detection function, and performs the moving body detection area expansion process using the information. It is decided whether or not. Whether or not to perform this process is determined in advance by the system administrator of the safe driving support system or the user of the vehicle 10 and set as a parameter. The processing of the vehicle vibration detection unit 137 will be described later.
  • the in-image moving body detection unit 136 acquires information on the vertical vehicle vibration width during travel from the vehicle vibration detection unit 136 and the sensor group 105 (802). For example, the vehicle vibration detection unit 136 acquires information on how much pixel width the detected landmark in the image of the camera device 104 vibrates vertically by vertical vibration while the vehicle is running.
  • the information acquired here is not limited to the above, and may be, for example, a measured value of the vibration width of the vehicle itself. In this case, the amplitude width of the upper and lower pixel widths may be calculated based on the information.
  • the intra-image moving body detection unit 136 uses the information acquired in step 802 to expand the moving body detection area in the vertical direction (803). For example, the intra-image moving body detection unit 136 enlarges the moving body detection area up and down in the vertical direction by the pixel width of the up and down vibration acquired in step 802. In addition to the above, in addition to the above, the moving object detection area may be enlarged by the margin.
  • the in-image moving body detection unit 136 detects the moving body by performing pattern matching on the moving body detection area (804), and moves in the image.
  • the process of the detection unit 136 ends.
  • the image matching image data of the camera device 104 is scanned using an image of a human being walking, and pattern matching processing is performed.
  • the degree of coincidence between the matching portion and the image of a human being walking is calculated, and when the degree of coincidence exceeds a predetermined value, it is determined that a moving body exists at the matching portion, and the moving body is detected.
  • the image used for pattern matching is not limited to the image of a human being walking. Considering cases such as jumping out of the blind spot or riding a bicycle, human hands, etc.
  • the in-vehicle control device 101 By passing the detected mobile body to the in-vehicle control device 101, the in-vehicle control device 101 performs a process such as a safe driving support system.
  • FIG. 9 is a diagram illustrating the positional relationship between the vehicle 10 itself and the pedestrian carrying the mobile terminal 11, and an example of a method for calculating the moving object detection region in the captured image data of the camera device 104 based on FIG. 9. Will be explained. Note that the calculation of the moving object detection area is not limited to the method described herein, and may be calculated by other methods. In addition, this description will be made using an example in which a monocular camera is used.
  • FIG. 900 above is an image diagram in the case where there is a pedestrian 911 possessing the vehicle 10 itself and the mobile terminal 11 in the detailed map information 121.
  • FIG. 900 an example of a method of calculating the position of the horizontal axis of the moving object detection region (the position in the horizontal direction with respect to the ground) will be described first.
  • the detailed map information 121 originally includes roads and other buildings, they are omitted in this description because they are unnecessary.
  • the center position of the horizontal axis of the moving object detection region of the pedestrian 911 is, for example, on the right side of the captured image if the direction ⁇ (921) is in the range of 0 to 90 degrees, ⁇ 90 to If it is in the range of 0 degree, it is on the left side of the captured image, and the center position of the left or right horizontal axis can be calculated by the ratio of the direction ⁇ (921) to the angle of view 920 of the horizontal axis of the camera device 104. .
  • the lateral width (width in the horizontal direction with respect to the ground) of the moving object detection region may be set by a distance d between the vehicle 10 itself and the pedestrian 911 and a parameter set by the in-vehicle control device 101.
  • the lateral width May be constant regardless of the distance d, or the lateral width may be increased if the distance d is small, and the lateral width may be decreased if the distance d is large.
  • FIG. 901 below is a cross-sectional view taken along the line connecting the vehicle 10 itself and the pedestrian 911 in FIG. 900 in the height direction.
  • An example of a method for calculating the position of the vertical axis of the moving object detection area (the position in the height direction with respect to the ground) will be described with reference to FIG.
  • the distance d (931) between the vehicle 10 and the pedestrian 911, the height (933) where the camera device 104 of the vehicle 10 itself is set, the height of the pedestrian 911 and the camera device 104 are installed.
  • the height difference (932) is shown.
  • the height of the pedestrian 911 cannot generally be acquired from the portable terminal 11, information such as the average height of a person may be used, for example. Further, it is not necessary to limit the height of the pedestrian 911.
  • the position information database 120 indicates that the bicycle is a bicycle
  • the maximum height value of the pedestrian riding on the bicycle is used. May be.
  • the elevation angle 940 when viewing the uppermost part of the pedestrian 911 from the position of the camera device 104 can be calculated using a trigonometric function from the difference d 931 between the distance d (931) and the height.
  • the lower (ground) elevation angle 941 can be calculated from the distance d (931) and the height 933 using a trigonometric function.
  • the vertical range of the detection area of the pedestrian 911 (the range in the height direction with respect to the ground) is the elevation angle 940 with respect to the angle of view of the vertical axis of the camera device 104 and It can be calculated by the ratio of 941.
  • FIG. 10 is a diagram illustrating an example of a processing flow of the vehicle vibration detection unit 137.
  • the vehicle vibration detection unit 137 performs the processing flow shown in FIG. 10 at regular intervals, and may be performed in parallel with other processing of the processing unit 111.
  • the vehicle vibration detection unit 137 acquires a captured image of the camera 104 device within the latest fixed time from the captured image database 122 and selects a reference image from the captured image (1000). For example, one of the plurality of captured images within a predetermined time is selected from the images having the largest number of images whose landmarks have the same vertical position already detected by the landmark detection unit 133, and is selected as the reference image. And it is sufficient.
  • the vehicle vibration detection unit 137 compares the plurality of captured images within the latest fixed time in the captured image database 122 with the reference image selected in step 1000 and calculates the maximum vibration width of the upper limit of the vehicle (1001). ), The processing of the vehicle vibration detection unit 137 is terminated. For example, an image in which the landmark has moved most up with respect to the position of the landmark in the reference image selected in step 1000 from among a plurality of captured images within the most recent fixed time in the captured image database 122, The image moved downward is selected, and the difference in pixel width from the landmark position in the reference image is calculated.
  • the calculation is performed based on the position of the landmark.
  • the calculation is not limited to the landmark.
  • the detection is performed based on an object that is not a landmark present in the captured image, a horizon, or the like. May be.
  • FIG. 11 is a diagram showing an effective case of the present invention described with reference to FIGS. A specific example of the present invention described so far will be described with reference to FIG. In FIG. 11, a case where a pedestrian 1110 is approaching from the road 1113 while the vehicle 10 is traveling on the road 1112 will be described as an example.
  • FIG. 1100 above FIG. 11 is an image diagram in the case where there is a pedestrian 1110 that is a mobile body that possesses the vehicle 10 itself and the mobile terminal 11 in the detailed map information 121.
  • the vehicle 10 is traveling on the road 1112 toward the lower right (southeast), and the pedestrian 1110 has the mobile terminal 11 and is moving toward the lower left (southwest).
  • a road sign 1111 exists as a landmark, and a building 1114 exists on the north side of the intersection. Due to this building 1114, the pedestrian 1110 cannot be seen from the vehicle 10.
  • the lower image 1101 is a captured image of the camera device 104 mounted in front of the vehicle 10.
  • the road sign 1111 and the building 1114 are displayed, but the pedestrian 1110 is not displayed for the building 1114.
  • the mobile terminal 11 possessed by the pedestrian 1110 periodically acquires information on the latitude 203 and longitude 204 of the mobile terminal 11 by the position positioning device 151.
  • the mobile terminal 11 provides ID 200 for uniquely identifying the mobile terminal 11 itself, for example, information of type 201 indicating that it is a pedestrian, to the vehicle 10 existing in the vicinity. Send to.
  • the position information management unit 131 of the vehicle 10 periodically acquires the information of the latitude 203 and the longitude 204 from the own vehicle position measurement device 103 at step 400, and uniquely identifies the vehicle 10 itself in the position information database 120 at step 403. For example, the ID 200 to be identified, the type 201 indicating that the vehicle 10 is an ordinary passenger car, the acquired time 202, the latitude 203, and the longitude 204 are updated.
  • the position information management unit 131 of the vehicle 10 periodically receives information from the portable terminal 11 possessed by the pedestrian 1110 in steps 401 to 403, and stores the portable terminal ID 200, type 201, in the position information database 120. Information on the reception time 202, latitude 203, and longitude 204 is registered or updated.
  • the vehicle direction identifying unit 132 of the vehicle 10 includes information on the latitude 203 and longitude 204 of the vehicle 10 and the detailed map information 121 periodically registered in the position information database 120 in steps 500 and 501.
  • the landmarks existing around the vehicle 10 itself are searched based on the information, and the information (latitude, longitude, type of road sign) of the road sign 1111 is acquired here.
  • the vehicle direction identifying unit 132 of the vehicle 10 is captured image data of the camera device 104 based on an image image assumed based on the road sign type information acquired from the detailed map information 121 in step 502. Pattern matching of the image 1101 is performed to detect the presence of a road sign 1111 that is a landmark in the area 1130.
  • the host vehicle direction identifying unit 132 of the vehicle 10 determines the traveling direction 1120 of the vehicle 10 itself from the horizontal angle of view of the camera device 104 mounted on the vehicle 10 and the position of the region 1130 in the image 1101.
  • the direction ⁇ (1122) of the road sign 1111 when viewed from the vehicle 10 itself is calculated with 0 being 0 degree.
  • the dangerous moving body extraction unit 134 of the vehicle 10 uses the time series information of the latitude 203 and the longitude 204 of the vehicle 10 and the mobile terminal 11 that can be acquired from the position information database 120 in steps 600 to 602. Both the vehicle 10 and the mobile terminal 11 are predicted to go to the intersection 1115. Then, in steps 603 to 604, the dangerous moving body extraction unit 134 determines that the moving route of the vehicle 10 itself and the portable terminal 11 intersects, and sets a value indicating danger in the danger flag 205 of the position information database 120.
  • the danger moving body detection unit 135 of the vehicle 10 confirms the value of the danger flag 205 of the position information database 120 in step 701, so that the danger that the mobile terminal 11 collides with the vehicle 10 itself. Is recognized, and the portable terminal 11 is selected.
  • the dangerous moving body detection unit 135 of the vehicle 10 acquires information on the latitude 203 and longitude 204 of the vehicle 10 and the portable terminal 11 from the position information database 120 (steps 700 and 702), and based on the information, step 703 is performed.
  • step 703 is performed.
  • the azimuth ⁇ ′ (1124) of the pedestrian 1110 when viewed from the vehicle 10 itself when the north is 0 degree and the distance d between the vehicle 10 itself and the portable terminal 11 are calculated.
  • the screen moving body detection part 136 of the vehicle 10 estimates the moving body detection area
  • FIG. when the traveling direction ⁇ (1120) of the vehicle 10 itself is 0 degree, the direction ⁇ (1125) in which the mobile terminal 11 exists from the vehicle 10 itself can be calculated by ⁇ ′ (1124) ⁇ (1120). .
  • the central position of the horizontal axis of the moving object detection area 1131 in the image 1101 may be calculated based on the angle of view of the horizontal axis of the camera device 104 and the value of the direction ⁇ (1125). Further, the horizontal width and vertical width of the moving object detection region 1131 may be calculated using the method described with reference to FIG. 9 as an example.
  • the screen moving body detection unit 136 of the vehicle 10 is detected from the vehicle vibration detection unit 137 by, for example, the maximum up and down of the road sign 1111 in the image 1101 in steps 803 and 804.
  • Information on the vibration pixel width is acquired, and the upper and lower widths of the moving object detection region 1131 are enlarged by the width.
  • the screen moving body detection unit 136 of the vehicle 10 performs pattern matching of the entire image image of a pedestrian, a bicycle, or a part of the moving object detection region 1131 or a part of the image image, thereby performing a pedestrian 1110.
  • the detection process is performed.
  • the screen moving body detection unit 136 of the vehicle 10 cannot detect the pedestrian 1110, but the processing described so far is periodically performed.
  • the vehicle-mounted control device 101 of the vehicle 10 can recognize the pedestrian 1110 as soon as the pedestrian 1110 comes out of the building 1114.
  • the mobile object having the mobile terminal 11 is not visible from the vehicle 10 due to an obstacle such as a building, and therefore cannot be detected from the captured image of the camera device 104.
  • the screen moving body detection unit 136 can recognize the pedestrian information immediately when it appears in the captured image of the camera device 104 of the vehicle 10.
  • the camera device can be obtained from the mobile body information even when the pedestrian colliding with the own vehicle is not in view. It has been described that the moving object detection area of the captured image 104 is set. That is, if the present invention is used, even in an environment where a large number of moving objects such as pedestrians and bicycles exist, there is a risk that the information received from the mobile terminal 11 may collide with the vehicle 10. Since the moving body detection area of the moving body is set, it can be easily imagined that the detection speed and the detection accuracy of the dangerous moving body from the captured image of the camera device 104 can be improved.
  • the vehicle direction specifying unit 132 performs processing for specifying the direction of the vehicle 10 itself using the landmark recognized by the landmark detection unit 133 in the captured image of the camera device 104.
  • the vehicle direction specifying unit 132 may be replaced with a method of specifying the vehicle direction by using a high-precision gyroscope or the like.

Abstract

移動体が自車のカメラ装置の視界に入ったときに、即座にカメラ装置の撮像画像 からその移動体を検出できるように、移動体の検出速度及び検出精度を向上するためのシステム、装置を提供する。 車両に搭載された自車位置測位装置から取得した位置情報と、移動体が所持する携帯端末から定期的に受信する位置情報を用いる。まず、車両自身の進行方位を特定する。さらに、車両自身の位置情報と、携帯端末の位置情報と、詳細地図の情報をもとに、車両自身と携帯端末の移動経路を予測し、車両自身と携帯端末を所持する移動体が衝突する危険性があるか判断する。そして、衝突する危険性があると判断した移動体の携帯端末の位置情報と車両自身の進行方位をもとに、カメラ装置の撮像画像内にその移動体を検出するための領域を設定し、移動体の検出処理を行う。

Description

車両制御装置、車両制御装置を搭載した車両、及び、移動体検出方法
 本発明は、無線通信により、自車周辺の携帯端末を所持する移動体を認識し、移動体が自車と衝突する危険性が高いと判断した場合に、自車搭載のカメラの視界内にその移動体が入った時に、その移動体を検出する速度及び精度を向上する安全運転支援システムに関する。
 日本国内の交通事故における死者数のうち、歩行者は全体の約30%、自転車は全体の約15%を占めている。このような死亡事故を低減するためには、レーダやカメラなどの環境認識センサを利用した安全運転支援システムが有効である。
 安全運転支援システムは、自車搭載のカメラ装置の撮像画像内で歩行者や自転車等移動体を検出した時、自車の運転者に報知したり自車のブレーキを自動制御したりすることで、自車がその移動体に衝突することを防止する。このため安全支援システムにおいて、カメラ装置の撮像画像内で特に危険な移動体を検出する速度及び精度が特に重要である。ここで、危険な移動体とは、自車と衝突する可能性が高い歩行者や自転車等を指す。
 特開2010-250501号公報では、レーダ装置とカメラ装置を用いて歩行者を検知するシステムが提案されている。この方法によれば、自車の予測進路と、レーダにより検知した複数の物体の情報と、に基づき、検知した物体が自車に衝突する危険度を演算する。さらに、この危険度が閾値以上である物体の中から、自車との相対距離または衝突予測時間が最小となる物体を選択し、その物体に対して画像情報を用いて歩行者か否かの判定を行うことにより、歩行者判定手段の処理負荷を減少しつつ安全性を確保している。
特開2010-250501号公報
 しかしながら、特許文献1に記載の技術では、レーダ装置及びカメラ装置を用いて移動体を検出しているが、レーダ装置やカメラ装置では、自車から見て車両や壁や建物等の障害物の向こう側や、多数の歩行者や自転車の中に存在する危険な歩行者や自転車の検出が困難である。
 このように、特許文献1に記載の技術では、建物等の障害物の向こう側に歩行者等の移動体が存在するケースにおいて、移動体が自車搭載のカメラ装置やレーダ装置の視界に入るまで、移動体の検出や認識が困難である。さらに、移動体が自車の視界内に入った後、レーダ装置がその移動体をとらえ、カメラ装置の撮像画像から移動体として検出する処理が必要であるため、自車の安全運転支援システムがその移動体を検出するまでに遅延が生じる可能性がある。
 例えば飛び出しのように、移動体が自車にとって死角となっている箇所から自車の進路上に突然飛び出す場合には早急な処理が求められるため、移動体の検出速度が速い安全運転システムが望まれる。
 また、多数の歩行者や自転車等の移動体が存在するような環境でも、自車と衝突する危険な移動体が存在することがあり、そのような環境では、多数の移動体の検出処理の負荷が大きく、カメラ装置及びレーダ装置がその移動体を検出することが困難である、もしくは検出できるまでに遅延が生じてしまう。
 本発明は、上記の点に鑑みてなされたものである。その目的とするところは、危険な移動体が自車周辺の自車から見えない箇所に存在する場合や、多数の移動体の中に危険な移動体が存在する場合であっても、危険な移動体が自車搭載カメラ装置の撮像画像内に登場後、迅速に安全運転システムがその移動体を検出可能にすることである。すなわち、自車搭載の安全運転支援システムにて、自車と衝突する可能性がある、移動体の検出の速度及び精度を向上することを目的とする。
 上記目的を達成するために、本発明の一つの観点から、車両に搭載される車両制御装置が提供される。当該車両制御装置は、車両の位置情報である第一の位置情報と携帯端末の位置情報である第二の位置情報とを取得する通信部と、第一の位置情報及び第二の位置情報が格納される記憶部と、第一の位置情報と第二の位置情報とに基づいて、車両と携帯端末を所持する移動体との衝突の危険性である衝突危険性を判定し、当該判定の結果に基づいて、車両に搭載されたカメラ装置により撮像される撮像画像において移動体検出処理が行われる移動体検出領域を設定し、移動体検出領域内の移動体の画像を検出する処理部と、を有する。
 本発明の別の観点によれば、車両制御装置とカメラ装置とが搭載される車両が提供される。当該車両は、車両の位置情報である第一の位置情報を取得する位置情報取得部と、通信網を介して携帯端末の位置情報である第二の位置情報を受信する通信部と、を有し、車両制御装置は、第一の位置情報及び第二の位置情報が格納される記憶部と、第一の位置情報と第二の位置情報とに基づいて、車両と携帯端末を所持する移動体との衝突の危険性である衝突危険性を判定し、当該判定の結果に基づいて、カメラ装置により撮像される撮像画像において移動体検出処理が行われる移動体検出領域を設定し、移動体検出領域内の移動体の画像を検出する処理部と、を有する。
 本発明のさらに別の観点によれば、車両に搭載されるカメラ装置によって撮像される撮像画像から移動体を検出する移動体検出方法が提供される。当該移動体検出方法は、車両の位置情報である第一の位置情報と携帯端末の位置情報である第二の位置情報とを取得し、第一の位置情報と第二の位置情報とに基づいて、車両と携帯端末を所持する移動体との衝突の危険性である衝突危険性を判定し、当該判定の結果に基づいて、カメラ装置による撮像画像において移動体の検出処理が行われる移動体検出領域を設定し、移動体検出領域内の移動体の画像を検出する。
 本発明によれば、危険な移動体が自車周辺の自車から見えない箇所に存在する場合や、多数の移動体の中に危険な移動体が存在する場合であっても、危険な移動体の検出の高速化・高精度化が可能になる。
本発明のシステム構成の一例 位置情報データベースの構成の一例 詳細地図情報の構成の一例 位置情報管理部の処理の一例を示す処理フロー 自車方位特定部の処理の一例を示す処理フロー 危険移動体抽出部の処理の一例を示す処理フロー 危険移動体検出部の処理の一例を示す処理フロー 画像内移動体検出部の処理の一例を示す処理フロー 歩行者及び車両の位置関係を示す図 車両振動検出部の処理の一例を示す処理フロー 本発明の具体例を示す図
 以下、図面を参照して、本発明の実施例について説明する。
 図1は本発明のシステム構成の一例を示す機能ブロック図である。
 図1に示すように、1台以上の車両10及び1台以上の携帯端末11が無線ネットワーク12を介して接続されている。無線ネットワーク12には、他に路側装置等が接続されてもよい。
 無線ネットワーク12は、具体的には車両同士や路側装置間で通信する路車間通信ネットワークを想定しているが、LTE(Long Term Evolution)等の長距離無線通信規格で通信されるネットワーク、あるいは無線LAN(Local Area Network)ネットワークでもよい。
 携帯端末11は、歩行者や自転車等の移動体が携帯する端末であり、無線通信装置150及び位置測位装置151を備える。携帯端末11は、例えば携帯電話やPDA(Personal Digital Assistant)が相当する。自転車等の移動体の場合は、自転車に取り付けられた携帯端末でもよいし、自転車の運転者が携帯する携帯端末でもよい。
 無線通信装置150は、無線ネットワーク12に接続して車両10や他の携帯端末11と通信するために用いる装置であり、ネットワークインターフェースカードが相当する。 位置測位装置151は、携帯端末11の地理的な位置を測位し、その情報を提供する装置である。位置測位装置151は、例えば、準天頂衛星等の衛星から受信する電波に基づいた測位結果を提供する装置やGPS受信装置が相当する。位置測位装置151は、単純に衛星から受信する電波に基づいた測位結果を提供するように構成されてもよいし、図1には図示されていないが、携帯端末11が管理する地図情報等の情報から位置補完及び誤差補正を行うように構成されていてもよい。
 携帯端末11は、定期的に携帯端末11自身の位置情報を位置測位装置151から取得し、携帯端末11を一意に識別するためのID200、携帯端末11の種類(例:歩行者)を識別するためのタイプ201、携帯端末11の位置情報等を含む情報を定期的に無線ネットワーク12に送信する。携帯端末の位置情報は、例えば携帯端末の緯度203、経度204が相当するが、それ以外の地理的な位置を示す情報を含んでもよい。また、携帯端末11が定期的に送信する情報は上記に限定されず、例えば携帯端末11の移動速度や移動方向等の情報を含んでもよい。
 車両10は、車載用制御装置101、無線通信装置102、自車位置測位装置103、カメラ装置104、センサ群105により構成される。また、車両10に他の装置を含んでもよい。
 車載用制御装置101は、例えば、車両10に搭載されたECU(Electronic Control Unit)等であり、通信部110、処理部111、記憶部112で構成される。車載用制御装置101の形態に特に制限はなく、例えば、車両10の先進運転支援システム(ADAS:Advanced Driver Assistance Systems)を実現するための走行制御装置でもよいし、カメラ装置104の撮像画像から周辺物体の検出を行う周辺物体検出処理装置でもよいし、車両10のユーザが車載ネットワークに接続したスマートフォン等の外部装置でもよい。
 通信部110は、例えば、Ethernet(登録商標)またはCAN(Controller Area Network)等の通信規格に準拠したネットワークカード等を含んで構成され、車両10に搭載された他の装置と各種プロトコルに基づきデータの送受信を行う。なお、通信部110と車両10に搭載された他の装置との間の接続形態は、Ethernetのような有線接続に限定されることはなく、Bluetooth(登録商標)や無線LANなどの近距離無線技術であってもよい。また、通信部110が複数存在し、各通信部110がそれぞれ車両10の他の各装置と別々のネットワークで接続されてもよい。
 処理部111は、例えば、CPU(Central Processing Unit)及びRAM(Random Access Memory)などを含んで構成され、所定の動作プログラムを実行することで、車載用制御装置101の機能を実現する処理を行う。処理部111には、自車情報送信部130、位置情報管理部131、自車方位特定部132、ランドマーク検出部133、危険移動体抽出部134、危険移動体検出部135、画像内移動体検出部136、車両振動検出部137、等が含まれる。これらの処理の一部が車両10内の他の装置で実現されてもよい。例えば、ランドマーク検出部133が、カメラ装置104で実現されてもよいし、車両振動検出部135が車両の振動を検出するセンサとして後述するセンサ群105に含まれることで実現されてもよい。また、これらはソフトウェアで実現されていてもよいし、FPGA(Field-Programmable Gate Array)等としてハードウェアで実装されてもよい。
 記憶部112は、例えば、HDD(Hard Disk Drive)、フラッシュメモリ、ROM(Read Only Memory)などの記憶装置を含んで構成され、処理部111が実行するプログラム、及び本システムの実現に必要なデータなどが格納される。記憶部112には、本システムの実現に必要なデータとして、位置情報データベース120と、詳細地図情報121、撮像画像データベース122とを含む。記憶部112に格納される情報は上記に限定されず、それ以外の情報が格納されてもよい。
 無線通信装置102は、無線ネットワーク12に接続して他の車両10や携帯端末11と通信するために用いる装置であり、ネットワークインターフェースカードが相当する。 
 自車位置測位装置103は、車両10自身の地理的な位置を測位し、その情報を提供する装置である。自車位置測位装置103は、例えば、準天頂衛星等の衛星から受信する電波に基づいた測位結果を提供する装置やGPS受信装置が相当する。自車位置測位装置103は、単純に衛星から受信する電波に基づいた測位結果を提供するように構成されてもよいし、センサ群105の情報(例:車速)等から位置補完及び誤差補正を行うように構成されていてもよい。
 カメラ装置104は、車両10の外部を撮像できるように車両10に搭載され、車両10の周辺状況を撮像した画像データあるいは動画像データを、車載ネットワーク等を通じて、車載用制御装置101に提供できるように構成されている。なお、カメラ装置104は、単眼カメラでもよいし、複数の撮像素子を搭載したステレオカメラでもよいし、単眼カメラとステレオカメラの任意の組み合わせでもよいし、カメラと他の処理を行うECU(Electronic Control Unit)を統合したものでもよい。
 センサ群105は、車両10の各種部品の状態(例:走行速度、操舵角、アクセルの操作量、ブレーキの操作量等)を検出する装置であり、例えば、CAN等の車載ネットワークに検出した状態量を定期的に送信している。
 ところで、処理部111の自車情報送信部130は、定期的に自車位置測位装置103、センサ群105から車両10の位置情報や各種部品の状態等を含む情報を取得し、車両10自身に設定されているID200やタイプ201を含めた情報を、無線通信装置102を介して他の車両10や携帯端末11に定期的に送信する。
 また、撮像画像データベース122は、カメラ装置104が撮像した画像を時刻情報とともに保存するデータベースであり、この情報は主に車両振動検出部137により用いられる。
 以下、図2及び図3を用いて記憶部112の位置情報データベース120と詳細地図情報121について説明する。
 図2は、位置情報データベース120の構成の一例を示す図である。位置情報データベース120は、ID200、タイプ201、時刻202、緯度203、経度204、危険フラグ205、とで構成されるが、上記に限定されず、移動速度及び移動方向等の情報を含んでもよい。また、車両10や携帯端末11の移動履歴を確認するために、時刻202、緯度203、経度204の組み合わせを1組として、複数組の情報が登録されることがある。位置情報データベース120には、車両10自身の情報や、無線通信装置102を介して他の車両10及び携帯端末11から受信した情報が登録される。
 ID200は、車両10や携帯端末11を一意に識別可能なIDであり、車両10や携帯端末11に設定される値であり、例えば整数で表現される値である。ID200は位置情報データベース120の主キーである。
 タイプ201は、ID200が指す車両10または携帯端末11の種類を識別可能な情報であり、例えば整数で表現される。タイプ201として、例えば、車両10であれば、通常車両(四輪車)、トラック、二輪車等を示す情報が、携帯端末11であれば歩行者等を示す情報が設定される。タイプ201の区分は上記に限定されず、さらに細分化されてもよいし、逆に複数の区分を1つの区分として区分してもよい。
 時刻202は、ID200が車両10自身を指す場合は、車両10自身の情報を自車位置測位装置103等から取得した時刻である。一方、ID200が他の車両10または携帯端末11を指す場合は、無線通信装置102を介してその情報を受信した時刻であってもよいし、無線ネットワーク12で受信した情報に含まれている、他の車両10や携帯端末11が自身の自車位置測位装置103または位置測位装置151から取得した時刻であってもよい。時刻202は例えば年、月、日、時、分、秒で表現されてもよいし、ある特定の時刻からの経過秒数で表現されてもよい。
 緯度203及び経度204は、ID200が指す車両10または携帯端末11の、時刻202の時点での位置情報である。この位置情報は、自車位置測位装置103または位置測位装置151により取得された情報である。
 危険フラグ205は、危険移動体抽出部134により設定される値であり、タイプ201の値が携帯端末11を示す値である場合に有効な項目である。危険フラグ205には、その携帯端末11を所持する移動体が車両10自身にとってどの程度危険であるかを示す値、例えば、移動体と車両10自身の衝突の危険性を示す値、である。危険フラグ205は、例えば危険度のレベルを表す整数で表現されてもよいし、危険かどうかを表す二値で表現されてもよい。位置情報データベース120に新しく携帯端末11の情報が設定される時点では、危険でないことを示す値が設定される。
 図3は、詳細地図情報121の構成の一例を示す図である。図3では、詳細地図情報121の情報の一部分である部分地図情報300をもとにして説明する。部分地図情報300は、ある交差点302を中心とした詳細地図情報である。
 詳細地図情報121は、地図上の北を示す方位情報301、交差点302周辺の道路形状、交差点302周辺に存在する物体(信号機303、停止線304、横断歩道305、道路上にペイントされる道路標示306、道路標識307等)の種類や位置情報(緯度、経度)といった情報が設定される。他にも、道路周辺に存在する特徴のある建物等の情報が設定されてもよいし、後述するランドマーク検出に用いる、交差点302周辺に存在する物体のイメージ画像の情報を含んでもよい。
 以下、図4から図7を用いて、車載用制御装置101の処理部111の具体的な処理について説明する。
 図4は、位置情報管理部131の処理フローを示す図である。位置情報管理部131は、一定時間ごとに図4に示す処理フローの処理を行い、処理部111の他の処理と独立して並行に行われてもよい。
 位置情報管理部131は、自車位置測位装置103から緯度203及び経度204を含む車両10自身の位置情報を取得する(400)。
 次に位置情報管理部131は、無線通信装置102を介して、他の車両10や携帯端末11から新しく受信した情報がないかを確認する(401)。
 新しく受信した情報がある場合(401でYes)、その受信情報に含まれる、他の車両10や携帯端末11のID200、タイプ201、緯度203、経度204等の情報を取得する(402)。ここで、受信情報に、他の車両10や携帯端末11が緯度203及び経度204を受信した時刻202の情報が含まれていれば、それも取得する。
 新しく受信した情報がない場合(401でNo)や、他の車両10や携帯端末11の情報を取得した(402)後、位置情報管理部131は、位置情報データベース120に、ステップ400及び402で取得した車両10自身や他の車両10や携帯端末11の情報を登録もしくは更新する(403)。具体的には、位置情報データベース120に、車両10や携帯端末11のID200を含む行が既に存在している場合、その行の情報を最新の情報に更新する。この時、時刻202、緯度203、経度204の組が複数組登録可能な場合は、取得した情報を新しい組として登録してもよい。一方、車両10や携帯端末11のID200に対応する行が存在しない場合は、位置情報データベース120に、ID200を含む行を追加する。なお、危険フラグ205については、危険でないことを示す初期値を設定する。
 さらに、位置情報管理部131は、位置情報データベース120に登録されている全ての行に対して、時刻202と現在の時刻の情報をもとに、最後に更新された時刻202から一定時間経過していないか確認する。もし一定時間以上経過した行が存在する場合、位置情報管理部131はその行を位置情報データベース120から削除し(404)、位置情報管理部131の処理を終了する。
 図5は、自車方位特定部132の処理フローを示す図である。自車方位特定部132は、一定時間ごとに図5に示す処理フローの処理を行い、処理部111の他の処理と独立して並行に行われてもよい。当該処理フローは、高精度に自車の進行方位情報を算出することができ、後述する移動体検出領域の計算に適している。但し、自車の進行方位を高精度に求めることができるならば、方位センサなどのセンサを用いてもよい。
 自車方位特定部132は、まず位置情報データベース120から、車両10自身のID200をキーとして検索し、車両10自身の緯度203及び経度204の情報を取得する(500)。
 自車方位特定部132は、次に詳細地図情報121において、ステップ500で取得した緯度203及び経度204が指す車両10自身の位置の周辺に存在するランドマークを1つ選択する(501)。周辺のランドマークの選択にあたっては、例えば、車両10自身の周辺から特定の距離以内に存在するランドマークを検索し、その中でも車両10に最も近いものを選択する方法がある。ここで、ランドマークとは、道路標示306や道路標識307等、詳細地図情報121から取得可能な特徴的な物体やペイント情報のことであり、ランドマークの緯度及び経度の情報は詳細地図情報121から取得できる。自車方位特定部132は、ランドマークを用いて車両10自身の方位を特定するため、ランドマークの中でも横幅が小さいもの(例:道路標識307)が望ましく、さらに、周辺に同種類のものが複数存在しないものを選択することが望ましい。
 自車方位特定部132は、ランドマーク検出部133を用いて、カメラ装置104の撮像画像データに対してランドマーク検出処理を行う。具体的には、ランドマーク検出部133は、詳細地図情報121から取得可能なランドマークの種類の情報を用いて、カメラ装置104の撮像画像データから、ステップ501で選択したランドマークを検出する(502)。ランドマーク検出部133は、例えば、ランドマークの種類が駐車禁止を示す道路標識307であれば、駐車禁止標識の画像を用いて、カメラ装置104の撮像画像データを走査して、パターンマッチング処理を行う。そして、マッチング箇所とランドマーク画像(例:駐車禁止標識画像)との合致度を算出し、合致度が所定値を超えた場合に、マッチング箇所に当該ランドマークが存在すると判断することで、ランドマークを検出する。なお、ランドマークの画像として、詳細地図情報121から取得できるランドマークのイメージ画像を用いてもよい。
 自車方位特定部132は、ステップ502においてランドマークを検出できなかった場合(503でNo)、再度詳細地図情報121から別のランドマークを選択し、ステップ501~502の処理を繰り返す。
 自車方位特定部132は、ランドマークを検出できた場合(503でYes)、カメラ装置104の撮像画像データ内のランドマークの位置から、車両10自身の進行方位を0度としたときの、車両10からランドマークが存在する方角θを計算する(504)。例えば、単眼カメラの場合、カメラ装置104の横軸の画角と、撮像画像内のランドマークの横軸の位置をもとに、カメラ装置104の撮像方角を0度としたときのランドマークが存在する位置の方角を計算できる。さらに、カメラ装置104の撮像方角が車両10自身の進行方位と一致しない場合、カメラ装置104の撮像方角と車両10自身の進行方位の相対角度の情報を車載用制御装置101が把握していれば、方角θを計算できる。なお、ランドマークが存在する方角θの計算方法は上記に限定されず、他の方法を用いて計算してもよい。
 次に、自車方位特定部132は、位置情報データベース120から取得する車両10自身の緯度203及び経度204の情報と、詳細地図情報121から取得する当該ランドマークの緯度及び経度の情報をもとに、北を0度としたときの車両10自身から見たときのランドマークが存在する方位θ’を計算する(505)。
 その後、自車方位特定部132は、北を0度としたときの車両10自身の進行方位φを計算する(506)。具体的には、ステップ504及び505で取得した方角θ及び方位θ’の情報をもとにφ=θ’-θとして算出する。そして、自車方位特定部132の処理を終了する。
 図6は、危険移動体抽出部134の処理フローを示す図である。危険移動体抽出部134は一定時間ごとに図6に示す処理フローの処理を行い、処理部111の他の処理と独立して並行に行われてもよい。
 危険移動体抽出部134は、まず車両10自身の現時点から一定時間以内の移動経路を予測する(600)。例えば、位置情報データベース120から取得する車両10自身の緯度203及び経度204の時系列情報をもとに車両10自身の移動ベクトルを計算し、移動ベクトルをもとに車両10自身の今後の移動経路を予測してもよいし、車両10自身の緯度203、経度204、詳細地図情報121、センサ群105等の情報をもとに、車両10が現在走行している車線を求め移動経路を予測してもよいし、ウィンカー点滅情報から左折または右折等を判断して移動経路を予測してもよい。車両10自身の移動経路予測方法は上記に限定されず、他の方法を用いて予測してもよい。
 次に、危険移動体抽出部134は、位置情報データベース120の全ての行を探索し、タイプ201から携帯端末11であると推測される行を1つ選択する(601)。例えば、タイプ201が歩行者であることを示しているか、自動車以外であることを示しているかどうかで判断し、その中で最初に見つかった行を選択すればよい。
 次に、危険移動体抽出部134は、ステップ601で選択した携帯端末11を所持する移動体の現時点から一定時間以内の移動経路を予測する(602)。例えば、携帯端末11の緯度203及び経度204の時系列情報を位置情報データベース120から取得して移動ベクトルを計算し、移動ベクトルをもとに携帯端末11の今後の移動経路を予測してもよいし、緯度203、経度204、詳細地図情報121の情報をもとに予測してもよい。詳細地図情報121の情報をもとに予測の方法として、歩道もしくは道路に平行して携帯端末11が移動していれば、歩道に平行して移動すると予測し、そうでなければ移動ベクトルにあわせて移動すると予測してもよい。
 危険移動体抽出部134は、ステップ600及びステップ602で予測した車両10自身と携帯端末11の移動経路が交差するかどうかを判断する(603)。移動経路が交差する場合(603でYes)、危険移動体抽出部134は、車両10自身がその携帯端末11を所持する移動体と衝突する危険性があると判断し、位置情報データベース120の危険フラグ205に危険であることを示す値を設定する(604)。このとき、例えば、車両10自身が携帯端末11を所持する移動体の衝突までの時間や、携帯端末11が歩道を移動中かなどに応じて、危険レベルの高低を調整し、その値を位置データベース120の危険フラグ205に設定してもよい。
 ステップ603でNoの場合またはステップ604の後、危険移動体抽出部134は、位置情報データベース120を確認し、他にステップ602~604の処理を行っていない携帯端末11が存在するか確認する(605)。当該携帯端末11が存在する場合(605でYes)、ステップ601に戻り、他の携帯端末11に対してステップ602~604の処理を行う。一方、他に携帯端末11が存在しない場合(605でNo)、危険移動体抽出部134の処理を終了する。
 図7は、危険移動体検出部135の処理フローを示す図である。危険移動体検出部135は一定時間ごとに図7に示す処理フローの処理を行い、処理部111の他の処理と独立して並行に行われてもよい。
 危険移動体検出部135は、まず車両10自身のID200をキーとして、位置情報データベース120から車両10自身の緯度203及び経度204を取得する(700)。 
 次に、危険移動体検出部135は、位置情報データベース120を探索し、タイプ201から携帯端末11であることが推測され、かつ危険フラグ205が危険であることを示す値となっている行を探索して、例えば最初に見つかった行を選択する(701)。そして、危険移動体検出部135は、その携帯端末11の緯度203及び経度204の情報を位置情報データベース120から取得する(702)。
 危険移動体検出部135は、次に、ステップ700及びステップ702で取得した、車両10自身及び携帯端末11の緯度203及び経度204の情報をもとに、北を0度とした時の車両10自身から見た時に携帯端末11が存在する方位φ’及び車両10自身と携帯端末11の間の距離dを計算する(703)。
 さらに、危険移動体検出部135は、画像内移動体検出部136を呼び出し、画像内移動体検出部136がカメラ装置104の撮像画像内から、携帯端末11を所持する移動体を検出する(704)。このステップ704の処理については後述する。
 そして、危険移動体検出部135は、位置情報データベース120を確認し、危険フラグ205の値が危険であることを示している携帯端末11の中で、まだステップ702~704の処理を行っていないものが存在するか確認する(705)。他にも携帯端末11が存在する場合(705でYes)、再度ステップ701で携帯端末11を選択し、ステップ702~704の処理を行う。一方、全ての携帯端末11を確認した場合(705でNo)、危険移動体検出部135の処理を終了する。
 図8は、画像内移動体検出部136の処理フローの一例を示す図である。画像内移動体検出部136は、危険移動体検出部135の処理のステップ704の中で、図8に示す処理フローの処理を行う。
 画像内移動体検出部136は、危険移動体検出部135のステップ703において計算した、車両10自身から見た携帯端末の存在する方位φ’及び距離dをもとに、カメラ装置104の撮像画像内において、危険移動体検出部135で選択中の携帯端末11を所持する移動体を検出するための、移動体検出領域を計算する(800)。移動体検出領域とは、移動体を検出するために撮像画像におけるパターンマッチングを行う領域、又は、優先的にパターンマッチングを行う領域のことをいい、例えば、歩行中の人間のイメージ画像を用いてパターンマッチングするために撮像画像を走査する領域のことをいう。移動体検出領域を設け、撮像画像内のパターンマッチングする範囲を絞ることで、危険移動体検出部135で選択された移動体の検出時間を短縮することが可能になる。移動体検出領域の具体的な計算例は図9にて後述する。
 次に、画像内移動体検出部136は、移動体検出領域の推定にあたって車両振動情報を利用するか確認する(801)。これは、車両振動検出部137または車両振動検出機能を持つセンサ群105から、車両10自身の走行時の縦の振動幅情報を取得し、その情報を活用して移動体検出領域拡大処理を行うかどうかを決めるものである。この処理を行うかどうかは、例えば、安全運転支援システムのシステム管理者もしくは車両10のユーザが事前に決定しておき、パラメータとして設定する。この車両振動検出部137の処理については後述する。
 車両振動情報を利用する場合(801でYes)、画像内移動体検出部136は、走行時の縦の車両振動幅の情報を車両振動検出部136やセンサ群105から取得する(802)。例えば、車両振動検出部136は、車両走行中の縦の振動により、カメラ装置104の画像内で検出済みのランドマークが上下にどの程度のピクセル幅で振動しているかの情報を取得する。ここで取得する情報は上記に限らず、例えば、車両自身の振動幅の測定値でもよく、この場合はその情報をもとに、上下のピクセル幅の振幅幅を計算すればよい。
 画像内移動体検出部136は、ステップ802で取得した情報を用いて、移動体検出領域を縦方向に拡大する(803)。例えば、ステップ802で取得した上下の振動のピクセル幅の分だけ、画像内移動体検出部136は移動体検出領域を縦方向である上下に拡大する。他にも、上記に加えて、さらにマージンを考慮し、そのマージンの分だけ移動体検出領域を拡大してもよい。
 そして、ステップ801でNoの場合またはステップ803の後に、画像内移動体検出部136は、移動体検出領域に対してパターンマッチングを行うことにより、移動体を検出し(804)、画像内移動体検出部136の処理を終了する。例えば、歩行中の人間のイメージ画像を用いて、カメラ装置104の撮像画像データを走査して、パターンマッチング処理を行う。マッチング箇所と歩行中の人間のイメージ画像との合致度を算出し、合致度が所定値を超えた場合に、マッチング箇所に移動体が存在すると判断し、移動体を検出する。なお、パターンマッチングに用いる画像は、歩行中の人間のイメージ画像に限定されるものではなく、死角から飛び出してくる場合や自転車に乗っている場合等を考慮して、人間の手等、人間の一部のイメージ画像であってもよいし、自転車等の乗り物やその乗り物のタイヤ等の一部のイメージ画像であってもよい。ここで検出した移動体を車載用制御装置101に渡すことで、車載用制御装置101は、安全運転支援システムなどの処理を行う。
 図9は、車両10自身及び携帯端末11を所持する歩行者の位置関係を示す図であり、図9をもとにしてカメラ装置104の撮像画像データ内における移動体検出領域の計算方法の一例を説明する。なお、移動体検出領域の計算は、本説明の方法に限らないものであって、それ以外の方法で計算してもよい。また、本説明は単眼カメラを用いる場合を例として説明する。
 上の図900は、詳細地図情報121において、車両10自身及び携帯端末11を所持する歩行者911が存在する場合におけるイメージ図である。図900をもとに、まず移動体検出領域の横軸の位置(地面に対して水平方向の位置)の計算方法の一例を説明する。なお、本来は詳細地図情報121には道路や他の建築物なども存在するが、本説明では不要のため省略した。
 図900において車両10自身の進行方位φ(912)は、自車方位特定部132のステップ506で既に計算されている。また、北を0度としたときの、車両10自身から歩行者911が存在する方位φ’は危険移動体検出部135のステップ703でφ’として計算されている。そして、このφ及びφ’から、車両10自身の進行方位φ(912)を0度としたときの、車両10自身から見て歩行者911が存在する方角δ(921)は、δ=φ’-φとして求められる。
 カメラ装置104の撮像画像内において、歩行者911の移動体検出領域の横軸の中心位置は、例えば、方角δ(921)が0~90度の範囲であれば撮像画像の右側、-90~0度の範囲であれば撮像画像の左側にあり、さらにその左側または右側の横軸の中心位置は、カメラ装置104の横軸の画角920に対する方角δ(921)の割合によって計算可能である。
 また、移動体検出領域の横幅(地面に対して水平方向の幅)は、車両10自身及び歩行者911間の距離dと車載用制御装置101が設定するパラメータにより設定すればよく、例えば、横幅は距離dによらず一定であってもよいし、距離dが小さければ横幅を大きくとり、距離dが大きければ横幅を小さくとるようにしてもよい。
 次に、下の図901は、図900において車両10自身と歩行者911を結ぶ線に沿って、高さ方向に切り取った場合の断面図である。図900をもとに、移動体検出領域の縦軸の位置(地面に対して高さ方向の位置)の計算方法の一例を説明する。
 図901では、車両10及び歩行者911の間の距離d(931)、車両10自身のカメラ装置104が設定されている高さ(933)、歩行者911の身長とカメラ装置104が設置されている高さの差分(932)を図示している。なお、歩行者911の身長は、携帯端末11から一般的に取得できないが、例えば人間の平均身長などの情報を用いてもよい。さらに、歩行者911の身長に限る必要はなく、例えば、位置情報データベース120のタイプ201から自転車であると判明している場合は、自転車に乗車中の歩行者の最大の高さの値を用いてもよい。
 ここで、カメラ装置104の位置から歩行者911の最上部を見るときの仰俯角940は、距離d(931)と高さの差分932から三角関数を用いて計算できるし、歩行者911の最下部(地面)の仰俯角941は距離d(931)と高さ933から三角関数を用いて計算可能できる。
 よって、カメラ装置104の撮像画像データ内において、歩行者911の検出領域の縦の範囲(地面に対して高さ方向の範囲)は、カメラ装置104の縦軸の画角に対する、仰俯角940及び941の割合によって計算できる。
 図10は、車両振動検出部137の処理フローの一例を示す図である。車両振動検出部137は一定時間ごとに図10に示す処理フローの処理を行い、処理部111の他の処理と独立して並行に行われてもよい。
 まず、車両振動検出部137は、撮像画像データベース122から直近の一定時間内のカメラ104装置の撮像画像を取得し、その撮像画像内から基準となる画像を選択する(1000)。例えば、一定時間内の複数枚の撮像画像内から、既にランドマーク検出部133により検出したランドマークの縦方向の位置が一致する画像の枚数が最も多いものから1枚選択し、それを基準画像とすればよい。
 次に、車両振動検出部137は、撮像画像データベース122の直近の一定時間内の複数枚の撮像画像とステップ1000で選択した基準画像を比較して車両の上限の最大振動幅を計算し(1001)、車両振動検出部137の処理を終了する。例えば、撮像画像データベース122の直近の一定時間内の複数枚の撮像画像の中から、ステップ1000で選択した基準画像におけるランドマークの位置に対して、ランドマークが最も上に移動した画像と、最も下に移動した画像を選択し、基準画像におけるランドマークの位置とのピクセル幅の差分を計算する。
 上記の説明では、ランドマークの位置をもとに計算したが、ランドマークに限定されるものではなく、例えば、撮像画像内に存在するランドマークではないオブジェクトや、地平線などをもとに検出してもよい。
 図11は、図1~図10で説明した本発明の効果的なケースを示す図である。図11を用いて、これまでに説明した本発明の具体例を説明する。図11では、車両10が道路1112を走行中に、道路1113から歩行者1110が接近中である場合を例として説明する。
 図11の上の図1100は、詳細地図情報121において、車両10自身及び携帯端末11を所持する移動体である歩行者1110が存在する場合におけるイメージ図である。図1100では、車両10が道路1112を右下(南東)に向かって走行中であり、歩行者1110は携帯端末11を所持しており左下(南西)に向かって移動中である。また、交差点1115周辺では、ランドマークとして道路標識1111が存在し、さらに交差点の北側には建物1114が存在する。この建物1114のために、車両10から歩行者1110は見えないといった状況である。
 下の画像1101は、車両10の前方に搭載されたカメラ装置104の撮像画像である。画像1101には、道路標識1111及び建物1114が表示されているが、歩行者1110は建物1114のために表示されない。
 図1100において、歩行者1110が所持する携帯端末11は、定期的に位置測位装置151により携帯端末11自身の緯度203及び経度204の情報を取得する。携帯端末11は、緯度203及び経度204の情報に加えて、携帯端末11自身を一意に識別するためのID200、例えば歩行者であることを示すタイプ201の情報を、周辺に存在する車両10に対して送信する。
 車両10の位置情報管理部131は、定期的にステップ400により自車位置測位装置103から緯度203及び経度204の情報を取得し、ステップ403により、位置情報データベース120に、車両10自身を一意に識別するID200、車両10が例えば普通の乗用車であることを示すタイプ201、取得した時刻202、緯度203、経度204の情報を更新する。
 さらに、車両10の位置情報管理部131は、ステップ401~403により、歩行者1110が所持する携帯端末11から定期的に情報を受信し、位置情報データベース120に、携帯端末のID200、タイプ201、受信時刻202、緯度203、経度204の情報を登録または更新する。
 上記に並行して、車両10の自車方位特定部132は、ステップ500及び501により、定期的に位置情報データベース120に登録された車両10自身の緯度203及び経度204の情報と詳細地図情報121をもとに、車両10自身の周辺に存在するランドマークを検索し、ここでは道路標識1111の情報(緯度、経度、道路標識の種類)を取得する。
 車両10の自車方位特定部132は、ステップ502により、詳細地図情報121から取得する道路標識の種類情報をもとに想定されるイメージ画像をもとに、カメラ装置104の撮像画像データである画像1101のパターンマッチングを行い、領域1130内にランドマークである道路標識1111が存在することを検出する。
 さらに、車両10の自車方位特定部132は、ステップ504により、例えば、車両10に搭載したカメラ装置104の横の画角及び画像1101内の領域1130の位置から、車両10自身の進行方位1120を0度としたときの、車両10自身から見た時の道路標識1111の方角θ(1122)を計算する。
 車両10の自車方位特定部132は、次に、ステップ505により、位置情報データベース120に登録された車両10自身の緯度203及び経度204の情報と、詳細地図情報121から取得可能な道路標識1111の緯度及び経度の情報をもとに、北を0度とした時の、車両10自身から見た時の道路標識1111が存在する方位θ’(1123)を計算する。そして、車両10の自車方位特定部132は、ステップ506により、北を0度としたときの車両10自身の進行方位であるφ(1120)を、φ=θ’(1123)-θ(1122)により計算する。
 また、上記と並行して、車両10の危険移動体抽出部134は、ステップ600~602により、位置情報データベース120から取得できる車両10自身と携帯端末11の緯度203及び経度204の時系列情報から、車両10及び携帯端末11がいずれも交差点1115に向かうと予測する。そして、ステップ603~604により、危険移動体抽出部134は、車両10自身と携帯端末11の移動経路が交差すると判断し、位置情報データベース120の危険フラグ205に危険を示す値を設定する。
 さらに、上記と並行して、車両10の危険移動体検出部135は、ステップ701により位置情報データベース120の危険フラグ205の値を確認することで、携帯端末11が車両10自身と衝突する危険性があることを認識し、その携帯端末11を選択する。
 車両10の危険移動体検出部135は、位置情報データベース120から車両自身10及び携帯端末11の緯度203及び経度204の情報を取得(ステップ700及び702)し、その情報をもとに、ステップ703により、北を0度としたときの車両10自身から見たときの歩行者1110の方位φ’(1124)と、車両10自身と携帯端末11の間の距離dを計算する。
 そして、車両10の画面移動体検出部136は、ステップ800により歩行者1110が存在する、画像1101内の移動体検出領域1131を推定する。ここで、車両10自身の進行方位φ(1120)を0度としたときの、車両10自身から携帯端末11が存在する方角δ(1125)はφ’(1124)-φ(1120)で計算できる。画像1101内の移動体検出領域1131の横軸の中心位置は、カメラ装置104の横軸の画角と、方角δ(1125)の値をもとに計算すればよい。また、移動体検出領域1131の横幅及び縦幅は、図9を用いて説明した方法を一例として計算すればよい。
 さらに、車両振動検出部137の情報を用いる場合、ステップ803、804により、車両10の画面移動体検出部136は、車両振動検出部137から、例えば、画像1101内の道路標識1111の上下の最大振動ピクセル幅の情報を取得し、その幅の分だけ移動体検出領域1131の上下の幅を拡大する。
 そして、車両10の画面移動体検出部136は、移動体検出領域1131に対して、歩行者や自転車等の全体のイメージ画像またはその一部のイメージ画像のパターンマッチングを行うことで、歩行者1110の検出処理を行う。
 ただし、図11の時点では歩行者1110は建物1114の後ろに存在するため、車両10の画面移動体検出部136は歩行者1110を検出できないが、ここまで説明した処理を定期的に行っていれば、歩行者1110が建物1114から出てきた時点ですぐに歩行者1110を車両10の車載用制御装置101が認識できる。
 このように、本発明を用いることで、携帯端末11を所持する移動体が建物等障害物により車両10から見えない場所に存在するために、カメラ装置104の撮像画像から検出できない場合であっても、無線通信により認識できた歩行者情報を用いることで、車両10のカメラ装置104の撮像画像に登場した時点ですぐに画面移動体検出部136により認識できることを説明した。
 さらに、これまでの説明で、移動体が所持する携帯端末11から無線通信情報を介して受信した情報用いるため、自車と衝突する歩行者が視界にいない場合でも、移動体の情報からカメラ装置104の撮像画像の移動体検出領域を設定することを説明した。すなわち、本発明を用いれば、例えば多数の歩行者や自転車などの移動体が存在する環境であっても、携帯端末11から受信した情報を用いて、車両10と衝突する可能性がある危険な移動体の移動体検出領域を設定するため、カメラ装置104の撮像画像からの危険な移動体の検出速度及び検出精度を向上できることは容易に想像できる。
 また、本発明では、自車方位特定部132は、カメラ装置104の撮像画像内でランドマーク検出部133により認識したランドマークを用いて車両10自身の方位を特定する処理を行っているが、自車方位特定部132において、高精度ジャイロ等を用いることで自車方位を特定する方法に置き換えてもよい。
10 車両
11 携帯端末
12 無線ネットワーク
101 車載用制御装置
102 無線通信装置
103 自車位置測位装置
104 カメラ装置
105 センサ装置
110 通信部
111 処理部
112 記憶部
130 自車情報送信部
131 位置情報管理部
132 自車方位特定部
133 ランドマーク検出部
134 危険移動体抽出部
135 危険移動体検出部
136 画像内移動体検出部
137 車両振動検出部
150 無線通信装置
151 位置測位装置
200 ID
201 タイプ
202 時刻
203 緯度
204 経度
205 危険フラグ
300 詳細地図情報(一部)
301 方位情報
302 交差点
303 信号
304 停止線
305 横断歩道
306 道路標示
307 道路標識
911 歩行者
1110 歩行者
1111 道路標識
1112 道路
1113 道路
1114 建物
1115 交差点

Claims (15)

  1.  車両に搭載される車両制御装置であって、
     前記車両の位置情報である第一の位置情報と携帯端末の位置情報である第二の位置情報とを取得する通信部と、
     前記第一の位置情報及び前記第二の位置情報が格納される記憶部と、
     前記第一の位置情報と前記第二の位置情報とに基づいて、前記車両と前記携帯端末を所持する移動体との衝突の危険性である衝突危険性を判定し、該判定の結果に基づいて、前記車両に搭載されたカメラ装置により撮像される撮像画像において移動体検出処理が行われる移動体検出領域を設定し、前記移動体検出領域内の前記移動体の画像を検出する処理部と、
     を有することを特徴とする車両制御装置。
  2.  請求項1に記載の車両制御装置であって、
     前記処理部は、前記第一の位置情報と前記第二の位置情報とに基づいて前記車両に対する前記携帯端末の方向と前記車両と前記携帯端末との間の距離とを算出し、算出した前記方向と前記距離とに基づいて前記移動体検出領域を設定する、ことを特徴とする車両制御装置。
  3.  請求項1に記載の車両制御装置であって、
     前記記憶部には、複数の前記携帯端末各々に対応する前記第二の位置情報が記憶され、
     前記処理部は、複数の前記携帯端末に対して前記衝突危険性を判定し、該判定の結果、所定の条件を満たす前記携帯端末を所持する前記移動体に対して前記移動体検出領域を設定する、ことを特徴とする車両制御装置。
  4.  請求項1に記載の車両制御装置であって、
     前記処理部は、前記第一の位置情報に基づいて前記車両の移動経路を、前記第二の位置情報に基づいて前記携帯端末を所持する前記移動体の移動経路を算出し、前記車両の移動経路と前記移動体の移動経路とに基づいて前記衝突危険性を判定する、ことを特徴とする車両制御装置。
  5.  請求項1に記載の車両制御装置であって、
     前記処理部は、前記カメラ装置の撮像画像の振動幅を検出し、検出した前記振動幅に基づいて前記移動体検出領域を拡大する、ことを特徴とする車両制御装置。
  6.  車両制御装置とカメラ装置とが搭載される車両であって、
     前記車両の位置情報である第一の位置情報を取得する位置情報取得部と、
     通信網を介して携帯端末の位置情報である第二の位置情報を受信する通信部と、を有し、
     前記車両制御装置は、
     前記第一の位置情報及び前記第二の位置情報が格納される記憶部と、
     前記第一の位置情報と前記第二の位置情報とに基づいて、前記車両と前記携帯端末を所持する移動体との衝突の危険性である衝突危険性を判定し、該判定の結果に基づいて、前記カメラ装置により撮像される撮像画像において移動体検出処理が行われる移動体検出領域を設定し、前記移動体検出領域内の前記移動体の画像を検出する処理部と、
     を有することを特徴とする車両。
  7.  請求項6に記載の車両であって、
     前記処理部は、前記第一の位置情報と前記第二の位置情報とに基づいて前記車両に対する前記携帯端末の方向と前記車両と前記携帯端末との間の距離とを算出し、算出した前記方向と前記距離とに基づいて前記移動体検出領域を設定する、ことを特徴とする車両。
  8.  請求項6に記載の車両であって、
     前記記憶部には、複数の前記携帯端末各々に対応する前記第二の位置情報が記憶され、 前記処理部は、複数の前記携帯端末に対して前記衝突危険性を判定し、該判定の結果、所定の条件を満たす前記携帯端末を所持する前記移動体に対して前記移動体検出領域を設定する、ことを特徴とする車両。
  9.  請求項6に記載の車両であって、
     前記処理部は、前記第一の位置情報に基づいて前記車両の移動経路を、前記第二の位置情報に基づいて前記携帯端末を所持する前記移動体の移動経路を算出し、前記車両の移動経路と前記移動体の移動経路とに基づいて前記衝突危険性を判定する、ことを特徴とする車両。
  10.  請求項6に記載の車両であって、
     前記処理部は、前記カメラ装置の撮像画像の振動幅を検出し、検出した前記振動幅に基づいて前記移動体検出領域を拡大する、ことを特徴とする車両。
  11.  車両に搭載されるカメラ装置によって撮像される撮像画像から移動体を検出する移動体検出方法であって、
     前記車両の位置情報である第一の位置情報と携帯端末の位置情報である第二の位置情報とを取得し、
     前記第一の位置情報と前記第二の位置情報とに基づいて、前記車両と前記携帯端末を所持する前記移動体との衝突の危険性である衝突危険性を判定し、
     該判定の結果に基づいて、前記カメラ装置による前記撮像画像において前記移動体の検出処理が行われる移動体検出領域を設定し、
     前記移動体検出領域内の前記移動体の画像を検出する、
     ことを特徴とする移動体検出方法。
  12.  請求項11に記載の移動体検出方法であって、
     前記第一の位置情報と前記第二の位置情報とに基づいて前記車両に対する前記携帯端末の方向と前記車両と前記携帯端末との間の距離とを算出し、
     算出した前記方向と前記距離とに基づいて前記移動体検出領域を設定する、
     ことを特徴とする車両制御装置。
  13.  請求項11に記載の移動体検出方法であって、
     複数の前記携帯端末各々に対応する前記第二の位置情報を取得し、
     複数の前記携帯端末に対して前記衝突危険性を判定し、
     該判定の結果、所定の条件を満たす前記携帯端末を所持する前記移動体に対して前記移動体検出領域を設定する、
     ことを特徴とする移動体検出方法。
  14.  請求項11に記載の移動体検出方法であって、
     前記第一の位置情報に基づいて前記車両の移動経路を、前記第二の位置情報に基づいて前記携帯端末を所持する前記移動体の移動経路を算出し、
     前記車両の移動経路と前記移動体の移動経路とに基づいて前記衝突危険性を判定する、ことを特徴とする移動体検出方法。
  15.  請求項11に記載の移動体検出方法であって、
     前記カメラ装置の撮像画像の振動幅を検出し、検出した前記振動幅に基づいて前記移動体検出領域を拡大する、
     ことを特徴とする移動体検出方法。
PCT/JP2014/082612 2013-12-27 2014-12-10 車両制御装置、車両制御装置を搭載した車両、及び、移動体検出方法 WO2015098510A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2013-270917 2013-12-27
JP2013270917A JP2015125669A (ja) 2013-12-27 2013-12-27 車両制御装置、車両制御装置を搭載した車両、及び、移動体検出方法

Publications (1)

Publication Number Publication Date
WO2015098510A1 true WO2015098510A1 (ja) 2015-07-02

Family

ID=53478374

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2014/082612 WO2015098510A1 (ja) 2013-12-27 2014-12-10 車両制御装置、車両制御装置を搭載した車両、及び、移動体検出方法

Country Status (2)

Country Link
JP (1) JP2015125669A (ja)
WO (1) WO2015098510A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114241623A (zh) * 2020-09-09 2022-03-25 丰田自动车株式会社 信息管理系统以及在该信息管理系统中使用的车载装置、图像管理服务器

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6556563B2 (ja) * 2015-08-31 2019-08-07 株式会社東芝 検出装置、検出方法、検出プログラムおよび情報処理システム
US10636308B2 (en) * 2016-05-18 2020-04-28 The Boeing Company Systems and methods for collision avoidance
WO2019044208A1 (ja) * 2017-08-29 2019-03-07 パナソニック株式会社 端末装置、路側装置、通信システム、および通信方法
WO2019044007A1 (ja) * 2017-08-29 2019-03-07 パナソニック株式会社 端末装置、路側装置、通信システム、および通信方法
JP6834914B2 (ja) * 2017-11-07 2021-02-24 トヨタ自動車株式会社 物体認識装置
WO2020075839A1 (ja) * 2018-10-12 2020-04-16 京セラ株式会社 交通通信システム、路側機、及び方法
JP7199269B2 (ja) * 2019-03-20 2023-01-05 日立Astemo株式会社 外界センシング情報処理装置

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000285245A (ja) * 1999-03-31 2000-10-13 Toshiba Corp 移動体の衝突防止装置、衝突防止方法、および記録媒体
JP2004268829A (ja) * 2003-03-11 2004-09-30 Denso Corp 車両用歩行者衝突危険判定装置
JP2011027457A (ja) * 2009-07-22 2011-02-10 Fujitsu Ten Ltd 物体検出装置、情報処理方法、および、情報処理システム
JP2011227582A (ja) * 2010-04-15 2011-11-10 Toyota Motor Corp 車両用衝突予測装置

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5821276B2 (ja) * 2011-05-20 2015-11-24 マツダ株式会社 移動体の位置および進行方向の検出装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000285245A (ja) * 1999-03-31 2000-10-13 Toshiba Corp 移動体の衝突防止装置、衝突防止方法、および記録媒体
JP2004268829A (ja) * 2003-03-11 2004-09-30 Denso Corp 車両用歩行者衝突危険判定装置
JP2011027457A (ja) * 2009-07-22 2011-02-10 Fujitsu Ten Ltd 物体検出装置、情報処理方法、および、情報処理システム
JP2011227582A (ja) * 2010-04-15 2011-11-10 Toyota Motor Corp 車両用衝突予測装置

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114241623A (zh) * 2020-09-09 2022-03-25 丰田自动车株式会社 信息管理系统以及在该信息管理系统中使用的车载装置、图像管理服务器
CN114241623B (zh) * 2020-09-09 2024-03-15 丰田自动车株式会社 信息管理系统以及在该信息管理系统中使用的车载装置、图像管理服务器

Also Published As

Publication number Publication date
JP2015125669A (ja) 2015-07-06

Similar Documents

Publication Publication Date Title
WO2015098510A1 (ja) 車両制御装置、車両制御装置を搭載した車両、及び、移動体検出方法
CN109895850B (zh) 弯道导向方法、装置、电子装置及计算机可读记录介质
CN109313856B (zh) 物体检测方法及物体检测装置
JP5997797B2 (ja) 車両の地図データ処理装置
EP3154045B1 (en) Obstacle-information-managing device
JP5472163B2 (ja) 速度規制値通知装置及び速度規制値通知システム
JP6149846B2 (ja) 注意喚起装置
US8620571B2 (en) Driving assistance apparatus, driving assistance method, and driving assistance program
US20170154531A1 (en) Drive support apparatus
JP2011013039A (ja) 車線判定装置及びナビゲーションシステム
WO2018109865A1 (ja) 路側機および路車間通信システム
WO2017076439A1 (en) Method of providing traffic related information and device, computer program and computer program product
JP6828655B2 (ja) 自車位置推定装置
JP7362733B2 (ja) 道路環境情報の自動化クラウドソーシング
US10909848B2 (en) Driving assistance device
KR20170019794A (ko) 차량 및 그 충돌 회피 방법
JP5862777B2 (ja) 交通情報提供システム及び交通情報提供方法
JP6449627B2 (ja) 走行区画線認識装置
WO2021261228A1 (ja) 障害物情報管理装置、障害物情報管理方法、車両用装置
JP4900120B2 (ja) 駐停車判定装置
JP2019101854A (ja) 軌跡設定装置
JP2015109003A (ja) 歩行者情報提供システム
JP5251467B2 (ja) 車両用の情報提供装置及び情報提供方法
JP5014308B2 (ja) 運転支援装置
JP6714944B2 (ja) 運転支援装置、運転支援プログラム、運転支援方法および運転支援システム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 14873833

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 14873833

Country of ref document: EP

Kind code of ref document: A1