WO2022091167A1 - 情報提供サーバ、情報提供方法及びプログラム記録媒体 - Google Patents

情報提供サーバ、情報提供方法及びプログラム記録媒体 Download PDF

Info

Publication number
WO2022091167A1
WO2022091167A1 PCT/JP2020/040040 JP2020040040W WO2022091167A1 WO 2022091167 A1 WO2022091167 A1 WO 2022091167A1 JP 2020040040 W JP2020040040 W JP 2020040040W WO 2022091167 A1 WO2022091167 A1 WO 2022091167A1
Authority
WO
WIPO (PCT)
Prior art keywords
information
moving body
providing server
moving
road
Prior art date
Application number
PCT/JP2020/040040
Other languages
English (en)
French (fr)
Inventor
航生 小林
哲郎 長谷川
貴之 佐々木
洋明 網中
慶 柳澤
一気 尾形
Original Assignee
日本電気株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日本電気株式会社 filed Critical 日本電気株式会社
Priority to JP2022558601A priority Critical patent/JPWO2022091167A1/ja
Priority to PCT/JP2020/040040 priority patent/WO2022091167A1/ja
Priority to US18/032,620 priority patent/US20230394971A1/en
Publication of WO2022091167A1 publication Critical patent/WO2022091167A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/164Centralised systems, e.g. external to vehicles
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/0104Measuring and analyzing of parameters relative to traffic conditions
    • G08G1/0108Measuring and analyzing of parameters relative to traffic conditions based on the source of data
    • G08G1/0112Measuring and analyzing of parameters relative to traffic conditions based on the source of data from the vehicle, e.g. floating car data [FCD]
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/0104Measuring and analyzing of parameters relative to traffic conditions
    • G08G1/0108Measuring and analyzing of parameters relative to traffic conditions based on the source of data
    • G08G1/0116Measuring and analyzing of parameters relative to traffic conditions based on the source of data from roadside infrastructure, e.g. beacons
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/0104Measuring and analyzing of parameters relative to traffic conditions
    • G08G1/0125Traffic data processing
    • G08G1/0133Traffic data processing for classifying traffic situation
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/0104Measuring and analyzing of parameters relative to traffic conditions
    • G08G1/0137Measuring and analyzing of parameters relative to traffic conditions for specific applications
    • G08G1/0141Measuring and analyzing of parameters relative to traffic conditions for specific applications for traffic information dissemination
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • G06V20/54Surveillance or monitoring of activities, e.g. for recognising suspicious objects of traffic, e.g. cars on the road, trains or boats
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads

Definitions

  • the present invention relates to an information providing server, an information providing method, and a program recording medium.
  • Patent Document 1 discloses a notification system capable of detecting a blind spot moving object existing at a position that becomes a blind spot when viewed from a right-turning vehicle and providing information to the driver.
  • the notification system described in the same document repeatedly captures images of a plurality of oncoming moving objects traveling at an intersection of roads with a camera. Then, this notification system determines the presence or absence of a blind spot moving body that cannot be seen from the right turn waiting position in the intersection among the oncoming moving bodies based on the image, and determines the determined blind spot moving body as the driver of the right turn vehicle in the intersection. Notify to.
  • Patent Document 2 when the own vehicle waits for a right turn, the support information regarding the oncoming vehicle traveling on the oncoming road is set according to the driving condition of the oncoming vehicle, thereby reducing the complicated feeling given to the driver.
  • a driving support device for turning right is disclosed.
  • this right-turn driving support device depends on the degree to which the following vehicle becomes difficult to see due to the blind spot of the oncoming vehicle due to the relationship between the size of the vehicle body of the preceding vehicle and the following vehicle based on the information of the oncoming vehicle. Set the blind spot rank. Then, this right-turn driving support device sets the maximum value of each blind spot rank as an oncoming straight-ahead vehicle rank flag.
  • this right-turn driving support device is based on the oncoming straight-ahead vehicle rank flag and the right-turn oncoming vehicle rank flag set according to the size of the vehicle body of the oncoming vehicle waiting for a right turn, when the own vehicle makes a right turn. Set the evaluation rank according to the degree of danger. Then, the right turn driving support device notifies the right turn driving support information according to the evaluation rank.
  • Patent Documents 3 and 4 disclose an in-vehicle device that provides driving support when turning right at an intersection or the like using only a sensor mounted on the own vehicle without using information from a roadside device or another vehicle.
  • Japanese Unexamined Patent Publication No. 2008-041058 Japanese Unexamined Patent Publication No. 2011-090582 Japanese Unexamined Patent Publication No. 2002-205615 Japanese Unexamined Patent Publication No. 2006-349456
  • a moving body that exists in the vicinity of the moving body and is difficult to detect from the moving body (hereinafter referred to as a peripheral moving body) is detected and detected with high accuracy. It is required to notify the moving body of information about the moving body. Further, when notifying the mobile body of information, it is required to efficiently notify the information in order to reduce the communication load of the wireless communication network and improve the efficiency of using wireless resources.
  • the method described as the background technique has a problem that it is difficult to maintain the detection accuracy of peripheral moving objects and to efficiently notify information.
  • Patent Document 1 uses a configuration in which a camera and a processing computer are arranged one-to-one, and the information of each camera is independently notified to the vehicle. Therefore, there is a possibility that the notification information to the vehicle may be duplicated between the cameras. In addition, since information is notified independently from each camera to the same vehicle, the protocol overhead increases.
  • An object of the present invention is to provide an information providing server, an information providing method, and a program recording medium that can contribute to both maintaining the detection accuracy of the peripheral moving object and improving the efficiency of information notification to the moving object.
  • the primary moving body passing through the road is obtained from the plurality of sensors.
  • An information providing server including an information creating means for creating the secondary information using information and a transmitting means for transmitting the secondary information to the first moving body is provided.
  • a computer capable of acquiring primary information from a plurality of sensors that sense a predetermined range of the road passes through the road based on the primary information acquired from each of the plurality of sensors. It is determined whether or not to provide the secondary information created by using the primary information acquired from the plurality of sensors to the moving body of the above, and it is determined to provide the secondary information to the first moving body. If so, an information providing method is provided in which the secondary information is created using the primary information acquired from the plurality of sensors, and the secondary information is transmitted to the first moving body. This method is linked to a specific machine, a computer that can acquire information from the plurality of sensors described above.
  • a computer program for realizing the above-mentioned function of the information providing server.
  • This program is input to a computer device via an input device or an external communication interface, stored in a storage device, and drives a processor according to a predetermined step or process. Further, this program can display the processing result including the intermediate state at each stage via the display device, if necessary, or can communicate with the outside via the communication interface.
  • Computer devices for that purpose typically include, for example, a processor, a storage device, an input device, a communication interface, and, if necessary, a display device that can be connected to each other by a bus.
  • the program can also be recorded on a computer-readable (non-transitional) storage medium.
  • the drawing reference reference numerals added to this outline are added to each element for convenience as an example for assisting understanding, and the present invention is not intended to be limited to the illustrated embodiment.
  • the connecting line between blocks such as drawings referred to in the following description includes both bidirectional and unidirectional.
  • the one-way arrow schematically shows the flow of the main signal (data), and does not exclude bidirectionality.
  • the program is executed via a computer device, which comprises, for example, a processor, a storage device, an input device, a communication interface, and, if necessary, a display device.
  • this computer device is configured to be capable of communicating with a device inside or outside the device (including a computer) via a communication interface regardless of whether it is wired or wireless.
  • a communication interface regardless of whether it is wired or wireless.
  • the present invention can be realized in one embodiment of the information providing server 20 including a determination unit 21, an information creation unit 22, and a transmission unit 23, as shown in FIG. Further, the information providing server 20 is connected to a plurality of sensors 10 that sense a predetermined range of the road by wire or wirelessly, and data (primary information) can be acquired from these sensors 10.
  • the determination unit 21 is created by using the primary information acquired from the plurality of sensors for the first moving body passing through the road based on the primary information acquired from each of the sensors 10. It functions as a judgment means for determining whether or not to provide secondary information.
  • the information creation unit 22 determines that the secondary information is provided to the first moving body passing through the road, the information for creating the secondary information using the primary information acquired from the plurality of sensors. Functions as a means of creation.
  • the transmission unit 23 functions as a transmission means for transmitting the secondary information to the first moving body.
  • the information providing server 20 configured as described above has, based on the primary information acquired from each of the plurality of sensors 10, the primary information acquired from the plurality of sensors with respect to the first moving body passing through the road. It is determined whether or not to provide the secondary information created by using.
  • the information providing server 20 uses the primary information acquired from the plurality of sensors to provide the secondary information. Create information. Then, the information providing server 20 transmits the secondary information to the first mobile body. As a result, the first mobile body can obtain secondary information based on the primary information acquired from each of the plurality of sensors 10. Since this secondary information is created using the primary information obtained from the plurality of sensors 10, it is possible to cover the area around the first moving object from a wider viewpoint. Further, since the primary information is aggregated into the secondary information by the information providing server 20, efficient information notification is also realized.
  • secondary information information on a mobile body that is difficult to detect from the first mobile body may be provided as secondary information.
  • secondary information For example, a place where a blind spot is created based on information obtained by a plurality of sensors 10 for a first moving object trying to turn right or left at an intersection or a first moving object trying to pass a sharp curve. You may convey the existence and movement of the moving object located in.
  • the example of secondary information is not limited to the above example.
  • the secondary information may be information with improved accuracy of the primary information. Even with the same type of sensor, by using a plurality of sensors 10 arranged at different positions, it is possible to obtain a sensing result with higher accuracy than the sensing function possessed by the first moving body.
  • the first moving body may be a person or a bicycle in addition to the vehicle.
  • secondary information based on primary information obtained from a plurality of sensors 10 may be provided to a person or a bicycle trying to pass through an intersection with poor visibility.
  • FIG. 2 is a diagram showing the configuration of the first embodiment of the present invention.
  • an information providing server 200 connected to the cameras 100A to 100D as a plurality of sensors is shown.
  • the cameras 100A to 100D are cameras that are attached to the traffic signals 400A to 400D at the intersection and can transmit the camera image (still image or moving image) to the information providing server 200.
  • the camera 100A is installed at a position where traffic coming from an oncoming lane (a lane from the lower side to the upper side of FIG. 2) of a vertical road intersecting at an intersection shown on the left side of FIG. 2 can be photographed from the front.
  • FIG. 3 is a diagram schematically showing the shooting range of the camera 100A.
  • the camera 100A points in the same direction as the lamp of the traffic signal 400A, and can capture the range shown by the alternate long and short dash line in FIG.
  • the shootable range of the camera 100A is almost a triangle, but the range in the distant direction (the base of the triangle of the alternate long and short dash line in FIG. 3) depends on the performance of the camera 100A and the shooting environment. ..
  • the cameras 100B to 100D also have a shooting range equivalent to that of the camera 100A.
  • the cameras 100A to 100D By arranging the cameras 100A to 100D in this way, it is possible to photograph the traffic flowing in and out of the intersection at various angles and monitor it in a plane.
  • the arrangement of the cameras shown in FIGS. 2 to 4 is just an example, and the number and position of the cameras can be changed according to the content to be provided as secondary information.
  • a sensor other than the camera may be arranged as the sensor.
  • LiDAR Light Detection and Ringing
  • RADAR Radio Detection And Ringing
  • an infrared sensor a millimeter wave sensor, or the like
  • a plurality of types of sensors may be used in combination.
  • the information providing server 200 includes a determination unit 201, an information creation unit 202, and a transmission unit 203.
  • the determination unit 201 is a moving object located in a blind spot as secondary information for a moving object entering the intersection from a specific direction (for example, lower part of FIG. 2) based on the camera images acquired from the cameras 100A to 100D. Determines whether to provide information notifying the existence of. The presence or absence of a moving object entering the intersection from the specific direction can be detected by the camera image of the camera 100A.
  • an optical beacon, an ultrasonic sensor, or the like in the target lane to detect a moving object entering the intersection from a specific direction.
  • various objects such as a vehicle, a pedestrian, and a bicycle can be considered as the moving object to which the service of the information providing server 200 is provided.
  • the moving object to be serviced. Will be described with an example of a vehicle.
  • a method of extracting a moving object from the camera images acquired from the cameras 100A to 100D for example, a method of extracting a moving object as a moving object from a comparison of previous and next video frames and a difference from a background image prepared in advance. Can be taken.
  • the method of extracting the moving object from the camera image is not limited to these methods.
  • a method of extracting a moving object by removing a static object from an object extracted from a camera image by using high-precision 3D map information (static object information) of the area (around an intersection) can be adopted. ..
  • various known object detection techniques such as those using a deep learning technique can be used for extracting an object from the camera image and determining the type of an object (moving object).
  • the information providing server 200 of the present embodiment will be described as specifying the type of the moving body together with the object detection.
  • the determination unit 201 determines whether or not to provide the secondary information, the presence or absence of a moving body that is difficult to detect from the moving body entering the intersection from the specific direction, the type of the moving body, and the moving body. It can be judged by the movement attribute (direction / speed of movement) of. The method for determining whether or not to provide these secondary information will be described in detail later with specific examples.
  • the information creating unit 202 uses the camera images acquired from the cameras 100A to 100D to provide the moving body (first moving body). Create secondary information to inform the existence of the moving body located in the blind spot to the moving body. More specifically, the information creation unit 202 creates secondary information in a form of removing duplicate information between camera images obtained by the cameras 100A to 100D.
  • the transmission unit 203 transmits secondary information to the moving body (first moving body) notifying the existence of the moving body located in the blind spot.
  • the transmission unit 203 can adopt a method of transmitting information in response to an inquiry from a communication device mounted on the mobile body or the like. On-demand method).
  • the transmission unit 203 can transmit secondary information to the mobile body via a wireless communication network.
  • the wireless communication network various mobile communication networks such as LTE (Long Term Evolution), 5G, local 5G, and Wi-Fi (registered trademark) can be used.
  • FIG. 5 is a flowchart showing the operation of the information providing server 200 according to the first embodiment of the present invention.
  • the information providing server 200 acquires camera images from the cameras 100A to 100D as primary information (step S001).
  • the information providing server 200 analyzes the camera images acquired from the cameras 100A to 100D, and analyzes whether or not to provide the secondary information to the moving body entering the intersection from a specific direction (step S002). ..
  • FIG. 6 shows an example of the result of the information providing server 200 analyzing the camera images acquired from the cameras 100A to 100D and extracting the moving object.
  • CAR1 of FIG. 6 will be described as a moving body (first moving body) that enters the intersection from a specific direction.
  • the information providing server 200 includes a vehicle CAR2 that is about to turn right from the oncoming lane in which the vehicle CAR1 is traveling, a motorcycle BIKE1 located behind the vehicle CAR2, and a pedestrian P1 waiting for a signal in front of the building in the lower left of FIG. Explain as if you know.
  • the information providing server 200 when it is determined that the secondary information is provided to the moving body (first moving body) entering the intersection (Yes in step S003), the information providing server 200 provides the moving body to the moving body. Create secondary information (step S004). More specifically, the information providing server 200 uses the camera images acquired from the cameras 100A to 100D to create information notifying the moving body of the existence of the moving body located in the blind spot. If, as a result of the analysis in step S002, it is determined that the secondary information is not provided to the moving body entering the intersection (No in step S003), the information providing server 200 omits the subsequent processing.
  • Method 1 For example, when the moving body exists in the blind spot of the first moving body (vehicle CAR1) to which the secondary information is provided as a result of analyzing the camera image (primary information), the information providing server 200 provides it. It is possible to adopt a method of determining that it is necessary and, if it does not exist, it is determined that the provision is unnecessary. For example, in the case of FIG. 6, since the two-wheeled vehicle BIKE1 and the pedestrian P1 are present in the blind spot of the first moving body (vehicle CAR1), the information providing server 200 determines that the provision is necessary.
  • Method 2 For example, as a result of analyzing the camera image (primary information), a moving body exists in the blind spot of the first moving body (vehicle CAR1) to which the secondary information is provided, and the moving body is specific. In the case of a type (eg, motorcycle, bicycle, person, etc.), the information providing server 200 determines that it is necessary to provide secondary information. In other cases, the information providing server 200 determines that it is not necessary to provide the secondary information.
  • a type eg, motorcycle, bicycle, person, etc.
  • Method 3 For example, as a result of analyzing the camera image (primary information), a moving body exists in the blind spot of the first moving body (vehicle CAR1) to which the secondary information is provided, and the moving body is the first.
  • the information providing server 200 determines that the provision is necessary.
  • the information providing server 200 may adopt a method of determining that the provision is unnecessary. can. Further, in this method 3, the necessity of providing the secondary information may be determined in consideration of the speed of each moving body.
  • the information providing server 200 may determine that the moving object is stopped regardless of the moving direction. good. In this way, it is also possible to adopt a method of determining whether or not secondary information needs to be provided by using the movement attribute of the moving body.
  • the information providing server 200 is based on the position information of the first moving body (vehicle CAR1) and the information of the surrounding moving bodies (objects) (and the map information of the surroundings), and the first moving body (vehicle). It is determined whether or not each moving body is in the blind spot position depending on whether or not another moving body or structure exists on the straight line connecting CAR1) and each moving body. For example, as shown in FIG. 7, the information providing server 200 draws two virtual lines (broken lines) connecting the sensor position of the vehicle CAR1 and the edge of the moving body on the map showing the general condition of the intersection.
  • the information providing server 200 determines that the moving body is in the blind spot of the first moving body (vehicle CAR1). You can take the method of doing. For example, in the case of the two-wheeled vehicle BIKE1 in FIG. 7, since another mobile body (vehicle CAR2) exists on the two virtual lines (broken line), the information providing server 200 has BIKE1 as the first mobile body (vehicle CAR1). ) Is in the blind spot position. Similarly, for example, in the case of the pedestrian P1 in FIG. 7, since the structure (“building” in the lower left of FIG.
  • the pedestrian P1 is the first in the information providing server 200. It is determined that the moving body (vehicle CAR1) is in the blind spot position. On the other hand, in the case of the vehicle CAR2 of FIG. 7, since there are no other moving objects or structures on the virtual line (broken line), the information providing server 200 has the vehicle CAR2 as the blind spot of the first moving object (vehicle CAR1). Judge that it is not in the position.
  • the method for determining whether or not a moving body is present in the blind spot is not limited to the above example, and various methods can be adopted. For example, as shown in FIG.
  • a virtual line (broken line) from the center position of the moving body to the center position of another moving body is drawn, and a virtual line (broken line) is drawn in the middle.
  • a simple method of determining that the other moving objects are in the blind spot may be adopted.
  • the "blind spot” is assumed to be the blind spot of the camera mounted on the first moving body (vehicle CAR1), but the example of the blind spot is not limited to this. For example, a blind spot from the "driver's point of view" may be assumed.
  • the "blind spot” is not limited to the blind spot due to "visible light”, and may be a blind spot such as LiDAR or RADAR depending on the type of sensor mounted on the first moving body (vehicle CAR1).
  • the first mobile body (vehicle CAR1) is configured to send an inquiry message including the position information of the first mobile body (vehicle CAR1) to the information providing server 200. You can also.
  • the information providing server 200 transmits the created secondary information to the first mobile body (step S005). For example, by specifying the communication address of the transmission source from the inquiry message from the first mobile body (vehicle CAR1) and transmitting the secondary information to the communication address, the secondary information is transmitted to the vehicle CAR1. can do.
  • FIG. 8 is an example of secondary information provided by the information providing server 200 to the vehicle CAR1 which is the first mobile body of FIG.
  • the positional relationship between the motorcycle BIKE1 in the blind spot from the vehicle CAR1 and the pedestrian P1 is displayed on the screen of the vehicle CAR1 to provide information to call attention. Further, such a positional relationship may be superimposed and displayed on a map to be provided.
  • the form of providing the secondary information is not limited to the form illustrated in FIG.
  • the secondary information may be in a form that can be interpreted by the in-vehicle terminal (including the case of a driving support device) of the first mobile body (vehicle CAR1).
  • the in-vehicle terminal of the first mobile body (vehicle CAR1) can be interpreted. It is also possible to provide.
  • the information indicating the positional relationship shown in FIG. 8 above can be created by the following method.
  • the information providing server 200 identifies the same moving object shown in the camera images of the cameras 100A to 100D, and removes the duplication. For example, when a moving body of the same type and / or the same size is detected from a plurality of cameras at the same time and at the same position, the information providing server 200 identifies the moving body as the same moving body. Then, the information providing server 200 creates secondary information representing the positional relationship between the first mobile body (vehicle CAR1) and the object identified as the same. Further, since the vehicle CAR2 in FIG.
  • the second moving object 8 is an object that can be detected from the first moving object (vehicle CAR1), it can be excluded from the information included in the secondary information. As a result, duplication and waste of the objects shown in the camera images of the cameras 100A to 100D are removed. Further, when the in-vehicle terminal of the first mobile body (vehicle CAR1) provides the secondary information in an interpretable form, similarly, the same mobile body can be specified to remove duplication, or the first mobile body can be removed. Secondary information can be created by excluding moving objects captured by (vehicle CAR1).
  • the information of a plurality of moving objects existing at the blind spot position as seen from the first moving object is aggregated into the same message or the same IP packet, and the first method is used. It may be transmitted to a moving body (vehicle CAR1).
  • a moving body vehicle CAR1
  • each camera independently transmits the IP packetized information to the first moving object (vehicle)
  • an IP header is added to each IP packet, and the ratio of the IP header to the entire transmission data becomes high.
  • the ratio of the IP header to the entire transmission data can be reduced.
  • the effect of reducing the signaling load of the mobile communication network can also be expected.
  • the secondary information created as described above is used in various forms in the first mobile body (vehicle CAR1). For example, by transmitting to an in-vehicle terminal or smartphone of the first mobile body (vehicle CAR1) and displaying it on these devices, it is possible to take a form of presenting to the driver. Further, it is also possible to adopt a form in which AR (Augmented Reality) is displayed on the front window of the first moving body (vehicle CAR1). 9 and 10 show an example of presenting secondary information on these terminals and a front window. For example, in the example of FIG. 9, a message telling that the motorcycle BIKE1 and the pedestrian P1 exist behind the vehicle CAR2 and the building that are visible as a real image is displayed.
  • AR Augmented Reality
  • an object representing the motorcycle BIKE1 and the pedestrian P1 is AR-displayed behind the vehicle CAR2 and the building which are seen as a real image.
  • the object (BIKE1 or P1) in FIG. 10 may be an icon or a frontal image estimated from a side image (primary information) of a motorcycle or a pedestrian obtained from the camera 100B. Further, the speed estimated from the camera image, the distance from CAR1 and the like may be displayed on these objects.
  • secondary information can be used in addition to the form that appeals to the driver's eyesight.
  • secondary information can be input to the in-vehicle terminal of the first mobile body (vehicle CAR1) and used as information for automatic driving or driving support information.
  • secondary information can be provided as information that complements the dynamic map for autonomous driving.
  • the present embodiment it is possible to efficiently transmit accurate secondary information to the first moving body (vehicle) entering the intersection from a specific direction.
  • the reason is that a configuration is adopted in which the necessity of creating the secondary information is determined by using the primary information acquired from the cameras 100A to 100D, and the secondary information is created by omitting the duplication.
  • an example of providing secondary information to a first moving body (vehicle) entering an intersection from a specific direction has been described, but there are situations where the present invention can be applied. , Not limited to this example.
  • an image of a moving body (second moving body) located in a range that becomes a blind spot such as a sensor of the vehicle obj0 due to the presence of the parked vehicle obj1 (in the case of FIG. 11, walking). Person) may be located.
  • it can also be applied to inform the first moving body (vehicle obj0) of the existence of a moving body (second moving body) located in a range that becomes a blind spot such as a sensor.
  • a pedestrian obj2 that is difficult to be caught by the sensor of the vehicle obj0 may be located due to the presence of the vehicle obj1 parked in the parking lot. In such a case, it can also be applied to inform the vehicle obj0 of the existence of the pedestrian obj2.
  • the first moving body may be a pedestrian or a bicycle in addition to the vehicle.
  • the present invention can be applied to all uses for notifying the presence of a second mobile body that is difficult to detect from the first mobile body around a certain first mobile body.
  • FIG. 13 is a diagram showing a configuration of an information providing server according to a second embodiment of the present invention.
  • the structural difference from the first embodiment shown in FIG. 2 is that the address acquisition unit 204 is added to the information providing server 200a, and the functions of the determination unit 201a and the transmission unit 203a are changed. Is. Since other configurations are the same as those of the first embodiment, the differences will be mainly described below.
  • the determination unit 201a provides the address acquisition unit 204 with camera images (primary information) obtained from the cameras 100A to 100D.
  • the address acquisition unit 204 identifies the individual by reading the license plate information from the image of the moving body (vehicle) captured in the camera images (primary information) obtained from the cameras 100A to 100D. Then, the address acquisition unit 204 transmits the license plate information to the mobile management server 300 arranged on the cloud, and the IP (Internet Protocol) of the in-vehicle terminal of the mobile (vehicle) having the corresponding license plate information. Request an address.
  • IP Internet Protocol
  • the mobile body management server 300 is a server that manages mobile body information in which license plate information is associated with an IP address of an in-vehicle terminal or the like of each mobile body (vehicle).
  • the mobile management server 300 receives a request for an IP address corresponding to the license plate information from the information providing server 200a, the mobile management server 300 responds to the information providing server 200a with the IP address.
  • the transmission unit 203a uses the obtained IP address to transmit information to the mobile body (vehicle) notifying the existence of another mobile body located in the blind spot.
  • FIG. 14 is a flowchart showing the operation of the information providing server 200a according to the second embodiment of the present invention. The difference from the operation of the first embodiment shown in FIG. 5 is that steps S105 and S106 are added after step S004.
  • the information providing server 200a is the first movement captured in the images (primary information) obtained from the cameras 100A to 100D after the creation of the secondary information to be provided to the first moving body (vehicle) (step S004).
  • the first moving body (vehicle) is specified by reading the license plate information from the image of the body (vehicle) (step S105).
  • the information providing server 200a acquires the IP address of the in-vehicle terminal or the like of the specified first mobile body (vehicle) from the mobile body management server 300 arranged on the cloud (step S106).
  • the information providing server 200a transmits the secondary information created in step S004 to the first mobile body (vehicle) using the acquired IP address (step S005).
  • the present embodiment it is possible to specify the communication address and notify the information to the first mobile body without receiving the inquiry message. Further, according to the present embodiment, information can be transmitted to the first mobile body even if the vehicle-mounted terminal or the like of the first mobile body does not have the function of requesting secondary information. In other words, in this embodiment, in addition to the effect of the first embodiment, there is an advantage that the function on the in-vehicle terminal side can be simplified.
  • the license plate information is read from the camera images obtained from the cameras 100A to 100D to specify the address of the in-vehicle terminal or the like.
  • the method of specifying the address of the terminal or the like is not limited to this. For example, if there is a server in the cloud that associates a person's face image with an address, identify the driver from the face image captured in the camera images obtained from the cameras 100A to 100D, and then contact the server.
  • a method of specifying the terminal address of the first mobile body can also be adopted. When this method is adopted, there is an advantage that secondary information can be provided to general pedestrians other than vehicle passengers and people riding bicycles.
  • a server that links a person's face image with the address of an information terminal owned by that person is placed on the cloud.
  • the information providing server 200a inquires of the server the address of the information terminal possessed by the person corresponding to the face image.
  • the present invention can be applied not only when the destination of information is a vehicle but also when the destination is a pedestrian or a person riding a bicycle.
  • FIG. 15 is a diagram showing a configuration of an information providing server according to a third embodiment of the present invention. The structural difference from the first embodiment shown in FIG.
  • the determination unit 201b of the information providing server 200b is a camera image from a camera 100E mounted on a peripheral moving body traveling via a network. Is the point that can be obtained. Since other configurations are the same as those of the first embodiment, the differences will be mainly described below.
  • the determination unit 201b of the information providing server 200b acquires the camera image from the camera 100E mounted on one or more moving objects passing near the intersection via the network.
  • the determination unit 201b can specify the acquisition position of the image from the metadata such as EXIF information attached to the camera image.
  • the network side is provided with a function of transmitting a camera image to the information providing server 200b based on the position information of the moving body, and the camera image from the moving body heading toward the intersection automatically provides information. It may be configured to be transmitted to the server 200b.
  • the information providing server 200b of the present embodiment can acquire an image from the camera 100E mounted on one or more moving objects passing near the intersection as primary information.
  • the information providing server 200b of the present embodiment can acquire an image from the camera 100E mounted on one or more moving objects passing near the intersection as primary information.
  • the vehicle CAR3 traveling further behind the moving body (second moving body) BIKE1 located in the range of the blind spot of the first moving body (vehicle CAR1). It is possible to obtain an image.
  • the present embodiment using a camera of a moving object in the vicinity as a sensor, it is possible to improve the accuracy of determining whether or not the secondary information needs to be created and to enrich the information to be included in the secondary information.
  • the image quality may deteriorate due to a backlight state depending on the position of the sun. It is possible to prevent such a decrease.
  • FIG. 16 is a diagram showing a configuration of an information providing server according to a fourth embodiment of the present invention.
  • the structural difference from the first embodiment shown in FIG. 2 is that the moving state acquisition unit 205 is added to the information providing server 200c, and the information acquired by the information creating unit 202c in the moving state acquisition unit 205 is also used. It is a point that is configured to create secondary information. Since other configurations are the same as those of the first embodiment, the differences will be mainly described below.
  • the moving state acquisition unit 205 of the information providing server 200c acquires the moving state of the first moving body (vehicle CAR1) captured by the cameras 100A to 100D.
  • the "moving state” represents a state regarding the movement of the moving body, and includes, for example, a traveling direction and a speed.
  • a traveling direction is acquired as a moving state will be described as an example.
  • the movement of the image of the first moving body (vehicle CAR1) captured in the camera image obtained from the cameras 100A to 100D and the information of the direction indicator It is possible to take a method of estimating the traveling direction from.
  • the method of acquiring the traveling direction of the first moving body (vehicle CAR1) is not limited to this, and various methods can be adopted. For example, when the direction of travel is specified in the lane of an intersection (for example, a right turn lane), the direction of travel is estimated using the lane information in which the first moving object (vehicle CAR1) captured in the camera image is located. The method can be used. Further, when the information providing server 200c can obtain the travel route planning information (route information of the car navigation system) of the first mobile body (vehicle CAR1) from the in-vehicle terminal of the mobile body which is a vehicle, the travel route planning information is used. The direction of travel may be estimated.
  • the travel route planning information route information of the car navigation system
  • the traveling direction of the first moving body may be estimated by using the steering angle.
  • the direction of travel is specified (for example, a combination of red light and right arrow) in the lighting pattern of the traffic signal at the intersection, the lighting state of the traffic signal shown in the camera image and the control information of the traffic signal. Can be used to estimate the traveling direction of the first moving object (vehicle CAR1).
  • the information creation unit 202c creates secondary information using the traveling direction of the first moving body (vehicle CAR1) obtained as described above, in addition to the camera images of the cameras 100A to 100D.
  • the information creation unit 202c is an object in the traveling direction of the first moving object (vehicle CAR1) among the objects (second moving objects) in the blind spot of the first moving object (vehicle CAR1). Give a high priority to, and create secondary information in consideration of that priority.
  • FIG. 17 is a flowchart showing the operation of the information providing server 200c according to the fourth embodiment of the present invention.
  • the difference from the operation of the first embodiment shown in FIG. 5 is that steps S204 and S205 are added after step S003.
  • the information providing server 200c determines that the secondary information is provided to the moving body (first moving body) (Yes in step S003), the information providing server 200c acquires the moving state (traveling direction information) of the moving body (step S204). ..
  • the information providing server 200c determines the importance given to each object by using the arrangement of the objects and the moving state (traveling direction) of the moving object (step S205). Then, the information providing server 200c creates the secondary information in consideration of the determined importance (step S004). For example, it is assumed that the moving state (traveling direction) when the first moving body (vehicle CAR1) turns right is obtained. In this case, as shown in FIG. 18, the information providing server 200c is the traveling direction of the first moving object (vehicle CAR1) among the objects (BIKE1, P1) in the blind spot of the first moving object (vehicle CAR1). Set a higher importance for the motorcycle BIKE1 in. Then, the information providing server 200c creates secondary information that strongly calls attention to the motorcycle BIKE1. Further, at this time, the pedestrian P1 to which the low importance is given can be omitted from the secondary information.
  • the information providing server 200c of the present embodiment that operates as described above, it is possible to further narrow down the information to be transmitted to the first mobile body (vehicle CAR1) in comparison with the first to third embodiments. Become. This makes it possible to more efficiently inform the driver of the first moving body (vehicle CAR1) and the in-vehicle device of the existence of the moving body in the blind spot.
  • the secondary information is created using the importance given to the object, but the usage form of the importance is not limited to this.
  • the appearance of each object when displaying secondary information as an image of an in-vehicle terminal may be different.
  • the transmission form of the secondary information may be different depending on the degree of importance given to each object. For example, secondary information notifying the existence of a highly important object is transmitted in a push type without waiting for a request from the first moving object (vehicle CAR1) (see the second embodiment), and other information. Information can be transmitted in response to a request from the first moving object (vehicle CAR1).
  • the speed of the first moving body may be used as the moving state.
  • the velocity of the first moving object may be acquired from the velocity sensor or may be acquired by analyzing the image.
  • the speed may be estimated from the position information of the shift lever. In this way, by using the information of speed as the moving state, for example, when the speed is equal to or less than a predetermined threshold value (such as when the vehicle is stopped or driving slowly), a low importance can be set.
  • FIG. 19 is a diagram showing a configuration of an information providing server according to a fifth embodiment of the present invention.
  • the structural difference from the first embodiment shown in FIG. 2 is that the moving state acquisition unit 205 is added to the determination unit 201d of the information providing server 200d, and the determination unit 201d is acquired by the movement state acquisition unit 205.
  • the point is that it is configured to determine whether or not it is necessary to create secondary information using the information provided. Since other configurations are the same as those of the first embodiment, the differences will be mainly described below.
  • the moving state acquisition unit 205 of the information providing server 200d acquires the moving state (traveling direction) of the first moving body (vehicle CAR1) captured by the cameras 100A to 100D. Since the method of acquiring the moving state (traveling direction) of the first moving body (vehicle CAR1) is the same as that of the fourth embodiment, the description thereof will be omitted. Further, in the following description, a case where the traveling direction is acquired as a moving state will be described as an example.
  • the determination unit 201d needs to provide secondary information by using the moving state (traveling direction) of the first moving body (vehicle CAR1) obtained as described above in addition to the camera images of the cameras 100A to 100D. To judge. Specifically, the determination unit 201d provides secondary information depending on whether or not the object in the blind spot of the first moving body (vehicle CAR1) is in the traveling direction of the first moving body (vehicle CAR1). Judge the necessity.
  • FIG. 20 is a flowchart showing the operation of the information providing server 200d according to the fifth embodiment of the present invention.
  • the difference from the operation of the first embodiment shown in FIG. 5 is that the movement state is acquired in addition to the primary information in step S301, and the movement state is analyzed in addition to the primary information in step S302. Is the point where
  • the information providing server 200d when the traveling direction when the first moving object (vehicle CAR1) turns right is obtained, the information providing server 200d is in the blind spot of the first moving object (vehicle CAR1) as shown in FIG.
  • the objects (BIKE1, P1) since the motorcycle BIKE1 is in the traveling direction of the vehicle CAR1, it is determined that it is necessary to provide the secondary information.
  • the information providing server 200d does not need to provide the secondary information. Is determined.
  • the information providing server 200d of the present embodiment that operates as described above, it is possible to further narrow down the information to be transmitted to the first mobile body (vehicle CAR1) in comparison with the first to fourth embodiments. Become. This makes it possible to more efficiently inform the driver of the first moving body (vehicle CAR1) and the in-vehicle device of the existence of the moving body in the blind spot.
  • the speed of the first moving body may be used as the moving state.
  • the velocity of the first moving object may be acquired from the velocity sensor or may be acquired by analyzing the image.
  • the speed may be estimated from the position information of the shift lever. For example, when the speed is equal to or less than a predetermined threshold value (such as when the vehicle is stopped or driving at the slowest speed), it can be determined that the provision is unnecessary.
  • the moving state (traveling direction, speed, etc.) of the moving body) may be acquired to determine whether or not secondary information needs to be provided. For example, when a moving body is present in the blind spot of the first moving body, the traveling direction and speed of the moving body may be acquired, and the necessity of provision may be determined accordingly.
  • FIG. 21 is a diagram showing a configuration of an information providing server according to a sixth embodiment of the present invention.
  • the structural difference from the first embodiment shown in FIG. 2 is that the motion prediction unit 206 is added to the determination unit 201e of the information providing server 200e, and the information acquired by the determination unit 201e by the motion prediction unit 206. It is also configured to determine the necessity of creating secondary information. Since other configurations are the same as those of the first embodiment, the differences will be mainly described below.
  • the motion prediction unit 206 of the information providing server 200e predicts the motion of the first mobile body (vehicle CAR1) from the state of the first mobile body (vehicle CAR1) captured by the cameras 100A to 100D.
  • the movement after a predetermined time is predicted from the image of the first moving body (vehicle CAR1) captured in the camera image obtained from the cameras 100A to 100D. You can take the method.
  • the method of predicting the movement of the first moving body (vehicle CAR1) is not limited to this, and various methods can be adopted.
  • the information providing server 200e can obtain the first mobile body (instrument information (steering angle, speedometer, GPS information, etc.) of the vehicle CAR1) from the in-vehicle terminal of the first mobile body (vehicle CAR1), these The movement after a predetermined time may be estimated using the information of. Further, when the lighting state of the traffic signal at the intersection and the control information of the traffic signal can be acquired, a method of predicting the movement of the first moving body (vehicle CAR1) can be used by using these. For example, if the light of the traffic signal in the traveling direction of the first mobile body (vehicle CAR1) is red, it can be predicted that the first mobile body (vehicle CAR1) will not move for a while.
  • the first mobile body when information is obtained that the light of the traffic signal in the traveling direction of the first mobile body (vehicle CAR1) will soon turn blue, the first mobile body (vehicle CAR1) will be used for a predetermined time. It can be predicted that the movement will start later. Further, for example, when the first moving body is a vehicle and its travel route planning information (route information of a car navigation system) can be obtained, the movement may be predicted using the travel route planning information. Further, for example, when the direction of travel is specified in the lane of the intersection (for example, the right turn lane), the movement is predicted using the lane information in which the first moving object (vehicle CAR1) captured in the camera image is located. Can be used.
  • route planning information route information of a car navigation system
  • the determination unit 201e determines whether or not secondary information needs to be provided by using the future movement of the first moving body (vehicle CAR1) obtained as described above in addition to the camera images of the cameras 100A to 100D. .. Specifically, the determination unit 201e determines whether or not the first moving object (vehicle CAR1) has been stopped for a while, in addition to the presence or absence of an object in the blind spot of the first moving object (vehicle CAR1). Determine whether or not secondary information needs to be provided.
  • FIG. 22 is a flowchart showing the operation of the information providing server 200e according to the sixth embodiment of the present invention.
  • step S501 for predicting the movement of the moving body is added after step S002.
  • the information providing server 200e determines whether or not there is an object in the blind spot of the first moving object (vehicle CAR1). Nevertheless, it is determined that it is not necessary to provide secondary information. Further, when the prediction result that the first moving body (vehicle CAR1) is moving or that the moving will start soon is obtained, the information providing server 200e determines that it is necessary to provide the secondary information.
  • the information providing server 200e of the present embodiment that operates as described above, it is possible to further narrow down the information to be transmitted to the first mobile body (vehicle CAR1) in comparison with the first to fifth embodiments. Become. This makes it possible to more efficiently inform the driver of the first moving body (vehicle CAR1) and the in-vehicle device of the existence of the moving body in the blind spot.
  • Secondary information may be created by predicting future movements of the moving body). For example, if there are two mobiles in the blind spot of the first mobile and their future movements are different, different importance may be set according to these.
  • FIG. 23 is a diagram showing the configuration of the seventh embodiment of the present invention.
  • the information providing server 200g transmits the primary information acquired from the cameras 100A to 100D to the predetermined control server 500 on the camera 100A to 100D side of the network. It is a point placed on the edge of.
  • FIG. 23 a configuration is shown in which the cameras 100A to 100D are connected to the control server 500 via the base station 600, the mobile backhaul 700, the gateway (GW) 800, and the Internet 900.
  • the cameras 100A to 100D are connected to the control server 500 via the base station 600, the mobile backhaul 700, the gateway (GW) 800, and the Internet 900.
  • GW gateway
  • the base station 600 transmits camera images taken by the cameras 100A to 100D to the control server 500 and the information providing server 200g.
  • the control server 500 performs information processing necessary for the control work by using the camera images taken by the cameras 100A to 100D.
  • the information providing server 200g performs the same operation as in the first embodiment by using the camera images of the cameras 100A to 100D received from the base station 600, creates secondary information, and if necessary, the base station 600. Secondary information is transmitted to the moving body (first moving body) via. Therefore, the information providing server 200g functions as a kind of mobile edge computing server (MEC server). Since the mobile backhaul 700, the gateway (GW) 800, and the Internet 900 are well-known configurations by those skilled in the art, the description thereof will be omitted.
  • MEC server mobile edge computing server
  • the configuration of this embodiment it is possible to provide secondary information to a mobile body (first mobile body) by adding it to an existing traffic control system. Further, as described above, since the information providing server 200g is arranged at the edge on the camera 100A to 100D side of the network that transmits the primary information to the predetermined control server 500, the secondary information equivalent to that of the control server 500 can be obtained. There is an advantage that the processing delay can be reduced as compared with the case where the provision is performed.
  • the present invention is not limited to the above-described embodiment, and further modifications, substitutions, and adjustments are made without departing from the basic technical idea of the present invention.
  • the network configuration, the configuration of each element, and the representation form of the data shown in each drawing are examples for assisting the understanding of the present invention, and are not limited to the configurations shown in these drawings.
  • the two cameras are arranged so that their shooting directions intersect at right angles, but the number and arrangement of the cameras are not limited to this.
  • another embodiment can be configured by combining the features of two or more embodiments arbitrarily selected.
  • the procedure shown in the first to seventh embodiments described above is performed by a program that realizes the function as the information providing server 200 to 200 g on the computer (9000 in FIG. 24) that functions as the information providing server 200 to 200 g. It is feasible.
  • a computer is exemplified in a configuration including a CPU (Central Processing Unit) 9010, a communication interface 9020, a memory 9030, and an auxiliary storage device 9040 in FIG. 24. That is, the CPU 9010 in FIG. 24 may execute a data processing program or a data transmission program, and update each calculation parameter held in the auxiliary storage device 9040 or the like.
  • a CPU Central Processing Unit
  • each part (processing means, function) of the information providing server 200 to 200g shown in each of the above-described embodiments causes the processor mounted on these devices to execute each of the above-mentioned processing by using the hardware thereof. It can be realized by a computer program.
  • the determination means of the information providing server described above identifies an object existing in the sensing range of the plurality of sensors from the primary information acquired from the plurality of sensors, and from the positions of the identified object and the first moving body, the determination means is used.
  • the second moving object existing in the blind spot of the first moving object is extracted, and based on the information about the extracted second moving object, it is determined whether or not to provide the secondary information.
  • the information creating means may adopt a configuration in which information including information about the second mobile body is created as the secondary information.
  • the above-mentioned information providing server determines the identity between the plurality of sensors with respect to the object included in the primary information acquired from the plurality of sensors, and based on the determination result of the identity, the above-mentioned secondary information is obtained. It can be created and configured.
  • the information providing server mentioned above is Further, an address acquisition means for performing individual identification of the first mobile body using the primary information and acquiring a communication address assigned to the first mobile body based on the result of the individual identification.
  • the transmission means may be configured to transmit the secondary information to the communication address.
  • the determination means of the information providing server described above determines whether or not to provide the secondary information based on the position information included in the message received from the first mobile body, and the transmitting means describes the message.
  • the secondary information can be transmitted to the communication address of the transmission source of the above.
  • a configuration may be adopted including at least one of a sensor installed on the road or a sensor provided on a moving body traveling on the road.
  • the information providing server described above can further acquire the moving state of the moving body passing through the road. It is possible to adopt a configuration in which the determination means determines whether or not to provide the secondary information to the first moving body by using the moving state.
  • the information providing server described above can further acquire the moving state of the moving body passing through the road.
  • the information creating means can adopt a configuration in which the importance of each of the second moving bodies is obtained by using the moving state, and the secondary information is created in consideration of the importance.
  • the above-mentioned information providing server as the above-mentioned moving state, the lighting state of the traffic signal in the vicinity, the traveling route plan information of the moving body passing through the road, the traveling lane information of the moving body passing through the road, and the passing on the road. It is possible to adopt a configuration using at least one of the velocity information of the moving body.
  • the determination means of the information providing server predicts the movement of the moving body passing through the road and provides the secondary information to the moving body passing through the road by using the result of the prediction of the movement. It is possible to take a configuration that determines whether or not it is.
  • the determination means of the information providing server described above predicts the movement of a moving body passing through the road, and uses the result of the prediction of the movement to obtain the importance of each of the second moving bodies, and the importance level is obtained. It is possible to adopt a configuration that creates the secondary information in consideration of the above.
  • the determination means of the information providing server described above includes the lighting state of a traffic signal in the vicinity, travel route planning information of a moving body traveling on the road, traveling lane information of the moving body traveling on the road, and movement traveling on the road. It is possible to adopt a configuration that predicts the movement of a moving object traveling on the road based on at least one of the speed information of the body.
  • the information providing server mentioned above is The server may be located at the edge of the network on the sensor side, which transmits the primary information acquired from each of the plurality of sensors to a predetermined control server.
  • [15th form] (Refer to the information provision method from the second viewpoint above)
  • [16th form] (Refer to the program from the third viewpoint above)
  • the 15th to 16th forms can be expanded into the second to 14th forms in the same manner as the first form.
  • any numerical value or small range included in the range should be construed as being specifically described even if not otherwise described.
  • each of the disclosed matters of the above-cited documents may be used in combination with the matters described in this document in part or in whole as a part of the disclosure of the present invention, if necessary, in accordance with the purpose of the present invention. It is deemed to be included in the disclosure of this application.

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Chemical & Material Sciences (AREA)
  • Analytical Chemistry (AREA)
  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Traffic Control Systems (AREA)

Abstract

車両の周辺移動体の検出精度と効率的な情報通知との両立。情報提供サーバは、道路の所定の範囲をセンシングする複数のセンサーからそれぞれ取得した一次情報に基づいて、前記道路を通行する第一の移動体に対し、前記複数のセンサーから取得した一次情報を用いて作成する二次情報を提供するか否かを判定する判定手段と、前記第一の移動体に対し、前記二次情報を提供すると判定した場合、前記複数のセンサーから取得した一次情報を用いて前記二次情報を作成する情報作成手段と、前記第一の移動体に対し、前記二次情報を送信する送信手段と、を備える。

Description

情報提供サーバ、情報提供方法及びプログラム記録媒体
 本発明は、情報提供サーバ、情報提供方法及びプログラム記録媒体に関する。
 特許文献1には、右折車両から見て死角となる位置に存在する死角移動体を検知してドライバーに情報提供することができるという報知システムが開示されている。同文献記載の報知システムは、道路の交差点を走行する複数の対向移動体の画像をカメラで繰り返し撮像する。そして、この報知システムは、その対向移動体のうち交差点内の右折待ち位置から見えない死角移動体の有無を前記画像に基づいて判定し、判定された死角移動体を交差点内の右折車両のドライバーに報知する。
 特許文献2に、自車両が右折待ちするに際し、対向道路を走行する対向車に関する支援情報を、この対向車の走行状況に応じて設定することで、運転者に与える煩雑感を軽減させることができるという右折時運転支援装置が開示されている。同文献記載によると、この右折時運転支援装置は、対向車の情報に基づき先行車と後続車との車体の大きさの関係から、対向先行車の死角により後続車が見え難くなる度合いに応じた死角ランクを設定する。そして、この右折時運転支援装置は、各死角ランクの最大の値を対向直進車ランクフラグとして設定する。さらに、この右折時運転支援装置は、この対向直進車ランクフラグと右折待ちしている対向車の車体の大きさに応じて設定した右折対向車ランクフラグとに基づき、自車両が右折する際の危険度合いに応じた評価ランクを設定する。そして、この右折時運転支援装置は、この評価ランクに応じた右折時運転支援情報を報知する。
 特許文献3、4には、路側装置や他車両からの情報を用いることなく、自車両に搭載されたセンサーのみで、交差点等で右折時の運転支援を行う車載装置が開示されている。
特開2008-041058号公報 特開2011-090582号公報 特開2002-205615号公報 特開2006-349456号公報
 以下の分析は、本発明者によって与えられたものである。移動体の安全な移動を実現または支援するためには、当該移動体の周辺に存在し、かつ当該移動体からは検出困難な移動体(以下、周辺移動体)を精度高く検出し、検出した移動体に関する情報を当該移動体に通知することが求められる。また、移動体に情報を通知する際には、無線通信網の通信負荷を軽減し、また無線リソースの使用効率を向上させるために、情報を効率的に通知することが求められる。しかしながら、上記背景技術として記載した方式では、周辺移動体の検出精度の維持と効率的な情報通知の両立が難しいという問題点がある。
 特許文献1の方式では、カメラと処理コンピュータとが1対1で配置された構成を用いており、各カメラの情報をそれぞれ独立に車両に通知している。そのため、車両への通知情報にカメラ間で重複が生じる可能性がある。また、同一車両に対して各カメラから独立に情報を通知するため、プロトコルオーバヘッドが増加する。
 特許文献2の方式では、右折時運転支援情報の生成に際し、車両外のインフラ設備等から受信する車外情報と、車載のセンサー情報とを併用する。しかしながら、情報の分析は車両内で実施されるため、当該車両への車外情報の送信に多くの無線リソースを必要とするといった問題点がある。
 特許文献3、4の方式では、自車両に搭載されたセンサーのみから周辺移動体を検出するため、周辺移動体の検出漏れが生じる可能性がある。
 本発明は、上記した周辺移動体の検出精度の維持と移動体への情報通知の効率化との両立に貢献できる情報提供サーバ、情報提供方法及びプログラム記録媒体を提供することを目的とする。
 第1の視点によれば、道路の所定の範囲をセンシングする複数のセンサーからそれぞれ取得した一次情報に基づいて、前記道路を通行する第一の移動体に対し、前記複数のセンサーから取得した一次情報を用いて作成する二次情報を提供するか否かを判定する判定手段と、前記第一の移動体に対し、前記二次情報を提供すると判定した場合、前記複数のセンサーから取得した一次情報を用いて前記二次情報を作成する情報作成手段と、前記第一の移動体に対し、前記二次情報を送信する送信手段と、を備える情報提供サーバが提供される。
 第2の視点によれば、道路の所定の範囲をセンシングする複数のセンサーから一次情報を取得可能なコンピュータが、前記複数のセンサーからそれぞれ取得した一次情報に基づいて、前記道路を通行する第一の移動体に対し、前記複数のセンサーから取得した一次情報を用いて作成する二次情報を提供するか否かを判定し、前記第一の移動体に対し、前記二次情報を提供すると判定した場合、前記複数のセンサーから取得した一次情報を用いて前記二次情報を作成し、前記第一の移動体に対し、前記二次情報を送信する、情報提供方法が提供される。本方法は、上記した複数のセンサーから情報を取得可能なコンピュータという、特定の機械に結びつけられている。
 第3の視点によれば、上記した情報提供サーバの機能を実現するためのコンピュータプログラム(以下、「プログラム」)が提供される。このプログラムは、コンピュータ装置に入力装置又は外部から通信インターフェースを介して入力され、記憶装置に記憶されて、プロセッサを所定のステップないし処理に従って駆動させる。また、このプログラムは、必要に応じ中間状態を含めその処理結果を段階毎に表示装置を介して表示することができ、あるいは通信インターフェースを介して、外部と通信することができる。そのためのコンピュータ装置は、一例として、典型的には互いにバスによって接続可能なプロセッサ、記憶装置、入力装置、通信インターフェース、及び必要に応じ表示装置を備える。また、このプログラムは、コンピュータが読み取り可能な(非トランジトリーな)記憶媒体に記録することができる。
 本発明によれば、移動体の安全な移動を実現または支援することが可能となる。
本発明の一実施形態の構成を示す図である。 本発明の第1の実施形態の構成を示す図である。 本発明の第1の実施形態のカメラの撮影範囲を模式的に表した図である。 本発明の第1の実施形態のカメラの撮影範囲を模式的に表した図である。 本発明の第1の実施形態の情報提供サーバの動作を表したフローチャートである。 本発明の第1の実施形態の情報提供サーバの動作を説明するための図である。 本発明の第1の実施形態の情報提供サーバの動作を説明するための図である。 本発明の第1の実施形態の情報提供サーバから車両に提供される二次情報の一例を示す図である。 本発明の第1の実施形態の情報提供サーバから車両に提供される二次情報の別の一例を示す図である。 本発明の第1の実施形態の情報提供サーバから車両に提供される二次情報の別の一例を示す図である。 本発明の情報提供サーバが提供可能な二次情報の別の例を示す図である。 本発明の情報提供サーバが提供可能な二次情報の別の例を示す図である。 本発明の第2の実施形態の情報提供サーバの構成を示す図である。 本発明の第2の実施形態の情報提供サーバの動作を表したフローチャートである。 本発明の第3の実施形態の情報提供サーバの構成を示す図である。 本発明の第4の実施形態の情報提供サーバの構成を示す図である。 本発明の第4の実施形態の情報提供サーバの動作を表したフローチャートである。 本発明の第4の実施形態の情報提供サーバから車両に提供される二次情報の一例を示す図である。 本発明の第5の実施形態の情報提供サーバの構成を示す図である。 本発明の第5の実施形態の情報提供サーバの動作を表したフローチャートである。 本発明の第6の実施形態の情報提供サーバの構成を示す図である。 本発明の第6の実施形態の情報提供サーバの動作を表したフローチャートである。 本発明の第7の実施形態の構成を示す図である。 本発明の情報提供サーバを構成するコンピュータの構成を示す図である。
 はじめに本発明の一実施形態の概要について図面を参照して説明する。なお、この概要に付記した図面参照符号は、理解を助けるための一例として各要素に便宜上付記したものであり、本発明を図示の態様に限定することを意図するものではない。また、以降の説明で参照する図面等のブロック間の接続線は、双方向及び単方向の双方を含む。一方向矢印については、主たる信号(データ)の流れを模式的に示すものであり、双方向性を排除するものではない。プログラムはコンピュータ装置を介して実行され、コンピュータ装置は、例えば、プロセッサ、記憶装置、入力装置、通信インターフェース、及び必要に応じ表示装置を備える。また、このコンピュータ装置は、通信インターフェースを介して装置内又は外部の機器(コンピュータを含む)と、有線、無線を問わず、通信可能に構成される。また、図中の各ブロックの入出力の接続点には、ポート乃至インターフェースがあるが図示を省略する。また、以下の説明において、「A及び/又はB」は、A又はB、若しくは、A及びBという意味で用いる。
 本発明は、その一実施形態において、図1に示すように、判定部21と、情報作成部22と、送信部23と、を備える情報提供サーバ20にて実現できる。また、この情報提供サーバ20は、道路の所定の範囲をセンシングする複数のセンサー10と有線又は無線で接続され、これらのセンサー10からデータ(一次情報)を取得可能となっている。
 より具体的には、判定部21は、前記センサー10からそれぞれ取得した一次情報に基づいて、前記道路を通行する第一の移動体に対し、前記複数のセンサーから取得した一次情報を用いて作成する二次情報を提供するか否かを判定する判断手段として機能する。
 情報作成部22は、前記道路を通行する第一の移動体に対し、前記二次情報を提供すると判定した場合、前記複数のセンサーから取得した一次情報を用いて前記二次情報を作成する情報作成手段として機能する。
 送信部23は、前記第一の移動体に対し、前記二次情報を送信する送信手段として機能する。
 上記のように構成された情報提供サーバ20は、複数のセンサー10からそれぞれ取得した前記一次情報に基づいて、前記道路を通行する第一の移動体に対し、前記複数のセンサーから取得した一次情報を用いて作成した二次情報を提供するか否かを判定する。
 前記判定の結果、前記道路を通行する第一の移動体に対し、前記二次情報を提供すると判定した場合、情報提供サーバ20は、前記複数のセンサーから取得した一次情報を用いて前記二次情報を作成する。そして、情報提供サーバ20は、前記第一の移動体に対し、前記二次情報を送信する。これにより、第一の移動体は、複数のセンサー10からそれぞれ取得した前記一次情報に基づいた二次情報を得ることが可能となる。この二次情報は、複数のセンサー10から得た一次情報を用いて作成されているため、前記第一の移動体の周囲のエリアをより広範な視点でカバーできるものとなっている。また、情報提供サーバ20により、一次情報は二次情報に集約されているため、効率的な情報の通知も実現されている。
 なお、二次情報としては、種々のものが考えられるが、例えば、第一の移動体からは検出困難な移動体に関する情報を二次情報として提供するようにしてもよい。例えば、交差点を右折又は左折しようする第一の移動体や、急カーブを通行しようとする第一の移動体に対し、複数のセンサー10で得られた情報に基づいて、死角となっている場所に位置する移動体の存在やその動きを伝えてもよい。もちろん、二次情報の例は、上記の例に限られない。例えば、二次情報は一次情報の精度を高めた情報であってもよい。同種のセンサーであっても、異なる位置に配置された複数のセンサー10を用いることで、第一の移動体が有しているセンシング機能よりもより精度の高いセンシング結果を得ることができる。また、複数種のセンサー10を組み合わせて、より精度の高い二次情報を提供することもできる。また、第一の移動体は、車両のほか、人や自転車であってもよい。例えば、見通しの悪い交差点を通行しようとしている人や自転車に対し、複数のセンサー10から得られた一次情報に基づいた二次情報を提供するようにしてもよい。
[第1の実施形態]
 続いて、本発明の第1の実施形態について図面を参照して詳細に説明する。図2は、本発明の第1の実施形態の構成を示す図である。図2を参照すると、複数のセンサーとしてのカメラ100A~カメラ100Dと接続された情報提供サーバ200が示されている。
 カメラ100A~カメラ100Dは、交差点の交通信号機400A~400Dに併設され、カメラ映像(静止画または動画)を情報提供サーバ200に送信可能なカメラである。例えば、カメラ100Aは、図2の左側に示す交差点で交わる縦方向の道路の対向車線(図2の下側から上側に向かう車線)から来る交通を正面から撮影可能な位置に設置されている。
 図3は、カメラ100Aの撮影可能範囲を模式的に表した図である。図3の例では、カメラ100Aは、交通信号機400Aの灯器と同一方向を指向し、図3の一点鎖線で示す範囲を撮影可能となっている。なお、図3において、カメラ100Aの撮影可能範囲は、ほぼ三角形となっているが、その遠方方向の範囲(図3の一点鎖線の三角形の底辺)は、カメラ100Aの性能や撮影環境に依存する。
 図4に示すように、カメラ100B~100Dもカメラ100Aと同等の撮影可能範囲を持っている。このように、カメラ100A~100Dを配置することで、交差点に流出入する交通を様々な角度で撮影し、面的に監視することが可能となる。
 もちろん、図2~図4に示したカメラの配置は、あくまで一例であり、二次情報として提供したい内容に合わせてカメラの数や位置は変えることができる。また、センサーとしてカメラ以外のセンサーを配置してもよい。例えば、カメラ100Aの代わりにLiDAR(Light Detection and Ranging)、RADAR(Radio Detection And Ranging)、赤外線センサー、ミリ波センサーなどを用いてもよいし、複数種類のセンサーを組み合わせて使用してもよい。
 情報提供サーバ200は、判定部201と、情報作成部202と、送信部203と、を備えている。
 判定部201は、カメラ100A~100Dからそれぞれ取得したカメラ映像に基づいて、特定方向(例えば、図2の下方)から交差点に進入する移動体に対し、二次情報として、死角に位置する移動体の存在を知らせる情報を提供するか否かを判定する。なお、前記特定方向から交差点に進入する移動体の有無は、カメラ100Aのカメラ映像によって検出することができる。もちろん、光ビーコンや超音波センサー等を対象車線に設置し、特定方向から交差点に進入する移動体を検出する方法を採ることもできる。ここで、情報提供サーバ200のサービスの提供先となる移動体としては車両の他、歩行者や自転車など種々のものが考えられるが、本実施形態の以下の説明においては、サービス対象の移動体が車両である例を挙げて説明する。
 カメラ100A~100Dからそれぞれ取得したカメラ映像から移動体を抽出する方法としては、例えば、前後の映像フレームの比較や事前に用意した背景画像との差分から動きのあるオブジェクトを移動体として抽出する方法を採ることができる。カメラ映像から移動体を抽出する方法は、これらの方法に限られない。例えば、当該エリア(交差点周辺)の高精度3次元地図情報(静的オブジェクト情報)を用い、カメラ映像から抽出されたオブジェクトから静的オブジェクトを取り除くことで移動体を抽出する方法を採ることもできる。また、前記カメラ映像からのオブジェクト抽出やオブジェクト(移動体)の種類判定には、ディープラーニング技術を用いたものなど、公知となっている各種のオブジェクト検出技術を用いることができる。また、以下の説明では、本実施形態の情報提供サーバ200は、オブジェクト検出と併せて、移動体の種類を特定するものとして説明する。
 また、判定部201における二次情報を提供するか否かの判断は、前記特定方向から交差点に進入する移動体から検知することが困難な移動体の有無や当該移動体の種類、当該移動体の移動属性(移動の方向・速度)により判断することができる。これらの二次情報を提供するか否かの判断方法は、後に具体例を示して詳細に説明する。
 情報作成部202は、前記移動体(第一の移動体)に対し、前記二次情報を提供すると判定した場合、前記カメラ100A~100Dから取得したカメラ映像を用いて、前記移動体(第一の移動体)に対し死角に位置する移動体の存在を知らせる二次情報を作成する。より具体的には、情報作成部202は、カメラ100A~100Dで得られたカメラ映像間の重複情報を取り除く形で二次情報を作成する。
 送信部203は、前記移動体(第一の移動体)に対し、前記死角に位置する移動体の存在を知らせる二次情報を送信する。なお、送信部203が、前記特定の移動体に、二次情報を送信する方法としては、移動体に搭載等された通信機器からの問い合わせに応じて情報を送信する方法を採ることができる(オンデマンド方式)。送信部203は、前記移動体に対し、無線通信網を介して二次情報を送信することができる。無線通信網としては、LTE(Long Term Evoluiton)、5G、ローカル5G、Wi-Fi(登録商標)などの各種モバイル通信網を用いることができる。
 続いて、本実施形態の動作について図面を参照して詳細に説明する。図5は、本発明の第1の実施形態の情報提供サーバ200の動作を表したフローチャートである。図5を参照すると、まず、情報提供サーバ200は、一次情報として、カメラ100A~100Dからそれぞれカメラ映像を取得する(ステップS001)。
 次に、情報提供サーバ200は、カメラ100A~100Dから取得したカメラ映像を分析し、特定方向から交差点に進入する移動体に対し、二次情報を提供するか否かを分析する(ステップS002)。
 図6は、情報提供サーバ200が、カメラ100A~100Dから取得したカメラ映像を分析し、移動体を抽出した結果の一例を示す。図6のCAR1が、特定方向から交差点に進入する移動体(第一の移動体)であるものとして説明する。情報提供サーバ200は、車両CAR1が走行する車線の対向車線から右折しようとしている車両CAR2、その背後に位置する二輪車BIKE1、図6の左下の建物の手前で信号待ちしている歩行者P1の存在を把握しているものとして説明する。
 前記分析の結果、交差点に進入する移動体(第一の移動体)に対し、二次情報を提供すると判断した場合(ステップS003のYes)、情報提供サーバ200は、前記移動体に対し提供する二次情報を作成する(ステップS004)。より具体的には、情報提供サーバ200は、カメラ100A~100Dから取得したカメラ映像を用いて、前記移動体に対し死角に位置する移動体の存在を知らせる情報を作成する。なお、ステップS002の分析の結果、交差点に進入する移動体に対し、二次情報を提供しないと判断した場合(ステップS003のNo)、情報提供サーバ200は、以降の処理を省略する。
 ここで、情報提供サーバ200による二次情報の提供要否の判定方法の例について説明する。
(方法1)例えば、カメラ映像(一次情報)を分析した結果、二次情報の提供対象である第一の移動体(車両CAR1)の死角に移動体が存在する場合、情報提供サーバ200が提供要と判定し、存在しない場合に提供不要と判定する方法を採ることができる。例えば、図6の場合、第一の移動体(車両CAR1)の死角に二輪車BIKE1及び歩行者P1が存在するため、情報提供サーバ200が提供要と判定することになる。
(方法2)例えば、カメラ映像(一次情報)を分析した結果、二次情報の提供対象である第一の移動体(車両CAR1)の死角に移動体が存在し、かつその移動体が特定の種類の場合(例:自動二輪、自転車、人など)、情報提供サーバ200は、二次情報の提供要と判定する。それ以外の場合、情報提供サーバ200は、二次情報の提供不要と判定する。
(方法3)例えば、カメラ映像(一次情報)を分析した結果、二次情報の提供対象である第一の移動体(車両CAR1)の死角に移動体が存在し、かつその移動体が第一の移動体(車両CAR1)に近づいている場合、又は、その移動体が停止している場合、情報提供サーバ200が提供要と判定する。一方、第一の移動体(車両CAR1)の死角に存在する移動体が第一の移動体(車両CAR1)から遠ざかっている場合、情報提供サーバ200は、提供不要と判定する方法を採ることができる。また、この方法3においては、それぞれの移動体の速度を加味して二次情報の提供要否を判定してもよい。例えば、ある移動体の移動速度が所定の値以下である場合、情報提供サーバ200は、その移動方向に拘わらず、当該移動体は、停止しているものとみなして判定を行うようにしてもよい。このように、移動体の移動属性を用いて二次情報の提供要否を判定する方法も採ることができる。
 また、上記した方法1~3における死角に移動体が存在するか否かは、次のような方法で判定することができる。まず、情報提供サーバ200は、第一の移動体(車両CAR1)の位置情報と、周辺の移動体(オブジェクト)の情報(および周辺の地図情報)をもとに、第一の移動体(車両CAR1)と各移動体とを結ぶ直線上に、他の移動体や構造物が存在するか否かにより各移動体が死角位置にあるか否かを判定する。例えば、情報提供サーバ200は、図7に示すように、交差点の概況を表すマップ上の、車両CAR1のセンサー位置と、移動体のエッジとを結ぶ2本の仮想線(破線)を引く。そして、双方又はいずれかの仮想線(破線)上に、他の移動体や構造物がある場合、情報提供サーバ200は、移動体が第一の移動体(車両CAR1)の死角にあると判定する方法を採ることができる。例えば、図7の二輪車BIKE1の場合、2本の仮想線(破線)上に、他の移動体(車両CAR2)が存在するため、情報提供サーバ200は、BIKE1が第一の移動体(車両CAR1)の死角位置にあると判定する。同様に例えば、図7の歩行者P1の場合、仮想線(破線)上に、構造物(図7の左下の「建物」)が存在するため、情報提供サーバ200は、歩行者P1が第一の移動体(車両CAR1)の死角位置にあると判定する。他方、図7の車両CAR2の場合、仮想線(破線)上に、他の移動体や構造物は存在しないため、情報提供サーバ200は、車両CAR2が第一の移動体(車両CAR1)の死角位置にないと判定する。なお、死角に移動体が存在するか否かの判定方法は上記の例に限られず、種々の方法を採用することができる。例えば、図7のように、2本の仮想線(破線)を引くことに代えて、移動体の中心位置から、他の移動体の中心位置への仮想線(破線)を引き、その中間に他の移動体や構造物がある場合、当該他の移動体は死角にあると判定する簡易的な方法を採用してもよい。また、上記の説明では「死角」は、第一の移動体(車両CAR1)に搭載されたカメラの死角であるものとして説明したが、死角の例はこれに限られない。例えば、「ドライバー(運転手)の視点」による死角を想定してもよい。また、「死角」は「可視光」による死角に限られず、第一の移動体(車両CAR1)に搭載されたセンサー種別に応じ、LiDAR、RADAR等の死角であってもよい。上記した方法1~3において、第一の移動体(車両CAR1)が、情報提供サーバ200に対し、第一の移動体(車両CAR1)の位置情報を含んだ問い合わせメッセージを送信する構成を採ることもできる。
 最後に、情報提供サーバ200は、前記第一の移動体に対し、作成した二次情報を送信する(ステップS005)。例えば、第一の移動体(車両CAR1)からの問い合わせメッセージから送信元の通信アドレスを特定し、該通信アドレスに対して二次情報を送信することで、車両CAR1に対して二次情報を送信することができる。
 ここで、上記ステップS004で作成され、ステップS005で車両に提供される二次情報の例について説明する。図8は、情報提供サーバ200が図6の第一の移動体である車両CAR1に対し提供する二次情報の例である。図8の例では、車両CAR1のある画面上に、車両CAR1から死角にある二輪車BIKE1と、歩行者P1との位置関係を表示することで、注意を喚起する情報として提供している。また、このような位置関係を、地図に重畳して表示して提供してもよい。なお、二次情報の提供形態は、図8に例示した形態に限られない。例えば、音声で第一の移動体(車両CAR1)から死角にある二輪車BIKE1と、歩行者P1の存在を伝える形態であってもよい。また、二次情報の提供は、第一の移動体(車両CAR1)の車載端末(運転支援装置である場合も含む)が解釈可能な形態であってもよい。例えば、図8中のようなコメントを付加した吹き出しを配置した人間の視覚、音声による人間の聴覚に訴える形態に代えて、第一の移動体(車両CAR1)の車載端末が解釈可能な形態で提供することも可能である。
 上記図8に示した位置関係を示す情報は、次のような方法で作成することができる。まず、情報提供サーバ200は、カメラ100A~100Dのカメラ映像に写っている同一移動体を特定し、その重複を取り除く。例えば、同一時刻かつ同一の位置に、同一種類及び/又は同一の大きさの移動体が複数カメラから検出された場合、情報提供サーバ200は、同一移動体と特定する。そして、情報提供サーバ200は、第一の移動体(車両CAR1)と前記同一と特定したオブジェクトの位置関係を表す二次情報を作成する。また、図8における車両CAR2は、第一の移動体(車両CAR1)から検出可能なオブジェクトであるため、二次情報に含める情報から除外することもできる。以上により、カメラ100A~100Dのカメラ映像に写っているオブジェクトの重複や無駄が取り除かれる。また、第一の移動体(車両CAR1)の車載端末が解釈可能な形態で二次情報を提供する場合も、同様に、同一の移動体を特定して重複を取り除いたり、第一の移動体(車両CAR1)で捕捉できている移動体を除外したりして二次情報を作成することができる。
 二次情報を作成する別の方法として、第一の移動体(車両CAR1)から見て死角の位置に存在する複数の移動体の情報を、同一メッセージあるいは同一IPパケットに集約して第一の移動体(車両CAR1)に送信してもよい。IPパケット化した情報を、各カメラがそれぞれ独立に第一の移動体(車両)に送信する場合、各IPパケットそれぞれにIPヘッダが付与され、送信データ全体に占めるIPヘッダの割合が高くなる。一方、情報提供サーバ200において一つのIPパケットに集約して情報を送信することで、送信データ全体に占めるIPヘッダの割合を削減することができる。また、情報提供サーバ200において情報を集約して送信することで、各カメラがそれぞれ独立に第一の移動体(車両)に情報を送信する場合に比べ、無線リンクの確立や無線リソースの割り当てなど、モバイル通信網のシグナリング負荷を軽減する効果も期待できる。
 上記のようにして作成された二次情報は、第一の移動体(車両CAR1)において種々の形態で利用される。例えば、第一の移動体(車両CAR1)の車載端末やスマートフォンに送信し、これらの装置上で表示することにより、運転手に提示する形態を採ることができる。また、第一の移動体(車両CAR1)のフロントウィンドウ上にAR(Augmented Reality)表示する形態を採ることもできる。図9、図10は、これらの端末やフロントウィンドウ上に、二次情報を提示した例を示している。例えば、図9の例では、実像として見えている車両CAR2や建物の背後に、二輪車BIKE1や歩行者P1が存在することを伝えるメッセージが表示されている。また、図10の例では、実像として見えている車両CAR2や建物の背後に、二輪車BIKE1や歩行者P1を表すオブジェクトがAR表示されている。このように二次情報を利用することで、第一の移動体(車両)の運転手に死角にバイクや歩行者が位置していることを的確に伝えることができる。図10のオブジェクト(BIKE1やP1)は、アイコンでもよいし、カメラ100Bから得られたバイクや歩行者の側方画像(一次情報)から推定した正面像であってもよい。また、これらのオブジェクトに、カメラ映像から推定した速度やCAR1との距離等を表示してもよい。
 また、二次情報は、運転手の視覚に訴える形態以外にも利用可能である。例えば、第一の移動体(車両CAR1)の車載端末に二次情報を入力し、自動運転用の情報や運転支援情報として利用させることもできる。例えば、自動運転用のダイナミックマップを補完する情報として、二次情報を提供することもできる。
 以上、説明したように、本実施形態によれば、特定方向から交差点に進入する第一の移動体(車両)に対し、精度のよい二次情報を効率よく送信することができる。その理由は、カメラ100A~100Dから取得した一次情報を用いて、二次情報の作成要否を判定し、さらに、その重複を省いて二次情報を作成する構成を採用したことにある。
 なお、上記した第1の実施形態では、特定方向から交差点に進入する第一の移動体(車両)に対し二次情報を提供する例を挙げて説明したが、本発明を適用可能な場面は、この例に限られない。例えば、図11に示すように、駐車中の車両obj1の存在により、車両obj0のセンサー等の死角となる範囲に位置する移動体(第二の移動体)の像obj2(図11の場合、歩行者)が位置していることがある。このような場合に、第一の移動体(車両obj0)に対し、センサー等の死角となる範囲に位置する移動体(第二の移動体)の存在を伝える用途にも適用可能である。また例えば、図12に示すように、駐車場に駐車中の車両obj1の存在により、車両obj0のセンサーから捉えられにくくなっている歩行者obj2が位置していることがある。このような場合に、車両obj0に対し、歩行者obj2の存在を伝える用途にも適用可能である。また、第一の移動体は、車両のほか、歩行者や自転車であってもよい。このように、本発明は、ある第一の移動体の周辺に、その第一の移動体から検出困難な第二の移動体の存在を知らせる用途全般に適用することができる。
[第2の実施形態]
 続いて、特定の移動体に対し情報を送信する方法に変更を加えた第2の実施形態について図面を参照して詳細に説明する。第2の実施形態においても、情報提供サーバ200aのサービスの提供先となる移動体としては車両の他、歩行者や自転車など種々のものが考えられるが、以下の説明においては、サービス対象の移動体が車両である例を挙げて説明する。図13は、本発明の第2の実施形態の情報提供サーバの構成を示す図である。図2に示した第1の実施形態との構成上の相違点は、情報提供サーバ200aに、アドレス取得部204が追加され、判定部201aと送信部203aの機能に変更が加えられている点である。その他の構成は第1の実施形態と同様であるので、以下、その相違点を中心に説明する。
 判定部201aは、カメラ100A~100Dから得られたカメラ映像(一次情報)をアドレス取得部204に提供する。
 アドレス取得部204は、カメラ100A~100Dから得られたカメラ映像(一次情報)に写った移動体(車両)の像から、ナンバープレート情報を読み取ることで個体識別を行う。そして、アドレス取得部204は、クラウド上に配置された移動体管理サーバ300に、前記ナンバープレート情報を送信し、該当するナンバープレート情報を持つ移動体(車両)の車載端末のIP(Internet Protocol)アドレスを要求する。
 移動体管理サーバ300は、ナンバープレート情報と各移動体(車両)の車載端末等のIPアドレスとを紐づけた移動体情報を管理するサーバである。移動体管理サーバ300は、情報提供サーバ200aから、ナンバープレート情報に対応するIPアドレスの要求を受けると、情報提供サーバ200aに対し、IPアドレスを応答する。
 送信部203aは、前記入手したIPアドレスを用いて、前記移動体(車両)に対し、前記死角に位置する他の移動体の存在を知らせる情報を送信する。
 続いて、本実施形態の動作について図面を参照して詳細に説明する。図14は、本発明の第2の実施形態の情報提供サーバ200aの動作を表したフローチャートである。図5に表した第1の実施形態の動作との相違点は、ステップS004の後に、ステップS105、S106が追加されている点である。
 情報提供サーバ200aは、前記第一の移動体(車両)に対し提供する二次情報の作成後(ステップS004)、カメラ100A~100Dから得られた画像(一次情報)に写った第一の移動体(車両)の像から、ナンバープレート情報を読み取ることで第一の移動体(車両)を特定する(ステップS105)。
 情報提供サーバ200aは、クラウド上に配置された移動体管理サーバ300から、前記特定した第一の移動体(車両)の車載端末等のIPアドレスを取得する(ステップS106)。
 最後に、情報提供サーバ200aは、前記取得したIPアドレスを用いて、第一の移動体(車両)に対し、ステップS004で作成した二次情報を送信する(ステップS005)。
 以上、説明したように、本実施形態によれば、問い合わせメッセージを受けることなく通信アドレスを特定し、第一の移動体に対して情報を通知することが可能となる。また、本実施形態によれば、第一の移動体の車載端末等が二次情報の要求機能を持っていなくても第一の移動体に情報を送信することができるようになる。換言すると、本実施形態では、第1の実施形態の効果に加えて、車載端末側の機能を簡素化できるという利点がある。
 なお、上記した第2の実施形態では、カメラ100A~100Dから得られたカメラ映像から、ナンバープレート情報を読み取り、車載端末等のアドレスを特定するものとして説明したが、第一の移動体の車載端末等のアドレスの特定方法はこれに限られない。例えば、クラウド上に、人物の顔画像とアドレスを紐づけたサーバが存在する場合、カメラ100A~100Dから得られたカメラ映像に写った顔画像から運転手を特定し、さらに前記サーバに問い合わせることで第一の移動体の端末アドレスを特定する方法も採用できる。この方法を採る場合、車両搭乗者以外の一般の歩行者や自転車に乗っている人にも二次情報を提供できるという利点がある。
 具体的には、クラウド上に、人物の顔画像と、その人物が所持する情報端末のアドレスとを紐づけたサーバを配置しておく。そして、情報提供サーバ200aは、サーバに対し、前記顔画像に対応する人物の所持する情報端末のアドレスを問い合わせる。このようにすることで、本発明は、情報の送信先が車両の場合だけでなく、送信先が歩行者や自転車に乗っている人の場合にも適用できる。
[第3の実施形態]
 続いて、上記した各実施形態のセンサーの1つとして、移動体に搭載されたカメラを用いるようにした第3の実施形態について図面を参照して詳細に説明する。第3の実施形態においても、情報提供サーバ200bのサービスの提供先となる移動体とカメラ映像を取得する移動体としては、車両の他、歩行者や自転車など種々のものが考えられるが、以下の説明においては、これらの移動体がそれぞれ車両である例を挙げて説明する。図15は、本発明の第3の実施形態の情報提供サーバの構成を示す図である。図2に示した第1の実施形態との構成上の相違点は、情報提供サーバ200bの判定部201bが、ネットワークを介して、通行中の周辺移動体に搭載されたカメラ100Eからのカメラ映像を取得可能となっている点である。その他の構成は第1の実施形態と同様であるので、以下、その相違点を中心に説明する。
 情報提供サーバ200bの判定部201bは、ネットワークを介して、交差点付近を通行中の1台以上の移動体に搭載されたカメラ100Eからのカメラ映像を取得する。判定部201bは、当該画像の取得位置を、カメラ映像に付されたEXIF情報等のメタデータから特定することができる。また、あるいは、ネットワーク側に、移動体の位置情報に基づいて、情報提供サーバ200bに対しカメラ映像を送信する機能を持たせ、交差点に向かっている移動体からのカメラ映像が自動的に情報提供サーバ200bに送信されるような構成を採ってもよい。
 以上のように、本実施形態の情報提供サーバ200bは、一次情報として、交差点付近を通行中の1台以上の移動体に搭載されたカメラ100Eからの画像を取得可能となっている。これにより、例えば、図15に示すように、第一の移動体(車両CAR1)の死角となる範囲に位置する移動体(第二の移動体)BIKE1のさらに後方を走行している車両CAR3から画像を得ることが可能となる。
 このように、センサーとして周辺の移動体のカメラを用いる本実施形態によれば、二次情報の作成要否の判定精度を向上させるとともに、二次情報に含める情報を豊富化することができる。特に、カメラ100A~100Dのような道路に設置された固定式のカメラである場合、太陽の位置により逆光状態となり、画像の質が低下することがあるが、カメラ100Eを用いることで、判定精度等の低下を防ぐことが可能となる。
[第4の実施形態]
 続いて、情報提供サーバが、移動体の移動状態を考慮して二次情報の提供を行う第4の実施形態について図面を参照して詳細に説明する。第4の実施形態においても、移動体としては、車両の他、歩行者や自転車など種々のものが考えられるが、以下の説明においては、移動体が車両である例を挙げて説明する。図16は、本発明の第4の実施形態の情報提供サーバの構成を示す図である。図2に示した第1の実施形態との構成上の相違点は、情報提供サーバ200cに、移動状態取得部205が追加され、情報作成部202cが移動状態取得部205で取得した情報も用いて二次情報を作成するよう構成されている点である。その他の構成は第1の実施形態と同様であるので、以下、その相違点を中心に説明する。
 情報提供サーバ200cの移動状態取得部205は、カメラ100A~100Dに写った第一の移動体(車両CAR1)の移動状態を取得する。ここで、「移動状態」とは、移動体の移動についての状態を表し、例えば、進行方向や速度が含まれる。以下、移動状態として進行方向を取得する場合を例として説明する。第一の移動体(車両CAR1)の移動状態の取得方法としては、カメラ100A~100Dから得られたカメラ映像に写った第一の移動体(車両CAR1)の像の動きや方向指示器の情報から進行方向を推定する方法を採ることができる。第一の移動体(車両CAR1)の進行方向の取得方法は、これに限られず、種々の方法を採ることができる。例えば、交差点の車線に進行方向の指定(例えば、右折レーン)が設定されている場合、カメラ映像に写った第一の移動体(車両CAR1)が位置する車線情報を用いて進行方向を推定する方法を用いることができる。また、情報提供サーバ200cが、車両である移動体の車載端末から第一の移動体(車両CAR1)の走行経路計画情報(カーナビゲーションシステムの経路情報)を入手できる場合、走行経路計画情報を用いて進行方向を推定してもよい。また、情報提供サーバ200cが、車両である移動体のステアリング角を入手できる場合、ステアリング角を用いて第一の移動体(車両CAR1)の進行方向を推定してもよい。また、交差点の交通信号機の灯火パターンに、進行方向の指定(例えば、赤灯火と右矢印の組み合わせ)が設定されている場合、カメラ映像に写った交通信号機の灯火状態や、交通信号機の制御情報を用いて第一の移動体(車両CAR1)の進行方向を推定する方法を用いることができる。
 情報作成部202cは、カメラ100A~100Dのカメラ映像に加えて、上記のようにして得られた第一の移動体(車両CAR1)の進行方向を用いて二次情報を作成する。具体的には、情報作成部202cは、第一の移動体(車両CAR1)の死角にあるオブジェクト(第二の移動体)のうち、第一の移動体(車両CAR1)の進行方向にあるオブジェクトに高い優先度を与え、その優先度を考慮して二次情報を作成する。
 続いて、本実施形態の動作について図面を参照して詳細に説明する。図17は、本発明の第4の実施形態の情報提供サーバ200cの動作を表したフローチャートである。図5に表した第1の実施形態の動作との相違点は、ステップS003の後に、ステップS204、S205が追加されている点である。
 情報提供サーバ200cは、移動体(第一の移動体)に対し二次情報を提供すると判定すると(ステップS003のYes)、当該移動体の移動状態(進行方向情報)を取得する(ステップS204)。
 次に、情報提供サーバ200cは、オブジェクトの配置と前記移動体の移動状態(進行方向)を用いて各オブジェクトに付与する重要度を決定する(ステップS205)。そして、情報提供サーバ200cは、前記決定した重要度を考慮して二次情報を作成する(ステップS004)。例えば、第一の移動体(車両CAR1)が右折するとの移動状態(進行方向)が得られているものとする。この場合、情報提供サーバ200cは、図18に示すように、第一の移動体(車両CAR1)の死角にあるオブジェクト(BIKE1、P1)のうち、第一の移動体(車両CAR1)の進行方向にある二輪車BIKE1に対し、より高い重要度を設定する。そして、情報提供サーバ200cは、二輪車BIKE1について強く注意を喚起する二次情報を作成する。また、このときに、低い重要度が付与された歩行者P1については、二次情報から省略することもできる。
 以上のように動作する本実施形態の情報提供サーバ200cによれば、第1~第3の実施形態との比較において、第一の移動体(車両CAR1)に伝える情報をより絞り込むことが可能となる。これにより、第一の移動体(車両CAR1)の運転者や車載装置に対し、死角にある移動体の存在をより効率よく伝えることが可能となる。
 また、上記した実施形態では、オブジェクトに付与した重要度を用いて二次情報を作成するものとして説明したが、重要度の利用形態はこれに限られない。例えば、車載端末の画像として二次情報を表示する際の各オブジェクトの見せ方に違いを持たせてもよい。また、各オブジェクトに付与した重要度の高低に応じて、二次情報の送信形態に違いを持たせてもよい。例えば、重要度の高いオブジェクトの存在を知らせる二次情報については、第一の移動体(車両CAR1)からの要求を待たずに、プッシュ型で送信し(第2の実施形態参照)、その他の情報については、第一の移動体(車両CAR1)からの要求に応じて送信する、といった形態を採ることができる。
 なお、上記した第4の実施形態では、移動状態として、進行方向を用いる例を挙げて説明したが、移動状態として、第一の移動体の速度を用いてもよい。第一の移動体の速度は、速度センサーから取得してもよいし、映像を解析して取得してもよい。また、第一の移動体が車両であり、そのシフトレバーの位置を入手できる場合、シフトレバーの位置情報から速度を推定してもよい。このように、移動状態として速度という情報を用いることで、例えば、速度が所定の閾値以下である場合(停止や最徐行している場合など)には、低い重要度を設定することができる。
 また、上記した第4の実施形態の説明では、第一の移動体の移動状態を取得し、考慮する例を挙げて説明したが、それに代えて、またはそれに加えて、他の移動体(周辺移動体)の移動状態(進行方向、速度等)を取得して二次情報を作成してもよい。例えば、第一の移動体の死角に2つの移動体が存在し、それぞれ進行方向や速度が異なる場合、これらに応じて異なる重要度を設定してもよい。
[第5の実施形態]
 続いて、情報提供サーバが、移動体の移動状態を考慮して二次情報の提供要否を判定する第5の実施形態について図面を参照して詳細に説明する。第5の実施形態においても、移動体としては、車両の他、歩行者や自転車など種々のものが考えられるが、以下の説明においては、移動体が車両である例を挙げて説明する。図19は、本発明の第5の実施形態の情報提供サーバの構成を示す図である。図2に示した第1の実施形態との構成上の相違点は、情報提供サーバ200dの判定部201d内に、移動状態取得部205が追加され、判定部201dが移動状態取得部205で取得した情報も用いて二次情報の作成要否を判定するよう構成されている点である。その他の構成は第1の実施形態と同様であるので、以下、その相違点を中心に説明する。
 情報提供サーバ200dの移動状態取得部205は、カメラ100A~100Dに写った第一の移動体(車両CAR1)の移動状態(進行方向)を取得する。第一の移動体(車両CAR1)の移動状態(進行方向)の取得方法は、第4の実施形態と同様であるので、説明を省略する。また、以下の説明では、移動状態として進行方向を取得する場合を例として説明する。
 判定部201dは、カメラ100A~100Dのカメラ映像に加えて、上記のようにして得られた第一の移動体(車両CAR1)の移動状態(進行方向)を用いて二次情報の提供要否を判定する。具体的には、判定部201dは、第一の移動体(車両CAR1)の死角にあるオブジェクトが、第一の移動体(車両CAR1)の進行方向にあるか否かにより、二次情報の提供要否を判定する。
 続いて、本実施形態の動作について図面を参照して詳細に説明する。図20は、本発明の第5の実施形態の情報提供サーバ200dの動作を表したフローチャートである。図5に表した第1の実施形態の動作との相違点は、ステップS301において一次情報に加えて、移動状態の取得が行われる点と、ステップS302において一次情報に加えて、移動状態の分析が行われる点である。
 例えば、第一の移動体(車両CAR1)が右折するとの進行方向が得られている場合、情報提供サーバ200dは、図18に示すように、第一の移動体(車両CAR1)の死角にあるオブジェクト(BIKE1、P1)のうち、二輪車BIKE1が車両CAR1の進行方向にあるため、二次情報の提供要と判定する。逆に、第一の移動体(車両CAR1)の死角にあるオブジェクトのいずれもが、第一の移動体(車両CAR1)の進行方向に無い場合、情報提供サーバ200dは、二次情報は提供不要と判定する。
 以上のように動作する本実施形態の情報提供サーバ200dによれば、第1~第4の実施形態との比較において、第一の移動体(車両CAR1)に伝える情報をより絞り込むことが可能となる。これにより、第一の移動体(車両CAR1)の運転者や車載装置に対し、死角にある移動体の存在をより効率よく伝えることが可能となる。
 なお、上記した第5の実施形態では、移動状態として、進行方向を用いる例を挙げて説明したが、移動状態として、第一の移動体の速度を用いてもよい。第一の移動体の速度は、速度センサーから取得してもよいし、映像を解析して取得してもよい。また、第一の移動体が車両であり、そのシフトレバーの位置を入手できる場合、シフトレバーの位置情報から速度を推定してもよい。例えば、速度が所定の閾値以下である場合(停止や最徐行している場合など)には、提供不要と判定することができる。
 また、上記した第5の実施形態の説明では、第一の移動体の移動状態を取得し、考慮する例を挙げて説明したが、それに代えて、またはそれに加えて、他の移動体(周辺移動体)の移動状態(進行方向、速度等)を取得して二次情報の提供要否を判定してもよい。例えば、第一の移動体の死角に移動体が存在する場合、その進行方向や速度を取得し、それに応じて提供要否を判定してもよい。
[第6の実施形態]
 続いて、情報提供サーバが、移動体の将来の動きを考慮して二次情報の提供要否を判定する第6の実施形態について図面を参照して詳細に説明する。第6の実施形態においても、移動体としては、車両の他、歩行者や自転車など種々のものが考えられるが、以下の説明においては、移動体が車両である例を挙げて説明する。図21は、本発明の第6の実施形態の情報提供サーバの構成を示す図である。図2に示した第1の実施形態との構成上の相違点は、情報提供サーバ200eの判定部201e内に、動き予測部206が追加され、判定部201eが動き予測部206で取得した情報も用いて二次情報の作成要否を判定するよう構成されている点である。その他の構成は第1の実施形態と同様であるので、以下、その相違点を中心に説明する。
 情報提供サーバ200eの動き予測部206は、カメラ100A~100Dに写った第一の移動体(車両CAR1)の状態から第一の移動体(車両CAR1)の動きを予測する。第一の移動体(車両CAR1)の動きの予測方法としては、カメラ100A~100Dから得られたカメラ映像に写った第一の移動体(車両CAR1)の像から所定時間後の動きを予測する方法を採ることができる。第一の移動体(車両CAR1)の動きの予測方法は、これに限られず、種々の方法を採ることができる。例えば、情報提供サーバ200eが、第一の移動体(車両CAR1)の車載端末から第一の移動体(車両CAR1の計器情報(ステアリング角や速度計、GPS情報等))を入手できる場合、これらの情報を用いて所定時間後の動きを推定してもよい。また、交差点の交通信号機の灯火状態や交通信号機の制御情報を取得できる場合、これらを用いて第一の移動体(車両CAR1)の動きを予測する方法を用いることができる。例えば、第一の移動体(車両CAR1)の進行方向にある交通信号機の灯火が赤である場合、第一の移動体(車両CAR1)は、しばらく移動しないと予測することができる。また、例えば、第一の移動体(車両CAR1)の進行方向にある交通信号機の灯火が近々青に変わるとの情報が得られている場合、第一の移動体(車両CAR1)は、所定時間後に移動を開始すると予測することができる。また、例えば、第一の移動体が車両であり、その走行経路計画情報(カーナビゲーションシステムの経路情報)を入手できる場合、走行経路計画情報を用いて動きを予測してもよい。また、例えば、交差点の車線に進行方向の指定(例えば、右折レーン)が設定されている場合、カメラ映像に写った第一の移動体(車両CAR1)が位置する車線情報を用いて動きを予測する方法を用いることができる。
 判定部201eは、カメラ100A~100Dのカメラ映像に加えて、上記のようにして得られた第一の移動体(車両CAR1)の将来の動きを用いて二次情報の提供要否を判定する。具体的には、判定部201eは、第一の移動体(車両CAR1)の死角にあるオブジェクトの有無に加えて、第一の移動体(車両CAR1)がしばらく停止状態にあるか否かにより、二次情報の提供要否を判定する。
 続いて、本実施形態の動作について図面を参照して詳細に説明する。図22は、本発明の第6の実施形態の情報提供サーバ200eの動作を表したフローチャートである。図5に表した第1の実施形態の動作との相違点は、ステップS002の後に、移動体の動きを予測するステップS501が追加されている点である。
 例えば、第一の移動体(車両CAR1)がしばらく停止するとの予測結果が得られている場合、情報提供サーバ200eは、第一の移動体(車両CAR1)の死角にあるオブジェクトがあるか否かに拘わらず、二次情報の提供不要と判定する。また、第一の移動体(車両CAR1)が移動中であるか、近々移動を開始するとの予測結果が得られている場合、情報提供サーバ200eは、二次情報の提供要と判定する。
 以上のように動作する本実施形態の情報提供サーバ200eによれば、第1~第5の実施形態との比較において、第一の移動体(車両CAR1)に伝える情報をより絞り込むことが可能となる。これにより、第一の移動体(車両CAR1)の運転者や車載装置に対し、死角にある移動体の存在をより効率よく伝えることが可能となる。
 また、上記した第6の実施形態の説明では、第一の移動体の移動状態を取得し、考慮する例を挙げて説明したが、それに代えて、またはそれに加えて、他の移動体(周辺移動体)の将来の動きの予測を行って二次情報を作成してもよい。例えば、第一の移動体の死角に2つの移動体が存在し、それぞれ将来の動きが異なる場合、これらに応じて異なる重要度を設定してもよい。
[第7の実施形態]
 続いて、情報提供サーバがMEC(Mobile Edge Computing/Multi-access Edge Computing)サーバとして機能する第7の実施形態について図面を参照して詳細に説明する。図23は、本発明の第7の実施形態の構成を示す図である。図2以下に示した第1の実施形態との相違点は、情報提供サーバ200gが、カメラ100A~100Dからそれぞれ取得した一次情報を所定の管制サーバ500に送信するネットワークの前記カメラ100A~100D側のエッジに配置されている点である。
 図23を参照すると、カメラ100A~100Dが、基地局600、モバイルバックホール700、ゲートウェイ(GW)800及びインターネット900を介して、管制サーバ500に接続されている構成が示されている。
 基地局600は、通常の基地局としての機能のほか、カメラ100A~100Dで撮影されたカメラ映像を管制サーバ500と情報提供サーバ200gに送信する。管制サーバ500は、カメラ100A~100Dで撮影されたカメラ映像を用いて、管制業務に必要な情報処理を行う。
 情報提供サーバ200gは、基地局600から受信したカメラ100A~100Dのカメラ映像を用いて、第1の実施形態と同様の動作を行い、二次情報を作成し、必要に応じて、基地局600を介して、移動体(第一の移動体)に二次情報を送信する。従って、情報提供サーバ200gは、一種のモバイルエッジコンピューティングサーバ(MECサーバ)として機能することになる。モバイルバックホール700、ゲートウェイ(GW)800及びインターネット900は、当業者によってよく知られた構成であるので、説明を省略する。
 本実施形態の構成によれば、既存の交通管制システムにアドオンする形で、移動体(第一の移動体)に対する二次情報の提供を行うことが可能となる。また、上述のとおり、情報提供サーバ200gは、一次情報を所定の管制サーバ500に送信するネットワークの前記カメラ100A~100D側のエッジに配置されているため、管制サーバ500に同等の二次情報の提供を行わせる場合と比較して、処理遅延を少なくすることができるという利点がある。
 以上、本発明の各実施形態を説明したが、本発明は、上記した実施形態に限定されるものではなく、本発明の基本的技術的思想を逸脱しない範囲で、更なる変形・置換・調整を加えることができる。例えば、各図面に示したネットワーク構成、各要素の構成、データの表現形態は、本発明の理解を助けるための一例であり、これらの図面に示した構成に限定されるものではない。例えば、上記した実施形態では、2つのカメラをその撮影方向が直角に交わるように配置した例を挙げて説明したが、カメラの台数や配置はこれに限られない。
 また、上記した第1~第7の実施形態は、任意に選択した2つ以上の実施形態の特徴を組み合わせて、別の実施形態を構成することができる。例えば、第2の実施形態と、第3の実施形態とを組み合わせて、第一の移動体の情報送信先を特定する機能と、センサーの1つとして周辺移動体のカメラの画像を用いる情報提供サーバを得ることができる。
 また、上記した第1~第7の実施形態に示した手順は、情報提供サーバ200~200gとして機能するコンピュータ(図24の9000)に、情報提供サーバ200~200gとしての機能を実現させるプログラムにより実現可能である。このようなコンピュータは、図24のCPU(Central Processing Unit)9010、通信インターフェース9020、メモリ9030、補助記憶装置9040を備える構成に例示される。すなわち、図24のCPU9010にて、データ処理プログラムやデータ送信プログラムを実行し、その補助記憶装置9040等に保持された各計算パラメーターの更新処理を実施させればよい。
 即ち、上記した各実施形態に示した情報提供サーバ200~200gの各部(処理手段、機能)は、これらの装置に搭載されたプロセッサに、そのハードウェアを用いて、上記した各処理を実行させるコンピュータプログラムにより実現することができる。
 最後に、本発明の好ましい形態を要約する。
[第1の形態]
(上記第1の視点による情報提供サーバ参照)
[第2の形態]
 上記した情報提供サーバの判定手段は、前記第一の移動体の周辺に、前記第一の移動体からは検出困難な第二の移動体が存在するか否か、該第二の移動体の種類、または該第二の移動体の移動属性の少なくともいずれか一つに基づき、前記二次情報を提供するか否かを判定し、前記第一の移動体の周辺に、前記第一の移動体から検出困難な第二の移動体が存在すると判定した場合に、前記二次情報を提供すると判定する、構成を採ることができる。
[第3の形態]
 上記した情報提供サーバの判定手段は、前記複数のセンサーから取得した一次情報から前記複数のセンサーのセンシング範囲に存在するオブジェクトを特定し、該特定したオブジェクト及び前記第一の移動体の位置から、前記第一の移動体の死角に存在する前記第二の移動体を抽出し、該抽出した前記第二の移動体に関する情報に基づいて、前記二次情報を提供するか否かを判定し、
 前記情報作成手段は、前記二次情報として、前記第二の移動体に関する情報を含む情報を作成する、構成を採ることができる。
[第4の形態]
 上記した情報提供サーバは、前記複数のセンサーから取得した一次情報に含まれるオブジェクトに関し、前記複数のセンサー間での同一性を判定し、前記同一性の判定結果に基づいて、前記二次情報を作成する、構成を採ることができる。
[第5の形態]
 上記した情報提供サーバは、
 さらに、前記一次情報を用いて前記第一の移動体の個体識別を実施し、該個体識別の結果をもとに、前記第一の移動体に割り当てられた通信アドレスを取得するアドレス取得手段を備え、前記送信手段は、前記通信アドレス宛に、前記二次情報を送信する、構成を採ることができる。
[第6の形態]
 上記した情報提供サーバの判定手段は、前記第一の移動体から受信したメッセージに含まれる位置情報に基づいて、前記二次情報を提供するか否かを判定し、前記送信手段は、前記メッセージの送信元の通信アドレス宛に、前記二次情報を送信する、構成を採ることができる。
[第7の形態]
 上記した情報提供サーバに接続される前記センサーとして、前記道路に設置されたセンサー又は前記道路を通行する移動体に備えられたセンサーの少なくとも1つを含む、構成を採ることができる。
[第8の形態]
 上記した情報提供サーバは、さらに、前記道路を通行する移動体の移動状態を取得可能であり、 
 前記判定手段が、前記移動状態を用いて、前記第一の移動体に前記二次情報を提供するか否かを判定する、構成を採ることができる。
[第9の形態]
 上記した情報提供サーバは、さらに、前記道路を通行する移動体の移動状態を取得可能であり、
 前記情報作成手段が、前記移動状態を用いて、前記第二の移動体それぞれの重要度を求め、該重要度を考慮して前記二次情報を作成する、構成を採ることができる。
[第10の形態]
 上記した情報提供サーバにおいて、上記した移動状態として、近傍の交通信号機の灯火状態、前記道路を通行する移動体の走行経路計画情報、前記道路を通行する移動体の走行車線情報、前記道路を通行する移動体の速度情報の少なくともいずれかを用いる構成を採ることができる。
[第11の形態]
 上記した情報提供サーバの前記判定手段は、前記道路を通行する移動体の動きを予測し、該動きの予測の結果を用いて、前記道路を通行する移動体に前記二次情報を提供するか否かを判定する、構成を採ることができる。
[第12の形態]
 上記した情報提供サーバの前記判定手段は、前記道路を通行する移動体の動きを予測し、該動きの予測の結果を用いて、前記第二の移動体それぞれの重要度を求め、該重要度を考慮して前記二次情報を作成する、構成を採ることができる。
[第13の形態]
 上記した情報提供サーバの前記判定手段は、近傍の交通信号機の灯火状態、前記道路を通行する移動体の走行経路計画情報、 前記道路を通行する移動体の走行車線情報、前記道路を通行する移動体の速度情報の少なくともいずれかに基づいて、前記道路を通行する移動体の動きを予測する、構成を採ることができる。
[第14の形態]
 上記した情報提供サーバは、
 前記複数のセンサーからそれぞれ取得した一次情報を所定の管制サーバに送信するネットワークの前記センサー側のエッジに配置されているサーバであってもよい。
[第15の形態]
(上記第2の視点による情報提供方法参照)
[第16の形態]
(上記第3の視点によるプログラム参照)
 なお、上記第15~第16の形態は、第1の形態と同様に、第2~第14の形態に展開することが可能である。
 なお、上記の特許文献の各開示は、本書に引用をもって繰り込み記載されているものとし、必要に応じて本発明の基礎ないし一部として用いることが出来るものとする。本発明の全開示(請求の範囲を含む)の枠内において、さらにその基本的技術思想に基づいて、実施形態ないし実施例の変更・調整が可能である。また、本発明の開示の枠内において種々の開示要素(各請求項の各要素、各実施形態ないし実施例の各要素、各図面の各要素等を含む)の多様な組み合わせ、ないし選択(部分的削除を含む)が可能である。すなわち、本発明は、請求の範囲を含む全開示、技術的思想にしたがって当業者であればなし得るであろう各種変形、修正を含むことは勿論である。特に、本書に記載した数値範囲については、当該範囲内に含まれる任意の数値ないし小範囲が、別段の記載のない場合でも具体的に記載されているものと解釈されるべきである。さらに、上記引用した文献の各開示事項は、必要に応じ、本発明の趣旨に則り、本発明の開示の一部として、その一部又は全部を、本書の記載事項と組み合わせて用いることも、本願の開示事項に含まれるものと、みなされる。
 10 センサー
 20、200、200a~200g 情報提供サーバ
 21、201、201a~201e 判定部
 22、202、202c 情報作成部
 23、203、203a 送信部
 100-1、100-2、100A~100E カメラ
 204 アドレス取得部
 205 移動状態取得部
 206 動き予測部
 300 移動体管理サーバ
 400A~400D 交通信号機
 500 管制サーバ
 600 基地局
 700 モバイルバックホール
 800 ゲートウェイ(GW) 
 900 インターネット
 CAR1~CAR2 車両
 BIKE1 二輪車
 P1 歩行者
 obj0~obj2 オブジェクト/像
 9000 コンピュータ
 9010 CPU
 9020 通信インターフェース
 9030 メモリ
 9040 補助記憶装置

Claims (16)

  1.  道路の所定の範囲をセンシングする複数のセンサーからそれぞれ取得した一次情報に基づいて、前記道路を通行する第一の移動体に対し、前記複数のセンサーから取得した一次情報を用いて作成する二次情報を提供するか否かを判定する判定手段と、
     前記第一の移動体に対し、前記二次情報を提供すると判定した場合、前記複数のセンサーから取得した一次情報を用いて前記二次情報を作成する情報作成手段と、
     前記第一の移動体に対し、前記二次情報を送信する送信手段と、
     を備える情報提供サーバ。
  2.  前記判定手段は、前記第一の移動体の周辺に、前記第一の移動体からは検出困難な第二の移動体が存在するか否か、該第二の移動体の種類、または該第二の移動体の移動属性の少なくともいずれか一つに基づき、前記二次情報を提供するか否かを判定する、
     請求項1に記載の情報提供サーバ。
  3.  前記判定手段は、前記複数のセンサーから取得した一次情報から前記複数のセンサーのセンシング範囲に存在するオブジェクトを特定し、該特定したオブジェクト及び前記第一の移動体の位置から、前記第一の移動体の死角に存在する前記第二の移動体を抽出し、該抽出した前記第二の移動体に関する情報に基づいて、前記二次情報を提供するか否かを判定し、
     前記情報作成手段は、前記二次情報として、前記第二の移動体に関する情報を含む情報を作成する、
     請求項2に記載の情報提供サーバ。
  4.  前記情報作成手段は、前記複数のセンサーから取得した一次情報に含まれるオブジェクトに関し、前記複数のセンサー間での同一性を判定し、前記同一性の判定結果に基づいて、前記二次情報を作成する、
     請求項1から3いずれか一に記載の情報提供サーバ。
  5.  さらに、前記一次情報を用いて前記第一の移動体の個体識別を実施し、該個体識別の結果をもとに、前記第一の移動体に割り当てられた通信アドレスを取得するアドレス取得手段を備え、
     前記送信手段は、前記通信アドレス宛に、前記二次情報を送信する、
     請求項1から4いずれか一に記載の情報提供サーバ。
  6.  前記判定手段は、前記第一の移動体から受信したメッセージに含まれる位置情報に基づいて、前記二次情報を提供するか否かを判定し、
     前記送信手段は、前記メッセージの送信元の通信アドレス宛に、前記二次情報を送信する、
     請求項1から4いずれか一に記載の情報提供サーバ。
  7.  前記センサーとして、前記道路に設置されたセンサー又は前記道路を通行する移動体に備えられたセンサーの少なくとも1つを含む、
     請求項1から6いずれか一に記載の情報提供サーバ。
  8.  さらに、前記道路を通行する移動体の移動状態を取得可能であり、
     前記判定手段は、前記移動状態を用いて、前記第一の移動体に前記二次情報を提供するか否かを判定する、
     請求項1から7いずれか一に記載の情報提供サーバ。
  9.  さらに、前記道路を通行する移動体の移動状態を取得可能であり、
     前記情報作成手段は、前記移動状態を用いて、前記第二の移動体それぞれの重要度を求め、該重要度を考慮して前記二次情報を作成する、
     請求項2から7いずれか一に記載の情報提供サーバ。
  10.  前記移動状態は、近傍の交通信号機の灯火状態、前記道路を通行する移動体の走行経路計画情報、前記道路を通行する移動体の走行車線情報、前記道路を通行する移動体の速度情報の少なくともいずれかに基づいて生成される、 請求項8又は9に記載の情報提供サーバ。
  11.  前記判定手段は、前記道路を通行する移動体の動きを予測し、該動きの予測の結果を用いて、前記道路を通行する移動体に前記二次情報を提供するか否かを判定する、
     請求項1から7いずれか一に記載の情報提供サーバ。
  12.  前記判定手段は、前記道路を通行する移動体の動きを予測し、該動きの予測の結果を用いて、前記第二の移動体それぞれの重要度を求め、該重要度を考慮して前記二次情報を作成する、
     請求項2から7いずれか一に記載の情報提供サーバ。
  13.  前記判定手段は、近傍の交通信号機の灯火状態、前記道路を通行する移動体の走行経路計画情報、前記道路を通行する移動体の走行車線情報、前記道路を通行する移動体の速度情報の少なくともいずれかに基づいて、前記道路を通行する移動体の動きを予測する、
     請求項11又は12に記載の情報提供サーバ。
  14.  前記一次情報を所定の管制サーバに送信するネットワークの前記センサー側のエッジに配置されている請求項1から13いずれか一に記載の情報提供サーバ。
  15.  道路の所定の範囲をセンシングする複数のセンサーから一次情報を取得可能なコンピュータが、
     前記複数のセンサーからそれぞれ取得した一次情報に基づいて、前記道路を通行する第一の移動体に対し、前記複数のセンサーから取得した一次情報を用いて作成する二次情報を提供するか否かを判定し、
     前記第一の移動体に対し、前記二次情報を提供すると判定した場合、前記複数のセンサーから取得した一次情報を用いて前記二次情報を作成し、
     前記第一の移動体に対し、前記二次情報を送信する、
     情報提供方法。
  16.  道路の所定の範囲をセンシングする複数のセンサーからそれぞれ情報を取得可能なコンピュータに、
     前記複数のセンサーからそれぞれ取得した一次情報に基づいて、前記道路を通行する第一の移動体に対し、前記複数のセンサーから取得した一次情報を用いて作成する二次情報を提供するか否かを判定する処理と、
     前記第一の移動体に対し、前記二次情報を提供すると判定した場合、前記複数のセンサーから取得した一次情報を用いて前記二次情報を作成する処理と、
     前記第一の移動体に対し、前記二次情報を送信する処理と、
     を実行させるプログラムを記録したコンピュータ記録媒体。
PCT/JP2020/040040 2020-10-26 2020-10-26 情報提供サーバ、情報提供方法及びプログラム記録媒体 WO2022091167A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2022558601A JPWO2022091167A1 (ja) 2020-10-26 2020-10-26
PCT/JP2020/040040 WO2022091167A1 (ja) 2020-10-26 2020-10-26 情報提供サーバ、情報提供方法及びプログラム記録媒体
US18/032,620 US20230394971A1 (en) 2020-10-26 2020-10-26 Information provision server, information provision method, and recording medium storing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2020/040040 WO2022091167A1 (ja) 2020-10-26 2020-10-26 情報提供サーバ、情報提供方法及びプログラム記録媒体

Publications (1)

Publication Number Publication Date
WO2022091167A1 true WO2022091167A1 (ja) 2022-05-05

Family

ID=81383721

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2020/040040 WO2022091167A1 (ja) 2020-10-26 2020-10-26 情報提供サーバ、情報提供方法及びプログラム記録媒体

Country Status (3)

Country Link
US (1) US20230394971A1 (ja)
JP (1) JPWO2022091167A1 (ja)
WO (1) WO2022091167A1 (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010277123A (ja) * 2009-05-26 2010-12-09 Mazda Motor Corp 車両用運転支援装置
JP2011138363A (ja) * 2009-12-28 2011-07-14 Toshiba Corp 交差点車両警告装置
JP2019175201A (ja) * 2018-03-29 2019-10-10 住友電気工業株式会社 センサ共有システム、センサ共有サーバ、センサ共有サーバの動作方法、センサ装備装置、及びセンサ共有のためのコンピュータプログラム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010277123A (ja) * 2009-05-26 2010-12-09 Mazda Motor Corp 車両用運転支援装置
JP2011138363A (ja) * 2009-12-28 2011-07-14 Toshiba Corp 交差点車両警告装置
JP2019175201A (ja) * 2018-03-29 2019-10-10 住友電気工業株式会社 センサ共有システム、センサ共有サーバ、センサ共有サーバの動作方法、センサ装備装置、及びセンサ共有のためのコンピュータプログラム

Also Published As

Publication number Publication date
US20230394971A1 (en) 2023-12-07
JPWO2022091167A1 (ja) 2022-05-05

Similar Documents

Publication Publication Date Title
US10203699B1 (en) Selective remote control of ADAS functionality of vehicle
CN114370883B (zh) 用于操纵车辆的方法和系统
US10459440B2 (en) System and method for remotely assisting autonomous vehicle operation
JP2024028327A (ja) 判定装置及び判定方法並びに判定用プログラム
US8885039B2 (en) Providing vehicle information
KR20240000658A (ko) 자율 주행을 위한 3차원 특징 예측
JP7205204B2 (ja) 車両の制御装置及び自動運転システム
US11568741B2 (en) Communication device, control method thereof, and communication system including the same
KR20210019499A (ko) 로컬화 및 위치 기반 서비스를 위해 차량에서 캡처된 승객 주의 데이터의 활용
CN102546696B (zh) 行车感知导航系统
US20230245071A1 (en) Real-time visualization of autonomous vehicle behavior in mobile applications
KR20200047766A (ko) 자율 차량들을 위한 교통 재지향에 대한 검출 및 응답
WO2020249122A1 (zh) 一种车辆变道方法及装置
US20220095086A1 (en) Method and apparatus for indicating, obtaining, and sending automated driving information
JP7348725B2 (ja) 配信システム、配信方法および車載装置
JP2020161039A (ja) 遠隔操作用画像の表示方法及び遠隔操作装置
US11626012B2 (en) Hierarchical integrated traffic management system for managing vehicles
WO2015001677A1 (ja) 安全支援システムおよび安全支援装置
WO2020039798A1 (ja) 情報提供装置、情報提供方法、情報提供システム、コンピュータプログラム、及びデータ構造
JP4102181B2 (ja) 信号待ち回数予測方法及びナビゲーション装置
JP2020149323A (ja) 情報処理装置及び情報処理装置を備える自動走行制御システム
WO2023248776A1 (ja) 遠隔支援装置、遠隔支援方法、及び遠隔支援プログラム
JP2023118835A (ja) 信号情報提供装置、信号情報提供方法及びプログラム
WO2022091167A1 (ja) 情報提供サーバ、情報提供方法及びプログラム記録媒体
WO2024161593A1 (ja) 監視システム、監視装置及び監視方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20959685

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 18032620

Country of ref document: US

ENP Entry into the national phase

Ref document number: 2022558601

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 20959685

Country of ref document: EP

Kind code of ref document: A1