WO2020050328A1 - 移動体追跡システム、移動体追跡方法及びプログラム - Google Patents

移動体追跡システム、移動体追跡方法及びプログラム Download PDF

Info

Publication number
WO2020050328A1
WO2020050328A1 PCT/JP2019/034824 JP2019034824W WO2020050328A1 WO 2020050328 A1 WO2020050328 A1 WO 2020050328A1 JP 2019034824 W JP2019034824 W JP 2019034824W WO 2020050328 A1 WO2020050328 A1 WO 2020050328A1
Authority
WO
WIPO (PCT)
Prior art keywords
camera
moving object
moving
moving body
intersection
Prior art date
Application number
PCT/JP2019/034824
Other languages
English (en)
French (fr)
Inventor
純 三浦
朋彰 田中
山本 慎哉
二郎 川俣
横山 勝
Original Assignee
日本電気株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日本電気株式会社 filed Critical 日本電気株式会社
Priority to JP2020541275A priority Critical patent/JP7272365B2/ja
Priority to US17/273,003 priority patent/US11990041B2/en
Publication of WO2020050328A1 publication Critical patent/WO2020050328A1/ja
Priority to JP2023072005A priority patent/JP7456536B2/ja

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/123Traffic control systems for road vehicles indicating the position of vehicles, e.g. scheduled vehicles; Managing passenger vehicles circulating according to a fixed timetable, e.g. buses, trains, trams
    • G08G1/127Traffic control systems for road vehicles indicating the position of vehicles, e.g. scheduled vehicles; Managing passenger vehicles circulating according to a fixed timetable, e.g. buses, trains, trams to a central station ; Indicators in a central station
    • G08G1/13Traffic control systems for road vehicles indicating the position of vehicles, e.g. scheduled vehicles; Managing passenger vehicles circulating according to a fixed timetable, e.g. buses, trains, trams to a central station ; Indicators in a central station the indicator being in the form of a map
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/292Multi-camera tracking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/176Urban or other man-made structures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • G06V20/54Surveillance or monitoring of activities, e.g. for recognising suspicious objects of traffic, e.g. cars on the road, trains or boats
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/0104Measuring and analyzing of parameters relative to traffic conditions
    • G08G1/0108Measuring and analyzing of parameters relative to traffic conditions based on the source of data
    • G08G1/0116Measuring and analyzing of parameters relative to traffic conditions based on the source of data from roadside infrastructure, e.g. beacons
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/0104Measuring and analyzing of parameters relative to traffic conditions
    • G08G1/0125Traffic data processing
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/0104Measuring and analyzing of parameters relative to traffic conditions
    • G08G1/0125Traffic data processing
    • G08G1/0129Traffic data processing for creating historical data or processing based on historical data
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/04Detecting movement of traffic to be counted or controlled using optical or ultrasonic detectors
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/052Detecting movement of traffic to be counted or controlled with provision for determining speed or overspeed
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30236Traffic on road, railway or crossing
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B29/00Maps; Plans; Charts; Diagrams, e.g. route diagram
    • G09B29/10Map spot or coordinate position indicators; Map reading aids

Definitions

  • the present invention is based on the priority claim of Japanese Patent Application No. 2018-165566 (filed on Sep. 5, 2018), the entire contents of which are incorporated herein by reference. Shall be.
  • the present invention relates to a moving object tracking system, a moving object tracking method, and a program.
  • Origin-Destination (OD) surveys are being conducted as basic data for formulating road maintenance plans and city planning.
  • OD Origin-Destination
  • Patent Document 1 discloses an automatic traffic volume measurement device and an automatic traffic volume measurement system that can automatically measure a moving object and aggregate measurement results.
  • the automatic traffic measurement device includes a moving object detection unit, compares one frame of a video image captured by a video camera with a still image and a reference image serving as a comparison reference, and determines the still image according to the comparison result. The presence of the moving object is detected from the image.
  • the automatic traffic measurement device further includes a type specifying unit, and specifies the type of the moving object based on a pixel area of an image detected as the moving object by the moving object detecting unit.
  • the automatic traffic flow measuring device further includes speed calculation means, and moves the moving body based on the number of the plurality of continuous still images for which the presence of the moving body is detected by the moving body detecting means. Calculate the speed.
  • the automatic traffic measurement device further includes data generating means for generating descriptive data in which the video taken by the video camera is associated with at least the type, moving speed, and detected time of the moving object. I do.
  • Patent Document 2 discloses a traffic information management device capable of accurately and efficiently tracking a specific vehicle traveling on a road.
  • the traffic information management device includes traffic information collection devices 200a to 200f configured by cameras and the like provided at a plurality of points P1 to P6 on a road.
  • Each traffic information collection device detects a feature amount such as a size and a color of the vehicle, so that travel times T1 to T5 between the devices are estimated. Based on the estimated travel time, the arrival time of the specific vehicle at each point is predicted, and the specific vehicle is detected at the predicted time. It is described that the detection accuracy of the specific vehicle is thereby improved.
  • Patent Literature 3 discloses a traffic flow measuring device capable of preventing a reduction in recognition accuracy even when some or all vehicles are not detected. According to the document, this traffic flow measurement device extracts a vehicle candidate from the image data at time t, and corrects the position of the vehicle candidate that has been associated with time (t-1) using the predicted position. And a position correction unit 24 for performing the correction. The traffic flow measurement device further includes a vehicle candidate correction unit 25 that gives a predicted position to a vehicle that failed to be extracted and adds the predicted position to a vehicle candidate.
  • the traffic flow measurement device further includes a passage determination unit 26 that determines a vehicle candidate that does not exist in the predetermined area as a passing vehicle, and calculates the traffic information in consideration of the position correction or the addition of the vehicle candidate and the passing vehicle. It has been done.
  • Patent Documents 1 to 4 various devices for specifying a moving object (moving body) such as a person or a vehicle from an image captured by an image taken by a camera or the like have been proposed, and the accuracy thereof has been improved (Patent Documents 1 to 4). 3).
  • the automatic traffic measurement device of Patent Literature 1 has a problem that only the description data (description data) at the position where the video camera is installed can be obtained. This point is the same as in Patent Document 3, which aims at measuring a traffic flow using a camera that photographs the road in the traveling direction of a traveling vehicle on the road.
  • Patent Literature 2 In the configuration of Patent Literature 2, tracking of a vehicle turning right and left is not assumed, and in order to do so, it is necessary to install a large number of cameras along the assumed traveling direction of the vehicle, which is costly. There is a problem.
  • the object of the present invention is to provide a mobile object tracking system, a mobile object tracking method, and a program that can contribute to reduction of the cost and the time required for tracking the mobile object such as a vehicle entering an intersection.
  • a first camera that captures an image of a moving object entering an intersection, and a plurality of second cameras that are installed at a plurality of points set as destinations of the moving object that has entered the intersection
  • a moving object tracking system including: The moving object tracking system further includes a traveling direction determination unit that determines the traveling direction of the moving object based on a change in the direction of the moving object entering the intersection based on photographing data of the first camera. The moving object tracking system further selects the second camera based on the traveling direction of the moving object, and retrieves a frame in which the specified moving object is photographed from photographing data of the second camera.
  • a path specifying unit that specifies a moving path of the moving object.
  • the present method is tied to a specific machine, a computer capable of accessing image data captured by each of the first and second cameras described above.
  • a first camera for photographing a moving object entering the intersection and a plurality of second cameras installed at a plurality of points set as destinations of the moving object entering the intersection
  • a program to be executed is provided. This program can be recorded on a computer-readable (non-transitary) storage medium. That is, the present invention can be embodied as a computer program product.
  • the present invention it is possible to reduce the cost and the time required for tracking and tracking a moving object such as a vehicle entering an intersection.
  • the present invention is to convert the configuration for performing the tracking investigation of the moving object shown in the background art into a configuration in which the cost and the investigation time are dramatically improved.
  • FIG. 4 is a diagram for explaining an operation of the embodiment of the present invention.
  • FIG. 4 is a diagram for explaining an operation of the exemplary embodiment of the present invention.
  • FIG. 1 is a diagram illustrating a configuration of a moving object tracking system according to a first embodiment of the present invention.
  • FIG. 4 is a diagram illustrating an example of information stored in a tagged imaging data storage unit according to the first embodiment of the present invention.
  • FIG. 4 is a diagram for explaining a function of a video tagging engine.
  • FIG. 3 is a diagram illustrating an example of information stored in a mobile route data storage unit according to the first embodiment of the present invention.
  • FIG. 4 is a flowchart illustrating an operation of the mobile object tracking system according to the first embodiment of the present invention.
  • FIG. 4 is a diagram for explaining a tracking operation of the moving object by the moving object tracking system according to the first embodiment of the present invention. It is a figure showing composition of a mobile tracking system of a 2nd embodiment of the present invention. It is a figure showing an example of a course display mode by a mobile tracking system of a 2nd embodiment of the present invention.
  • FIG. 2 is a diagram illustrating a configuration of a computer that configures the moving object tracking system of the present invention.
  • connection lines between blocks in the drawings and the like referred to in the following description include both bidirectional and unidirectional.
  • the one-way arrow schematically indicates the flow of a main signal (data), and does not exclude bidirectionality.
  • Ports and interfaces are provided at input / output connection points of each block in the figure, but are not shown.
  • “A and / or B” means A and B or A or B.
  • the program is executed via a computer device, and the computer device includes, for example, a processor, a storage device, an input device, a communication interface, and a display device as necessary. Further, the computer device is configured to be able to communicate with a device (including a computer) inside or outside the device via a communication interface regardless of whether it is wired or wireless.
  • a device including a computer
  • a and / or B is used to mean at least one of A and B.
  • a first camera 11, a plurality of second cameras 12A and 12B, a traveling direction determination unit 21, and a route identification unit 22 are provided.
  • the first camera 11 captures an image of a moving object entering an intersection (for example, the intersection A in FIG. 1).
  • the second cameras 12A and 12B are installed at a plurality of points set as destinations of the moving body that has entered the intersection, and photograph the moving body that has passed through the intersection.
  • the traveling direction determination unit 21 determines the traveling direction of the moving body based on the photographing data of the first camera 11 based on a change in the direction of the moving body entering the intersection. For example, as shown in FIG. 2, when the vehicle V enters the intersection A and turns right, the traveling direction determination unit 21 determines that the vehicle V has turned right based on the image data of the first camera 11.
  • the route specifying unit 22 selects the second camera 12A based on the traveling direction of the moving object, and searches the image data of the second camera 12A for a frame in which the specified moving object is imaged. By doing so, the moving path of the moving object is specified. For example, as shown in FIG. 3, when the route identification unit 22 confirms the movement of the vehicle whose identification information (CAR) is 42 from the image data of the second camera 12A, the route identification unit 22 moves the vehicle from the intersection A to the second It is determined that the camera 12A has moved to the point B1 where the camera 12A is installed. By repeating the same processing, it is possible to track a moving object that moves in a plurality of sections.
  • CAR identification information
  • the moving object tracking system 20A specifies the path of a moving object such as a vehicle that has entered the intersection.
  • the traveling direction determination unit 21 determines the traveling direction of the moving object, and the route identification unit 22 selects the second camera based on the traveling direction.
  • the number of cameras to be installed can be suppressed and the moving object can be tracked efficiently, so that the cost and the investigation time can be reduced.
  • FIG. 4 is a diagram showing the configuration of the mobile object tracking system according to the first embodiment of the present invention. Referring to FIG. 4, a configuration including a plurality of cameras 10, a video tagging engine 40, a tagged imaging data storage unit 50, a moving object tracking system 20, and a moving object route data storage unit 60 is shown. Have been.
  • each of the cameras 10 is installed at a position where a moving body entering the intersection is photographed from the front, rear, left and right directions, and the traveling direction of the moving body entering the intersection from each direction can be specified.
  • a power supply supplied to the traffic light can be used.
  • the installation position of the camera 10 an appropriate place is selected according to the situation of the intersection, the focal length of the lens to be mounted, and the like.
  • these cameras 10 function as the first and second cameras described above.
  • the camera 10 is portable. By doing so, it is possible to bring the camera 10 into the area where the OD survey is to be performed, install the camera 10 at a required location and perform the survey, and further reduce the survey cost.
  • the video tagging engine 40 is connected to each of the cameras 10 via the network 30, analyzes photographing data photographed by each camera 10, recognizes an object in the photographing data, and performs tagging. .
  • a video tagging engine 40 an in-vehicle object recognition device can be used.
  • the imaging data tagged by the video tagging engine 40 is stored in the tagged imaging data storage unit 50.
  • the tagged photographing data storage unit 50 stores the tag information created by the video tagging engine 40 together with the photographing data.
  • FIG. 5 is a diagram showing an example of information held in the tagged photographing data storage unit 50.
  • tag information having object ID, frame number, box coordinates 1, box coordinates 2, object type, shooting time, and camera position information as parameters is shown.
  • FIG. 6 is an example of photographing data input to the video tagging engine 40.
  • Step P1 The video tagging engine 40 extracts an object such as a vehicle, a bicycle, or a person from the captured image data, attaches a rectangular frame (also referred to as a bounding box), and provides an ID (object ID) for each detected object. ).
  • the video tagging engine 40 acquires the shooting date and time of the shooting data, the frame number, and the position information of the camera installation location (camera position information). These can be obtained from the metadata added to the photographing data.
  • Step P2 The video tagging engine 40 sets the upper left (x1, y1) and lower right (x2, x2) of the rectangular frame (bounding box) when the upper left corner of the image is the origin (0, 0) with respect to the rectangular frame described above. Obtain the coordinates of y2). These coordinates correspond to box coordinates 1 and box coordinates 2 in FIG. The box coordinates 1 and the box coordinates 2 make it possible to grasp the size of the object and the distance from the camera.
  • Step P3 The video tagging engine 40 determines whether the extracted object is a vehicle, a bicycle, or a person. This determination result is the object type information in FIG. Note that the type of the object can be determined using various methods such as a method of calculating a similarity with a predetermined standard object image and a method of using AI (Artificial Intelligence). In this determination process, if the accuracy of the type of the object is obtained, it may be included in the accuracy tag information.
  • AI Artificial Intelligence
  • the respective information in FIG. 5 is obtained.
  • the operation of the video tagging engine 40 and the tag information in FIG. 5 are merely examples, and various changes can be made.
  • the license plate information of the vehicle is obtained, the license plate number can be used as the vehicle object ID.
  • the mobile object tracking system 20 specifies the path of the mobile object using the image data and the tag information stored in the tagged image data storage section 50 described above, and stores the path in the mobile object path data storage section 60.
  • the moving object tracking system 20 includes a tracking target selection unit 23, a traveling direction determination unit 21, a speed estimation unit 24, and a route identification unit 22.
  • the tracking target selecting unit 23 reads out the data to which the corresponding object ID is added from the tagged photographed data storage unit 50, and sends the data to the traveling direction determining unit 21.
  • the traveling direction determination unit 21 selects a frame with the oldest photographing time and a new frame of the tag information illustrated in FIG. For example, when both the X coordinate and the Y coordinate greatly change, the traveling direction determination unit 21 determines that the moving body (vehicle) has turned right or left at the intersection. On the other hand, when only one of the X coordinate and the Y coordinate changes significantly, the traveling direction determination unit 21 determines that the moving body (vehicle) is traveling straight at the intersection. The traveling direction determination unit 21 sends the object ID and the determination result to the speed estimation unit 24 as the determination result.
  • the speed estimating unit 24 selects the old frame and the new frame of the tag information exemplified in FIG. 5, and calculates the moving distance of the moving object by changing the box coordinates 1 and 2. Next, the speed estimating unit 24 calculates the speed of the moving object by dividing the calculated moving distance by the difference between the photographing times. The speed estimating unit 24 sends the object ID and the estimated speed to the route identifying unit 22 as the determination result.
  • the route identifying unit 22 determines the Calculate the estimated arrival time. Then, the route identifying unit 22 reads out the imaging data of the estimated arrival time from the imaging data captured by the camera 10 capturing the corresponding intersection. Then, when a subject similar to the subject identified by the object ID is photographed in the read photographing data, the route identifying unit 22 determines that the subject is the same moving object and records the same as the moving route of the corresponding object ID. .
  • the mobile unit tracking system 20 creates route information of the mobile unit and stores it in the mobile unit route data storage unit 60.
  • FIG. 7 is a diagram illustrating an example of the route information stored in the moving object route data storage unit 60.
  • path information of a moving object configured by sequentially recording the passing position for each object ID and the photographing time is shown.
  • FIG. 8 is a flowchart showing the operation of the mobile object tracking system according to the first embodiment of the present invention.
  • the moving object tracking system 20 selects a moving object to be tracked starting from an arbitrary point (step S001).
  • the selection of the moving object to be tracked may be specified by the user, or may be the object ID selected by the moving object tracking system 20.
  • a mode in which the moving object tracking system 20 refers to the tagged photographed data storage unit 50 and tracks all the object IDs detected at an arbitrary point can be adopted.
  • the moving object tracking system 20 determines the traveling direction of the moving object having the selected object ID (Step S002).
  • the moving object tracking system 20 estimates the speed of the moving object having the selected object ID (Step S003).
  • the moving object tracking system 20 specifies the route by referring to the data of the photographing time obtained from the estimated speed among the photographing data of the intersection to which the moving object having the selected object ID moves (step S1). S004).
  • the moving object tracking system 20 determines whether or not to end the tracking of the moving object having the selected object ID (Step S005).
  • Conditions for ending the tracking of the moving object may be as follows.
  • the first condition is when the moving object being tracked reaches the intersection at the end of the area where the OD investigation is performed. In this case, since the start point, the end point, and the route between them have been specified, the tracking can be ended.
  • the second condition is a case where the moving object being tracked is lost. In this case, the reason may be that the moving body has stopped moving from the last intersection, for example, when it arrived at the destination. Also in this case, since the start point, the end point, and the route between them have been specified, the tracking can be ended. Another reason for losing track of a moving object is a case in which the moving object makes a U-turn in the middle of a road and fails to track. In this case, the search may be terminated, or the search may be extended to continue the search.
  • the moving object tracking system 20 reads out the photographing data of the intersection where the corresponding moving object finally entered, and performs the processing in steps S002 to S004. continue.
  • the mobile object tracking system 20 records the route information illustrated in FIG. 7 in the mobile object route data storage unit 60, and ends the processing.
  • the moving object tracking system 20 of the present embodiment will be specifically described.
  • a description will be given assuming that an OD investigation of a moving object starting from the point A is performed.
  • the moving object tracking system 20 specifies a vehicle that has passed the point B at around 9:34:30 in the shooting data at the point B based on the traveling direction and the estimated arrival time determined at the point A. .
  • the moving object tracking system 20 identifies the vehicle that has passed the point C at around 9:34:40 in the photographing data at the point C. I do.
  • the moving object tracking system 20 employs a configuration in which the traveling direction is determined and the moving object is tracked. Further, according to the present embodiment, it is possible to shorten the examination time. The reason is that the mobile object tracking system 20 employs a configuration in which the speed of the mobile object is estimated and tracking is performed efficiently using the estimated arrival time of the mobile object. Note that the moving object does not necessarily pass only through the intersection where the camera is installed, and a certain number of moving objects may be lost (lost) as described in step S005. However, the questionnaire collection rate in the current OD survey is about 30 to 60% (implemented by the Ministry of Land, Infrastructure, Transport and Tourism in 2015), and sufficient survey data can be obtained even with the method of this embodiment.
  • FIG. 10 is a diagram showing a configuration of a moving object tracking system according to the second embodiment of the present invention.
  • FIG. 10 shows a configuration in which a selection reception response unit 25 is added to the mobile object tracking system 20B.
  • the selection reception response unit 25 has a function of displaying map information in which a moving route of a mobile object received from a predetermined user terminal is displayed on a predetermined map. Specifically, upon receiving the selection of the moving object from the predetermined user terminal, the selection reception response unit 25 extracts the path information of the corresponding object ID from the moving object path data storage unit 60. Then, the selection reception responding unit 25 responds to the user terminal with map information indicating a moving route of the mobile object that has received the selection on a predetermined map.
  • the user of the user terminal can check the movement history of the suspicious vehicle by referring to such map information.
  • a moving object other than the vehicle is also possible to specify a moving object other than the vehicle as the object ID and check the movement history. For example, it is possible to track a bicycle used by a criminal to escape and use it for criminal investigation.
  • the present invention can be used not only as an OD survey but also as a tracking system (displaying a movement history) specifying an arbitrary vehicle.
  • the procedures described in the first and second embodiments are performed by a program that causes a computer (9000 in FIG. 12) functioning as the mobile object tracking systems 20, 20A, and 20B to realize the functions of these systems. It is feasible.
  • a computer is exemplified by a configuration including a CPU (Central Processing Unit) 9010, a communication interface 9020, a memory 9030, and an auxiliary storage device 9040 in FIG.
  • the CPU 9010 of FIG. 12 may execute the traveling direction determination program and the speed estimation program, and perform the update processing of each calculation parameter stored in the auxiliary storage device 9040 or the like.
  • each unit (processing means, function) of the mobile object tracking system shown in the first and second embodiments described above performs the above-described processing by using the hardware mounted on a processor mounted on these systems.
  • the moving object tracking system described above further includes: A speed estimating unit that estimates a speed of the moving object based on a position of the moving object recorded in the imaging data of the first camera;
  • the route specifying unit may adopt a configuration that selects photographing data of the second camera based on a speed of the moving body.
  • Cameras are placed at the intersections of the Origin-Destination (OD) survey area, respectively.
  • OD Origin-Destination
  • the first camera is installed at a position where the first camera captures an image of a moving body that enters the intersection from the front, rear, left, and right directions, and can specify the traveling direction of the moving body that has entered the intersection from each direction.
  • a route storage unit that stores route information indicating a travel route for each of the specified moving objects;
  • a map information display unit that displays map information in which a moving route of a mobile object received from a predetermined user terminal is displayed on a predetermined map can be adopted.
  • Reference Signs List 10 camera 11 first camera 12A, 12B second camera 20, 20A, 20B moving object tracking system 21 traveling direction determination unit 22 route identification unit 23 tracking target selection unit 24 speed estimation unit 25 selection reception response unit 30 network 40 video Tagging engine 50 Tagged shooting data storage unit 60 Moving object route data storage unit 9000 Computer 9010 CPU 9020 Communication interface 9030 Memory 9040 Auxiliary storage device V Vehicle

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Chemical & Material Sciences (AREA)
  • Analytical Chemistry (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Abstract

交差点に進入する車両等の移動体の追跡調査に要する費用や調査時間を削減できる構成を提供する。移動体追跡システムは、交差点に進入する移動体を撮影する第1のカメラと、前記交差点に進入した移動体の移動先として設定された複数の地点に設置された複数の第2のカメラと、前記第1のカメラの撮影データに基づいて、前記交差点に進入する移動体の向きの変化により該移動体の進行方向を判定する進行方向判定部と、前記移動体の進行方向に基づいて前記第2のカメラを選択し、前記第2のカメラの撮影データから、前記特定した移動体が撮影されたフレームを検索することで、前記移動体の移動経路を特定する経路特定部と、を含む。

Description

移動体追跡システム、移動体追跡方法及びプログラム
 [関連出願についての記載]
 本発明は、日本国特許出願:特願2018-165566号(2018年9月5日出願)の優先権主張に基づくものであり、同出願の全記載内容は引用をもって本書に組み込み記載されているものとする。
 本発明は、移動体追跡システム、移動体追跡方法及びプログラムに関する。
 道路整備計画や街づくりの計画策定の基礎資料として、自動車起終点調査(Origin-Destination(OD)調査)が実施されている。例えば、国土交通省は、5年ごとに、全国的なOD調査を実施している。
 特許文献1に、移動体の計測を自動的に行い、計測結果を集約することができるという自動交通量計測装置、自動交通量計測システムが開示されている。同文献によると、この自動交通量計測装置は、移動体検出手段を備え、ビデオカメラが撮影する映像の1フレームを静止画像と、比較基準となる基準画像とを比較し、比較結果に従って当該静止画像から前記移動体の存在を検出する。この自動交通量計測装置は、さらに、種類特定手段を備え、前記移動体検出手段によって当該移動体として検出された画像の画素面積を元に、当該移動体の種類を特定する。この自動交通量計測装置は、さらに、速度算出手段を備え、前記移動体検出手段によって当該移動体の存在が検出されている連続する複数の前記静止画像の数を元に、当該移動体の移動速度を算出する。この自動交通量計測装置は、さらに、データ生成手段を備え、前記ビデオカメラが撮影する映像と、少なくとも当該移動体の種類、移動速度、検出された時刻とが関連付けて記述される記述データを生成する。
 特許文献2に、精度よくかつ効率的に道路上を走行する特定車両の追跡を行なうことができるという交通情報管理装置が開示されている。同文献によると、この交通情報管理装置は、道路上の複数の地点P1~P6のそれぞれに設けられたカメラなどにより構成される交通情報収集装置200a~fを備える。各交通情報収集装置が、車両の大きさや色などの特徴量を検出することで、各装置間の旅行時間T1~T5が推定される。この推定された旅行時間に基づいて、特定車両の各地点における到着時刻を予測し、その予測された時刻において特定車両の検出を行なう。これにより、特定車両の検出精度が向上する、と記載されている。
 特許文献3に、車両が一部または全部検出されなくとも認識精度を低下させないことができるという交通流計測装置が開示されている。同文献によると、この交通流計測装置は、時刻tの画像データから車両候補を抽出し、時刻(t-1)との対応付けが完了した車両候補に対して、予測位置を用いて位置補正する位置補正手段24を備える。また、この交通流計測装置は、抽出に失敗した車両を、予測位置を与えて車両候補に加える車両候補補正手段25を備える。また、この交通流計測装置は、所定領域に存在しない車両候補を通過車両と判定する通過判定手段26を備え、前記位置補正又は車両候補の追加、及び、通過車両を加味して交通情報を算出するとされている。
特開2005-4426号公報 特開2000-353290号公報 特開平8-147591号公報
 以下の分析は、本発明によって与えられたものである。上記したOD調査は、アンケートなどを併用しているため、費用や時間が掛かるという問題点がある。一方で、カメラ等で撮影した画像に写った像から、人や車両等の移動している物体(移動体)を特定する装置も各種提案され、その精度も向上している(特許文献1~3参照)。しかしながら、特許文献1の自動交通量計測装置では、ビデオカメラを設置した位置におけるディスクリプションデータ(記述データ)しか取れないという問題点がある。この点は、特許文献3も同様であり、道路上の走行する車両の進行方向に向かって道路を撮影するカメラを用いて交通流を計測することを目的としている。
 特許文献2の構成では、右左折する車両の追跡は想定されておらず、これを行うには、想定される車両の進行方向に沿ってカメラを多数設置する必要があり、費用が掛かってしまうという問題点がある。
 本発明は、交差点に進入する車両等の移動体の追跡調査に要する費用や調査時間の削減に貢献できる移動体追跡システム、移動体追跡方法及びプログラムを提供することを目的とする。
 第1の視点によれば、交差点に進入する移動体を撮影する第1のカメラと、前記交差点に進入した移動体の移動先として設定された複数の地点に設置された複数の第2のカメラと、を含む移動体追跡システムが提供される。この移動体追跡システムは、さらに、前記第1のカメラの撮影データに基づいて、前記交差点に進入する移動体の向きの変化により該移動体の進行方向を判定する進行方向判定部を含む。この移動体追跡システムは、さらに、前記移動体の進行方向に基づいて前記第2のカメラを選択し、前記第2のカメラの撮影データから、前記特定した移動体が撮影されたフレームを検索することで、前記移動体の移動経路を特定する経路特定部と、を含む。
 第2の視点によれば、交差点に進入する移動体を撮影する第1のカメラの撮影データに基づいて、前記交差点に進入する移動体の進行方向を判定するステップと、前記移動体の進行方向に基づいて、前記交差点に進入した移動体の移動先として設定された複数の地点に設置された複数のカメラの中から第2のカメラを選択し、前記第2のカメラの撮影データから、前記移動体が撮影されたフレームを検索することで、前記特定した移動体の移動経路を特定するステップと、を含む移動体追跡方法が提供される。本方法は、上記した第1、第2のカメラのそれぞれで撮影された撮影データにアクセス可能なコンピュータという、特定の機械に結びつけられている。
 第3の視点によれば、交差点に進入する移動体を撮影する第1のカメラと、前記交差点に進入した移動体の移動先として設定された複数の地点に設置された複数の第2のカメラと、のそれぞれで撮影された撮影データにアクセス可能なコンピュータに、前記第1のカメラの撮影データに基づいて、前記交差点に進入する移動体の進行方向を判定する処理と、前記移動体の進行方向に基づいて前記第2のカメラを選択し、前記第2のカメラの撮影データから、前記移動体が撮影されたフレームを検索することで、前記移動体の移動経路を特定する処理と、を実行させるプログラムが提供される。なお、このプログラムは、コンピュータが読み取り可能な(非トランジトリーな)記憶媒体に記録することができる。即ち、本発明は、コンピュータプログラム製品として具現することも可能である。
 本発明によれば、交差点に進入する車両等の移動体の追跡調査に要する費用や調査時間を削減することが可能となる。即ち、本発明は、背景技術に示した移動体の追跡調査をp行う構成を、その費用や調査時間の面で飛躍的に改善させたものへと変換するものとなっている。
本発明の一実施形態の構成を示す図である。 本発明の一実施形態の動作を説明するための図である。 本発明の一実施形態の動作を説明するための図である。 本発明の第1の実施形態の移動体追跡システムの構成を示す図である。 本発明の第1の実施形態のタグ付け済み撮影データ記憶部に保持される情報の一例を示す図である。 映像タグ付けエンジンの機能を説明するための図である。 本発明の第1の実施形態の移動体経路データ記憶部に保持される情報の一例を示す図である。 本発明の第1の実施形態の移動体追跡システムの動作を表したフローチャートである。 本発明の第1の実施形態の移動体追跡システムによる移動体の追跡動作を説明するための図である。 本発明の第2の実施形態の移動体追跡システムの構成を示す図である。 本発明の第2の実施形態の移動体追跡システムによる経路表示態様の一例を示す図である。 本発明の移動体追跡システムを構成するコンピュータの構成を示す図である。
[発明の概要]
 はじめに本発明の一実施形態の概要について図面を参照して説明する。なお、この概要に付記した図面参照符号は、理解を助けるための一例として各要素に便宜上付記したものであり、本発明を図示の態様に限定することを意図するものではない。また、以降の説明で参照する図面等のブロック間の接続線は、双方向及び単方向の双方を含む。一方向矢印については、主たる信号(データ)の流れを模式的に示すものであり、双方向性を排除するものではない。また、図中の各ブロックの入出力の接続点には、ポート乃至インタフェースがあるが図示省略する。また、以下の説明において、「A及び/又はB」は、A及びB、又はA若しくはBという意味で用いる。プログラムはコンピュータ装置を介して実行され、コンピュータ装置は、例えば、プロセッサ、記憶装置、入力装置、通信インタフェース、及び必要に応じ表示装置を備える。また、コンピュータ装置は、通信インタフェースを介して装置内又は外部の機器(コンピュータを含む)と、有線、無線を問わず、交信可能に構成される。また、以下の説明において、「A及び/又はB」は、A及びBの少なくともいずれかという意味で用いる。
 本発明は、その一実施形態において、図1に示すように、第1のカメラ11と、複数台の第2のカメラ12A、12Bと、進行方向判定部21と、経路特定部22と、を含む移動体追跡システム20Aにて実現できる。より具体的には、第1のカメラ11は、交差点(例えば、図1の交差点A)に進入する移動体を撮影する。第2のカメラ12A、12Bは、前記交差点に進入した移動体の移動先として設定された複数の地点に設置され、前記交差点を通過した移動体を撮影する。
 進行方向判定部21は、前記第1のカメラ11の撮影データに基づいて、前記交差点に進入する移動体の向きの変化により該移動体の進行方向を判定する。例えば、図2に示すように、車両Vが交差点Aに進入し、右折した場合、進行方向判定部21は、第1のカメラ11の撮影データに基づいて、車両Vが右折したと判定する。
 そして、経路特定部22は、前記移動体の進行方向に基づいて前記第2のカメラ12Aを選択し、前記第2のカメラ12Aの撮影データから、前記特定した移動体が撮影されたフレームを検索することで、前記移動体の移動経路を特定する。例えば、図3に示すように、経路特定部22は、前記第2のカメラ12Aの撮影データから識別情報(CAR)が42である車両の移動を確認すると、当該車両が交差点Aから第2のカメラ12Aが設置された地点B1に移動したと判定する。同様のような処理を繰り返すことで、複数の区間を移動する移動体の追跡も可能となる。
 このようにして、移動体追跡システム20Aは、交差点に侵入してきた車両等の移動体の経路を特定する。上記した説明からも明らかなとおり、進行方向判定部21は、移動体の進行方向を判定し、経路特定部22は、この進行方向に基づいて第2のカメラの選択を行う。これにより、カメラの設置台数を抑え、移動体の追跡を効率よく行うことができるため、費用や調査時間を削減することが可能となる。
[第1の実施形態]
 続いて、本発明をOD調査に適用した第1の実施形態について図面を参照して詳細に説明する。図4は、本発明の第1の実施形態の移動体追跡システムの構成を示す図である。図4を参照すると、複数台のカメラ10と、映像タグ付けエンジン40と、タグ付け済み撮影データ記憶部50と、移動体追跡システム20と、移動体経路データ記憶部60とを含む構成が示されている。
 複数台のカメラ10は、OD調査を行うエリアの交差点に、各1台配置される。それぞれのカメラ10は、前後左右方向から交差点に進入する移動体を撮影し、それぞれの方向から前記交差点に進入した移動体についてその進行方向を特定できる位置に設置される。これらのカメラ10の電源としては、信号機のある交差点については、信号機に供給される電源を用いることができる。カメラ10の設置位置は、交差点の状況や装着するレンズの焦点距離等に応じて適切な場所が選択される。本実施形態では、これらのカメラ10が上述した第1、第2のカメラとして機能することになる。
 また、カメラ10は可搬型のものであることが好ましい。このようにすることで、OD調査を実施するエリアにカメラ10を持ち込んで、必要箇所にカメラ10を設置して調査を実施することが可能となり、調査コストをより削減することが可能となる。
 映像タグ付けエンジン40は、ネットワーク30を介して各カメラ10と接続され、それぞれのカメラ10にて撮影された撮影データを解析して、撮影データに写っている物体を認識し、タグ付けを行う。このような映像タグ付けエンジン40としては、車載用の物体認識装置を用いることができる。映像タグ付けエンジン40がタグ付けした撮影データは、タグ付け済み撮影データ記憶部50に記憶される。
 タグ付け済み撮影データ記憶部50は、撮影データとともに、映像タグ付けエンジン40が作成したタグ情報を記憶する。
 図5は、タグ付け済み撮影データ記憶部50に保持される情報の一例を示す図である。図5の例では、物体ID、フレーム番号、ボックス座標1、ボックス座標2、物体種別、撮影時刻、カメラ位置情報をパラメータとして持つタグ情報が示されている。
 ここで、映像タグ付けエンジン40の動作の例について説明する。図6は、映像タグ付けエンジン40に入力された撮影データの例である。
 ステップP1:映像タグ付けエンジン40は、取り込んだ撮影データの中で車両、自転車、人等の物体を抽出し、四角い枠(バウンディングボックスとも言う。)を付け、検出した物体毎にID(物体ID)を付与する。映像タグ付けエンジン40は、その撮影データの撮影日時、フレーム番号、カメラ設置場所の位置情報(カメラ位置情報)を取得する。これらは撮影データに付加されているメタデータから取得することができる。
 ステップP2:映像タグ付けエンジン40は、前述の四角い枠に対し、画像左上端を原点(0,0)とした場合の四角い枠(バウンディングボックス)の左上(x1,y1)と右下(x2,y2)の座標を取得する。この座標が、図5のボックス座標1、ボックス座標2に相当する。ボックス座標1、ボックス座標2により、物体の大きさやカメラとの距離を把握することが可能となる。
 ステップP3:映像タグ付けエンジン40は、前記抽出した物体が車両、自転車か人であるかを判定する。この判定結果が、図5の物体種別情報となる。なお、物体の種別は、例えば、予め定めた標準的な物体画像との類似度を計算する方法や、AI(Artificial Intelligence)を用いる方法など種々の方法を用いて判定することができる。なお、この判定過程において、物体の種類の確度が得られている場合は、確度のタグ情報に含めてもよい。
 以上により、図5の各情報が取得される。なお、上記した映像タグ付けエンジン40の動作や図5のタグ情報は、あくまで一例を示したものであり、種々の変更を加えることが可能である。例えば、車両のナンバープレート情報等が得られている場合、車両の物体IDとして、ナンバープレートの番号を用いることも可能である。
 移動体追跡システム20は、上記したタグ付け済み撮影データ記憶部50に記憶された撮影データ及びタグ情報を用いて、移動体の経路を特定し、移動体経路データ記憶部60に記憶する。
 より具体的には、移動体追跡システム20は、追跡対象選択部23と、進行方向判定部21と、速度推定部24と、経路特定部22とを備える。
 追跡対象選択部23は、追跡を実施する物体IDが入力されると、タグ付け済み撮影データ記憶部50から該当する物体IDが付与されたデータを読み出して、進行方向判定部21に送る。
 進行方向判定部21は、図5に例示するタグ情報の撮影時刻が古いフレームと、新しいフレームとを選択し、ボックス座標1、2の変化により、移動体の進行方向を判定する。例えば、X座標、Y座標の双方が大きく変化している場合、進行方向判定部21は、移動体(車両)が交差点で右折または左折をしたと判定する。一方、X座標、Y座標の一方のみが大きく変化している場合、進行方向判定部21は、移動体(車両)が交差点を直進していると判定する。進行方向判定部21は、判定結果として、物体IDと、その判定結果を速度推定部24に送る。
 速度推定部24は、図5に例示するタグ情報の撮影時刻が古いフレームと、新しいフレームとを選択し、ボックス座標1、2の変化により、移動体の移動距離を計算する。次に、速度推定部24は、計算した移動距離を、撮影時刻の差分で除算することで、移動体の速度を計算する。速度推定部24は、判定結果として、物体IDと、その推定速度を経路特定部22に送る。
 経路特定部22は、進行方向判定部21及び速度推定部24で得られた進行方向と推定速度と、交差点相互間の接続関係に基づいて、移動体が次に通過すると想定される交差点とその推定到達時間を計算する。そして、経路特定部22は、該当する交差点を撮影しているカメラ10にて撮影された撮影データの中から、前記推定到達時間の撮影データを読み出す。そして、経路特定部22は、読み出した撮影データに、物体IDにて特定される被写体と類似する被写体が写っている場合、同一の移動体と判定し、該当する物体IDの移動経路として記録する。
 以上の動作を繰り返し、移動体追跡システム20は、移動体の経路情報を作成し、移動体経路データ記憶部60に記憶する。
 図7は、移動体経路データ記憶部60に保持されている経路情報の一例を示す図である。図7の例では、物体IDごとのその通過位置と、その撮影時刻を順次記録することで構成された移動体の経路情報が示されている。
 続いて、本実施形態の動作について図面を参照して詳細に説明する。図8は、本発明の第1の実施形態の移動体追跡システムの動作を表したフローチャートである。図8を参照すると、まず、移動体追跡システム20は、任意の地点を起点として、追跡対象とする移動体を選択する(ステップS001)。この追跡対象とする移動体の選択は、ユーザから指示されたものでもよいし、移動体追跡システム20が選択した物体IDであってもよい。例えば、移動体追跡システム20が、タグ付け済み撮影データ記憶部50を参照して、任意の地点にて検出された物体IDのすべてを追跡する形態も採用可能である。
 次に、移動体追跡システム20は、選択した物体IDを持つ移動体の進行方向を判定する(ステップS002)。
 次に、移動体追跡システム20は、選択した物体IDを持つ移動体の速度を推定する(ステップS003)。
 次に、移動体追跡システム20は、選択した物体IDを持つ移動体の移動先となる交差点の撮影データのうち、推定速度から求められた撮影時刻のデータを参照し、経路を特定する(ステップS004)。
 次に、移動体追跡システム20は、選択した物体IDを持つ移動体の追跡を終了すべきか否かを判定する(ステップS005)。移動体の追跡を終了する条件としては、次のようなものが考えられる。第1の条件は、追跡中の移動体がOD調査を行うエリアの端の交差点に到達した場合である。この場合、起点と終点とその間の経路の特定が完了していることになるので、追跡を終了することができる。第2の条件は、追跡中の移動体を見失った場合である。この場合の理由としては、移動体が目的地に着くなどして、最後の交差点から移動を止めてしまったことが考えられる。この場合も、起点と終点とその間の経路の特定が完了していることになるので、追跡を終了することができる。追跡中の移動体を見失う別の理由としては、移動体が道路の途中でUターンをするなどして、追跡に失敗したケースである。この場合は、調査を打ち切っても良いし、あるいは、探索対象を広げて調査を継続してもよい。
 前記判定の結果、追跡を継続すると判定した場合(ステップS005のNO)、移動体追跡システム20は、該当する移動体が最後に進入した交差点の撮影データを読み出して、ステップS002~S004の処理を継続する。
 一方、追跡を終了すると判定した場合(ステップS005のYES)、移動体追跡システム20は、移動体経路データ記憶部60に、図7に例示する経路情報を記録して、処理を終了する。
 図9を参照して、本実施形態の移動体追跡システム20の動作を具体的に説明する。以下の説明では、A地点を起点とする移動体のOD調査を行うものとして説明する。例えば、物体ID=42の車両が、9時34分20秒にA地点を通過したものとする。この場合、移動体追跡システム20は、A地点の撮影データに基づいて、物体ID=42の車両が、B地点に向かい、その到達予定時刻は、9時34分30秒であると推定する。
 次に、移動体追跡システム20は、A地点で判定した進行方向と到達予定時刻に基づいて、B地点の撮影データのうち、9時34分30秒前後にB地点を通過した車両を特定する。図9の例では、物体ID=42の車両と、物体ID=130の車両IDが写っているが、移動体追跡システム20は、より外観が類似する物体ID=42の車両の方を選択する。そして、移動体追跡システム20は、B地点の撮影データに基づいて、物体ID=42の車両が、C地点に向かい、その到達予定時刻は、9時34分40秒であると推定する。
 以下同様に、移動体追跡システム20は、B地点で判定した進行方向と到達予定時刻に基づいて、C地点の撮影データのうち、9時34分40秒前後にC地点を通過した車両を特定する。図9の例では、物体ID=42の車両と、物体ID=10の車両IDが写っているが、移動体追跡システム20は、より外観が類似する物体ID=42の車両の方を選択する。以下、同様に、移動体追跡システム20は、物体ID=42の車両が地点Dに到達したことを確認し、そこで、追跡を終了する。
 以上、説明したように、本実施形態によれば、1つの交差点につき、1台以上のカメラを設置することで、移動体を追跡することが可能となる。その理由は、移動体追跡システム20が進行方向を判定し、移動体を追跡する構成を採用したことにある。また、本実施形態によれば、その調査時間も短縮させることが可能となる。その理由は、移動体追跡システム20が移動体の速度を推定し、移動体の到達予定時間を用い効率よく追跡を実施する構成を採用したことにある。なお、移動体は必ずしもカメラを設置した交差点だけを通過するわけではなく、上記したステップS005で述べたように一定数の移動体を失探(ロスト)することも考えられる。しかしながら、現状のOD調査におけるアンケートの回収率も3~6割程度であり(平成27年度国交省実施分)、本実施形態の方式でも十分な調査データを得ることができる。
[第2の実施形態]
 続いて、上記第1の実施形態の構成を用いて特定の移動体の経路を表した地図情報の表示機能を追加した第2の実施形態について図面を参照して詳細に説明する。図10は、本発明の第2の実施形態の移動体追跡システムの構成を示す図である。図10を参照すると、移動体追跡システム20Bに選択受付応答部25を追加した構成が示されている。
 選択受付応答部25は、所定のユーザ端末から受け付けた移動体の移動経路を所定の地図上に表示した地図情報を表示する機能を備えている。具体的には、選択受付応答部25は、所定のユーザ端末から、移動体の選択を受け付けると、移動体経路データ記憶部60から該当する物体IDの経路情報を取り出す。そして、選択受付応答部25は、前記ユーザ端末に対して、前記選択を受け付けた移動体の移動経路を所定の地図上に表示した地図情報を応答する。
 図11は、本発明の第2の実施形態の移動体追跡システムによる経路表示態様の一例を示す図である。例えば、選択受付応答部25は、所定のユーザ端末から、物体ID=42の車両の指定を受け付けたものとする。
 この場合、移動体追跡システムは、移動体経路データ記憶部60から物体ID=42の経路情報が取り出される。前記ユーザ端末には、図11に示すように、物体ID=42の移動経路を所定の地図上に表示した地図情報が表示される。
 ユーザ端末のユーザは、このような地図情報を参照して、不審車両の移動履歴を確認することが可能となる。もちろん、物体IDとして車両以外の移動体を指定し、その移動履歴を確認することも可能である。例えば、犯罪者が逃走に利用した自転車を追跡し、犯罪捜査に役立てることも可能である。
 以上のように、本発明は、OD調査のみならず、任意の車両を指定した追跡(移動履歴を表示)システムとしても利用することが可能となる。
 以上、本発明の各実施形態を説明したが、本発明は、上記した実施形態に限定されるものではなく、本発明の基本的技術的思想を逸脱しない範囲で、更なる変形・置換・調整を加えることができる。例えば、各図面に示したネットワーク構成、各要素の構成、メッセージの表現形態は、本発明の理解を助けるための一例であり、これらの図面に示した構成に限定されるものではない。
 また、上記した第1、第2の実施形態に示した手順は、移動体追跡システム20、20A、20Bとして機能するコンピュータ(図12の9000)に、これらのシステムとしての機能を実現させるプログラムにより実現可能である。このようなコンピュータは、図12のCPU(Central Processing Unit)9010、通信インタフェース9020、メモリ9030、補助記憶装置9040を備える構成に例示される。すなわち、図12のCPU9010にて、進行方向判定プログラムや速度推定プログラムを実行し、その補助記憶装置9040等に保持された各計算パラメータの更新処理を実施させればよい。
 即ち、上記した第1、第2の実施形態に示した移動体追跡システムの各部(処理手段、機能)は、これらのシステムに搭載されたプロセッサに、そのハードウェアを用いて、上記した各処理を実行させるコンピュータプログラムにより実現することができる。
 最後に、本発明の好ましい形態を要約する。
[第1の形態]
 (上記第1の視点による移動体追跡システム参照)
[第2の形態]
 上記した移動体追跡システムは、さらに、
 前記第1のカメラの撮影データに記録された移動体の位置に基づいて、前記移動体の速度を推定する速度推定部を備え、
 前記経路特定部は、前記移動体の速度に基づいて前記第2のカメラの撮影データを選択する構成を採ることができる。
[第3の形態]
 Origin-Destination(OD)調査を行うエリアの交差点に、カメラをそれぞれ配置し、
 上記した移動体追跡システムは、
 前記カメラを前記第1、第2のカメラとして機能させて、Origin-Destination(OD)調査を実施する構成を採ることができる。
[第4の形態]
 上記した移動体追跡システムにおいて、
 前記第1のカメラは、前後左右方向から交差点に進入する移動体を撮影し、それぞれの方向から前記交差点に進入した移動体についてその進行方向を特定できる位置に設置されていることが好ましい。
[第5の形態]
 上記した移動体追跡システムにおいて、さらに、
 前記特定した移動体毎に、移動経路を示す経路情報を記憶する経路記憶部と、
 所定のユーザ端末から受け付けた移動体の移動経路を所定の地図上に表示した地図情報を表示する地図情報表示部と、を備える構成を採ることができる。
[第6の形態]
 (上記第2の視点による移動体追跡方法参照)
[第7の形態]
 (上記第3の視点によるプログラム参照)
 なお、上記第6~第7の形態は、第1の形態と同様に、第2~第5の形態に展開することが可能である。
 なお、上記の特許文献の各開示を、本書に引用をもって繰り込むものとする。本発明の全開示(請求の範囲を含む)の枠内において、さらにその基本的技術思想に基づいて、実施形態ないし実施例の変更・調整が可能である。また、本発明の開示の枠内において種々の開示要素(各請求項の各要素、各実施形態ないし実施例の各要素、各図面の各要素等を含む)の多様な組み合わせ、ないし選択(部分的削除を含む)が可能である。すなわち、本発明は、請求の範囲を含む全開示、技術的思想にしたがって当業者であればなし得るであろう各種変形、修正を含むことは勿論である。特に、本書に記載した数値範囲については、当該範囲内に含まれる任意の数値ないし小範囲が、別段の記載のない場合でも具体的に記載されているものと解釈されるべきである。さらに、上記引用した文献の各開示事項は、必要に応じ、本発明の趣旨に則り、本発明の開示の一部として、その一部又は全部を、本書の記載事項と組み合わせて用いることも、本願の開示事項に含まれるものと、みなされる。
 10 カメラ
 11 第1のカメラ
 12A、12B 第2のカメラ
 20、20A、20B 移動体追跡システム
 21 進行方向判定部
 22 経路特定部
 23 追跡対象選択部
 24 速度推定部
 25 選択受付応答部
 30 ネットワーク
 40 映像タグ付けエンジン
 50 タグ付け済み撮影データ記憶部
 60 移動体経路データ記憶部
 9000 コンピュータ
 9010 CPU
 9020 通信インタフェース
 9030 メモリ
 9040 補助記憶装置
 V 車両

Claims (8)

  1.  交差点に進入する移動体を撮影する第1のカメラと、
     前記交差点に進入した移動体の移動先として設定された複数の地点に設置された複数の第2のカメラと、
     前記第1のカメラの撮影データに基づいて、前記交差点に進入する移動体の向きの変化により該移動体の進行方向を判定する進行方向判定部と、
     前記移動体の進行方向に基づいて前記第2のカメラを選択し、前記第2のカメラの撮影データから、特定した移動体が撮影されたフレームを検索することで、前記移動体の移動経路を特定する経路特定部と、
     を含む移動体追跡システム。
  2.  さらに、前記第1のカメラの撮影データに記録された移動体の位置に基づいて、前記移動体の速度を推定する速度推定部を備え、
     前記経路特定部は、前記移動体の速度に基づいて前記第2のカメラの撮影データを選択する請求項1の移動体追跡システム。
  3.  Origin-Destination(OD)調査を行うエリアの交差点に、カメラをそれぞれ配置し、
     前記カメラを前記第1、第2のカメラとして機能させて、Origin-Destination(OD)調査を実施する機能を備えた請求項1又は2の移動体追跡システム。
  4.  前記第1のカメラは、前後左右方向から交差点に進入する移動体を撮影し、それぞれの方向から前記交差点に進入した移動体についてその進行方向を特定できる位置に設置される請求項1から3いずれか一の移動体追跡システム。
  5.  さらに、
     前記特定した移動体毎に、移動経路を示す経路情報を記憶する経路記憶部と、
     所定のユーザ端末から受け付けた移動体の移動経路を所定の地図上に表示した地図情報を表示する地図情報表示部と、を備える請求項1から4いずれか一の移動体追跡システム。
  6.  交差点に進入する移動体を撮影する第1のカメラの撮影データに基づいて、前記交差点に進入する移動体の進行方向を判定するステップと、
     前記移動体の進行方向に基づいて、前記交差点に進入した移動体の移動先として設定された複数の地点に設置された複数のカメラの中から第2のカメラを選択し、前記第2のカメラの撮影データから、前記移動体が撮影されたフレームを検索することで、前記移動体の移動経路を特定するステップと、
     を含む移動体追跡方法。
  7.  さらに、前記カメラの撮影データに記録された移動体の位置に基づいて、前記移動体の速度を推定するステップと、
     前記移動体の速度に基づいて前記第2のカメラの撮影データを選択するステップと、含む請求項6の移動体追跡方法。
  8.  交差点に進入する移動体を撮影する第1のカメラと、
     前記交差点に進入した移動体の移動先として設定された複数の地点に設置された複数の第2のカメラと、のそれぞれで撮影された撮影データにアクセス可能なコンピュータに、
     前記第1のカメラの撮影データに基づいて、前記交差点に進入する移動体の進行方向を判定する処理と、
     前記移動体の進行方向に基づいて前記第2のカメラを選択し、前記第2のカメラの撮影データから、前記移動体が撮影されたフレームを検索することで、前記移動体の移動経路を特定する処理と、
     を実行させるプログラム。
PCT/JP2019/034824 2018-09-05 2019-09-04 移動体追跡システム、移動体追跡方法及びプログラム WO2020050328A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2020541275A JP7272365B2 (ja) 2018-09-05 2019-09-04 移動体追跡システム、移動体追跡方法及びプログラム
US17/273,003 US11990041B2 (en) 2018-09-05 2019-09-04 Moving body tracking system, moving body tracking method, and program
JP2023072005A JP7456536B2 (ja) 2018-09-05 2023-04-26 移動体追跡システム、移動体追跡方法及びプログラム

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018-165566 2018-09-05
JP2018165566 2018-09-05

Publications (1)

Publication Number Publication Date
WO2020050328A1 true WO2020050328A1 (ja) 2020-03-12

Family

ID=69722389

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2019/034824 WO2020050328A1 (ja) 2018-09-05 2019-09-04 移動体追跡システム、移動体追跡方法及びプログラム

Country Status (3)

Country Link
US (1) US11990041B2 (ja)
JP (2) JP7272365B2 (ja)
WO (1) WO2020050328A1 (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021149565A (ja) * 2020-03-19 2021-09-27 株式会社Soken 移動体検出システム
WO2021199350A1 (ja) * 2020-03-31 2021-10-07 日本電気株式会社 遠隔監視システム、装置、方法、及びコンピュータ可読媒体
TWI773112B (zh) * 2021-01-29 2022-08-01 財團法人資訊工業策進會 道路監測系統、裝置及方法
JP7363717B2 (ja) 2020-08-26 2023-10-18 トヨタ自動車株式会社 物体検出システム、物体検出方法及びプログラム
WO2024075271A1 (ja) * 2022-10-07 2024-04-11 日本電気株式会社 来客分析システム、来客分析方法、及び記録媒体

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7140043B2 (ja) * 2019-05-07 2022-09-21 株式会社デンソー 情報処理装置
KR20220117491A (ko) * 2021-02-17 2022-08-24 한국전자통신연구원 재식별 방법 및 장치

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005353004A (ja) * 2004-06-14 2005-12-22 Sumitomo Electric Ind Ltd 車両走行計測システム及び車両追跡方法
JP2012038089A (ja) * 2010-08-06 2012-02-23 Nikon Corp 情報管理装置、データ解析装置、信号機、サーバ、情報管理システム、およびプログラム
JP2015060443A (ja) * 2013-09-19 2015-03-30 株式会社 日立産業制御ソリューションズ 交通流把握装置及び方法

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2783175B2 (ja) 1994-11-17 1998-08-06 日本電気株式会社 交通流計測装置
JP3402263B2 (ja) 1999-06-10 2003-05-06 住友電気工業株式会社 交通情報管理装置および交通情報管理方法
JP2005004426A (ja) 2003-06-11 2005-01-06 Toshiba Corp 自動交通量計測装置、および自動交通量計測システム
JP2005215909A (ja) 2004-01-29 2005-08-11 Hitachi Ltd 動画像処理技術を使用した市街の交通状況調査システム
JP5374067B2 (ja) 2008-04-21 2013-12-25 株式会社豊田中央研究所 交通状態シミュレーション装置及びプログラム
US20120033123A1 (en) 2010-08-06 2012-02-09 Nikon Corporation Information control apparatus, data analyzing apparatus, signal, server, information control system, signal control apparatus, and program
CN106663325B (zh) 2014-08-06 2020-06-16 索尼半导体解决方案公司 图像处理装置及其图像处理方法
JP5971828B1 (ja) * 2015-06-19 2016-08-17 株式会社福山コンサルタント Od交通量の実数推定方法、od交通量の実数推定装置、od交通量の実数推定プログラム、並びに情報記録媒体
JP6390671B2 (ja) 2016-07-29 2018-09-19 オムロン株式会社 画像処理装置および画像処理方法
WO2018180454A1 (ja) * 2017-03-28 2018-10-04 日本電産株式会社 移動体
US10976174B2 (en) * 2017-10-20 2021-04-13 Panasonic I-Pro Sensing Solutions Co., Ltd. Investigation assist system and investigation assist method
US10984254B2 (en) * 2017-10-20 2021-04-20 Panasonic I-Pro Sensing Solutions Co., Ltd. Investigation assist system and investigation assist method
JP2020065200A (ja) * 2018-10-18 2020-04-23 パナソニックi−PROセンシングソリューションズ株式会社 車両等検知システムおよび車両等検知方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005353004A (ja) * 2004-06-14 2005-12-22 Sumitomo Electric Ind Ltd 車両走行計測システム及び車両追跡方法
JP2012038089A (ja) * 2010-08-06 2012-02-23 Nikon Corp 情報管理装置、データ解析装置、信号機、サーバ、情報管理システム、およびプログラム
JP2015060443A (ja) * 2013-09-19 2015-03-30 株式会社 日立産業制御ソリューションズ 交通流把握装置及び方法

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021149565A (ja) * 2020-03-19 2021-09-27 株式会社Soken 移動体検出システム
JP7339196B2 (ja) 2020-03-19 2023-09-05 株式会社Soken 移動体検出システム
WO2021199350A1 (ja) * 2020-03-31 2021-10-07 日本電気株式会社 遠隔監視システム、装置、方法、及びコンピュータ可読媒体
JP7459932B2 (ja) 2020-03-31 2024-04-02 日本電気株式会社 遠隔監視システム、装置、方法、及びプログラム
JP7363717B2 (ja) 2020-08-26 2023-10-18 トヨタ自動車株式会社 物体検出システム、物体検出方法及びプログラム
TWI773112B (zh) * 2021-01-29 2022-08-01 財團法人資訊工業策進會 道路監測系統、裝置及方法
WO2024075271A1 (ja) * 2022-10-07 2024-04-11 日本電気株式会社 来客分析システム、来客分析方法、及び記録媒体

Also Published As

Publication number Publication date
US11990041B2 (en) 2024-05-21
JPWO2020050328A1 (ja) 2021-08-30
JP2023083585A (ja) 2023-06-15
JP7272365B2 (ja) 2023-05-12
US20210256848A1 (en) 2021-08-19
JP7456536B2 (ja) 2024-03-27

Similar Documents

Publication Publication Date Title
WO2020050328A1 (ja) 移動体追跡システム、移動体追跡方法及びプログラム
JP7218535B2 (ja) 交通違反車両識別システム及びサーバ
JP5976237B2 (ja) 映像検索システム及び映像検索方法
US11333517B1 (en) Distributed collection and verification of map information
JP2020052694A (ja) 物体検出装置、物体検出方法及び物体検出用コンピュータプログラム
US9230336B2 (en) Video surveillance
JP2019022205A (ja) センシングデータ処理システムとそのエッジサーバ、伝送トラフィック削減方法およびプログラム
CN111932901B (zh) 道路车辆跟踪检测设备、方法及存储介质
KR20180046798A (ko) 실시간 교통 정보 제공 방법 및 장치
KR101678004B1 (ko) 노드-링크 기반 카메라 네트워크 통합 감시 시스템 및 감시 방법
JP7000805B2 (ja) 動物救援システムおよび動物救援方法、ならびにそれに使用されるサーバおよびプログラム
JP6568437B2 (ja) 区画線認識装置
JP6939362B2 (ja) 車両捜索システム、車両捜索方法、ならびに、それに用いられる車両およびプログラム
KR20200043252A (ko) 차량의 부감 영상 생성 시스템 및 그 방법
US11189162B2 (en) Information processing system, program, and information processing method
US11625909B1 (en) Track segment cleaning of tracked objects
JP2019087969A (ja) 走行現調支援装置
JP2021033494A (ja) アノテーション支援方法、アノテーション支援装置、及びアノテーション支援プログラム
JP2012159373A (ja) データ管理システム、データ管理方法、及びデータ管理プログラム
WO2020213512A1 (ja) 渋滞情報提供装置、渋滞情報処理方法及び記録媒体
KR102345798B1 (ko) 교차로 꼬리물기 인지 및 영상 저장 장치
JP7254000B2 (ja) 画像配信装置及び方法並びに画像配信システム
Sukhinskiy et al. Developing a parking monitoring system based on the analysis of images from an outdoor surveillance camera
KR102559928B1 (ko) 도로 촬영 정보를 이용하는 도로 맵 정보 현행화 방법, 이에 사용되는 관리 서버 및 도로 촬영 정보를 이용하는 도로 맵 정보 현행화 방법을 실행시키는 프로그램이 기록된 기록 매체
WO2022226989A1 (en) System and method for obstacle-free driving

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19857084

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2020541275

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 19857084

Country of ref document: EP

Kind code of ref document: A1