WO2019220987A1 - 端末装置および収集方法 - Google Patents

端末装置および収集方法 Download PDF

Info

Publication number
WO2019220987A1
WO2019220987A1 PCT/JP2019/018456 JP2019018456W WO2019220987A1 WO 2019220987 A1 WO2019220987 A1 WO 2019220987A1 JP 2019018456 W JP2019018456 W JP 2019018456W WO 2019220987 A1 WO2019220987 A1 WO 2019220987A1
Authority
WO
WIPO (PCT)
Prior art keywords
imaging
imaging data
transmission request
vehicle
terminal device
Prior art date
Application number
PCT/JP2019/018456
Other languages
English (en)
French (fr)
Inventor
浩行 渡部
Original Assignee
株式会社デンソーテン
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社デンソーテン filed Critical 株式会社デンソーテン
Priority to US16/619,220 priority Critical patent/US11335140B2/en
Priority to CN201980003068.6A priority patent/CN110770806B/zh
Publication of WO2019220987A1 publication Critical patent/WO2019220987A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07CTIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
    • G07C5/00Registering or indicating the working of vehicles
    • G07C5/08Registering or indicating performance data other than driving, working, idle, or waiting time, with or without registering driving, working, idle or waiting time
    • G07C5/0816Indicating performance data, e.g. occurrence of a malfunction
    • G07C5/0825Indicating performance data, e.g. occurrence of a malfunction using optical means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07CTIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
    • G07C5/00Registering or indicating the working of vehicles
    • G07C5/008Registering or indicating the working of vehicles communicating information to a remotely located station
    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07CTIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
    • G07C5/00Registering or indicating the working of vehicles
    • G07C5/08Registering or indicating performance data other than driving, working, idle, or waiting time, with or without registering driving, working, idle or waiting time
    • G07C5/0841Registering performance data
    • G07C5/085Registering performance data using electronic data carriers
    • G07C5/0866Registering performance data using electronic data carriers the electronic data carrier being a digital video recorder in combination with video camera
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/123Traffic control systems for road vehicles indicating the position of vehicles, e.g. scheduled vehicles; Managing passenger vehicles circulating according to a fixed timetable, e.g. buses, trains, trams
    • G08G1/127Traffic control systems for road vehicles indicating the position of vehicles, e.g. scheduled vehicles; Managing passenger vehicles circulating according to a fixed timetable, e.g. buses, trains, trams to a central station ; Indicators in a central station
    • G08G1/13Traffic control systems for road vehicles indicating the position of vehicles, e.g. scheduled vehicles; Managing passenger vehicles circulating according to a fixed timetable, e.g. buses, trains, trams to a central station ; Indicators in a central station the indicator being in the form of a map
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R21/00Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks
    • B60R2021/0027Post collision measures, e.g. notifying emergency services

Definitions

  • the present invention relates to a terminal device and a collection method.
  • the present invention has been made in view of the above, and an object of the present invention is to provide a terminal device and a collection method capable of reducing the communication amount while collecting necessary imaging data.
  • the terminal device includes a storage unit, an acquisition unit, a selection unit, and a transmission unit.
  • storage part memorize
  • the acquisition unit acquires a transmission request for the imaging data transmitted from an external device based on the position information of the moving body.
  • the selection unit selects target data that is imaging data corresponding to the transmission request acquired by the acquisition unit from among the imaging data stored in the storage unit.
  • the transmission unit transmits the target data selected by the selection unit.
  • FIG. 1 is a diagram showing an outline of a collection method.
  • FIG. 2 is a block diagram of the collection system.
  • FIG. 3 is a diagram illustrating an arrangement example of cameras.
  • FIG. 4 is a diagram illustrating a specific example of vehicle information.
  • FIG. 5 is a diagram (part 1) illustrating an example of processing by the calculation unit.
  • FIG. 6 is a diagram (part 2) illustrating an example of processing by the calculation unit.
  • FIG. 7 is a diagram illustrating a specific example of the target area.
  • FIG. 8 is a flowchart illustrating a processing procedure executed by the terminal device.
  • FIG. 9 is a flowchart illustrating a processing procedure executed by the collection apparatus.
  • a moving body is a vehicle
  • a moving body is not restricted to a vehicle,
  • moving bodies other than a vehicle for example, a ship and an aircraft, may be sufficient.
  • FIG. 1 is a diagram showing an outline of a collection method.
  • the collection method is executed when the collection device 1 shown in FIG. 1 and the terminal device 50 transmit and receive data.
  • the collection device 1 is a server device that collects image data obtained by imaging an event based on the behavior of the vehicle such as an accident from the terminal device 50 mounted on the vehicle C. Such imaging data is used for investigation of the cause of an accident.
  • the collection device 1 collects only the imaging data related to the accident, thereby reducing the data amount required for transmission / reception of the imaging data.
  • the terminal device 50 first acquires a transmission request for imaging data transmitted from the collection device 1 (step S1).
  • the collection device 1 acquires the position information of each vehicle C as needed.
  • the terminal device 50 selects target data that is imaging data corresponding to the transmission request from among the imaging data stored in the storage unit included in the terminal device 50 (step S2).
  • the collection device 1 requests the vehicles C2 and C3 to transmit imaging data.
  • the collection device 1 has already collected the terminal device 50 with respect to a vehicle that has photographed or may have photographed the accident occurrence site based on the position information of the vehicles C2 and C3.
  • the transmission request is transmitted by specifying necessary imaging data from the imaging data.
  • the terminal device 50 can select imaging data based on the transmission request as target data.
  • the terminal device 50 transmits the target data to the collection device 1 (step S3).
  • the terminal device 50 transmits the target data to the collection device 1 after selecting the already recorded target data based on the transmission request.
  • the collection device 1 is not limited to the event occurrence point P, and can select any position as an imaging point.
  • the terminal device 50 can also select imaging data based on a selection condition transmitted from the collection device 1 by broadcast communication. This will be described later.
  • FIG. 2 is a block diagram of the collection system 100.
  • the collection system 100 includes a collection device 1 and a terminal device 50.
  • the collection system 100 includes one terminal device 50 is illustrated, but a plurality of terminal devices 50 may be included.
  • the terminal device 50 is connected to a GPS (Global Positioning System) 60 that detects vehicle position information and a camera 61 that captures the surroundings of the vehicle.
  • GPS Global Positioning System
  • the camera 61 can use a plurality of cameras 61 that capture the entire periphery of the vehicle.
  • FIG. 3 is a diagram illustrating a specific example of the camera position.
  • the front camera 61a has an imaging axis ax1 in front of the vehicle, and the front of the vehicle has an imaging axis ax2, and the rear of the vehicle is imaged.
  • a rear camera 61b a rear camera 61b.
  • the vehicle has an imaging axis ax3 on the right side of the vehicle, a right side camera 61c that images the right side of the vehicle, and an imaging axis ax4 on the left side of the vehicle.
  • a left side camera 61d for imaging is included.
  • each of the four cameras 61 includes a wide-angle lens such as a fish-eye lens, and the imaging data captured by each camera 61 is connected to obtain imaging data obtained by imaging the entire periphery of the vehicle.
  • the camera position shown in FIG. 3 is an example and varies depending on the vehicle.
  • the terminal device 50 includes a communication unit 7, a control unit 8, and a storage unit 9.
  • the communication unit 7 is a communication module that communicates with the collection device 1 and operates under the control of the control unit 8.
  • the control unit 8 includes an acquisition unit 81, a generation unit 82, a selection unit 83, and a transmission unit 84.
  • the control unit 8 includes, for example, a computer having a CPU (Central Processing Unit), a ROM (Read Only Memory), a RAM (Random Access Memory), a HDD (Hard Disk Drive), an input / output port, and various circuits.
  • CPU Central Processing Unit
  • ROM Read Only Memory
  • RAM Random Access Memory
  • HDD Hard Disk Drive
  • the CPU of the computer functions as the acquisition unit 81, the generation unit 82, the selection unit 83, and the transmission unit 84 of the control unit 8, for example, by reading and executing a program stored in the ROM.
  • the acquisition unit 81, the generation unit 82, the selection unit 83, and the transmission unit 84 of the control unit 8 are implemented by hardware such as ASIC (Application Specific Integrated Circuit) or FPGA (Field Programmable Gate Array). It can also be configured.
  • ASIC Application Specific Integrated Circuit
  • FPGA Field Programmable Gate Array
  • the storage unit 9 corresponds to, for example, a RAM or HDD.
  • the RAM and HDD can store information of the imaging data storage area 91, the collection condition storage area 92, and various programs.
  • the terminal device 50 may acquire the above-described program and various types of information via another computer or a portable recording medium connected via a wired or wireless network.
  • the acquisition unit 81 of the control unit 8 acquires a transmission request for imaging data transmitted from the collection device 1 based on the position information of the vehicle C.
  • the acquiring unit 81 stores the transmission request in the collection condition storage area 92 of the storage unit 9.
  • the acquisition unit 81 acquires the imaging data captured by the camera 61 and stores it in the imaging data storage area 91 of the storage unit 90.
  • the generation unit 82 generates behavior information indicating the behavior of the vehicle based on signals input from various sensors, and transmits the behavior information to the collection device 1 via the communication unit 7.
  • the behavior information includes, for example, vehicle speed information input from the vehicle speed sensor 51, steering angle information input from the steering angle sensor 52, brake information input from the brake sensor 53, airbag information input from the airbag sensor 54, and the like. including. Note that the behavior information is an example, and other information may be included as long as the information indicates the behavior of the vehicle.
  • the selection unit 83 can also select, as target data, imaging data obtained by capturing the occurrence point P based on the position information.
  • the vehicle C includes a plurality of cameras 61 having different imaging directions, that is, imaging axes ax.
  • the selection unit 83 may include information specifying the camera 61 in the transmission request. In such a case, the selection unit 83 can also select imaging data of the designated camera 61 as target data.
  • the selection unit 83 can make a reservation for the camera 61 to capture the occurrence point P when the vehicle C passes the occurrence point P from now on. That is, the transmission request transmitted to the vehicle passing the generation point P from now on includes information specifying the imaging condition of the target data.
  • the selection unit 83 reserves the camera 61 to image the occurrence point P based on the imaging request. Then, after the imaging data corresponding to the imaging request is stored in the imaging data storage area 91, the imaging data is selected as target data.
  • the selection unit 83 can reliably collect desired imaging data by reserving imaging in advance with respect to the camera 61.
  • the selection unit 83 can set the drive mechanism according to an imaging request. In other words, it is possible to image the imaging data after aligning the camera 61 with the desired imaging axis ax.
  • the transmission unit 84 transmits the target data selected by the selection unit 83 to the collection device 1. That is, the transmission unit 84 does not transmit all the imaging data, but transmits only target data including the occurrence point P. Accordingly, the collection system 100 according to the embodiment can reduce the communication amount while collecting necessary imaging data.
  • the collection device 1 includes a control unit 2, a storage unit 3, and a communication unit 10.
  • the communication unit 10 is a communication module that communicates with the terminal device 50 and operates under the control of the control unit 2.
  • the control unit 2 includes a reception unit 21, a detection unit 22, a calculation unit 23, and a transmission unit 24.
  • the control unit 2 includes, for example, a computer having a CPU (Central Processing Unit), a ROM (Read Only Memory), a RAM (Random Access Memory), a HDD (Hard Disk Drive), an input / output port, and various circuits.
  • CPU Central Processing Unit
  • ROM Read Only Memory
  • RAM Random Access Memory
  • HDD Hard Disk Drive
  • the CPU of the computer functions as the reception unit 21, the detection unit 22, the calculation unit 23, and the transmission unit 24 of the control unit 2, for example, by reading and executing a program stored in the ROM.
  • At least some or all of the receiving unit 21, the detecting unit 22, the calculating unit 23, and the transmitting unit 24 of the control unit 2 are implemented by hardware such as ASIC (Application Specific Integrated Circuit) or FPGA (Field Programmable Gate Array). It can also be configured.
  • ASIC Application Specific Integrated Circuit
  • FPGA Field Programmable Gate Array
  • the storage unit 3 corresponds to, for example, a RAM or an HDD.
  • the RAM and HDD can store vehicle information 31, the imaging data database 32, and various program information.
  • the collection device 1 may acquire the above-described program and various types of information via another computer or a portable recording medium connected via a wired or wireless network.
  • the vehicle information 31 stored in the storage unit 3 is information regarding each vehicle on which the terminal device 50 is mounted.
  • FIG. 4 is a diagram illustrating a specific example of the vehicle information 31. As shown in FIG. 4, the vehicle information 31 includes items such as a vehicle ID, position information, camera position, and behavior information.
  • the vehicle ID is an identifier for identifying the vehicle on which the terminal device 50 is mounted.
  • the position information indicates the current location of the vehicle and is updated as needed as the vehicle moves.
  • the camera position indicates the position of the camera 61 mounted on the vehicle as illustrated in FIG.
  • the behavior information is information related to the behavior of the vehicle as described above.
  • the receiving unit 21 of the control unit 2 receives information transmitted from the terminal device 50. Such information includes position information indicating the current location of the vehicle, behavior information indicating the behavior of the vehicle, imaging data, and the like.
  • the receiving unit 21 stores vehicle position information and behavior information in the storage unit 3 as vehicle information 31, and stores imaging data received from the terminal device 50 in the imaging data database 32.
  • Detecting unit 22 detects an event based on the behavior of the vehicle.
  • the event is an accident, a traffic jam, a sudden stop, a sudden steering, or the like.
  • the detection unit 22 detects a vehicle accident as an event by detecting an airbag operation signal from the behavior information.
  • FIG. 2 an example of the detection unit on the collection device 1 side is shown.
  • a detection unit may be provided on the terminal device 50 side, and events such as accident detection and vehicle traffic jams are collected on the collection device 1 side and the terminal device 50. What is necessary is just to select suitably and use in the detection part of the side.
  • the detection unit 22 detects sudden stop or sudden steering as an event when detecting a decrease exceeding the predetermined value of the vehicle speed or a change exceeding the predetermined value of the steering angle. Furthermore, the detection unit 22 detects a traffic jam as an event when a plurality of vehicles repeat running and stopping on the same road. The detection unit 22 may detect a vehicle accident or traffic jam event based on accident information or traffic information separately transmitted from an external server.
  • the detection unit 22 When detecting the event, the detection unit 22 generates event information regarding the type of the detected event, the position information of the event occurrence point P, the event occurrence time, and the like, and notifies the calculation unit 23 of the event information. If the event is a traffic jam, the occurrence point P is the head of the traffic jam.
  • the calculation unit 23 selects a vehicle that has passed the occurrence point P before or after the occurrence time of the event or a vehicle that will pass the occurrence point P from now on as a passing vehicle. That is, the passing vehicle includes a succeeding vehicle and an oncoming vehicle, and when the generation point P is an intersection, a vehicle that travels toward the intersection is selected as the passing vehicle.
  • FIG. 5 is a diagram illustrating an example of processing by the calculation unit 23.
  • the case where the vehicle C1 is provided with the front camera 61a is demonstrated.
  • the front camera 61a has an imaging axis ax1 in the traveling direction of the vehicle C1, and has a predetermined imaging range L in the left-right direction with respect to the imaging axis ax1.
  • the calculation unit 23 calculates the imaging time when the occurrence point P is included in the imaging range L from the transition of the positional relationship between the vehicle C1 and the occurrence point P. At this time, the calculation unit 23 can also calculate the imaging time based on the transition of the traveling direction by the vehicle C1.
  • the calculation unit 23 can calculate the imaging time after correcting the imaging axis ax1 and the imaging range L according to the steering angle. That is, the calculation unit 23 can calculate the imaging time with high accuracy by calculating the imaging time in consideration of the steering angle of the vehicle C1. Further, since the rudder angle and the direction of the vehicle may not always match, the direction of the vehicle may be directly detected.
  • the camera 61 mounted differs depending on the vehicle.
  • the imaging time at which the generation point P can be imaged differs for each camera 61.
  • FIG. 6 is a diagram illustrating a specific example of processing by the calculation unit 23.
  • the vehicle C1 includes a front camera 61a, a rear camera 61b, a right side camera 61c, and a left side camera 61d will be described.
  • the vehicle C1 has traveled along a travel locus T that detours the generation point P to the left side, as indicated by a broken line in FIG.
  • the calculation unit 23 since the generation point P exists in front of the vehicle C1 during the period from the start time ts to the switching time tc1, the calculation unit 23 includes the generation point P in the imaging data of the front camera 61a during the period. Calculate if included.
  • the calculation unit 23 calculates that the occurrence point P is included in the imaging data of the right-side camera 61c because the occurrence point P exists on the right side of the vehicle C1 during the period from the switching time tc1 to the switching time tc2. . That is, the collection target of the imaging data is switched from the front camera 61a to the right camera 61c at the switching time tc1.
  • the calculation unit 23 includes the occurrence point P in the imaging data of the rear camera 61b for the period from the switching time tc2 to the end time te. calculate.
  • the collection device 1 can calculate the imaging time for each camera 61 by grasping the information related to the attachment position of the camera 61 for each terminal device 50.
  • the collection device 1 can collect imaging data obtained by imaging the occurrence point P from various angles by calculating the imaging time for each of the plurality of cameras 61.
  • the calculation unit 23 when transmitting a transmission request by broadcast communication, the calculation unit 23 only selects a passing vehicle based on the location information of the generation point P without calculating the imaging time.
  • the transmission unit 24 When an event is detected by the detection unit 22, the transmission unit 24 transmits a transmission request for imaging data in which the occurrence point P is imaged to the terminal device 50 mounted on the passing vehicle at the event occurrence point P. .
  • the transmission unit 24 transmits a transmission request for imaging data to each terminal device 50.
  • the transmission request includes information related to the imaging time calculated by the calculation unit 23.
  • the collection device 1 transmits a transmission request for imaging data captured at the imaging time including the occurrence point P for each terminal device 50.
  • the occurrence point P is included in the imaging data transmitted from each terminal device 50.
  • the transmission unit 24 transmits a transmission request including the location information of the occurrence point P.
  • the terminal device 50 calculates an imaging time when the occurrence point P is included in the imaging data, and transmits the imaging data captured at the imaging time as target data.
  • the collection device 1 since the collection device 1 receives only the target data, the imaging data that is substantially unrelated to the event is excluded from the collection target. Therefore, the communication is performed while collecting the necessary imaging data. The amount can be reduced.
  • the collection apparatus 1 can also specify the imaging time for each camera 61 and transmit a transmission request. As a result, since it is possible to collect imaging data captured at various angles with respect to the occurrence point P, it becomes possible to grasp the event in more detail.
  • the transmission unit 24 can also transmit a transmission request for imaging data regarding a target area including the occurrence point P.
  • FIG. 7 is a diagram showing a specific example of the target area.
  • the target region Ft in the imaging data F is a region including the occurrence point P, and is, for example, a field angle within a predetermined range centering on the occurrence point P.
  • the target area Ft may be calculated by the terminal device 50.
  • the example shown in FIG. 7 shows a case where the occurrence point P is an accident site and the target area Ft includes only the range where the vehicle is colliding. That is, the transmission unit 24 transmits a transmission request for the target area Ft, so that the terminal device 50 transmits only the target area Ft.
  • the transmission unit 24 can also transmit a transmission request by designating the number of imaging data for each terminal device 50 in accordance with the number of passing vehicles. Specifically, the transmission unit 24 transmits a transmission request by designating the number of data so that the number of captured data transmitted from one terminal device 50 decreases as the number of passing vehicles increases.
  • the transmission unit 24 transmits a transmission request by designating the number of data so that the number of imaging data transmitted from one terminal device 50 increases as the number of passing vehicles decreases.
  • the image data is transmitted by being distributed by the passing vehicles, so that the communication amount per passing vehicle can be reduced. Moreover, when there are few passing vehicles, it becomes possible to collect required imaging data reliably.
  • the transmission unit 24 may specify the number of data according to the traveling speed of the passing vehicle and transmit the transmission request.
  • the transmission unit 24 transmits a transmission request for all imaging data including the occurrence point P because the imaging time becomes shorter as the traveling speed of the passing vehicle increases.
  • the slower the traveling speed of the passing vehicle the longer the imaging time, so a transmission request for a part of the imaging data is transmitted. Thereby, it is possible to collect necessary imaging data while reducing the communication amount.
  • FIG. 8 is a flowchart illustrating a processing procedure executed by the terminal device 50.
  • the acquisition unit 81 starts storing imaging data in the imaging data storage area 91 of the storage unit 9 (step S101).
  • the acquisition unit 81 determines whether or not a transmission request for imaging data has been acquired (step S102). If the transmission request has been acquired (Yes in step S102), the selection unit 83 is a collection target of imaging data. It is determined whether or not the occurrence point P to be passed has been passed (step S103).
  • the selection unit 83 reserves the imaging of the target data to the camera 61 that can image the generation point P (Step S104). Then, the transmission unit 84 transmits the target data when the reserved target data is captured.
  • Step S102 when the transmission request has not been acquired (No at Step S102), the process at Step S102 is continued. If the selection unit 83 has already passed the generation point P (step S103, Yes), the selection unit 83 selects the target data from the imaging data storage area 91 (step S106), and proceeds to the process of step S105.
  • FIG. 9 is a flowchart illustrating a processing procedure executed by the collection apparatus 1.
  • the receiving unit 21 receives behavior information from each terminal device 50 (step S201). Subsequently, the detection unit 22 determines whether an event has occurred based on the behavior information (step S202).
  • step S202 the calculation unit 23 selects a passing vehicle based on the transition of the positional relationship between each terminal device 50 and the generation point P (step S203).
  • the calculation unit 23 calculates an imaging time at which the occurrence point P can be imaged for each terminal device 50 (step S204).
  • the transmission unit 24 transmits a transmission request for imaging data including the occurrence point P to the terminal device 50 mounted on the target vehicle (step S205).
  • the receiving part 21 receives the imaging data based on a transmission request (step S206), and complete
  • the collection device 1 transmits the position information of the occurrence point P to the plurality of terminal devices 50 and receives the imaging data corresponding to the transmission request. .
  • the terminal device 50 includes the storage unit 9, the acquisition unit 81, the selection unit 83, and the transmission unit 84.
  • storage part 9 memorize
  • the acquisition unit 81 acquires a transmission request for imaging data transmitted from the collection device 1 (an example of an external device) based on the position information of the vehicle C.
  • the selection unit 83 selects target data that is imaging data corresponding to the transmission request acquired by the acquisition unit 81 from the imaging data stored in the storage unit 9.
  • the transmission unit 84 transmits the target data selected by the selection unit 83. Therefore, according to the terminal device 50 according to the embodiment, it is possible to suppress the traffic while collecting necessary imaging data.
  • the collection apparatus 1 does not need to be a server apparatus, and decides that the collection apparatus 1 is integrated with each terminal device 50. May be. That is, the functions of the collection device 1 may be distributed to the terminal devices 50.

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Traffic Control Systems (AREA)
  • Mechanical Engineering (AREA)

Abstract

実施形態の一態様に係る端末装置(50)は、記憶部(9)と、取得部(81)と、選択部(83)と、送信部(84)とを備える。記憶部(9)は、移動体上で撮像された撮像データを記憶する。取得部(81)は、外部装置から移動体の位置情報に基づいて送信される撮像データの送信要求を取得する。選択部(83)は、記憶部(9)に記憶された撮像データのうち、取得部(81)によって取得された送信要求に対応する撮像データである対象データを選択する。送信部(84)は、選択部(83)によって選択された対象データを送信する。

Description

端末装置および収集方法
 本発明は、端末装置および収集方法に関する。
 従来、例えば、交通事故が発生した場合に、交通事故に遭遇した事故車両や周囲の車両に搭載されたカメラによって事故現場が撮像された撮像データを収集する収集装置がある。かかる収集装置によって収集された撮像データは、事故の原因解明等に使用される(例えば、特許文献1参照)。
特許第6104482号公報
 しかしながら、従来技術では、事故発生時刻の前後に撮像された撮像データを全て受信するので、撮像データの送受信に必要な通信量が嵩んでしまうおそれがある。
 本発明は、上記に鑑みてなされたものであって、必要な撮像データを収集しつつ、通信量を削減することができる端末装置および収集方法を提供することを目的とする。
 上述した課題を解決し、目的を達成するために、実施形態に係る端末装置は、記憶部と、取得部と、選択部と、送信部とを備える。前記記憶部は、移動体上で撮像された撮像データを記憶する。前記取得部は、外部装置から前記移動体の位置情報に基づいて送信される前記撮像データの送信要求を取得する。前記選択部は、前記記憶部に記憶された撮像データのうち、前記取得部によって取得された送信要求に対応する撮像データである対象データを選択する。前記送信部は、前記選択部によって選択された対象データを送信する。
 本発明によれば、必要な撮像データを収集しつつ、通信量を削減することができる。
図1は、収集方法の概要を示す図である。 図2は、収集システムのブロック図である。 図3は、カメラの配置例を示す図である。 図4は、車両情報の具体例を示す図である。 図5は、算出部による処理の一例を示す図(その1)である。 図6は、算出部による処理の一例を示す図(その2)である。 図7は、対象領域の具体例を示す図である。 図8は、端末装置が実行する処理手順を示すフローチャートである。 図9は、収集装置が実行する処理手順を示すフローチャートである。
 以下、添付図面を用いて実施形態に係る端末装置および収集方法について詳細に説明する。なお、この実施形態により、本発明が限定されるものではない。また、以下では、移動体が車両である場合について説明するが、移動体は、車両に限られず、車両以外の移動体、例えば、船舶や航空機であってもよい。
 まず、図1を用いて実施形態に係る収集方法の概要について説明する。図1は、収集方法の概要を示す図である。なお、収集方法は、図1に示す収集装置1と、端末装置50とがデータを送受信することによって実行される。
 収集装置1は、例えば、事故などの車両の挙動に基づくイベントが撮像された撮像データを車両Cに搭載された端末装置50から収集するサーバ装置である。かかる撮像データは、事故の原因究明等に用いられる。
 ところで、従来から事故が発生した場合に、事故現場の周辺車両から撮像データを収集する収集装置がある。かかる収集装置は、すべての撮像データを周辺車両から一律に収集する。
 このため、従来技術においては、実質的に事故と関係のない撮像データまで収集することとなり、撮像データの送受信に掛かるデータ量が嵩んでしまう。
 そこで、実施形態に係る収集方法では、収集装置1が事故に関係する撮像データのみを収集することで、撮像データの送受信に掛かるデータ量を削減することとした。
 具体的には、図1に示すように、実施形態に係る収集方法において、端末装置50は、まず、収集装置1から送信される撮像データの送信要求を取得する(ステップS1)。例えば、収集装置1は、各車両Cの位置情報を随時取得しておく。
 そして、収集装置1は、交通事故等のイベントが発生した場合に、交通事故に関する撮像データの送信要求を各端末装置50へ送信する。かかる送信要求は、例えば、発生地点Pの位置情報等を含む。なお、発生地点Pは、撮像ポイントの一例である。
 その後、実施形態に係る収集方法では、端末装置50は、端末装置50が有する記憶部に記憶した撮像データのうち、送信要求に対応する撮像データである対象データを選択する(ステップS2)。
 図1に示す例では、車両C1が先行車両と衝突した場面を示し、車両C1が衝突した位置である発生地点Pに関する撮像データを収集することとなる。
 ここで、発生地点P付近を走行していた車両C2、車両C3において事故現場を撮像していた可能性がある。よって、収集装置1は、これら車両C2、C3に対して撮像データの送信を要求する。
 すなわち、収集装置1は、車両C2、C3の位置情報に基づき、事故の発生現場を撮影している、あるいは撮影している可能性がある車両に対して、すでに端末装置50で収集している撮影データから必要な撮像データを指定して送信要求を送信する。
 これにより、端末装置50は、かかる送信要求に基づく撮像データを対象データとして選択することが可能となる。そして、実施形態に係る収集方法では、端末装置50が対象データを収集装置1へ送信する(ステップS3)。
 このように、実施形態に係る収集方法では、端末装置50が、送信要求に基づき、すでに記録している対象データを選択したうえで、収集装置1へ対象データを送信する。
 したがって、実施形態に係る収集方法によれば、必要な撮像データを収集しつつ、通信量を削減することができる。
 なお、上述の例では、イベントが交通事故である場合について説明したが、かかるイベントは、急停止、急操舵等であってもよく、また、交通渋滞であってもよい。例えば、実施形態に係る収集方法では、イベントとして事故を検出する場合、Gセンサのセンサ値や、エアバックの作動状況等に基づいてイベントの発生を検知することが可能である。また、外部サーバから別途送信される事故情報や交通情報に基づいてイベントを検出することももちろん可能である。
 また、収集装置1は、イベントの発生地点Pに限られず、任意の位置を撮像ポイントとして選択することも可能である。また、端末装置50は、収集装置1から同報通信によって送信される選択条件に基づいて撮像データを選択することも可能であるが、かかる点については後述する。
 続いて、図2を用いて実施形態に係る収集システム100の構成例について説明する。図2は、収集システム100のブロック図である。図2に示すように、収集システム100は、収集装置1と、端末装置50とを含む。なお、図2では、説明を簡単にするために、収集システム100に、1つの端末装置50が含まれる場合を示しているが、複数の端末装置50が含まれることとしてもよい。
 まず、端末装置50について説明する。図2に示すように、端末装置50は、車両の位置情報を検出するGPS(Global Positioning System)60および車両の周囲を撮像するカメラ61が接続される。
 本実施形態において、カメラ61は、車両の全周囲を撮像する複数のカメラ61を用いることが可能である。図3は、カメラ位置の具体例を示す図である。
 図3に示すように、車両には、4つのカメラ61が搭載される。具体的には、車両の前後方向について、車両の前方に撮像軸ax1を有し、車両の前方を撮像する前方カメラ61aと、車両の後方に撮像軸ax2を有し、車両の後方を撮像する後方カメラ61bとを備える。
 また、車両の左右方向について、車両の右側方に撮像軸ax3を有し、車両の右側方を撮像する右側方カメラ61cと、車両の左側方に撮像軸ax4を有し、車両の左側方を撮像する左側方カメラ61dが含まれる。
 例えば、4つのカメラ61は、それぞれ魚眼レンズ等の広角レンズを備え、各カメラ61で撮像された撮像データを繋ぎ合わせることで、車両の全周囲が撮像された撮像データとなる。なお、図3に示すカメラ位置は、一例であり、車両によって異なる。
 図2の説明に戻って端末装置50について説明を続ける。端末装置50は、通信部7と、制御部8と、記憶部9とを備える。通信部7は、収集装置1と通信を行う通信モジュールであり、制御部8による制御によって動作する。
 制御部8は、取得部81と、生成部82と、選択部83と、送信部84とを備える。制御部8は、例えば、CPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)、HDD(Hard Disk Drive)、入出力ポートなどを有するコンピュータや各種の回路を含む。
 コンピュータのCPUは、例えば、ROMに記憶されたプログラムを読み出して実行することによって、制御部8の取得部81、生成部82、選択部83および送信部84として機能する。
 また、制御部8の取得部81、生成部82、選択部83および送信部84の少なくともいずれか一部または全部をASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等のハードウェアで構成することもできる。
 また、記憶部9は、例えば、RAMやHDDに対応する。RAMやHDDは、撮像データ記憶領域91、収集条件記憶領域92や各種プログラムの情報を記憶することができる。なお、端末装置50は、有線や無線のネットワークで接続された他のコンピュータや可搬型記録媒体を介して上記したプログラムや各種情報を取得することとしてもよい。
 制御部8の取得部81は、収集装置1から車両Cの位置情報に基づいて送信される撮像データの送信要求を取得する。取得部81は、送信要求を取得すると、かかる送信要求を記憶部9の収集条件記憶領域92へ格納する。
 本実施形態において、送信要求は、複数の端末装置50に対して一括に送信される同報通信または端末装置50毎に送信される個別通信によって送信される。例えば、同報通信において、発生地点Pの位置情報が送信され、個別通信においては、発生地点Pの位置情報または撮像時刻に関する情報のうち、少なくとも一方に関する情報が送信される。発生地点Pの位置情報または撮像時刻に関する情報が対象データの選択条件となる。
 また、取得部81は、カメラ61によって撮像された撮像データを取得し、記憶部90の撮像データ記憶領域91へ格納する。
 生成部82は、各種センサから入力される信号に基づいて車両の挙動を示す挙動情報を生成し、通信部7を介して収集装置1へ送信する。
 挙動情報は、例えば、車速センサ51から入力される車速情報、舵角センサ52から入力される舵角情報、ブレーキセンサ53から入力されるブレーキ情報、エアバックセンサ54から入力されるエアバック情報等を含む。なお、上記の挙動情報は、一例であり、車両の挙動を示す情報であれば、その他の情報を含むことにしてもよい。
 選択部83は、記憶部90に記憶された撮像データのうち、取得部81によって取得された送信要求に対応する撮像データである対象データを選択する。具体的には、例えば、選択部83は、収集条件記憶領域92に格納された送信要求を参照し、かかる送信要求によって指定された撮像時刻に撮像された撮像データを対象データとして選択する。
 つまり、選択部83は、例えば、図1に示した発生地点Pが撮像された撮像データのみを選択し、送信部84へ渡す。これにより、送信部84は、かかる撮像データのみを収集装置1へ送信することが可能となり、収集装置1は、必要な撮像データを収集しつつ、通信量を削減することが可能となる。
 また、選択部83は、送信要求に発生地点Pの位置情報が含まれる場合に、かかる位置情報に基づき、発生地点Pが撮像された撮像データを対象データとして選択することも可能である。
 また、図3に示したように、車両Cは、撮像方向、すなわち撮像軸axがそれぞれ異なる複数のカメラ61を備える。このため、選択部83は、後述するように、送信要求にカメラ61を指定する情報が含まれる場合もある。かかる場合に、選択部83は、指定されたカメラ61の撮像データを対象データとして選択することも可能である。
 また、選択部83は、車両Cがこれから発生地点Pを通過する場合に、カメラ61に対して発生地点Pの撮像を予約することも可能である。すなわち、これから発生地点Pを通過する車両に対して送信される送信要求は、対象データの撮像条件を指定する情報が含まれることとなる。
 選択部83は、かかる撮像要求に基づき、カメラ61に対して発生地点Pの撮像を予約する。そして、撮像要求に対応する撮像データが撮像データ記憶領域91に格納された後に、かかる撮像データを対象データとして選択する。
 このように、選択部83は、カメラ61に対して事前に撮像を予約することで、所望する撮像データを確実に収集することが可能となる。なお、例えば、カメラ61が撮像軸axを駆動させる駆動機構を備える場合、選択部83は、かかる駆動機構を撮像要求に応じて設定することも可能である。すなわち、カメラ61を所望する撮像軸axに合わせたうえで撮像データを撮像させることも可能である。
 送信部84は、選択部83によって選択された対象データを収集装置1へ送信する。すなわち、送信部84は、全ての撮像データを送信するのではなく、発生地点Pが含まれる対象データのみを送信する。これにより、実施形態に係る収集システム100では、必要な撮像データを収集しつつ、通信量を削減することができる。
 続いて、収集装置1について説明する。収集装置1は、制御部2、記憶部3および通信部10を備える。通信部10は、端末装置50と通信を行う通信モジュールであり、制御部2による制御によって動作する。
 制御部2は、受信部21と、検出部22と、算出部23と、送信部24とを備える。制御部2は、たとえば、CPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)、HDD(Hard Disk Drive)、入出力ポートなどを有するコンピュータや各種の回路を含む。
 コンピュータのCPUは、例えば、ROMに記憶されたプログラムを読み出して実行することによって、制御部2の受信部21、検出部22、算出部23および送信部24として機能する。
 また、制御部2の受信部21、検出部22、算出部23および送信部24の少なくともいずれか一部または全部をASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等のハードウェアで構成することもできる。
 また、記憶部3は、例えば、RAMやHDDに対応する。RAMやHDDは、車両情報31、撮像データデータベース32や各種プログラムの情報を記憶することができる。なお、収集装置1は、有線や無線のネットワークで接続された他のコンピュータや可搬型記録媒体を介して上記したプログラムや各種情報を取得することとしてもよい。
 記憶部3に記憶された車両情報31は、端末装置50が搭載される各車両に関する情報である。図4は、車両情報31の具体例を示す図である。図4に示すように、車両情報31は、車両ID、位置情報、カメラ位置、挙動情報等の項目を含む。
 車両IDは、端末装置50が搭載される車両を識別するための識別子である。位置情報は、車両の現在地を示し、車両の移動に伴い随時更新される。また、カメラ位置は、図3にて例示したように、車両に搭載されたカメラ61の位置を示す。また、挙動情報は、上述したように車両の挙動に関する情報である。
 図2の説明に戻り、制御部2の受信部21について説明する。受信部21は、端末装置50から送信される情報を受信する。かかる情報は、車両の現在地を示す位置情報や車両の挙動を示す挙動情報、撮像データ等を含む。受信部21は、車両の位置情報や挙動情報を記憶部3に車両情報31として格納し、端末装置50から受信した撮像データを撮像データデータベース32へ格納する。
 検出部22は、車両の挙動に基づくイベントを検出する。上述したように、イベントは、事故や、渋滞、急停車、急操舵等である。検出部22は、例えば、挙動情報からエアバックの動作信号を検出することで、イベントとして車両の事故を検出する。
 なお、図2においては収集装置1側の検出部の一例を示したが、端末装置50側に検出部があってもよく、事故検出、車両渋滞などのイベントを収集装置1側、端末装置50側の検出部で適宜選択して利用すればよい。
 また、検出部22は、車速の所定値を超える減少や、操舵角の所定値を超える変化を検出した場合に、イベントとして急停車や、急操舵を検出する。さらに、検出部22は、同一の道路で複数の車両が連なって走行および停車を繰り返す場合に、イベントとして渋滞を検出する。なお、検出部22は、車両の事故や渋滞のイベントについて外部サーバから別途送信される事故情報や交通情報に基づいて検出することにしてもよい。
 検出部22は、イベントを検出すると、検出したイベントの種類と、イベントの発生地点Pの位置情報、イベントの発生時刻等に関するイベント情報を生成し、算出部23へ通知する。なお、イベントが交通渋滞である場合、発生地点Pは、かかる交通渋滞の先頭となる。
 算出部23は、イベントの発生時刻の前後に発生地点Pを通過した車両もしくは、これから発生地点Pを通過する車両を通過車両として選定する。つまり、通過車両は、後続車両や対向車両を含み、発生地点Pが交差点である場合は、かかる交差点に向かって走行する車両が通過車両として選定されることとなる。
 ところで、上述のように、車両には、カメラ61の取り付け位置や、取り付け個数が異なる。図5は、算出部23による処理の一例を示す図である。なお、図5では、車両C1が、前方カメラ61aを備える場合について説明する。また、前方カメラ61aは、車両C1の進行方向が撮像軸ax1であり、撮像軸ax1を基準として左右方向に所定の撮像範囲Lを有する。
 算出部23は、車両C1と発生地点Pとの位置関係に基づき、撮像範囲Lに発生地点Pが含まれる撮像時刻を算出する。具体的には、算出部23は、車両C1の現在地の推移に基づき、車両C1の進行方向を随時算出することで、撮像範囲Lの推移を算出する。
 そして、算出部23は、撮像範囲Lに発生地点Pが含まれる撮像時刻を算出する。同図に示す例では、車両C1が真っすぐ前進する場面を示しており、開始時刻ts~終了時刻teまでの撮像時刻に撮像データに発生地点Pが含まれる場合を示している。
 つまり、算出部23は、車両C1と発生地点Pとの位置関係の推移から撮像範囲Lに発生地点Pが含まれる撮像時刻を算出する。この際、算出部23は、車両C1による進行方向の推移に基づいて撮像時刻を算出することも可能である。
 すなわち、撮像軸ax1および撮像範囲Lは、車両C1の舵角が変化すると、舵角の変化にあわせて撮像軸ax1の向きが変化する。このため、算出部23は、舵角にあわせて撮像軸ax1および撮像範囲Lを補正したうえで、撮像時刻を算出することが可能である。つまり、算出部23は、車両C1の舵角を考慮して撮像時刻を算出することで、撮像時刻を精度よく算出することが可能となる。また、必ずしも舵角と車両の向きが一致しないこともあるので、車両の向きを直接検出してもよい。
 また、上述したように、車両によって搭載されるカメラ61が異なる。特に、車両が撮像軸axの異なる複数のカメラ61を備える場合、カメラ61毎に発生地点Pを撮像可能な撮像時刻が異なることになる。
 このため、算出部23は、カメラ61毎に撮像時刻を算出することも可能である。図6は、算出部23による処理の具体例を示す図である。ここでは、車両C1が前方カメラ61a、後方カメラ61b、右側方カメラ61cおよび左側方カメラ61dを備える場合について説明する。また、ここでは、車両C1が、図6に破線で示すように、発生地点Pを左側に迂回する走行軌跡Tに沿って走行したものとする。
 図6に示す例では、算出部23は、開始時刻tsから切替時刻tc1までの期間において発生地点Pが車両C1の前方に存在するので、かかる期間について前方カメラ61aの撮像データに発生地点Pが含まれると算出する。
 その後、算出部23は、切替時刻tc1から切替時刻tc2までの期間では、発生地点Pが車両C1の右側方に存在するので、右側方カメラ61cの撮像データに発生地点Pが含まれると算出する。つまり、切替時刻tc1において前方カメラ61aから右側方カメラ61cへ撮像データの収集対象を切り替える。
 その後、算出部23は、切替時刻tc2以降において発生地点Pが車両C1の後方に位置するため、切替時刻tc2から終了時刻teまでの期間について後方カメラ61bの撮像データに発生地点Pが含まれると算出する。
 このように、収集装置1は、端末装置50毎にカメラ61の取り付け位置に関する情報を把握することで、カメラ61毎に撮像時刻を算出することが可能となる。
 つまり、実施形態に係る収集装置1は、複数のカメラ61毎に撮像時刻を算出することで、発生地点Pを多様な角度から撮像した撮像データを収集することが可能となる。
 なお、算出部23は、同報通信によって送信要求を送信する場合、撮像時刻を算出せずに、発生地点Pの位置情報に基づき、通過車両の選定のみを行うこととなる。
 図2の説明に戻り、送信部24について説明する。送信部24は、検出部22によってイベントが検出された場合に、イベントの発生地点Pの通過車両に搭載された端末装置50に対して発生地点Pが撮像された撮像データの送信要求を送信する。
 また、送信部24は、各端末装置50に対して撮像データの送信要求を送信する。本実施形態において送信要求は、算出部23によって算出された撮像時刻に関する情報を含む。
 つまり、本実施形態に係る収集装置1は、端末装置50毎に発生地点Pが含まれる撮像時刻に撮像された撮像データの送信要求を送信する。これにより、各端末装置50から送信される撮像データには、発生地点Pが含まれることとなる。
 また、送信部24は、同報通信によって送信要求を送信する場合、発生地点Pの位置情報を含む送信要求を送信する。かかる場合に、端末装置50は、撮像データに発生地点Pが含まれる撮像時刻を算出し、かかる撮像時刻に撮像された撮像データを対象データとして送信することとなる。
 このように、収集装置1は、対象データのみを受信することで、イベントと実質的に関係のない撮像データは、収集対象から除外することとなるので、必要な撮像データを収集しつつ、通信量を削減することが可能となる。
 また、収集装置1は、図6にて説明したように、カメラ61毎に撮像時刻を指定して送信要求を送信することも可能である。これにより、発生地点Pに対して多様な角度で撮像された撮像データを収集することができるので、イベントをより詳細に把握することが可能となる。
 ところで、撮像データの送受信に掛かる通信量を抑えるうえで、送信部24は、発生地点Pが含まれる対象領域に関する撮像データの送信要求を送信することも可能である。
 図7は、対象領域の具体例を示す図である。図7に示すように、撮像データFにおいて対象領域Ftは、発生地点Pが含まれる領域であり、例えば、発生地点Pを中心とした所定範囲の画角である。
 なお、ここでは、収集装置1によって対象領域Ftが算出され、かかる対象領域Ftを含む送信要求を送信する場合について説明するが、端末装置50によって対象領域Ftを算出することにしてもよい。
 図7に示す例では、発生地点Pが事故現場であり、対象領域Ftに車両が衝突している範囲のみが含まれる場合を示す。すなわち、送信部24は、対象領域Ftの送信要求を送信することで、端末装置50は、対象領域Ftのみを送信することとなる。
 これにより、端末装置50は、対象領域Ft以外の撮像データを送信しないので、通信量を削減することが可能となる。したがって、必要な撮像データを収集しつつ、通信量を削減することが可能となる。
 また、発生地点Pの通過車両が多い場合や、逆に少ない場合も想定される。通過車両が多いと、複数の通過車両から撮像データを収集することができるので、過剰に撮像データを収集するおそれがある。これに対して、通過車両が少ないと、必要な撮像データを収集できないおそれがある。
 このため、送信部24は、通過車両の数に応じて端末装置50毎に撮像データのデータ数を指定して送信要求を送信することも可能である。具体的には、送信部24は、通過車両が多いほど、1つの端末装置50から送信される撮像データのデータ数が少なくなるようにデータ数を指定して送信要求を送信する。
 一方、送信部24は、通過車両が少ないほど、1つの端末装置50から送信される撮像データのデータ数が多くなるようにデータ数を指定して送信要求を送信する。
 これにより、通過車両が多い場合には、かかる通過車両で分配して撮像データを送信するので、通過車両1台あたりの通信量を削減することができる。また、通過車両が少ない場合には、必要な撮像データを確実に収集することが可能となる。
 また、通過車両の走行速度が速いほど、撮像時刻が短く算出されることとなる。このため、送信部24は、通過車両の数に加えて、通過車両の走行速度に応じてデータ数を指定して送信要求を送信することにしてもよい。
 かかる場合、送信部24は、通過車両の走行速度が速いほど、撮像時刻が短くなるので、発生地点Pが含まれるすべての撮像データに対する送信要求を送信する。
 一方、通過車両の走行速度が遅いほど、撮像時刻が長くなるので、一部の撮像データに対する送信要求を送信する。これにより、通信量を削減しつつ、必要な撮像データを収集することが可能となる。
 次に、図8を用いて実施形態に係る端末装置50が実行する処理手順について説明する。図8は、端末装置50が実行する処理手順を示すフローチャートである。
 図8に示すように、例えば、端末装置50の電源がオンとなった場合に、取得部81は、記憶部9の撮像データ記憶領域91へ撮像データの格納を開始する(ステップS101)。
 続いて、取得部81は、撮像データの送信要求を取得したか否かを判定し(ステップS102)、送信要求を取得した場合(ステップS102,Yes)、選択部83は、撮像データの収集対象となる発生地点Pは通過済みか否かを判定する(ステップS103)。
 選択部83は、発生地点Pを通過済みでない場合(ステップS103,No)、発生地点Pを撮像可能なカメラ61に対して対象データの撮像を予約する(ステップS104)。そして、送信部84は、予約した対象データが撮像された場合に、対象データを送信する。
 一方、送信要求を取得していない場合(ステップS102,No)、ステップS102の処理を継続して行うこととなる。また、選択部83は、発生地点Pを既に通過済みである場合(ステップS103,Yes)、撮像データ記憶領域91から対象データを選択し(ステップS106)、ステップS105の処理へ移行する。
 次に、図9を用いて実施形態に係る収集装置1が実行する処理手順について説明する。図9は、収集装置1が実行する処理手順を示すフローチャートである。
 図9に示すように、まず、受信部21は、各端末装置50から挙動情報を受信する(ステップS201)。続いて、検出部22は、挙動情報に基づいてイベントが発生したか否かを判定する(ステップS202)。
 イベントが発生していた場合(ステップS202,Yes)、算出部23は、各端末装置50と発生地点Pとの位置関係の推移に基づいて通過車両を選定する(ステップS203)。
 続いて、算出部23は、端末装置50毎に発生地点Pを撮像可能な撮像時刻を算出する(ステップS204)。続いて、送信部24は、対象車両に搭載された端末装置50に対して発生地点Pを含む撮像データの送信要求を送信する(ステップS205)。
 そして、受信部21は、送信要求に基づく撮像データを受信し(ステップS206)、処理を終了する。一方、受信部21は、ステップS202の処理においてイベントが発生していない場合(ステップS202,No)、ステップS201の処理を継続して行う。
 なお、収集装置1は、同報通信によって送信要求を送信する場合、発生地点Pの位置情報を複数の端末装置50に対して送信し、かかる送信要求に対応する撮像データを受信することとなる。
 上述したように、実施形態に係る端末装置50は、記憶部9と、取得部81と、選択部83と、送信部84とを備える。記憶部9は、車両C(移動体の一例)上で撮像された撮像データを記憶する。取得部81は、収集装置1(外部装置の一例)から車両Cの位置情報に基づいて送信される撮像データの送信要求を取得する。
 選択部83は、記憶部9に記憶された撮像データのうち、取得部81によって取得された送信要求に対応する撮像データである対象データを選択する。送信部84は、選択部83によって選択された対象データを送信する。したがって、実施形態に係る端末装置50によれば、必要な撮像データを収集しつつ、通信量を抑えることが可能となる。
 ところで、上述の実施形態では、収集装置1がサーバ装置として機能する場合について説明したが、収集装置1は、サーバ装置である必要はなく、収集装置1を各端末装置50と一体とすることにしてもよい。つまり、収集装置1の機能を各端末装置50へ分散することにしてもよい。
 さらなる効果や変形例は、当業者によって容易に導き出すことができる。このため、本発明のより広範な態様は、以上のように表しかつ記述した特定の詳細および代表的な実施形態に限定されるものではない。したがって、添付の特許請求の範囲およびその均等物によって定義される総括的な発明の概念の精神または範囲から逸脱することなく、様々な変更が可能である。
  1  収集装置
 21  受信部
 22  検出部
 23  算出部
 24  送信部
 50  端末装置
 61  カメラ
 81  取得部
 82  生成部
 83  選択部
 84  送信部
 91  撮像データ記憶領域
  P  発生地点

Claims (7)

  1.  移動体上で撮像された撮像データを記憶する記憶部と、
     外部装置から送信される撮像データの送信要求を取得する取得部と、
     前記記憶部に記憶された撮像データのうち、前記取得部によって取得された送信要求に対応する撮像データである対象データを選択する選択部と、
     前記選択部によって選択された対象データを送信する送信部と
     を備えることを特徴とする端末装置。
  2.  前記取得部は、
     移動体の位置情報に基づいて決定される撮像データの撮像時刻または撮像地点を指定する送信要求を取得し、
     前記選択部は、
     送信要求により指定された撮像時刻または撮像地点に撮像された撮像データを対象データとして選択すること
     を特徴とする請求項1に記載の端末装置。
  3.  前記選択部は、
     移動体が複数の撮像装置を備える場合に、送信要求に基づき決定された撮像装置の撮像データを対象データとして選択すること
     を特徴とする請求項1に記載の端末装置。
  4.  送信要求には、撮像装置の指定情報が含まれ、
     前記選択部は、
     送信要求における撮像装置の指定情報に基づき決定された撮像装置の撮像データを対象データとして選択すること
     を特徴とする請求項3に記載の端末装置。
  5.  前記選択部は、
     送信要求に基づき、対象データとなる撮像データが撮像される撮像時刻を算出し、当該撮像時刻に撮像された撮像データを対象データとして選択すること
     を特徴とする請求項1~4のいずれか一つに記載の端末装置。
  6.  前記選択部は、
     送信要求に該当する対象データの撮影を予約すること
     を特徴とする請求項1~4のいずれか一つに記載の端末装置。
  7.  移動体上で撮像された撮像データを記憶する記憶工程と、
     外部装置から送信される撮像データの送信要求を取得する取得工程と、
     前記記憶工程で記憶された撮像データのうち、前記取得工程によって取得された送信要求に対応する撮像データである対象データを選択する選択工程と、
     前記選択工程によって選択された対象データを送信する送信工程と
     を含むことを特徴とする収集方法。
PCT/JP2019/018456 2018-05-14 2019-05-08 端末装置および収集方法 WO2019220987A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
US16/619,220 US11335140B2 (en) 2018-05-14 2019-05-08 Terminal device and collection method
CN201980003068.6A CN110770806B (zh) 2018-05-14 2019-05-08 终端装置及收集方法

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018-093263 2018-05-14
JP2018093263A JP2019200481A (ja) 2018-05-14 2018-05-14 端末装置および収集方法

Publications (1)

Publication Number Publication Date
WO2019220987A1 true WO2019220987A1 (ja) 2019-11-21

Family

ID=68540369

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2019/018456 WO2019220987A1 (ja) 2018-05-14 2019-05-08 端末装置および収集方法

Country Status (4)

Country Link
US (1) US11335140B2 (ja)
JP (2) JP2019200481A (ja)
CN (1) CN110770806B (ja)
WO (1) WO2019220987A1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7356319B2 (ja) * 2019-10-17 2023-10-04 株式会社Subaru 車外環境認識装置
JP7409920B2 (ja) 2020-03-17 2024-01-09 本田技研工業株式会社 画像管理システム、画像管理方法、サーバ装置、およびプログラム

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010233161A (ja) * 2009-03-30 2010-10-14 Denso It Laboratory Inc 撮像システム、端末装置、サーバ装置および撮像方法
JP2015230579A (ja) * 2014-06-05 2015-12-21 トヨタ自動車株式会社 事故画像取得システム
JP2017069917A (ja) * 2015-10-02 2017-04-06 株式会社東芝 通信処理装置、車載装置、及び通信処理方法
WO2018008122A1 (ja) * 2016-07-07 2018-01-11 三菱電機株式会社 事故情報収集システム、車載装置および事故情報収集方法

Family Cites Families (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7725334B2 (en) * 2002-11-27 2010-05-25 Computer Sciences Corporation Computerized method and system for estimating liability for an accident using dynamic generation of questions
JP2006084461A (ja) 2004-08-20 2006-03-30 Denso Corp 画像取得システム
CN101981586A (zh) * 2005-06-30 2011-02-23 皇家飞利浦电子股份有限公司 用于选择信息的方法和系统
US20090051510A1 (en) * 2007-08-21 2009-02-26 Todd Follmer System and Method for Detecting and Reporting Vehicle Damage
JP5390813B2 (ja) * 2008-09-02 2014-01-15 東急建設株式会社 空間情報表示装置及び支援装置
US8166394B1 (en) * 2009-09-22 2012-04-24 Adobe Systems Incorporated Systems and methods for implementing and using event tracking and analytics in electronic content
JP4991887B2 (ja) * 2010-01-13 2012-08-01 シャープ株式会社 撮像画像処理システム、撮像画像処理システムの制御方法、プログラムおよび記録媒体
JP2012046129A (ja) 2010-08-30 2012-03-08 Clarion Co Ltd 車載機器、車載機器の制御方法、及び、プログラム
JP5585405B2 (ja) * 2010-11-15 2014-09-10 株式会社デンソー 交通情報システム、交通情報取得装置および交通情報提供装置
JP2013134590A (ja) 2011-12-26 2013-07-08 Denso Corp 車載装置制御システム、集中制御装置、車載装置、およびプログラム
EP2642425A1 (de) * 2012-03-22 2013-09-25 SensoMotoric Instruments GmbH Verfahren und Vorrichtung zum Auswerten von Ergebnissen einer Blickerfassung
WO2014136949A1 (ja) * 2013-03-08 2014-09-12 本田技研工業株式会社 渋滞予兆検知方法、プログラムおよび渋滞予兆検知装置
US20190180118A1 (en) * 2014-02-17 2019-06-13 Ge Global Sourcing Llc Locomotive imaging system and method
JP2015219531A (ja) 2014-05-13 2015-12-07 株式会社デンソー 車載装置および走行画像保管システム
US9918001B2 (en) * 2014-08-21 2018-03-13 Toyota Motor Sales, U.S.A., Inc. Crowd sourcing exterior vehicle images of traffic conditions
JP2016142529A (ja) * 2015-01-29 2016-08-08 株式会社デンソー 通信装置
KR101675306B1 (ko) * 2015-03-20 2016-11-11 현대자동차주식회사 사고 정보 관리 장치, 이를 포함하는 차량 및 사고 정보 관리 방법
JP6486744B2 (ja) * 2015-03-25 2019-03-20 株式会社日本総合研究所 地域監視サーバ、提供端末及びそのシステム
US20170017734A1 (en) * 2015-07-15 2017-01-19 Ford Global Technologies, Llc Crowdsourced Event Reporting and Reconstruction
US10395332B1 (en) * 2016-01-22 2019-08-27 State Farm Mutual Automobile Insurance Company Coordinated autonomous vehicle automatic area scanning
JP6341231B2 (ja) 2016-05-31 2018-06-13 マツダ株式会社 車両用情報通信システムおよびアプリケーションプログラム
JP6732677B2 (ja) 2017-02-17 2020-07-29 株式会社東芝 動画収集システム、動画収集装置、および動画収集方法
US10698421B1 (en) * 2017-09-25 2020-06-30 State Farm Mutual Automobile Insurance Company Dynamic autonomous vehicle train
JP7110209B2 (ja) * 2018-03-20 2022-08-01 モービルアイ ビジョン テクノロジーズ リミテッド システム及び方法
ES2736901A1 (es) * 2018-06-29 2020-01-08 Geotab Inc Caracterización de una colisión de vehículo
US11428537B2 (en) * 2019-03-28 2022-08-30 Nexar, Ltd. Localization and mapping methods using vast imagery and sensory data collected from land and air vehicles

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010233161A (ja) * 2009-03-30 2010-10-14 Denso It Laboratory Inc 撮像システム、端末装置、サーバ装置および撮像方法
JP2015230579A (ja) * 2014-06-05 2015-12-21 トヨタ自動車株式会社 事故画像取得システム
JP2017069917A (ja) * 2015-10-02 2017-04-06 株式会社東芝 通信処理装置、車載装置、及び通信処理方法
WO2018008122A1 (ja) * 2016-07-07 2018-01-11 三菱電機株式会社 事故情報収集システム、車載装置および事故情報収集方法

Also Published As

Publication number Publication date
CN110770806B (zh) 2023-01-20
US11335140B2 (en) 2022-05-17
US20200126328A1 (en) 2020-04-23
JP2023063433A (ja) 2023-05-09
JP2019200481A (ja) 2019-11-21
CN110770806A (zh) 2020-02-07

Similar Documents

Publication Publication Date Title
JP6104482B1 (ja) 事故情報収集システムおよび事故情報収集方法
US20190283736A1 (en) Parking control device and vehicle control device
US9592764B2 (en) Redundant object detection for driver assistance systems
JP2023063433A (ja) 端末装置、送信方法、収集装置および収集システム
US20160275792A1 (en) Traffic sign determination device
JP2009086787A (ja) 車両検出装置
JP2010068069A (ja) 車両周辺撮影システム
JP2007334760A (ja) ドライブレコーダ
JP2019016188A (ja) 移動体遠隔操作システムおよび移動体遠隔操作方法
WO2015122124A1 (ja) 車両周辺画像表示装置、車両周辺画像表示方法
CN113743709A (zh) 用于自主和半自主车辆的在线感知性能评估
JP5387847B2 (ja) 記録システム
JP4848644B2 (ja) 障害物認識システム
WO2014136378A1 (ja) 車外画像保存システム、車外画像保存装置、及び車車間通信装置
JP7261588B2 (ja) 信号機認識方法及び信号機認識装置
US11455847B2 (en) Method and apparatus for obtaining event related data
JP2018169924A (ja) 学習データ収集装置、学習データ収集システムおよび学習データ収集方法
JP7348724B2 (ja) 車載装置および表示方法
JP6933161B2 (ja) 画像処理装置、画像処理方法、プログラム
JP7027006B2 (ja) 走行車線認識装置、走行車線認識方法及びプログラム
JP7095537B2 (ja) 画像処理装置、プログラム、情報処理システム、及び制御方法
JP6364731B2 (ja) 車両用後方画像提示装置
KR20200119417A (ko) 차량용 사고 영상 기록 장치 및 방법
JP2016115264A (ja) 画像記録装置
JP2021026457A (ja) 画像配信装置及び方法並びに画像配信システム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19804497

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 19804497

Country of ref document: EP

Kind code of ref document: A1