WO2021117262A1 - セキュリティシステム及び監視方法 - Google Patents

セキュリティシステム及び監視方法 Download PDF

Info

Publication number
WO2021117262A1
WO2021117262A1 PCT/JP2020/013675 JP2020013675W WO2021117262A1 WO 2021117262 A1 WO2021117262 A1 WO 2021117262A1 JP 2020013675 W JP2020013675 W JP 2020013675W WO 2021117262 A1 WO2021117262 A1 WO 2021117262A1
Authority
WO
WIPO (PCT)
Prior art keywords
crime
self
charger
residents
camera
Prior art date
Application number
PCT/JP2020/013675
Other languages
English (en)
French (fr)
Inventor
秀成 岩本
Original Assignee
ダイワ通信株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ダイワ通信株式会社 filed Critical ダイワ通信株式会社
Priority to JP2021563588A priority Critical patent/JP7391309B2/ja
Priority to US17/757,226 priority patent/US20230005274A1/en
Priority to CN202080085189.2A priority patent/CN114868167A/zh
Publication of WO2021117262A1 publication Critical patent/WO2021117262A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/001Planning or execution of driving tasks
    • B60W60/0015Planning or execution of driving tasks specially adapted for safety
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/001Planning or execution of driving tasks
    • B60W60/0015Planning or execution of driving tasks specially adapted for safety
    • B60W60/0018Planning or execution of driving tasks specially adapted for safety by employing degraded modes, e.g. reducing speed, in response to suboptimal conditions
    • B60W60/00188Planning or execution of driving tasks specially adapted for safety by employing degraded modes, e.g. reducing speed, in response to suboptimal conditions related to detected security violation of control systems, e.g. hacking of moving vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/60Other road transportation technologies with climate change mitigation effect
    • Y02T10/70Energy storage systems for electromobility, e.g. batteries
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/60Other road transportation technologies with climate change mitigation effect
    • Y02T10/7072Electromobility specific charging systems or methods for batteries, ultracapacitors, supercapacitors or double-layer capacitors

Definitions

  • the present invention relates to a security system and a monitoring method.
  • an acquisition unit provided in each of a plurality of moving bodies to acquire information outside the moving body when the moving body moves, and a moving body that has moved in the same area among the plurality of moving bodies.
  • a decision unit that determines the patrol policy for each region based on the information acquired by each acquisition unit, and an operation command generation unit that generates an operation command according to the patrol policy of each region determined by the decision unit.
  • An automated driving system comprising the above is disclosed.
  • the purpose is to provide a security system that monitors by a patrol route that takes into account human behavior.
  • the security system includes an autonomous driving vehicle, a camera installed in the autonomous driving vehicle, and a crime determination unit that determines a crime based on an image taken by the camera.
  • the self-driving car is a shared car shared by residents in the area, and the crime determination unit determines a crime that may occur in the area.
  • the self-driving car will automatically pick up at the inhabitant's departure point and automatically drive to the inhabitant's destination at the request of the inhabitant, and the camera will move to the inhabitant's destination.
  • the image is taken in the moving section and the moving section from the starting point to the destination, and the crime determination unit takes a picture in the moving section to the starting point and the moving section from the starting point to the destination. Judgment regarding crime is made based on the image.
  • the self-driving vehicle is an electric vehicle, charging in the vicinity of the charger and waiting until requested by the residents.
  • the camera After loading the inhabitants to the destination, the camera returns to the vicinity of the charger, and the camera returns from the vicinity of the charger from the timing of departure at the request of the inhabitants to the vicinity of the charger.
  • the criminal determination unit makes a determination regarding the crime based on the images taken from the vicinity of the charger to the return to the vicinity of the charger.
  • the step of moving the autonomous driving vehicle shared by the residents and the camera installed in the autonomous driving vehicle move the autonomous driving vehicle in response to the request of the residents. It has a step of photographing the outside of the vehicle and a step of making a judgment regarding a crime based on the captured image by a computer.
  • FIG. 1 is a diagram illustrating the overall configuration of the security system 1.
  • the security system 1 includes a management server 2 that manages the degree of danger in the area, an autonomous driving vehicle 3 that moves by automatic driving, and a charger 4 provided at the departure / arrival point of the autonomous driving vehicle 3.
  • a mobile terminal 60 used by local residents, and these configurations are connected to each other via a communication network 80 such as a wireless public line.
  • the management server 2 is an example of the crime determination unit according to the present invention, and is a computer terminal on which the monitoring program 22 is installed.
  • the management server 2 of this example determines the possibility of a crime based on an image taken by a camera 308 installed in the autonomous driving vehicle 3.
  • the self-driving car 3 is a level 3 or higher car that moves by self-driving.
  • the self-driving car 3 is a level 5 electric vehicle that realizes fully automatic driving.
  • the self-driving car 3 of this example is a self-driving electric vehicle (share car) shared by local residents.
  • the self-driving car 3 photographs the face of the passenger, performs face recognition of the local residents based on the captured image, and moves to the destination of the residents only when the face recognition is successful. It may be configured.
  • the charger 4 is a charger for charging the battery built in the autonomous driving vehicle 3, and is installed in, for example, a common facility in the area.
  • the charger 4 of this example is installed in the parking lot of the public hall.
  • the charger 4 may be configured to automatically start charging when the self-driving car 3 comes to a predetermined area (near area).
  • the mobile terminal 60 is, for example, a smartphone used by local residents, and an application for using the autonomous driving vehicle 3 is installed.
  • the communication network 80 is, for example, an Internet network including a wireless public line and a wireless LAN.
  • FIG. 2 is a schematic diagram illustrating a monitoring area in the security system 1.
  • the automatic driving vehicle 3 departs from the charger 4 of the public hall in response to the request for dispatch from the resident's mobile terminal 60, picks up the resident at the departure place of the resident, and makes a request there.
  • the camera 308 of the autonomous driving vehicle 3 photographs the surroundings, and the management server 2 determines the possibility of a crime based on the captured images. That is, in the security system 1, the route (the starting point and the destination designated by the inhabitants) that takes into account the behavior of the inhabitants is monitored.
  • the common facilities in the area such as public halls
  • the common facilities in the area can be monitored intensively.
  • the frequency of surveillance patrols depends on the frequency of outings of residents, and for example, when crimes are likely to occur, such as local festivals and fireworks displays, surveillance patrols can be focused on.
  • FIG. 3 is a diagram illustrating a hardware configuration of the management server 2.
  • the management server 2 has a CPU 200, a memory 202, an HDD 204, a network interface 206 (network IF206), a display device 208, and an input device 210, and these configurations are configured via the bus 212. Connected to each other.
  • the CPU 200 is, for example, a central arithmetic unit.
  • the memory 202 is, for example, a volatile memory and functions as a main storage device.
  • the HDD 204 is, for example, a hard disk drive device, and stores a computer program (for example, the monitoring program 22 in FIG.
  • the network IF206 is an interface for communicating by wire or wirelessly, and realizes communication with, for example, the autonomous driving vehicle 3.
  • the display device 208 is, for example, a liquid crystal display.
  • the input device 210 is, for example, a keyboard and a mouse.
  • FIG. 4 is a diagram illustrating mainly a part related to information processing in the hardware configuration of the autonomous driving vehicle 3.
  • the self-driving car 3 has a hardware configuration for functioning as an self-driving electric vehicle.
  • the self-driving car 3 has a CPU 300, a memory 302, an HDD 304, a network interface 306 (network IF306), a camera 308, and a GPS receiver 310, and these configurations are via the bus 312.
  • the CPU 300 is, for example, a central arithmetic unit.
  • the memory 302 is, for example, a volatile memory and functions as a main storage device.
  • the HDD 304 is, for example, a hard disk drive device, and stores a computer program (for example, the patrol program 32 in FIG. 5) and other data files as a non-volatile recording device.
  • the network IF306 is an interface for communicating by wire or wirelessly, and realizes communication with, for example, the management server 2.
  • the camera 308 is a camera that photographs the surroundings of the autonomous driving vehicle 3, for example, a camera built in a drive recorder.
  • the GPS receiver 310 is an example of a position characteristic device that identifies the position of the autonomous driving vehicle 3, and is, for example, a GPS receiver provided in a car navigation system.
  • FIG. 5 is a diagram illustrating the functional configurations of the management server 2 and the autonomous driving vehicle 3.
  • the monitoring program 22 is installed on the management server 2, and the image database 260 (image DB 260) is configured.
  • the patrol program 32 is installed in the self-driving car 3.
  • the monitoring program 22 has a vehicle dispatching unit 220, an image receiving unit 222, a crime determination unit 224, and a reporting unit 226.
  • the patrol program 32 includes a request receiving unit 320, a route determining unit 322, an automatic driving unit 324, a camera control unit 326, and an image transfer unit 328.
  • a part or all of the monitoring program 22 and the patrol program 32 may be realized by hardware such as an ASIC, or may be realized by borrowing a part of the functions of the OS (Operating System).
  • the request receiving unit 320 receives a request for vehicle allocation from the residents via the management server 2. For example, the request receiving unit 320 receives the location information of the departure place of the resident and the location information of the destination of the resident as a vehicle allocation request from the mobile terminal 60. The location information of the resident's destination can be sequentially added even after the resident gets on the self-driving car 3.
  • the route determination unit 322 determines the movement route of the autonomous driving vehicle 3 based on the vehicle allocation request received by the request reception unit 320. For example, the route determination unit 322 determines a route from the current location to the departure point of the inhabitant, a route from the departure point of the inhabitant to the destination of the inhabitant, and a route from the destination of the inhabitant to the charger 4. The route determination unit 322 changes the route according to the added or changed destination of the inhabitant when the destination of the inhabitant is added or changed by the request receiving unit 320.
  • the automatic driving unit 324 automatically drives the automatic driving vehicle 3 on the route determined by the route determining unit 322.
  • the camera control unit 326 controls the camera 308 to start photographing the surroundings, and the automatic driving vehicle 3 returns to the vicinity of the charger 4.
  • the shooting by the camera 308 is finished.
  • the image transfer unit 328 sequentially transmits the image data of the image captured by the camera 308 and the position information indicating the captured location to the management server 2. For example, the image transfer unit 328 immediately transmits the image data of the image taken by the camera 308 and the position information of the shooting location to the management server 2 in real time.
  • the vehicle allocation unit 220 when the vehicle allocation unit 220 receives a vehicle allocation request from the local residents, it determines the automatic driving vehicle 3 to be assigned from the automatic driving vehicles 3 waiting in the vicinity of the charger 4, and the determined automatic vehicle 3 is determined.
  • a vehicle allocation request (including location information of the departure place) is transmitted to the driving vehicle 3.
  • the vehicle dispatching unit 220 determines the autonomous driving vehicle 3 to be assigned based on the charging status from among the autonomous driving vehicles 3 waiting in the vicinity of the charger 4. To do.
  • the image receiving unit 222 receives the image data of the image taken by the camera 308 of the autonomous driving vehicle 3 and the position information of the shooting location from the autonomous driving vehicle 3.
  • the image receiving unit 222 of this example receives the image data of the captured image and the position information of the photographing location in real time from the autonomous driving vehicle 3.
  • the crime determination unit 224 makes a determination regarding a crime based on the image data received by the image reception unit 222.
  • the determination regarding a crime is, for example, determination of the presence or absence of a crime, calculation of a crime occurrence probability, or the like.
  • the crime determination unit 224 compares the received image data with the image data taken at the same place in the past based on the image data received by the image receiving unit 222 and the position information of the shooting place, and the crime is committed. Calculate the probability of occurrence.
  • the crime determination unit 224 of this example calculates the probability of crime occurrence by deep learning based on the image data taken, the position information of the shooting place, and the shooting time.
  • the reporting unit 226 reports on the occurrence of a crime based on the judgment result by the crime judgment unit 224. For example, when the probability of crime occurrence calculated by the crime judgment unit 224 is equal to or higher than the reference value, the reporting unit 226 obtains the calculated crime occurrence probability and the location information of the shooting location by the police, the security company, etc. Or notify the public hall.
  • FIG. 6 is a flowchart illustrating the monitoring process (S10) by the security system 1.
  • the management server 2 waits until the vehicle allocation request is received from the resident's mobile terminal 60 (S100: No), and when the vehicle allocation request is received (S100: Yes). , S105.
  • step 105 the vehicle dispatching unit 220 of the management server 2 compares the charging states of the autonomous driving vehicle 3, selects the autonomous driving vehicle 3 having a larger remaining charge, and makes the selected autonomous vehicle 3 a resident.
  • the location information of the departure place and the location information of the resident's destination are transmitted.
  • the request receiving unit 320 of the selected autonomous vehicle 3 receives the request from the vehicle dispatching unit 220, it outputs the received position information of the departure place and the destination to the route determination unit 322 and instructs the route determination.
  • the route determination unit 322 determines the route based on the position information of the departure place and the destination input from the request reception unit 320 and the position information of the current location.
  • step 110 the automatic driving unit 324 starts the automatic driving of the automatic driving vehicle 3 according to the route determined by the route determining unit 322.
  • step 115 the camera control unit 326 controls the camera 308 while the automatic driving unit 324 is automatically driving the automatic driving vehicle 3, and photographs the surroundings of the automatic driving vehicle 3.
  • the image transfer unit 328 transmits the image data taken by the camera 308, the position information of the shooting location, and the shooting time to the management server 2.
  • step 120 (S120) the image receiving unit 222 of the management server 2 outputs the image data received from the image transfer unit 328, the position information of the shooting location, and the shooting time to the crime determination unit 224.
  • the crime determination unit 224 calculates the crime occurrence probability based on the image data received by the image receiving unit 222, the position information of the shooting location, and the shooting time.
  • step 125 the reporting unit 226 determines whether or not the crime occurrence probability calculated by the crime determination unit 224 is equal to or higher than the reference value, and when the crime occurrence probability is above the reference value, S130. It shifts to the processing, and when the crime occurrence probability is less than the reference value, it shifts to the processing of S135.
  • step 130 the reporting unit 226 transmits the crime occurrence probability and the location information of the shooting location to the police, the security company, and the public hall.
  • step 135 the automatic operation unit 324 determines whether or not the vehicle has returned to the vicinity of the charger 4, and if it returns to the vicinity of the charger 4 (S135: Yes), the automatic operation is completed and the camera control is performed. Instruct unit 326 to end shooting. The camera control unit 326 ends the shooting by the camera 308 in response to the instruction from the automatic driving unit 324. If the automatic operation unit 324 has not returned to the vicinity of the charger 4 (S135: No), the automatic operation unit 324 returns to the process of S110 and continues the automatic operation.
  • the occurrence of a crime is determined based on the image taken by the autonomous driving vehicle 3 shared by the local residents.
  • it is possible to automatically patrol and monitor the flow lines of local residents.
  • public transportation tends to be in short supply, but as in this example, the means of transportation for the residents is secured by patrol monitoring with the self-driving car 3 shared by the local residents.
  • it is possible to patrol and monitor the areas used by local residents during activity hours. Even if the number of vacant houses and abandoned cultivated land increases, it is possible to suppress unnecessary patrol monitoring of such areas.
  • the mode of patrol monitoring using the self-driving car 3 has been described, but the self-driving car 3 may be replaced with a drone and patrol monitoring may be performed by a camera built in the drone. At that time, the drone monitors while delivering the package to the residents' homes or the like by, for example, automatic driving. Further, the self-driving car 3 may patrol and monitor while delivering the luggage.
  • the mode in which the self-driving car 3 stands by in the vicinity of the charger 4 has been described, but the self-driving car 3 is based on the past usage history of the local residents, like a taxi sink business. You may take pictures with a camera while predicting the use of residents and patrolling the expected places.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Automation & Control Theory (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Social Psychology (AREA)
  • Psychiatry (AREA)
  • General Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Health & Medical Sciences (AREA)
  • Alarm Systems (AREA)
  • Traffic Control Systems (AREA)

Abstract

人の行動を加味した巡回ルートで監視を行うセキュリティシステムを提供する。 セキュリティシステムは、自動運転車と、前記自動運転車に設置されたカメラと、前記カメラにより撮影された画像に基づいて、犯罪に関する判定を行う犯罪判定部とを有する。前記自動運転車は、地域内の住民により共用されているシェアカーであり、住民からの要請に応じて、住民の出発地まで自動運転で迎えに行き、住民の目的地まで自動運転で移動し、前記カメラは、前記出発地までの移動区間、及び、前記出発地から前記目的地までの移動区間で撮影を行い、前記犯罪判定部は、前記出発地までの移動区間、及び、前記出発地から前記目的地までの移動区間で撮影された画像に基づいて、犯罪に関する判定を行う。

Description

セキュリティシステム及び監視方法
 本発明は、セキュリティシステム及び監視方法に関する。
 例えば、特許文献1には、複数の移動体に夫々設けられ移動体が移動するときの移動体の外部の情報を取得する取得部と、複数の移動体の中で同じ地域を移動した移動体の夫々の取得部により取得される情報に基づいて、地域ごとの巡回方針を決定する決定部と、決定部によって決定された各地域の巡回方針に応じて運行指令を生成する運行指令生成部とを備える自動運転システムが開示されている。
特開2019-117574
 人の行動を加味した巡回ルートで監視を行うセキュリティシステムを提供することを目的とする。
 本発明に係るセキュリティシステムは、自動運転車と、前記自動運転車に設置されたカメラと、前記カメラにより撮影された画像に基づいて、犯罪に関する判定を行う犯罪判定部とを有する。
 好適には、前記自動運転車は、地域内の住民により共用されているシェアカーであり、前記犯罪判定部は、前記地域内で発生しうる犯罪に関する判定を行う。
 好適には、前記自動運転車は、住民からの要請に応じて、住民の出発地まで自動運転で迎えに行き、住民の目的地まで自動運転で移動し、前記カメラは、前記出発地までの移動区間、及び、前記出発地から前記目的地までの移動区間で撮影を行い、前記犯罪判定部は、前記出発地までの移動区間、及び、前記出発地から前記目的地までの移動区間で撮影された画像に基づいて、犯罪に関する判定を行う。
 好適には、前記地域の共用施設に設置された充電器をさらに有し、前記自動運転車は、電気自動車であり、前記充電器の近傍で充電しながら、住民からの要請があるまで待機し、住民を目的地まで乗せた後で、前記充電器の近傍まで戻り、前記カメラは、前記充電器の近傍から、住民の要請に応じて出発したタイミングから、前記充電器の近傍まで戻るまでの間、撮影を行い、前記犯罪判定部は、前記充電器の近傍から出発し、前記充電器の近傍に戻るまでの間に撮影された画像に基づいて、犯罪に関する判定を行う。
 また、本発明に係る監視方法は、住民の要請に応じて、前記住民により共用されている自動運転車が移動するステップと、前記自動運転車に設置されたカメラが、前記自動運転車の移動中に、車外を撮影するステップと、コンピュータが、撮影された画像に基づいて、犯罪に関する判定を行うステップとを有する。
 人の行動を加味した巡回ルートで監視を行うことができる。
セキュリティシステム1の全体構成を例示する図である。 セキュリティシステム1における監視エリアを説明する模式図である。 管理サーバ2のハードウェア構成を例示する図である。 自動運転車3のハードウェア構成のうち、情報処理に関する部分を中心に例示する図である。 管理サーバ2及び自動運転車3の機能構成を例示する図である。 セキュリティシステム1による監視処理(S10)を説明するフローチャートである。
 以下、本発明の実施形態を、図面を参照して説明する。
 図1は、セキュリティシステム1の全体構成を例示する図である。
 図1に例示するように、セキュリティシステム1は、地域の危険度を管理する管理サーバ2と、自動運転で移動する自動運転車3と、自動運転車3の発着所に設けられた充電器4と、地域住民が利用する携帯端末60とを含み、これらの構成は、無線公衆回線等の通信網80を介して互いに接続している。
 管理サーバ2は、本発明に係る犯罪判定部の一例であり、監視プログラム22がインストールされたコンピュータ端末である。本例の管理サーバ2は、自動運転車3に設置されたカメラ308により撮影された画像に基づいて、犯罪の発生可能性を判定する。
 自動運転車3は、自動運転によって移動するレベル3以上の自動車である。例えば、自動運転車3は、完全自動運転を実現したレベル5の電気自動車である。本例の自動運転車3は、地域住民で共用されている自動運転の電気自動車(シェアカー)である。自動運転車3は、乗車した人の顔を撮影して、撮影された画像に基づいて、地域住民の顔認証を行い、顔認証に成功した場合にのみ、住民の目的地まで移動するように構成してもよい。
 充電器4は、自動運転車3に内蔵されたバッテリを充電するための充電器であり、例えば、地域の共用施設に設置される。本例の充電器4は、公民館の駐車場に設置されている。充電器4は、自動運転車3が既定の領域(近傍領域)に来ると、自動的に充電を開始するように構成してもよい。
 携帯端末60は、例えば、地域住民が利用するスマートフォンであり、自動運転車3を利用するためのアプリがインストールされている。
 通信網80は、例えば、無線公衆回線や無線LANからなるインターネット網である。
 図2は、セキュリティシステム1における監視エリアを説明する模式図である。
 図2に例示するように、自動運転車3は、住民の携帯端末60からの配車要請に応じて、公民館の充電器4から出発し、住民の出発地まで住民を迎えに行き、そこで要請した住民を乗車させた後で、住民の目的地まで移動し、住民を降車させた後、公民館の充電器4まで戻る。これらの移動中に、自動運転車3のカメラ308が周囲を撮影し、管理サーバ2は、撮影された画像に基づいて、犯罪の発生可能性を判定する。
 つまり、セキュリティシステム1では、住民の行動を加味したルート(住民が指定した出発地及び目的地)で監視する。さらに、公民館等の地域の共用施設を起点とすることにより、地域の共用施設を重点的に監視できる。また、監視巡回の頻度は、住民の外出頻度に応じたものとなり、例えば、地域のお祭りや花火大会など、犯罪が発生しやすい時に、重点的に監視巡回できることになる。
 図3は、管理サーバ2のハードウェア構成を例示する図である。
 図3に例示するように、管理サーバ2は、CPU200、メモリ202、HDD204、ネットワークインタフェース206(ネットワークIF206)、表示装置208、及び、入力装置210を有し、これらの構成はバス212を介して互いに接続している。
 CPU200は、例えば、中央演算装置である。
 メモリ202は、例えば、揮発性メモリであり、主記憶装置として機能する。
 HDD204は、例えば、ハードディスクドライブ装置であり、不揮発性の記録装置としてコンピュータプログラム(例えば、図5の監視プログラム22)やその他のデータファイル(例えば、過去に撮影された画像データ)を格納する。
 ネットワークIF206は、有線又は無線で通信するためのインタフェースであり、例えば、自動運転車3との通信を実現する。
 表示装置208は、例えば、液晶ディスプレイである。
 入力装置210は、例えば、キーボード及びマウスである。
 図4は、自動運転車3のハードウェア構成のうち、情報処理に関する部分を中心に例示する図である。なお、自動運転車3は、図4に例示された構成に加えて、自動運転の電気自動車として機能するためのハードウェア構成を有する。
 図4に例示するように、自動運転車3は、CPU300、メモリ302、HDD304、ネットワークインタフェース306(ネットワークIF306)、カメラ308、及び、GPS受信機310を有し、これらの構成はバス312を介して互いに接続している。
 CPU300は、例えば、中央演算装置である。
 メモリ302は、例えば、揮発性メモリであり、主記憶装置として機能する。
 HDD304は、例えば、ハードディスクドライブ装置であり、不揮発性の記録装置としてコンピュータプログラム(例えば、図5の巡回プログラム32)やその他のデータファイルを格納する。
 ネットワークIF306は、有線又は無線で通信するためのインタフェースであり、例えば、管理サーバ2との通信を実現する。
 カメラ308は、自動運転車3の周囲を撮影するカメラであり、例えば、ドライブレコーダーに内蔵されたカメラである。
 GPS受信機310は、自動運転車3の位置を特定する位置特性装置の一例であり、例えば、カーナビゲーションシステムに設けられたGPS受信機である。
 図5は、管理サーバ2及び自動運転車3の機能構成を例示する図である。
 図5に例示するように、管理サーバ2には、監視プログラム22がインストールされると共に、画像データベース260(画像DB260)が構成される。
 また、自動運転車3には、巡回プログラム32がインストールされる。
 監視プログラム22は、配車部220、画像受信部222、犯罪判定部224、及び通報部226を有する。
 巡回プログラム32は、要請受信部320、ルート決定部322、自動運転部324、カメラ制御部326、及び画像転送部328を有する。
 なお、監視プログラム22及び巡回プログラム32の一部又は全部は、ASICなどのハードウェアにより実現されてもよく、また、OS(Operating System)の機能を一部借用して実現されてもよい。
 巡回プログラム32において、要請受信部320は、管理サーバ2を介して、住民から、配車の要請を受信する。例えば、要請受信部320は、携帯端末60から、住民の出発地の位置情報と、住民の目的地の位置情報とを配車要請として受信する。なお、住民の目的地の位置情報は、住民が自動運転車3に乗車した後であっても、順次追加することができる。
 ルート決定部322は、要請受信部320により受信した配車要請に基づいて、自動運転車3の移動ルートを決定する。例えば、ルート決定部322は、現在地から住民の出発地までのルート、住民の出発地から住民の目的地までのルート、及び、住民の目的地から充電器4までのルートを決定する。なお、ルート決定部322は、要請受信部320により住民の目的地が追加又は変更された場合に、追加又は変更された住民の目的地に応じて、ルートを変更する。
 自動運転部324は、ルート決定部322により決定されたルートで、自動運転車3を自動運転する。
 カメラ制御部326は、自動運転部324により自動運転車3の自動運転が開始されると、カメラ308を制御して、周囲の撮影を開始し、自動運転車3が充電器4の近傍に戻って自動運転部324が自動運転を終了すると、カメラ308による撮影を終了させる。
 画像転送部328は、カメラ308により撮影された画像の画像データと、撮影された場所を示す位置情報とを順次管理サーバ2に送信する。例えば、画像転送部328は、リアルタイムで、カメラ308により撮影された画像の画像データ及び撮影場所の位置情報を即時、管理サーバ2に送信する。
 監視プログラム22において、配車部220は、地域住民から、配車要請を受信すると、充電器4の近傍で待機している自動運転車3の中から、割り当てる自動運転車3を決定し、決定した自動運転車3に配車要請(出発地の位置情報等を含む)を送信する。例えば、配車部220は、住民の携帯端末60から配車要請を受信すると、充電器4の近傍で待機している自動運転車3の中から、充電状況に基づいて、割り当てる自動運転車3を決定する。
 画像受信部222は、自動運転車3のカメラ308により撮影された画像の画像データ及び撮影場所の位置情報を自動運転車3から受信する。本例の画像受信部222は、自動運転車3から、リアルタイムで、撮影された画像の画像データ及び撮影場所の位置情報を受信する。
 犯罪判定部224は、画像受信部222により受信した画像データに基づいて、犯罪に関する判定を行う。犯罪に関する判定とは、例えば、犯罪発生の有無の判定、又は、犯罪発生確率の算出などである。例えば、犯罪判定部224は、画像受信部222により受信した画像データ及び撮影場所の位置情報に基づいて、受信した画像データと、過去に同じ場所で撮影された画像データとを比較して、犯罪発生の確率を算出する。本例の犯罪判定部224は、ディープラーニングによって、撮影された画像データ、撮影場所の位置情報、及び撮影時刻に基づいて、犯罪発生の確率を算出する。
 通報部226は、犯罪判定部224による判定結果に基づいて、犯罪発生に関する通報を行う。例えば、通報部226は、犯罪判定部224により算出された犯罪発生の確率が基準値以上となった場合に、算出された犯罪発生確率と、撮影場所の位置情報とを、警察、警備会社、又は公民館に通知する。
 図6は、セキュリティシステム1による監視処理(S10)を説明するフローチャートである。
 図6に例示するように、ステップ100(S100)において、管理サーバ2は、住民の携帯端末60から配車要請を受信するまで待機し(S100:No)、配車要請を受信すると(S100:Yes)、S105の処理に移行する。
 ステップ105(S105)において、管理サーバ2の配車部220は、自動運転車3の充電状態を比較して、より充電残量の多い自動運転車3を選択し、選択した自動運転車3に住民の出発地の位置情報及び住民の目的地の位置情報を送信する。
 選択された自動運転車3の要請受信部320は、配車部220から要請を受信すると、受信した出発地及び目的地の位置情報をルート決定部322に出力して、ルート決定を指示する。
 ルート決定部322は、要請受信部320から入力された出発地及び目的地の位置情報、並びに現在地の位置情報に基づいて、ルートを決定する。
 ステップ110(S110)において、自動運転部324は、ルート決定部322により決定されたルートに従って、自動運転車3の自動運転を開始する。
 ステップ115(S115)において、カメラ制御部326は、自動運転部324が自動運転車3の自動運転中に、カメラ308を制御して、自動運転車3の周囲を撮影する。画像転送部328は、カメラ308により撮影された画像データ、その撮影場所の位置情報、及び撮影時刻を管理サーバ2に送信する。
 ステップ120(S120)において、管理サーバ2の画像受信部222は、画像転送部328から受信した画像データ、撮影場所の位置情報、及び撮影時刻を犯罪判定部224に出力する。
 犯罪判定部224は、画像受信部222により受信した画像データ、撮影場所の位置情報、及び撮影時刻に基づいて、犯罪発生確率を算出する。
 ステップ125(S125)において、通報部226は、犯罪判定部224により算出された犯罪発生確率が基準値以上であるか否かを判定し、犯罪発生確率が基準値上である場合に、S130の処理に移行し、犯罪発生確率が基準値未満である場合に、S135の処理に移行する。
 ステップ130(S130)において、通報部226は、犯罪発生確率及び撮影場所の位置情報を、警察、警備会社及び公民館に送信する。
 ステップ135(S135)において、自動運転部324は、充電器4の近傍に戻ったか否かを判定し、充電器4の近傍に戻った場合(S135:Yes)、自動運転を完了し、カメラ制御部326に対して撮影終了を指示する。カメラ制御部326は、自動運転部324からの指示に応じて、カメラ308による撮影を終了する。
 自動運転部324は、充電器4の近傍に戻っていない場合(S135:No)、S110の処理に戻り、自動運転を継続する。
 以上説明したように、本実施形態のセキュリティシステム1によれば、地域住民がシェアしている自動運転車3により撮影された画像に基づいて、犯罪発生の判定を行う。これにより、地域住民の動線を中心に、自動的に巡回監視することができる。特に、過疎化が進んだ地域では、監視用の固定カメラを地域全体に設置することは効率的ではない。さらには、このような地域では、公共交通機関が不足しがちであるところ、本例のように、地域住民が共用する自動運転車3によって、巡回監視することによって、住民の移動手段を確保しつつ、地域住民が活用するエリアを活動時間に巡回監視することができる。空家や耕作放棄地等が増加したとしても、このようなエリアを無駄に巡回監視することを抑制できる。
 上記実施形態では、自動運転車3を用いて巡回監視する形態を説明したが、自動運転車3をドローンに置き換え、ドローンに内蔵されたカメラで巡回監視してもよい。その際に、ドローンは、例えば、自動運転によって、住民の自宅等に荷物を配達しながら、監視を行う。また、自動運転車3が荷物を配達しながら、巡回監視してもよい。
 上記実施形態では、自動運転車3が充電器4の近傍で待機する形態を説明したが、自動運転車3は、タクシーの流し営業のように、地域住民の過去の利用履歴に基づいて、地域住民の利用を予測し、予想される場所を巡回しながら、カメラによる撮影を行ってもよい。
 1…セキュリティシステム
 2…管理サーバ
 3…自動運転車
 4…充電器
 22…監視プログラム
 32…巡回プログラム

Claims (5)

  1.  自動運転車と、
     前記自動運転車に設置されたカメラと、
     前記カメラにより撮影された画像に基づいて、犯罪に関する判定を行う犯罪判定部と
     を有するセキュリティシステム。
  2.  前記自動運転車は、地域内の住民により共用されているシェアカーであり、
     前記犯罪判定部は、前記地域内で発生しうる犯罪に関する判定を行う
     請求項1に記載のセキュリティシステム。
  3.  前記自動運転車は、住民からの要請に応じて、住民の出発地まで自動運転で迎えに行き、住民の目的地まで自動運転で移動し、
     前記カメラは、前記出発地までの移動区間、及び、前記出発地から前記目的地までの移動区間で撮影を行い、
     前記犯罪判定部は、前記出発地までの移動区間、及び、前記出発地から前記目的地までの移動区間で撮影された画像に基づいて、犯罪に関する判定を行う
     請求項2に記載のセキュリティシステム。
  4.  前記地域の共用施設に設置された充電器
     をさらに有し、
     前記自動運転車は、電気自動車であり、前記充電器の近傍で充電しながら、住民からの要請があるまで待機し、住民を目的地まで乗せた後で、前記充電器の近傍まで戻り、
     前記カメラは、前記充電器の近傍から、住民の要請に応じて出発したタイミングから、前記充電器の近傍まで戻るまでの間、撮影を行い、
     前記犯罪判定部は、前記充電器の近傍から出発し、前記充電器の近傍に戻るまでの間に撮影された画像に基づいて、犯罪に関する判定を行う
     請求項3に記載のセキュリティシステム。
  5.  住民の要請に応じて、前記住民により共用されている自動運転車が移動するステップと、
     前記自動運転車に設置されたカメラが、前記自動運転車の移動中に、車外を撮影するステップと、
     コンピュータが、撮影された画像に基づいて、犯罪に関する判定を行うステップと
     を有する監視方法。
PCT/JP2020/013675 2019-12-13 2020-03-26 セキュリティシステム及び監視方法 WO2021117262A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2021563588A JP7391309B2 (ja) 2019-12-13 2020-03-26 セキュリティシステム及び監視方法
US17/757,226 US20230005274A1 (en) 2019-12-13 2020-03-26 Security system and monitoring method
CN202080085189.2A CN114868167A (zh) 2019-12-13 2020-03-26 安全系统和监控方法

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2019225136 2019-12-13
JP2019-225136 2019-12-13

Publications (1)

Publication Number Publication Date
WO2021117262A1 true WO2021117262A1 (ja) 2021-06-17

Family

ID=76330160

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2020/013675 WO2021117262A1 (ja) 2019-12-13 2020-03-26 セキュリティシステム及び監視方法

Country Status (4)

Country Link
US (1) US20230005274A1 (ja)
JP (1) JP7391309B2 (ja)
CN (1) CN114868167A (ja)
WO (1) WO2021117262A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11860637B2 (en) * 2020-02-14 2024-01-02 Alarm.Com Incorporated Mobile docking station

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019114110A (ja) * 2017-12-25 2019-07-11 トヨタ自動車株式会社 情報収集システムおよびサーバ装置

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8949164B1 (en) * 2011-09-08 2015-02-03 George O. Mohler Event forecasting system
WO2013111492A1 (ja) * 2012-01-26 2013-08-01 日産自動車株式会社 監視システム
US9743047B2 (en) * 2013-05-27 2017-08-22 Center For Integrated Smart Sensors Foundation Network camera using hierarchical event detection and data determination
US9805605B2 (en) * 2015-08-12 2017-10-31 Madhusoodhan Ramanujam Using autonomous vehicles in a taxi service
CN106454218A (zh) * 2016-08-10 2017-02-22 张培 一种公交车视频播放系统
KR101830522B1 (ko) * 2016-08-22 2018-02-21 가톨릭대학교 산학협력단 빅 데이터를 이용한 예측 대상 지역의 범죄 발생 예측 방법
US20180082202A1 (en) * 2016-09-20 2018-03-22 Public Engines, Inc. Device and method for generating a crime type combination based on historical incident data
WO2018116485A1 (ja) * 2016-12-22 2018-06-28 日本電気株式会社 映像収集システム、映像収集サーバ、映像収集方法及びプログラム
EP3631707A1 (en) * 2017-05-22 2020-04-08 Via Transportation, Inc. Systems and methods for managing ridesharing vehicles
US10733857B1 (en) * 2017-10-26 2020-08-04 Amazon Technologies, Inc. Automatic alteration of the storage duration of a video
JP7009987B2 (ja) * 2017-12-27 2022-01-26 トヨタ自動車株式会社 自動運転システム及び自動運転方法
JP2019205078A (ja) * 2018-05-24 2019-11-28 株式会社ユピテル システム及びプログラム等
US20210114628A1 (en) * 2018-06-21 2021-04-22 Daniel KHURGIN Method of vehicle operation in a mixed mode
CN109333504A (zh) * 2018-12-05 2019-02-15 博众精工科技股份有限公司 一种巡逻机器人和巡逻机器人管理系统
JP7342689B2 (ja) * 2019-12-24 2023-09-12 株式会社Jvcケンウッド 情報処理装置、情報処理システム、および情報処理方法

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019114110A (ja) * 2017-12-25 2019-07-11 トヨタ自動車株式会社 情報収集システムおよびサーバ装置

Also Published As

Publication number Publication date
CN114868167A (zh) 2022-08-05
JP7391309B2 (ja) 2023-12-05
JPWO2021117262A1 (ja) 2021-06-17
US20230005274A1 (en) 2023-01-05

Similar Documents

Publication Publication Date Title
JP7024396B2 (ja) 人物探索システム
JP7047374B2 (ja) 情報収集システム
JP7052338B2 (ja) 情報収集システム
US20120188100A1 (en) Terminal, apparatus and method for providing customized auto-valet parking service
US10807712B2 (en) Systems and methods for transferring control of an unmanned aerial vehicle
US20190197454A1 (en) Task support system and task support method
JP7075967B2 (ja) 管理サーバ、通信機器、管理者端末、通信方法
CN108694853A (zh) 一种实现泊车服务的方法、终端、服务端及系统
JP2022183223A (ja) システム、映像記録システム及びプログラム等
WO2021117262A1 (ja) セキュリティシステム及び監視方法
CN113327372A (zh) 充电设备共享方法、装置及信息处理设备
US11531938B2 (en) Information processing device and mobile object
US11860637B2 (en) Mobile docking station
CN109859524A (zh) 用于车位监控的系统、方法与设备
JP7484819B2 (ja) 自動バレー駐車管理システム及び自動バレー駐車管理方法
CN112233457B (zh) 机械停车楼的存取车方法、介质及系统
CN112810623A (zh) 信息处理装置、信息处理方法、以及记录介质
JP7365660B2 (ja) 配車制御装置、および監視システム
JP7468489B2 (ja) 駐車場管理システム、駐車場管理方法およびプログラム
JP7315497B2 (ja) 情報処理装置、情報処理方法、およびプログラム
JP7478849B2 (ja) ロボット管理システム
JP2022148115A (ja) 犯罪防止装置及び犯罪防止方法
JP2023028975A (ja) 自動駐車場管理システム、自動駐車場管理方法およびプログラム
CN112666980A (zh) 一种无人机集群协作系统、协作方法及无人机集群
JP2023026247A (ja) 情報処理装置、情報処理方法、及びプログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20900180

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2021563588

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 20900180

Country of ref document: EP

Kind code of ref document: A1