JP6389976B1 - Vehicle facility monitoring system - Google Patents

Vehicle facility monitoring system Download PDF

Info

Publication number
JP6389976B1
JP6389976B1 JP2018053092A JP2018053092A JP6389976B1 JP 6389976 B1 JP6389976 B1 JP 6389976B1 JP 2018053092 A JP2018053092 A JP 2018053092A JP 2018053092 A JP2018053092 A JP 2018053092A JP 6389976 B1 JP6389976 B1 JP 6389976B1
Authority
JP
Japan
Prior art keywords
state
parking
span
unit
vehicle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2018053092A
Other languages
Japanese (ja)
Other versions
JP2019164694A (en
Inventor
治 大橋
治 大橋
和生 菊田
和生 菊田
浩幸 鬼丸
浩幸 鬼丸
功 西嶋
功 西嶋
Original Assignee
株式会社プロロジス
安川情報システム株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社プロロジス, 安川情報システム株式会社 filed Critical 株式会社プロロジス
Priority to JP2018053092A priority Critical patent/JP6389976B1/en
Application granted granted Critical
Publication of JP6389976B1 publication Critical patent/JP6389976B1/en
Publication of JP2019164694A publication Critical patent/JP2019164694A/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Audible And Visible Signals (AREA)
  • Traffic Control Systems (AREA)

Abstract

【課題】車両施設における所定の駐停車領域の状態を精度よく判別し、車両施設を効率よく運用すること。【解決手段】実施形態に係る車両施設監視システムは、カメラと、生成部と、判別部とを備える。カメラは、車両施設における所定の駐停車領域ごとに設けられ、駐停車領域をそれぞれ撮像する。生成部は、カメラによって撮像された正例となる撮像画像を用いた機械学習を実行することで、駐停車領域ごとの車両の許容台数が動的に変化する場合を含む駐停車領域の状態判別モデルを生成する。判別部は、カメラによって撮像された判別対象分となる撮像画像を状態判別モデルへ入力することによって得られる出力値に基づいて、駐停車領域の状態を判別する。【選択図】図2An object of the present invention is to accurately determine the state of a predetermined parking / stopping area in a vehicle facility and efficiently operate the vehicle facility. A vehicle facility monitoring system according to an embodiment includes a camera, a generation unit, and a determination unit. The camera is provided for each predetermined parking / parking area in the vehicle facility, and images each parking / parking area. The generation unit performs machine learning using a positive captured image captured by the camera, thereby determining the state of the parking / stopping region including a case where the allowable number of vehicles for each parking / stopping region dynamically changes. Generate a model. The discriminating unit discriminates the state of the parking / stopping region based on an output value obtained by inputting a captured image, which is a portion to be discriminated captured by the camera, to the state discrimination model. [Selection] Figure 2

Description

開示の実施形態は、車両施設監視システムに関する。   The disclosed embodiment relates to a vehicle facility monitoring system.

従来、駐車場のような所定の駐停車領域を有する車両施設において、車両の入出場を管理する管理システムが知られている。   2. Description of the Related Art Conventionally, a management system that manages entry / exit of vehicles in a vehicle facility having a predetermined parking / stopping area such as a parking lot is known.

このような管理システムでは、たとえば入場ゲート機を通過する入場車両の台数と出場ゲート機を通過する出場車両の台数とを計数し、入場車両の総数から出場車両の総数を減算することによって現状の駐車台数を把握する。そして、かかる駐車台数が所定の最大駐車台数に達する場合は、車両の入場を制限し、最大駐車台数を下回っている場合は、車両の入場を許可するようにしている(たとえば、特許文献1参照)。   In such a management system, for example, by counting the number of vehicles entering the entrance gate and the number of vehicles entering the entrance gate, and subtracting the total number of vehicles from the total number of vehicles entered, Know the number of parked cars. When the number of parked vehicles reaches a predetermined maximum number of parked vehicles, entry of the vehicle is restricted, and when the number of parked vehicles is below the maximum number of parked vehicles, entry of the vehicle is permitted (see, for example, Patent Document 1). ).

特開2003−141581号公報JP 2003-141581 A

しかしながら、上述した従来技術には、車両施設における所定の駐停車領域の状態を精度よく判別し、車両施設を効率よく運用するうえで、さらなる改善の余地がある。   However, the above-described prior art has room for further improvement in accurately determining the state of a predetermined parking / stopping area in the vehicle facility and operating the vehicle facility efficiently.

具体的には、上述した従来技術は、出場ゲート機において出場車両を検出するものであるため、たとえば、出場車両が発車して駐停車領域が空いたとしても、出場車両が出場ゲート機に到達するまでの間は、かかる駐停車領域は満車と判定されてしまう。このため、車両の入場が制限される時間が長くなってしまい、車両施設の稼働率を低下させてしまう。   Specifically, since the above-described conventional technology detects a participating vehicle at a participating gate machine, for example, even if the participating vehicle departs and the parking / parking area is vacant, the participating vehicle reaches the participating gate machine. In the meantime, the parking / stopping area is determined to be full. For this reason, the time for which entry of the vehicle is restricted becomes long, and the operation rate of the vehicle facility is lowered.

特に、車両施設がトラック輸送の物流拠点となる物流センターである場合、物流センターは、昨今のインターネットを利用した電子商取引などの飛躍的な普及に伴う物流需要の増加に応じて、施設の大型化や、輸送機会の多頻度化も進んできている。このような物流センターにおいては、荷捌き場ほか、トラックの駐停車領域の状態を精度よく判別し、運用の効率化を図ることが強く望まれている。   In particular, if the vehicle facility is a distribution center that serves as a truck transportation distribution center, the distribution center will increase in size in response to an increase in distribution demand accompanying the rapid spread of electronic commerce using the Internet these days. In addition, the frequency of transportation opportunities is increasing. In such a distribution center, it is strongly desired to improve the operational efficiency by accurately determining the state of the parking and stopping area of the truck as well as the cargo handling area.

実施形態の一態様は、上記に鑑みてなされたものであって、車両施設における所定の駐停車領域の状態を精度よく判別し、車両施設を効率よく運用することができる車両施設監視システムを提供することを目的とする。   One aspect of the embodiment is made in view of the above, and provides a vehicle facility monitoring system capable of accurately determining the state of a predetermined parking / stopping area in the vehicle facility and operating the vehicle facility efficiently. The purpose is to do.

実施形態の一態様に係る車両施設監視システムは、カメラと、生成部と、判別部とを備える。前記カメラは、車両施設における所定の駐停車領域ごとに設けられ、前記駐停車領域をそれぞれ撮像する。前記生成部は、前記カメラによって撮像された正例となる撮像画像を用いた機械学習を実行することで、前記駐停車領域ごとの車両の許容台数が動的に変化する場合を含む前記駐停車領域の状態判別モデルを生成する。前記判別部は、前記カメラによって撮像された判別対象分となる前記撮像画像を前記状態判別モデルへ入力することによって得られる出力値に基づいて、前記駐停車領域の状態を判別する。また、前記車両施設は、物流施設であり、前記駐停車領域は、前記物流施設内の所定の区画であるスパンまたは前記物流施設の敷地内のトラックの待機場である。 A vehicle facility monitoring system according to an aspect of an embodiment includes a camera, a generation unit, and a determination unit. The camera is provided for each predetermined parking / stopping area in the vehicle facility, and images each of the parking / stopping areas. The parking unit includes a case where the allowable number of vehicles for each parking / parking region dynamically changes by executing machine learning using a positive captured image captured by the camera. Generate a state discrimination model for the region. The discriminating unit discriminates the state of the parking / stopping region based on an output value obtained by inputting the picked-up image as a discrimination target imaged by the camera to the state discrimination model. The vehicle facility is a logistics facility, and the parking and stopping area is a span that is a predetermined section in the logistics facility or a waiting area for a truck in the site of the logistics facility.

実施形態の一態様によれば、車両施設における所定の駐停車領域の状態を精度よく判別し、車両施設を効率よく運用することができる。   According to one aspect of the embodiment, it is possible to accurately determine the state of a predetermined parking / stopping area in the vehicle facility and efficiently operate the vehicle facility.

図1は、実施形態に係る車両施設監視システムの概要説明図である。FIG. 1 is a schematic explanatory diagram of a vehicle facility monitoring system according to an embodiment. 図2は、実施形態に係る車両施設監視システムのブロック図である。FIG. 2 is a block diagram of the vehicle facility monitoring system according to the embodiment. 図3Aは、状態判別モデルの一例を示す図(その1)である。FIG. 3A is a diagram (part 1) illustrating an example of a state determination model. 図3Bは、状態判別モデルの一例を示す図(その2)である。FIG. 3B is a second diagram illustrating an example of a state determination model. 図4Aは、スパンの状態パターンの具体例を示す図(その1)である。FIG. 4A is a diagram (part 1) illustrating a specific example of a span state pattern. 図4Bは、スパンの状態パターンの具体例を示す図(その2)である。FIG. 4B is a second diagram illustrating a specific example of a span state pattern. 図4Cは、スパンの状態パターンの具体例を示す図(その3)である。FIG. 4C is a third diagram illustrating a specific example of a span state pattern. 図4Dは、スパンの状態パターンの具体例を示す図(その4)である。FIG. 4D is a diagram (part 4) illustrating a specific example of a span state pattern. 図4Eは、スパンの状態パターンの具体例を示す図(その5)である。FIG. 4E is a fifth diagram illustrating a specific example of a span state pattern. 図4Fは、スパンの状態パターンの具体例を示す図(その6)である。FIG. 4F is a sixth diagram illustrating a specific example of a span state pattern. 図4Gは、スパンの状態パターンの具体例を示す図(その7)である。FIG. 4G is a diagram (No. 7) illustrating a specific example of a span state pattern. 図4Hは、スパンの状態パターンの具体例を示す図(その8)である。FIG. 4H is a diagram (No. 8) illustrating a specific example of a span state pattern. 図4Iは、スパンの状態パターンの具体例を示す図(その9)である。FIG. 4I is a diagram (part 9) illustrating a specific example of a span state pattern. 図4Jは、スパンの状態パターンの具体例を示す図(その10)である。FIG. 4J is a diagram (No. 10) illustrating a specific example of a span state pattern. 図4Kは、スパンの状態パターンの具体例を示す図(その11)である。FIG. 4K is a diagram (No. 11) illustrating a specific example of a span state pattern. 図5Aは、全体監視画面の具体例を示す図である。FIG. 5A is a diagram illustrating a specific example of the overall monitoring screen. 図5Bは、個別監視画面の具体例を示す図である。FIG. 5B is a diagram illustrating a specific example of the individual monitoring screen. 図5Cは、使用状況監視画面の具体例を示す図である。FIG. 5C is a diagram illustrating a specific example of the usage status monitoring screen. 図5Dは、物流センターをセキュリティ管理する場合の具体例を示す図である。FIG. 5D is a diagram illustrating a specific example in the case of security management of a distribution center.

以下、添付図面を参照して、本願の開示する車両施設監視システムの実施形態を詳細に説明する。なお、以下に示す実施形態によりこの発明が限定されるものではない。   Hereinafter, an embodiment of a vehicle facility monitoring system disclosed in the present application will be described in detail with reference to the accompanying drawings. In addition, this invention is not limited by embodiment shown below.

また、以下では、車両施設が、トラック輸送の物流拠点となる物流センターである場合を例に挙げて説明を行うが、以下で「トラック」と言った場合、荷室を有し、かかる荷室へ輸送品を積載して、輸送品を物流センターへ搬入または物流センターから搬出することができる車両を広く含むものとする。   In the following, the case where the vehicle facility is a distribution center serving as a distribution base for truck transportation will be described as an example. Vehicles that can be loaded and transported to and from the distribution center are widely included.

まず、実施形態に係る車両施設監視システムの概要について、図1を参照して説明する。図1は、実施形態に係る車両施設監視システム1の概要説明図である。   First, the outline | summary of the vehicle facility monitoring system which concerns on embodiment is demonstrated with reference to FIG. FIG. 1 is a schematic explanatory diagram of a vehicle facility monitoring system 1 according to the embodiment.

図1に示すように、実施形態に係る車両施設監視システム1は、物流センター2と、サーバ装置10とを含む。物流センター2は、輸送品の入荷、保管、ピッキング、流通加工、検品、出荷といった物流に関する各種業務が行われる。   As shown in FIG. 1, the vehicle facility monitoring system 1 according to the embodiment includes a distribution center 2 and a server device 10. The distribution center 2 performs various operations related to distribution such as arrival, storage, picking, distribution processing, inspection, and shipment of transported goods.

たとえば、物流センター2は、トラックが進入可能な複数のフロアを有し、各フロアには、所定の区画であるスパン21が設けられている。スパン21は、物流センター2における所定の駐停車領域の一例であって、トラックの荷捌き場となる領域である。なお、本実施形態では、物流センター2が複数のフロアを有することとするが、物流センター2は単一のフロア、すなわち、平屋であってもよい。   For example, the distribution center 2 has a plurality of floors into which trucks can enter, and a span 21 that is a predetermined section is provided on each floor. The span 21 is an example of a predetermined parking and stopping area in the distribution center 2 and is an area that serves as a truck unloading area. In the present embodiment, the distribution center 2 has a plurality of floors, but the distribution center 2 may be a single floor, that is, a flat.

図1に示すように、スパン21は、たとえば物流センター2内の柱と柱の間に形成されている。また、スパン21は、複数のトラックを停めることができる寸法を有して形成されている。スパン21内のトラックの停車箇所は、「バース」と呼ばれる。   As shown in FIG. 1, the span 21 is formed between pillars in the distribution center 2, for example. The span 21 is formed to have a dimension capable of stopping a plurality of tracks. The stop point of the truck in the span 21 is called “berth”.

そして、図1に示すように、スパン21は、「許容台数が動的に変化」するように複数のトラックを停車させることができる。言い換えれば、バースの数を動的に変化させることができる。   As shown in FIG. 1, the span 21 can stop a plurality of trucks so that the “allowable number dynamically changes”. In other words, the number of berths can be changed dynamically.

本実施形態では、図中の「402」のスパン21に示すように、1つのスパン21には小型のトラックT2を3台停車させることができるものとする。また、たとえば、図中の「403」のスパン21に示すように、1つのスパン21には大型のトラックT1を2台停車させることができるものとする。   In the present embodiment, it is assumed that three small trucks T <b> 2 can be stopped in one span 21 as indicated by a span 21 of “402” in the drawing. Further, for example, as shown by a span 21 of “403” in the figure, it is assumed that two large trucks T1 can be stopped in one span 21.

なお、ここに言う「大型」、「小型」は、相対的なサイズの大小を指すものであって、車両寸法や最大積載量、車両総重量などによって分類される、「小型トラック」、「中型トラック」、「大型トラック」の規格を指すものではない。   “Large” and “small” as used herein refer to the relative size, and are classified according to vehicle dimensions, maximum loading capacity, total vehicle weight, etc. It does not refer to the standards of “truck” and “large truck”.

また、図中の「404」のスパン21に示すように、スパン21は、前述の柱と柱の間にシャッター22を具備することができる。かかるシャッター22を閉めることにより、スパン21は戸締まりされた状態となる。なお、シャッター22は、「巻き取り式」、「折りたたみ式」、「オーバースライダー式」など、収納方法の違いは問わない。   Further, as indicated by a span 21 of “404” in the drawing, the span 21 can include a shutter 22 between the aforementioned pillars. By closing the shutter 22, the span 21 is locked. The shutter 22 may be stored in any manner such as “winding type”, “folding type”, and “over slider type”.

また、物流センター2は、たとえば敷地内に、トラックT1,T2の待機場23を有する。待機場23は、物流センター2における所定の駐停車領域の一例であって、物流センター2内へ進入する前のトラックT1,T2を待機させておく場所である。   In addition, the distribution center 2 has a waiting area 23 for trucks T1 and T2, for example, in a site. The waiting area 23 is an example of a predetermined parking / stopping area in the distribution center 2, and is a place where the trucks T1 and T2 before entering the distribution center 2 are kept waiting.

そして、車両施設監視システム1は、カメラ24を備える。カメラ24は、物流センター2におけるスパン21および待機場23ごとに設けられ、各スパン21および待機場23をそれぞれ撮像する。   The vehicle facility monitoring system 1 includes a camera 24. The camera 24 is provided for each span 21 and waiting area 23 in the distribution center 2 and images each span 21 and waiting area 23.

なお、カメラ24は、たとえば物流センター2内の柱などに、それぞれ特定のスパン21をたとえば斜め前方などから撮像可能な向きで取り付けられる。また、カメラ24は、たとえば物流センター2の敷地内の柱などに、待機場23全体を斜め上方などから撮像可能な向きで取り付けられる。ただし、いずれもカメラ24の取り付けられる向きを限定するものではない。   The camera 24 is attached to, for example, a pillar in the distribution center 2 in such a direction that a specific span 21 can be imaged from, for example, an oblique front. Further, the camera 24 is attached to a pillar in the site of the distribution center 2, for example, so that the entire waiting area 23 can be imaged from obliquely above. However, in any case, the direction in which the camera 24 is attached is not limited.

また、カメラ24は、無線カメラであっても、有線カメラであってもよい。無線カメラの場合、カメラ24の配線を引き回す必要がなく、増設/変更等が容易であるというメリットが得られる。また、カメラ24は、スチルカメラであってもムービーカメラであってもよい。本実施形態では、カメラ24は、無線式のスチルカメラであるものとする。   The camera 24 may be a wireless camera or a wired camera. In the case of a wireless camera, there is no need to route the wiring of the camera 24, and there is an advantage that expansion / change is easy. The camera 24 may be a still camera or a movie camera. In the present embodiment, it is assumed that the camera 24 is a wireless still camera.

そして、本実施形態では、かかるカメラ24によって撮像された正例となる撮像画像を用いた機械学習を実行することで、物流センター2における所定の駐停車領域ごとで許容台数が動的に変化する場合を含む駐停車領域の状態判別モデルを生成することとした。そして、カメラ24によって撮像された判別対象分となる撮像画像を状態判別モデルへ入力することによって得られる出力値に基づいて、駐停車領域、たとえばスパン21それぞれの状態を判別することとした。   In the present embodiment, by executing machine learning using a positive captured image captured by the camera 24, the allowable number dynamically changes for each predetermined parking / stopping area in the distribution center 2. It was decided to generate a state discrimination model for parking and stopping areas including cases. Then, based on an output value obtained by inputting a captured image captured by the camera 24 as a determination target to the state determination model, the state of each parking / parking area, for example, the span 21 is determined.

具体的には、図1に示すように、車両施設監視システム1は、物流センター2からは、インターネット等のネットワークNを介して周期的に、各カメラ24によって撮像された撮像画像を送信する(ステップS1)。   Specifically, as shown in FIG. 1, the vehicle facility monitoring system 1 periodically transmits captured images captured by the cameras 24 via the network N such as the Internet from the distribution center 2 ( Step S1).

そして、サーバ装置10は、物流センター2から送信された各カメラ24の撮像画像を収集する(ステップS2)。なお、サーバ装置10は、たとえばクラウドコンピューティングにおけるクラウドサーバとして設けられる。   And the server apparatus 10 collects the captured image of each camera 24 transmitted from the distribution center 2 (step S2). The server device 10 is provided as a cloud server in cloud computing, for example.

そして、サーバ装置10は、収集した撮像画像のうちの正例となる学習対象分を用いた機械学習により、状態判別モデルを生成する(ステップS3)。機械学習には、ディープラーニング等、公知のアルゴリズムを用いることができる。   And the server apparatus 10 produces | generates a state discrimination | determination model by the machine learning using the part for learning used as a positive example among the collected captured images (step S3). A known algorithm such as deep learning can be used for machine learning.

そして、サーバ装置10は、生成した状態判別モデルにより、たとえば各スパン21の状態判別を行う(ステップS4)。具体的には、サーバ装置10は、収集した撮像画像のうちの判別対象分を状態判別モデルへ入力し、それによって得られる状態判別モデルからの出力値に基づいて、前述の「許容台数が動的に変化」する場合を含む各スパン21の状態をリアルタイムに判別する。   Then, the server device 10 performs, for example, state determination of each span 21 using the generated state determination model (step S4). Specifically, the server device 10 inputs the discrimination target part of the collected captured images to the state discrimination model, and based on the output value from the state discrimination model obtained thereby, The state of each span 21 including the case of “changing” is determined in real time.

たとえばサーバ装置10は、スパン21に存在する物体を判別する。物体は、たとえばサイズの異なる車両である。また、サーバ装置10は、たとえばスパン21の満空状態を判別する。また、サーバ装置10は、たとえばシャッター22の開閉状態を判別する。本実施形態に係る車両施設監視システム1が判別可能な駐停車領域のこれら判別例については、図4A〜図4Kを用いた説明で後述する。   For example, the server device 10 determines an object existing in the span 21. The object is, for example, a vehicle having a different size. Further, the server device 10 determines whether the span 21 is full, for example. Further, the server device 10 determines, for example, the open / closed state of the shutter 22. These discrimination examples of parking / stopping areas that can be discriminated by the vehicle facility monitoring system 1 according to the present embodiment will be described later with reference to FIGS. 4A to 4K.

そして、サーバ装置10は、判別された各スパン21の状態を、たとえばサーバ装置10が備えるディスプレイ等の監視画面へ表示させる。オペレータは、かかる監視画面を確認することによって各スパン21の状態を把握し、たとえばあるスパン21に空きが生じたならば、待機場23に待機するトラックT1,T2をかかるスパン21へ誘導する。   Then, the server device 10 displays the determined state of each span 21 on, for example, a monitoring screen such as a display provided in the server device 10. The operator grasps the state of each span 21 by confirming such a monitoring screen. For example, if a certain span 21 is vacant, the operator guides the tracks T1 and T2 waiting in the waiting area 23 to the span 21.

監視画面の具体的な例については、図5Aおよび図5Bを用いた説明で後述する。また、監視画面の表示先は、たとえばオペレータが携帯する携帯情報端末等であってもよい。   A specific example of the monitoring screen will be described later with reference to FIGS. 5A and 5B. Moreover, the display destination of the monitoring screen may be, for example, a portable information terminal carried by the operator.

このように、本実施形態に係る車両施設監視システム1は、カメラ24の撮像画像に基づいて生成された状態判別モデルにより、所定の駐停車領域の各状態をリアルタイムに判別することとしたので、駐停車領域の状態を精度よく判別することができる。また、判別される各状態は、前述の「許容台数が動的に変化」する場合を含むので、たとえばスパン21で空いたバースの大きさに応じたサイズのトラックT1,T2を誘導することが可能となり、物流センター2を効率よく運用することが可能となる。   As described above, since the vehicle facility monitoring system 1 according to the present embodiment determines each state of the predetermined parking / stopping area in real time based on the state determination model generated based on the captured image of the camera 24. It is possible to accurately determine the state of the parking / stopping area. Each state to be discriminated includes the case where the “allowable number changes dynamically” as described above. For example, it is possible to guide the tracks T1 and T2 having a size corresponding to the size of the berth vacated in the span 21. It becomes possible, and it becomes possible to operate the distribution center 2 efficiently.

なお、状態判別モデルによる判別結果に基づいては、各スパン21の使用状況に関する情報を導出し、これを監視画面へ表示させることができる。この点の具体例については、図5Cを用いて後述する。また、状態判別モデルにより判別されたシャッター22の開閉状態に基づいては、物流センター2をセキュリティ管理することもできる。この点の具体例については、図5Dを用いて後述する。   In addition, based on the determination result by the state determination model, it is possible to derive information on the usage status of each span 21 and display it on the monitoring screen. A specific example of this point will be described later with reference to FIG. 5C. Further, the security of the distribution center 2 can be managed based on the open / closed state of the shutter 22 determined by the state determination model. A specific example of this point will be described later with reference to FIG. 5D.

以下、上述した実施形態に係る車両施設監視システム1の構成例について、さらに具体的に説明する。   Hereinafter, a configuration example of the vehicle facility monitoring system 1 according to the above-described embodiment will be described more specifically.

図2は、実施形態に係る車両施設監視システム1のブロック図である。なお、図2では、本実施形態の特徴を説明するために必要な構成要素を機能ブロックで表しており、一般的な構成要素についての記載を省略している。   FIG. 2 is a block diagram of the vehicle facility monitoring system 1 according to the embodiment. In FIG. 2, constituent elements necessary for describing the features of the present embodiment are represented by functional blocks, and descriptions of general constituent elements are omitted.

換言すれば、図2に図示される各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。たとえば、各機能ブロックの分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況等に応じて、任意の単位で機能的または物理的に分散・統合して構成することが可能である。   In other words, each component illustrated in FIG. 2 is functionally conceptual and does not necessarily need to be physically configured as illustrated. For example, the specific form of distribution / integration of each functional block is not limited to the one shown in the figure, and all or a part thereof is functionally or physically distributed in an arbitrary unit according to various loads or usage conditions.・ It can be integrated and configured.

なお、図2を用いた説明では、これまでに既に述べた構成要素については、説明を簡略化するか、省略する場合がある。   In the description with reference to FIG. 2, the description of the components already described so far may be simplified or omitted.

図2に示すように、車両施設監視システム1は、物流センター2と、サーバ装置10とを含む。物流センター2は、複数のスパン21と、待機場23と、中継装置25と、ゲートウェイ装置26とを有する。   As shown in FIG. 2, the vehicle facility monitoring system 1 includes a distribution center 2 and a server device 10. The distribution center 2 includes a plurality of spans 21, a standby area 23, a relay device 25, and a gateway device 26.

中継装置25は、たとえば物流センター2の各フロアごとに設けられ、各スパン21のカメラ24の撮像画像を集約してたとえば同じく各フロアごとに設けられたゲートウェイ装置26へ送信する。   The relay device 25 is provided, for example, for each floor of the distribution center 2 and aggregates the captured images of the cameras 24 of each span 21 and transmits the collected images to, for example, the gateway device 26 that is also provided for each floor.

また、中継装置25は、たとえば物流センター2の敷地内で、待機場23のカメラ24とゲートウェイ装置26との間に設けられ、待機場23のカメラ24の撮像画像をゲートウェイ装置26へ装置する。中継装置25を設けることによって、物流センター2が大規模なものであったとしても、各スパン21および待機場23の撮像画像を集約して周期的に収集することが可能となる。   In addition, the relay device 25 is provided between the camera 24 in the standby area 23 and the gateway device 26, for example, in the site of the distribution center 2, and installs the captured image of the camera 24 in the standby area 23 to the gateway device 26. By providing the relay device 25, even if the distribution center 2 is a large scale, it is possible to collect and periodically collect the captured images of the spans 21 and the standby areas 23.

ゲートウェイ装置26は、物流センター2からネットワークNへの中継装置であって、たとえばフィールドバスネットワークで中継装置25と接続され、中継装置25から受信した撮像画像をネットワークNへ送信する。   The gateway device 26 is a relay device from the distribution center 2 to the network N. The gateway device 26 is connected to the relay device 25 through a fieldbus network, for example, and transmits a captured image received from the relay device 25 to the network N.

サーバ装置10は、通信部11と、制御部12と、記憶部13とを有する。制御部12は、収集部12aと、抽出部12bと、生成部12cと、判別部12dと、監視部12eとを有する。   The server device 10 includes a communication unit 11, a control unit 12, and a storage unit 13. The control unit 12 includes a collection unit 12a, an extraction unit 12b, a generation unit 12c, a determination unit 12d, and a monitoring unit 12e.

通信部11は、たとえば、NIC(Network Interface Card)等によって実現される。通信部11は、ネットワークNと有線または無線で接続され、ネットワークNを介して物流センター2からの各カメラ24の撮像画像を受信し、制御部12へ渡す。   The communication part 11 is implement | achieved by NIC (Network Interface Card) etc., for example. The communication unit 11 is connected to the network N in a wired or wireless manner, receives images captured by the cameras 24 from the distribution center 2 via the network N, and passes them to the control unit 12.

制御部12は、コントローラ(controller)であり、たとえば、CPU(Central Processing Unit)やMPU(Micro Processing Unit)等によって、サーバ装置10内部の記憶装置に記憶されている各種プログラムがRAM(Random Access Memory)を作業領域として実行されることにより実現される。また、制御部12は、たとえば、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等の集積回路により実現される。   The control unit 12 is a controller, and various programs stored in a storage device inside the server device 10 are stored in a RAM (Random Access Memory) by, for example, a CPU (Central Processing Unit) or an MPU (Micro Processing Unit). ) Is executed as a work area. Moreover, the control part 12 is implement | achieved by integrated circuits, such as ASIC (Application Specific Integrated Circuit) and FPGA (Field Programmable Gate Array), for example.

記憶部13は、たとえば、RAM、フラッシュメモリ(Flash Memory)等の半導体メモリ素子、または、ハードディスク、光ディスク等の記憶装置によって実現され、図2の例では、撮像画像DB(データベース)13aと、学習対象分データセット13bと、状態判別モデルとしての第1判別モデル13c,第2判別モデル13dと、判別対象分データセット13eと、判別結果DB13fとを記憶する。   The storage unit 13 is realized by, for example, a semiconductor memory device such as a RAM or a flash memory, or a storage device such as a hard disk or an optical disk. In the example of FIG. 2, a captured image DB (database) 13a and a learning device are used. A target data set 13b, a first discrimination model 13c and a second discrimination model 13d as state discrimination models, a discrimination target data set 13e, and a discrimination result DB 13f are stored.

制御部12は、サーバ装置10の全体制御を行う。収集部12aは、通信部11を介し、物流センター2からの各カメラ24の撮像画像を収集し、撮像画像DB13aへ格納する。   The control unit 12 performs overall control of the server device 10. The collection unit 12a collects captured images of each camera 24 from the distribution center 2 via the communication unit 11, and stores them in the captured image DB 13a.

抽出部12bは、撮像画像DB13aから、機械学習に用いられる正例となる撮像画像、すなわち学習対象分を抽出し、学習対象分データセット13bへ格納する。また、撮像画像DB13aから、物流センター2の運用中において判別対象となる撮像画像、すなわち判別対象分を抽出し、判別対象分データセット13eへ格納する。   The extraction unit 12b extracts, from the captured image DB 13a, a captured image that is a positive example used for machine learning, that is, a learning target, and stores it in the learning target data set 13b. Further, a captured image that is a discrimination target during operation of the distribution center 2, that is, a discrimination target is extracted from the captured image DB 13 a and stored in the discrimination target data set 13 e.

生成部12cは、学習対象分データセット13bを取得し、これを用いた機械学習を実行して、状態判別モデルを生成する。   The generation unit 12c acquires the learning target data set 13b, performs machine learning using the learning target data set 13b, and generates a state determination model.

ここで、状態判別モデルの一例について、図3Aおよび図3Bを用いて説明する。図3Aおよび図3Bは、状態判別モデルの一例を示す図(その1)および(その2)である。   Here, an example of the state determination model will be described with reference to FIGS. 3A and 3B. 3A and 3B are diagrams (part 1) and (part 2) illustrating an example of the state determination model.

図3Aに示すように、たとえば生成部12cは、学習対象分としてスパン21の完全空車状態の撮像画像を用いた機械学習を実行し(ステップS11)、第1判別モデル13cを生成する。   As shown in FIG. 3A, for example, the generation unit 12c performs machine learning using a captured image of a completely empty state of the span 21 as a learning target (step S11), and generates a first discrimination model 13c.

一方で、図3Bに示すように、たとえば生成部12cは、学習対象分としてスパン21の各状態パターンの撮像画像を用いた機械学習を実行し(ステップS12)、第2判別モデル13dを生成する。   On the other hand, as illustrated in FIG. 3B, for example, the generation unit 12c performs machine learning using captured images of each state pattern of the span 21 as a learning target (step S12), and generates a second discrimination model 13d. .

ここで、「状態パターン」とは、物流センター2の運用においてスパン21に対し起こりうる各状態を指し、たとえば「大型のトラック2台」や「小型のトラック3台以上」、「大型・小型が混在」、「シャッターが閉状態」といった各種パターンごとでクラスタリングされている。かかる各状態パターンの学習対象分に基づいて生成される第2判別モデル13dにより、言わばスパン21が完全空車状態でない場合の状態パターンをモデル化することができる。   Here, the “state pattern” refers to each state that can occur with respect to the span 21 in the operation of the distribution center 2. For example, “two large trucks”, “three or more small trucks”, “large and small trucks” Clustering is performed for each pattern such as “mixed” and “shutter closed”. With the second discrimination model 13d generated based on the learning target of each state pattern, the state pattern when the span 21 is not in a completely empty state can be modeled.

そして、図3Aに戻り、後述する判別部12dは、まず判別対象分の撮像画像を第1判別モデル13cへ入力し、その結果、第1判別モデル13cから得られる出力値に基づいて、学習済みクラスとの乖離度を算出する(ステップS13)。この乖離度がたとえば所定の閾値以下であるならば、入力した撮像画像が示すスパン21の状態は、完全空車状態であることを示す。また、乖離度が閾値を上回るならば、入力した撮像画像が示すスパン21の状態は、完全空車状態ではないことを示す。   Returning to FIG. 3A, the determination unit 12d described later first inputs a captured image for the determination target to the first determination model 13c, and as a result, has already learned based on the output value obtained from the first determination model 13c. The degree of deviation from the class is calculated (step S13). If the degree of divergence is equal to or less than a predetermined threshold, for example, the state of the span 21 indicated by the input captured image indicates a completely empty state. Further, if the degree of divergence exceeds the threshold value, it indicates that the state of the span 21 indicated by the input captured image is not a complete empty state.

そして、判別部12dは、図3Bに示すように、乖離度が大きかった判別対象分の撮像画像を第2判別モデル13dへ入力し、その結果得られる第2判別モデル13dの出力値(たとえば図中の「カテゴリID」)に基づいて、各スパン21の状態パターンを判別することとなる(ステップS14)。   Then, as illustrated in FIG. 3B, the determination unit 12d inputs the captured image for the determination target having a large degree of deviation to the second determination model 13d, and the output value (for example, FIG. 3D) of the second determination model 13d obtained as a result. Based on the “category ID”), the state pattern of each span 21 is determined (step S14).

なお、図3Aおよび図3Bに示した状態判別モデル、および、これを用いた判別方法はあくまで一例であって、状態判別モデルを構成するモデルの数や、各モデルにおけるクラスタリング等を図3Aおよび図3Bに示した例に限定するものではない。   It should be noted that the state determination model shown in FIGS. 3A and 3B and the determination method using the model are merely examples, and the number of models constituting the state determination model, clustering in each model, and the like are shown in FIG. 3A and FIG. It is not limited to the example shown in 3B.

図2の説明に戻る。判別部12dは、判別対象分データセット13eを取得し、これを第1判別モデル13cへ入力して、第1判別モデル13cによる出力値を受け取る。そして、判別部12dは、受け取った出力値に基づいて前述の乖離度を算出し、かかる乖離度が所定の閾値以下であれば、スパン21を完全空車状態であると判別し、判別結果を判別結果DB13fへ格納する。   Returning to the description of FIG. The determination unit 12d acquires the determination target data set 13e, inputs this to the first determination model 13c, and receives an output value from the first determination model 13c. Then, the determination unit 12d calculates the above-described divergence based on the received output value. If the divergence is equal to or less than a predetermined threshold, the determination unit determines that the span 21 is in a completely empty state and determines the determination result. Store in the result DB 13f.

また、判別部12dは、乖離度が閾値を上回るならば、該当する判別対象分の撮像画像を第2判別モデル13dへ入力する。そして、判別部12dは、その結果得られる第2判別モデル13dの出力値に基づいて、各スパン21の状態パターンを判別し、判別結果を判別結果DB13fへ格納する。   In addition, if the divergence degree exceeds the threshold value, the determination unit 12d inputs the captured image for the corresponding determination target to the second determination model 13d. Then, the determination unit 12d determines the state pattern of each span 21 based on the output value of the second determination model 13d obtained as a result, and stores the determination result in the determination result DB 13f.

ここで、図4A〜図4Kを用いて、判別部12dが判別する状態パターンの各例について、さらに具体的に説明する。図4A〜図4Kは、スパン21の状態パターンの具体例を示す図(その1)〜(その11)である。   Here, each example of the state pattern which the discrimination | determination part 12d discriminate | determines is demonstrated more concretely using FIG. 4A-FIG. 4K. 4A to 4K are diagrams (No. 1) to (No. 11) showing specific examples of the state pattern of the span 21. FIG.

図4Aには、スパン21が完全空車状態である状態パターンを示している。なお、図4Aに示すように、同じ完全空車状態でも、照度が異なる撮像画像を用いた機械学習を実行することによって、時間帯等による明暗の差がある場合であっても、スパン21の状態を精度よく判別可能な状態判別モデルを生成することができる。かかる点は、図4B〜図4Kに示す状態パターンでも同様とする。   FIG. 4A shows a state pattern in which the span 21 is in a completely empty state. As shown in FIG. 4A, even in the same completely empty state, even if there is a difference in brightness due to time zone or the like by executing machine learning using captured images with different illuminance, the state of span 21 Can be generated with high accuracy. The same applies to the state patterns shown in FIGS. 4B to 4K.

次に、図4Bには、スパン21に大型のトラックT1が2台停車している状態を示している。かかる場合、いずれか一方のトラックT1が「存在する場合/しない場合」をそれぞれ含めた機械学習を実行することによって、スパン21にトラックT1が2台許容できる場合において、スパン21が満車状態であるのか、または、一方のバースが空いているのかを判別することが可能となる。   Next, FIG. 4B shows a state where two large trucks T <b> 1 are stopped in the span 21. In such a case, the span 21 is full when two tracks T1 are allowed in the span 21 by executing machine learning including the case where one of the tracks T1 is present / not present. Or whether one berth is vacant.

次に、図4Cには、スパン21に小型のトラックT2が3台停車している状態を示している。かかる場合、いずれか1台または2台のトラックT2が「存在する場合/しない場合」をそれぞれ含めた機械学習を実行することによって、スパン21にトラックT2が3台許容できる場合において、スパン21が満車状態であるのか、または、バースに空きがあるのかを判別することが可能となる。   Next, FIG. 4C shows a state where three small trucks T <b> 2 are stopped in the span 21. In such a case, when one of the two tracks T2 is allowed to be contained in the span 21 by executing machine learning including each of the cases where the track T2 is present / not present, the span 21 is It is possible to determine whether the vehicle is full or whether there is an empty berth.

次に、図4Dには、スパン21に大型のトラックT1と小型のトラックT2とが混在している状態を示している。かかる場合、いずれか一方が「存在する場合/しない場合」をそれぞれ含めた機械学習を実行することによって、スパン21にトラックT1,T2が混在できる場合において、スパン21が満車状態であるのか、または、バースに空きがあるのかを判別することが可能となる。   Next, FIG. 4D shows a state in which the large truck T1 and the small truck T2 are mixed in the span 21. In such a case, by executing machine learning including either “when present / not present”, when the tracks T1 and T2 can be mixed in the span 21, the span 21 is full, or It is possible to determine whether there is a vacancy in the berth.

なお、このように混在するパターンの場合、スパン21の寸法によっては、奥行き方向に小型のトラックT2を縦列停車させる状態パターンを想定することができる。このような場合に対応するため、平面模式図として表した図4Eに示すように、たとえばスパン21の天井部などにカメラ24を取り付けて、スパン21を上方から撮像した撮像画像に基づき、機械学習を実行して、状態判別モデルを生成するようにしてもよい。   In the case of such mixed patterns, depending on the dimensions of the span 21, a state pattern in which small trucks T2 are stopped in a column in the depth direction can be assumed. In order to cope with such a case, as shown in FIG. 4E represented as a schematic plan view, for example, a machine 24 is attached to the ceiling of the span 21 and machine learning is performed based on a captured image obtained by capturing the span 21 from above. May be executed to generate a state determination model.

そして、同じく平面模式図として表した図4Fに示すように、たとえば大型のトラックT1が停車し、その横に縦列停車する小型のトラックT2の一方または双方が「存在する場合/しない場合」をそれぞれ含めた機械学習を実行することによって、トラックT2の縦列停車を許容可能なスパン21において、満車状態であるのか、または、バースに空きがあるのかを判別することが可能となる。   Then, as shown in FIG. 4F, which is also represented as a schematic plan view, for example, a case where a large truck T1 stops and one or both of the small trucks T2 which stop in a column next to each other are “present / not present” respectively. By executing the included machine learning, it is possible to determine whether the truck 21 is full or the berth has an empty space in the span 21 in which the parallel stop of the truck T2 can be allowed.

また、これまでは主に、スパン21内のトラックT1,T2のサイズの相対的な大小を例に挙げて説明してきたが、無論、車両寸法や最大積載量、車両総重量などによって分類される規格通りに「小型トラック」、「中型トラック」、「大型トラック」等をクラスタリングし、機械学習を実行するようにしてもよい。また、無論、メーカーや車種の異同に基づいて撮像画像をクラスタリングし、機械学習を実行するようにしてもよい。   In addition, the description has been given mainly by taking the relative size of the trucks T1 and T2 in the span 21 as an example, but it is of course classified according to vehicle dimensions, maximum loading capacity, total vehicle weight, and the like. According to the standard, “small trucks”, “medium trucks”, “large trucks”, etc. may be clustered and machine learning may be executed. Needless to say, machine learning may be performed by clustering captured images based on differences between manufacturers and vehicle types.

次に、図4Gには、スパン21が具備するシャッター22の閉状態を示している。かかるシャッター22の閉状態を含めた機械学習を実行することによって、スパン21が戸締まり状態であるのかを判別することが可能となる。   Next, FIG. 4G shows a closed state of the shutter 22 included in the span 21. By executing machine learning including the closed state of the shutter 22, it is possible to determine whether the span 21 is in the closed state.

なお、図4Hに示すように、シャッター22の閉状態の程度が異なる場合を含めた機械学習を実行することによって生成された状態判別モデルを用いて、スパン21の撮像画像の判定結果を時系列的に解析することによって、シャッター22が閉状態から開状態となったのか、開状態から閉状態となったのか、その途中であるのか、あるいは途中で止まっているのか等を判別することも可能である。   As shown in FIG. 4H, the determination result of the captured image of the span 21 is time-series using the state determination model generated by executing the machine learning including the case where the degree of the closed state of the shutter 22 is different. It is also possible to determine whether the shutter 22 has changed from the closed state to the open state, whether the shutter 22 has changed from the open state to the closed state, whether it is in the middle, or whether it is stopped in the middle. It is.

次に、図4Iには、車両以外の物体、たとえばコンテナCが置かれている状態を示している。かかる場合、いずれか一方のコンテナCが「存在する場合/しない場合」をそれぞれ含めた機械学習を実行することによって、スパン21に車両以外の物体(ここでは、コンテナC)が存在していることを判別することが可能となる。また、かかる場合において、スパン21がトラックT1,T2の進入できない状態であるのか、または、一方のバースが空いているのかを判別することが可能となる。   Next, FIG. 4I shows a state where an object other than a vehicle, for example, a container C is placed. In such a case, an object other than a vehicle (in this case, container C) exists in the span 21 by executing machine learning including the case where either one of the containers C is present / not present. Can be determined. In such a case, it is possible to determine whether the span 21 is in a state where the tracks T1 and T2 cannot enter or whether one of the berths is vacant.

次に、図4Jには、車両以外の物体、たとえば作業者等の人間Mが存在している状態を示している。かかる場合、人間Mが「存在する場合/しない場合」をそれぞれ含めた機械学習を実行することによって、スパン21に人間Mが存在していることを判別することが可能となる。また、かかる場合において、スパン21がトラックT1,T2の進入できない状態であるのか、または、進入できるが作業者がいるため注意を要するといった状態を判別することが可能となる。   Next, FIG. 4J shows a state where an object other than the vehicle, for example, a human M such as an operator exists. In such a case, it is possible to determine that the person M exists in the span 21 by executing machine learning including the case where the person M exists / does not exist. In such a case, it is possible to determine whether the span 21 is in a state where the tracks T1 and T2 cannot enter, or a state where the span 21 can enter but requires attention because there is an operator.

なお、図4Iまたは図4Jに示したのと同様に、スパン21に存在する可能性のある、フォークリフトといった作業車両が存在する場合/しない場合をそれぞれ含めた機械学習を実行することによって、作業車両の存在に関する状態を判別することも可能である。   As shown in FIG. 4I or FIG. 4J, by performing machine learning including a case where there is a work vehicle such as a forklift that may exist in the span 21, there is a work vehicle. It is also possible to determine the state relating to the presence of

次に、図4Kには、スパン21に停車しているトラックT1,T2のナンバーを判別する場合の例を示している。たとえば、図4Kに示すように、スパン21が満車状態であるものとする。かかる状態において、1つのスパン21全体が撮像された撮像画像に基づき、機械学習を実行するとともに、かかる撮像画像のうち、ナンバーの位置R1,R2の範囲指定部分を機械学習することによって、ナンバーを読み取り、判別することが可能となる。   Next, FIG. 4K shows an example in which the numbers of the trucks T1 and T2 stopped in the span 21 are determined. For example, as shown in FIG. 4K, the span 21 is assumed to be full. In such a state, machine learning is performed based on the captured image obtained by capturing the entire one span 21, and the number is determined by machine learning of the range designation portions of the number positions R 1 and R 2 in the captured image. Reading and discrimination are possible.

なお、かかる場合における機械学習のアルゴリズムとしては、たとえば、ディープラーニングの一種である「CNN(Convolutional Neural Network)」や、「faster R−CNN(Region-based Convolutional Neural Networks)」等を用いることができる。   As a machine learning algorithm in such a case, for example, “CNN (Convolutional Neural Network)” which is a kind of deep learning, “Faster R-CNN (Region-based Convolutional Neural Networks)” or the like can be used. .

図2の説明に戻り、つづいて監視部12eについて説明する。監視部12eは、判別部12dによって判別されたスパン21の状態を判別結果DB13fから取得し、所定の監視画面へ表示させる。監視画面は、たとえばサーバ装置10に接続されたディスプレイ等である表示部30へ表示される。   Returning to the description of FIG. 2, the monitoring unit 12e will be described. The monitoring unit 12e acquires the state of the span 21 determined by the determination unit 12d from the determination result DB 13f and displays it on a predetermined monitoring screen. The monitoring screen is displayed on the display unit 30 which is a display or the like connected to the server device 10, for example.

また、監視部12eは、少なくともスパン21ごとの満空状態およびスパン21のシャッター22の開閉状態を監視画面へ表示させる。また、監視部12eは、カメラ24によるスパン21または待機場23の最新の撮像画像を監視画面へ表示させる。撮像画像は、たとえば判別結果に対応付けられて判別結果DB13fへ格納されている。   In addition, the monitoring unit 12e displays at least the full state of each span 21 and the open / closed state of the shutter 22 of the span 21 on the monitoring screen. In addition, the monitoring unit 12e displays the latest captured image of the span 21 or the standby area 23 by the camera 24 on the monitoring screen. The captured image is stored in the discrimination result DB 13f in association with the discrimination result, for example.

ここで、図5Aおよび図5Bを用いて、監視画面の具体例について説明する。図5Aは、全体監視画面の具体例を示す図である。また、図5Bは、個別監視画面の具体例を示す図である。   Here, a specific example of the monitoring screen will be described with reference to FIGS. 5A and 5B. FIG. 5A is a diagram illustrating a specific example of the overall monitoring screen. FIG. 5B is a diagram illustrating a specific example of the individual monitoring screen.

図5Aに示すように、物流センター2の全体を監視する全体監視画面は、たとえば少なくともスパン21ごとの満空状態およびスパン21のシャッター22の開閉状態を表示する。なお、図5Aには、1Fに「101」〜「105」、2Fに「201」〜「205」、3Fに「301」〜「305」、4Fに「401」〜「405」で示される各スパン21の状態を表示した場合を示しているが、フロア数、スパン数を限定するものではない。   As shown in FIG. 5A, the overall monitoring screen for monitoring the entire distribution center 2 displays, for example, at least the full state of each span 21 and the open / closed state of the shutter 22 of the span 21. 5A, “101” to “105” on 1F, “201” to “205” on 2F, “301” to “305” on 3F, “401” to “405” on 4F, Although the case where the state of the span 21 is displayed is shown, the number of floors and the number of spans are not limited.

具体的には、全体監視画面は、各フロアのスパン21を、たとえばそれぞれアイコン表示する。そして、かかる各アイコンに、それぞれ「満」、「0/2」や「1/2」といった分数、「閉」、「NG」等の、状態を端的に示す文言を表示することによって、各スパン21の状態をオペレータ等の視認者に視認させる。なお、たとえば「更新」ボタンを押すことによって、最新の状況を表示させることができる。「更新」ボタンは、「手動更新」および「自動更新」の切り替え機能を含んでいてもよい。   Specifically, the overall monitoring screen displays, for example, icons for each span 21 of each floor. Each span is displayed by displaying a word indicating the state such as “full”, “0/2” or “1/2”, “closed”, “NG”, etc. The state of 21 is visually recognized by a viewer such as an operator. For example, the latest status can be displayed by pressing an “update” button. The “update” button may include a switching function between “manual update” and “automatic update”.

たとえば「満」は、そのスパン21が満車状態であることを示し、判別部12dによって、該当のスパン21が満車状態であると判別された場合に表示される。   For example, “full” indicates that the span 21 is full, and is displayed when the determination unit 12d determines that the span 21 is full.

また、たとえば「0/2」や「1/2」、「2/3」といった分数は、そのスパン21に空きバースがあることを示す。たとえば「0/2」は、判別部12dによって、該当のスパン21が大型のトラックT1を2台許容できる場合において、完全空車状態であると判別された場合に表示される。なお、トラックT1だけでなく、小型のトラックT2も許容できる場合には、「0/2」にあわせて「0/3」と表示されてもよい。   For example, fractions such as “0/2”, “1/2”, and “2/3” indicate that there is an empty berth in the span 21. For example, “0/2” is displayed when the determination unit 12d determines that the span 21 is completely empty when the corresponding span 21 can accept two large trucks T1. If not only the track T1 but also a small track T2 can be allowed, “0/3” may be displayed together with “0/2”.

また、たとえば「1/2」は、判別部12dによって、該当のスパン21が大型のトラックT1を2台許容できる場合において、空きバースが1つある状態であると判別された場合に表示される。   For example, “1/2” is displayed when the determination unit 12d determines that there is one empty berth when the corresponding span 21 allows two large trucks T1. .

また、たとえば「2/3」は、判別部12dによって、該当のスパン21が小型のトラックT2を3台許容できる場合において、空きバースが1つある状態であると判別された場合に表示される。   For example, “2/3” is displayed when the determination unit 12d determines that there is one empty berth when the corresponding span 21 can accept three small trucks T2. .

また、たとえば「閉」は、そのスパン21のシャッター22が閉状態であることを示し、判別部12dによって、該当のスパン21のシャッター22が閉状態であると判別された場合に表示される。図5Aに示す例では、4Fはすべてのスパン21が「閉」状態にあり、かかる場合において監視部12eは、たとえば4Fのフロアをセキュリティ管理することができる。かかる例については、図5Dを用いて後述する。   For example, “closed” indicates that the shutter 22 of the span 21 is in the closed state, and is displayed when the determination unit 12d determines that the shutter 22 of the corresponding span 21 is in the closed state. In the example shown in FIG. 5A, all the spans 21 are in the “closed” state in 4F, and in such a case, the monitoring unit 12e can perform security management on the floor of 4F, for example. Such an example will be described later with reference to FIG. 5D.

また、たとえば「NG」は、そのスパン21のシャッター22が異常状態であることを示し、判別部12dによって、たとえば該当のスパン21のシャッター22が故障中であると判別された場合等に表示される。判別部12dは、たとえばシャッター22が途中で止まったままの状態で所定時間が経過した場合等に、かかるシャッター22を故障中であると判別することができる。   For example, “NG” indicates that the shutter 22 of the span 21 is in an abnormal state, and is displayed when, for example, the determination unit 12d determines that the shutter 22 of the corresponding span 21 is out of order. The The determination unit 12d can determine that the shutter 22 is in failure, for example, when a predetermined time elapses with the shutter 22 stopped halfway.

また、図5Aに示すように、全体監視画面は、たとえば各フロアの空きバースの数を表示させることができる。このとき、「2F」の「5(うち1は小)」のように、空きバースの大きさが分かるような、言い換えれば停車可能なトラックT1,T2のサイズが分かるような表示を行ってもよい。   Moreover, as shown to FIG. 5A, the whole monitoring screen can display the number of empty berths of each floor, for example. At this time, even if the display is such as “2F” “5 (of which 1 is small)”, the size of the empty berth, in other words, the size of the trucks T1 and T2 that can be stopped is displayed. Good.

また、図5Aに示すように、全体監視画面は、待機場23の最新の撮像画像を表示させることができる。なお、たとえば「撮影」ボタンを押すことによって、さらに最新の撮像画像を表示させることもできる。   Further, as shown in FIG. 5A, the entire monitoring screen can display the latest captured image of the waiting area 23. For example, the latest captured image can be displayed by pressing the “shoot” button.

また、全体監視画面は、たとえば特定のスパン21を指定する操作を行うことによって、かかるスパン21の個別監視画面へと遷移することができる。ここで、1Fの「102」で示されるスパン21が指定されたものとする。   Further, the overall monitoring screen can be changed to an individual monitoring screen of the span 21 by performing an operation for designating a specific span 21, for example. Here, it is assumed that the span 21 indicated by “102” of 1F is designated.

すると、図5Bに示すように、かかる「102」のスパン21の個別監視画面へと表示を遷移させることができる。個別監視画面では、指定されたスパン21におけるバースの満空情報と、たとえば駐車時刻とが表示される。なお、全体監視画面と同様に、たとえば「更新」ボタンを押すことによって、最新の状況を表示させることができる。   Then, as shown in FIG. 5B, the display can be shifted to the individual monitoring screen of the span 102 of “102”. On the individual monitoring screen, the full information on the berth in the designated span 21 and the parking time, for example, are displayed. Similar to the overall monitoring screen, for example, the latest status can be displayed by pressing an “update” button.

また、図5Bに示すように、個別監視画面は、該当のスパン21の最新の撮像画像を表示させることができる。また、たとえば「撮影」ボタンを押すことによって、さらに最新の撮像画像を表示させることもできる。   5B, the individual monitoring screen can display the latest captured image of the corresponding span 21. Further, for example, the latest captured image can be displayed by pressing a “shoot” button.

物流センター2のオペレータは、かかる個別監視画面を視認することによって、該当のスパン21の詳細な状況、たとえば「102」のスパン21には、表示された駐車時刻からコンテナCが置かれており、トラックT1,T2を進入させることは不可であることを、即座に確認することができる。   The operator of the distribution center 2 visually recognizes the individual monitoring screen, and the container C is placed in the detailed status of the corresponding span 21, for example, the span 21 of “102” from the displayed parking time. It can be immediately confirmed that the trucks T1 and T2 cannot be entered.

そして、オペレータは、このような全体監視画面および個別監視画面を視認することによって、空きバースのあるスパン21を特定し、かかるスパン21へ停車可能なトラックT1,T2を待機場23の最新画像を介して選定して、たとえば音声や誘導灯により、誘導することができる。なお、トラックT1,T2のドライバが携帯する携帯情報端末や、トラックT1,T2に搭載されたナビ等の車載装置へ、空きバースの情報を通知することによって誘導してもよい。   Then, the operator identifies the span 21 with an empty berth by visually recognizing such an overall monitoring screen and the individual monitoring screen, and displays the latest images of the waiting areas 23 on the tracks T1 and T2 that can stop at the span 21. And can be guided, for example, by voice or a guide light. In addition, you may guide | induct by notifying the information of empty berth to portable information terminals which the driver of truck T1, T2 carries, or vehicle-mounted apparatuses, such as a navigation mounted in truck T1, T2.

図2の説明に戻る。また、監視部12eは、判別部12dによって判別されたスパン21の状態を蓄積および解析してスパン21の使用状況に関する情報を導出し、かかる使用状況に関する情報を提示する。また、監視部12eは、シャッター22の開閉状態に基づいて物流センター2をセキュリティ管理する。   Returning to the description of FIG. In addition, the monitoring unit 12e accumulates and analyzes the state of the span 21 determined by the determination unit 12d, derives information on the usage status of the span 21, and presents information on the usage status. Further, the monitoring unit 12e performs security management of the distribution center 2 based on the open / closed state of the shutter 22.

ここで、図5Cを用いて、監視部12eが、スパン21の使用状況に関する情報を提示する場合の例について説明する。また、図5Dを用いて、監視部12eが、シャッター22の開閉状態に基づいて物流センター2をセキュリティ管理する場合の例について説明する。   Here, an example in which the monitoring unit 12e presents information on the usage status of the span 21 will be described with reference to FIG. 5C. An example in which the monitoring unit 12e performs security management of the distribution center 2 based on the open / closed state of the shutter 22 will be described with reference to FIG. 5D.

図5Cは、使用状況監視画面の具体例を示す図である。また、図5Dは、物流センター2をセキュリティ管理する場合の具体例を示す図である。   FIG. 5C is a diagram illustrating a specific example of the usage status monitoring screen. FIG. 5D is a diagram showing a specific example in the case of security management of the distribution center 2.

監視部12eは、判別結果DB13fに基づき、各スパン21の使用状況に関する情報を導出し、図5Cに示すような使用状況監視画面へ表示させることができる。   The monitoring unit 12e can derive information on the usage status of each span 21 based on the determination result DB 13f and display the information on the usage status monitoring screen as illustrated in FIG. 5C.

使用状況監視画面は、たとえばスパン21やバースごとに、「稼働状態」や、「駐車開始」の日時、「経過時間」、「累計使用時間」、「使用率」、「メッセージ」等を表示することができる。   The usage status monitoring screen displays, for example, “operating state”, “parking start” date, “elapsed time”, “cumulative usage time”, “usage rate”, “message”, etc. for each span 21 or berth. be able to.

「稼働状態」は、たとえば前述の各スパン21の状態を端的に示す文言に対応する。「駐車開始」および「経過時間」は文字通り、駐車が開始された時間、および、駐車開始から経過した時間である。「累計使用時間」は、該当のスパン21またはバースが、該当の運用日当日において使用された累計時間である。「使用率」は、該当の運用日当日における使用率(稼働率と言い換えてもよい)である。「メッセージ」は、システム上、報知されておくべき特記事項等が表示される。   “Operating state” corresponds to, for example, the wording that briefly indicates the state of each span 21 described above. “Parking start” and “elapsed time” are literally the time when parking was started and the time elapsed since parking was started. The “cumulative usage time” is the cumulative time that the corresponding span 21 or berth is used on the corresponding operation day. “Usage rate” is a usage rate (may be referred to as an operating rate) on the day of operation. The “message” displays special notes etc. that should be notified on the system.

物流センター2のオペレータは、このような使用状況監視画面を視認することによって、たとえば空きバースのあるスパン21のうち、使用率の低いバースへ優先的にトラックT1,T2を誘導することができる。したがって、物流センター2を効率よく運用することができる。   The operator of the distribution center 2 can guide the trucks T1 and T2 preferentially to a berth with a low usage rate, for example, in the span 21 where there is an empty berth by visually recognizing such a use state monitoring screen. Therefore, the distribution center 2 can be operated efficiently.

また、図5Aを用いた説明で既に述べたが、たとえば全体監視画面において、すべてのスパン21が「閉」状態にあるフロアにつき、監視部12eはセキュリティ管理することができる。また、各フロアのすべてのスパン21が「閉」状態にあれば、監視部12eは物流センター2の建物全体をセキュリティ管理することができる。   As already described in the description with reference to FIG. 5A, for example, the monitoring unit 12e can perform security management on the floor in which all the spans 21 are in the “closed” state on the overall monitoring screen. If all the spans 21 on each floor are in the “closed” state, the monitoring unit 12e can perform security management for the entire building of the distribution center 2.

ここでは、図5Aと同様に、4Fのすべてのスパン21が「閉」状態にある場合を例に挙げて説明する。図5Dに示すように、4Fのすべてのスパン21が「閉」状態にあるものとする。   Here, as in FIG. 5A, the case where all the spans 4F are in the “closed” state will be described as an example. As shown in FIG. 5D, it is assumed that all spans 21 of 4F are in the “closed” state.

かかる場合に、監視部12eは、4Fのすべてのスパン21が戸締まり状態にあることを判別し、4Fをセキュリティ管理状態へ移行させる。たとえば監視部12eは、図5Dに示すように、4Fが「セキュリティ監視中」であることを表示させる。   In such a case, the monitoring unit 12e determines that all spans 21 of 4F are in the door-tight state, and shifts 4F to the security management state. For example, as shown in FIG. 5D, the monitoring unit 12e displays that 4F is “security monitoring in progress”.

なお、物流センター2は、たとえば1フロアを特定のテナントが専用フロアとする場合もあるため、フロアごとにセキュリティ管理が必要な状況は起こりうる。   In the distribution center 2, for example, a specific tenant may use one floor as a dedicated floor, so that a situation where security management is required for each floor may occur.

そして、監視部12eは、このようなセキュリティ管理状態においても、判別部12dの判別結果に基づいて各スパン21の状態を監視する。ここで、図5Dに示すように、判別部12dが、「404」のスパン21において「シャッター22が閉状態から変化したことを判別」したものとする。   The monitoring unit 12e also monitors the status of each span 21 based on the determination result of the determination unit 12d even in such a security management state. Here, as illustrated in FIG. 5D, it is assumed that the determination unit 12d determines “the shutter 22 has changed from the closed state” in the span 21 of “404”.

すると、監視部12eは、かかる判別結果に基づき、たとえば「404」のスパン21のアイコン表示を点滅させたり、「セキュリティ異常発生」とのメッセージ表示を点滅させたりすることによって、オペレータへ異常事態を報知する。なお、音声によってかかる事態を報知してもよい。   Then, based on the determination result, for example, the monitoring unit 12e blinks the icon display of the span 21 of “404” or blinks the message display of “Security Abnormality” to indicate an abnormal situation to the operator. Inform. In addition, you may alert | report this situation with an audio | voice.

また、監視部12eは、異常のあったスパン21の最新の撮像画像を、あわせて表示させることができる。これにより、オペレータは、異常が発生したスパン21に関する状況を即座に把握することが可能となる。なお、物流センター2の運用時間外等である場合、監視部12eは、オペレータの携帯する携帯情報端末等に、異常事態を報知するようにしてもよい。   In addition, the monitoring unit 12e can display the latest captured image of the span 21 in which an abnormality has occurred. As a result, the operator can immediately grasp the situation related to the span 21 where the abnormality has occurred. In addition, when it is outside the operation time of the distribution center 2 or the like, the monitoring unit 12e may notify an abnormal situation to a portable information terminal or the like carried by the operator.

このように、車両施設監視システム1は、物流センター2の運用時間の内外を問わず、言わば防犯設備としても利用することができる。   As described above, the vehicle facility monitoring system 1 can be used as a crime prevention equipment regardless of the operation time of the distribution center 2.

上述してきたように、実施形態に係る車両施設監視システム1は、カメラ24と、生成部12cと、判別部12dとを備える。カメラ24は、物流センター2(「車両施設」の一例に相当)におけるスパン21(「所定の駐停車領域」の一例に相当)ごとに設けられ、スパン21をそれぞれ撮像する。生成部12cは、カメラ24によって撮像された正例となる撮像画像を用いた機械学習を実行することで、スパン21ごとの車両の許容台数が動的に変化する場合を含むスパン21の状態判別モデルを生成する。判別部12dは、カメラ24によって撮像された判別対象分となる撮像画像を状態判別モデルへ入力することによって得られる出力値に基づいて、スパン21の状態を判別する。   As described above, the vehicle facility monitoring system 1 according to the embodiment includes the camera 24, the generation unit 12c, and the determination unit 12d. The camera 24 is provided for each span 21 (corresponding to an example of “predetermined parking area”) in the distribution center 2 (corresponding to an example of “vehicle facility”), and images the spans 21 respectively. The generation unit 12c performs machine learning using a positive captured image captured by the camera 24, thereby determining the state of the span 21 including a case where the allowable number of vehicles for each span 21 dynamically changes. Generate a model. The determination unit 12d determines the state of the span 21 based on an output value obtained by inputting a captured image, which is a determination target image captured by the camera 24, to the state determination model.

したがって、本実施形態に係る車両施設監視システム1によれば、物流センター2におけるスパン21の状態を精度よく判別し、物流センター2を効率よく運用することができる。   Therefore, according to the vehicle facility monitoring system 1 according to the present embodiment, the state of the span 21 in the distribution center 2 can be accurately determined and the distribution center 2 can be operated efficiently.

なお、上述した実施形態では、機械学習により、主にスパン21の状態を判別する場合を例に挙げたが、無論、待機場23の状態を判別するようにしてもよい。すなわち、待機場23の撮像画像に基づいて機械学習を実行し、生成された状態判別モデルによって、たとえば待機場23の各駐停車スペースの満空状態や、停車しているトラックT1,T2のサイズや、車種、ナンバー等を判別するようにしてもよい。   In the above-described embodiment, the case where the state of the span 21 is mainly determined by machine learning has been described as an example. However, the state of the standby area 23 may be determined as a matter of course. That is, machine learning is executed based on the captured image of the waiting area 23, and the generated state determination model, for example, indicates whether the parking spaces in the waiting area 23 are full or the size of the parked trucks T1 and T2. Alternatively, the vehicle type, number, etc. may be determined.

このように、待機場23の状態を判別可能とすることにより、たとえばあるスパン21のバースが空いたと判別された場合に、かかるバースへ進入可能なサイズであり、かつ、より長く待機しているトラックT1,T2を自動的に選定して、音声や誘導灯により、システムが自動的に誘導することが可能となる。   In this way, by making it possible to determine the state of the waiting area 23, for example, when it is determined that a berth of a certain span 21 is vacant, the size is such that the berth can enter the berth and is waiting longer. It is possible to automatically select the tracks T1 and T2 and automatically guide the system by voice or guide light.

また、トラックT1,T2の誘導業務については、他の車両誘導システムが導入され、これにより運用されている場合に、車両施設監視システム1は、スパン21および待機場23の状態の判別結果を、かかる他の車両誘導システムへ連携させるようにしてもよい。   In addition, for the guidance work of the trucks T1 and T2, when another vehicle guidance system is introduced and operated, the vehicle facility monitoring system 1 determines the determination result of the state of the span 21 and the waiting area 23, You may make it cooperate with this other vehicle guidance system.

これにより、物流センター2に複数のベンダによる複数のシステムが導入され、運用されている場合であっても、車両施設監視システム1の判別結果に基づいて、物流センター2を効率よく円滑に運用することが可能となる。   Thereby, even if a plurality of systems by a plurality of vendors are introduced and operated in the distribution center 2, the distribution center 2 is efficiently and smoothly operated based on the determination result of the vehicle facility monitoring system 1. It becomes possible.

また、上述した実施形態では、車両施設が物流センター2である場合を例に挙げたが、無論、車両施設を限定するものではない。たとえば、大型商業施設の駐車場などであってもよい。   In the above-described embodiment, the case where the vehicle facility is the distribution center 2 has been described as an example. For example, it may be a parking lot of a large commercial facility.

また、上述した実施形態では、サーバ装置10が、収集部12aと、抽出部12bと、生成部12cと、判別部12dと、監視部12eとを有する場合を例に挙げたが、たとえば収集部12aや、生成部12c、監視部12eが、それぞれの機能に特化した専用装置として構成されてもよい。   In the above-described embodiment, the server device 10 has been described as an example in which the server device 10 includes the collection unit 12a, the extraction unit 12b, the generation unit 12c, the determination unit 12d, and the monitoring unit 12e. 12a, the generation unit 12c, and the monitoring unit 12e may be configured as a dedicated device specialized for each function.

また、上述した実施形態では、機械学習のアルゴリズムとしてディープラーニングを用いるものとしたが、用いるアルゴリズムを限定するものではない。したがって、SVM(Support Vector Machine)のようなパターン識別器を用いたサポートベクタ回帰等の回帰分析手法により機械学習を実行し、状態判別モデルを生成してもよい。また、ここで、パターン識別器はSVMに限らず、たとえばアダブースト(AdaBoost)などであってもよい。また、ランダムフォレストなどを用いてもよい。   In the above-described embodiment, deep learning is used as a machine learning algorithm, but the algorithm to be used is not limited. Therefore, machine learning may be executed by a regression analysis method such as support vector regression using a pattern discriminator such as SVM (Support Vector Machine) to generate a state discrimination model. Here, the pattern discriminator is not limited to SVM, and may be, for example, AdaBoost. A random forest or the like may be used.

さらなる効果や変形例は、当業者によって容易に導き出すことができる。このため、本発明のより広範な態様は、以上のように表しかつ記述した特定の詳細および代表的な実施形態に限定されるものではない。したがって、添付の特許請求の範囲およびその均等物によって定義される総括的な発明の概念の精神または範囲から逸脱することなく、様々な変更が可能である。   Further effects and modifications can be easily derived by those skilled in the art. Thus, the broader aspects of the present invention are not limited to the specific details and representative embodiments shown and described above. Accordingly, various modifications can be made without departing from the spirit or scope of the general inventive concept as defined by the appended claims and their equivalents.

1 車両施設監視システム
2 物流センター
10 サーバ装置
12a 収集部
12c 生成部
12d 判別部
12e 監視部
13b 学習対象分データセット
13c 第1判別モデル
13d 第2判別モデル
13e 判別対象分データセット
21 スパン
22 シャッター
23 待機場
24 カメラ
DESCRIPTION OF SYMBOLS 1 Vehicle facility monitoring system 2 Distribution center 10 Server apparatus 12a Collection part 12c Generation part 12d Discriminating part 12e Monitoring part 13b Learning object part data set 13c 1st discrimination | determination model 13d 2nd discrimination | determination model 13e Discrimination object part data set 21 Span 22 Shutter 23 Waiting area 24 Camera

Claims (10)

車両施設における所定の駐停車領域ごとに設けられ、前記駐停車領域をそれぞれ撮像するカメラと、
前記カメラによって撮像された正例となる撮像画像を用いた機械学習を実行することで、前記駐停車領域ごとの車両の許容台数が動的に変化する場合を含む前記駐停車領域の状態判別モデルを生成する生成部と、
前記カメラによって撮像された判別対象分となる前記撮像画像を前記状態判別モデルへ入力することによって得られる出力値に基づいて、前記駐停車領域の状態を判別する判別部と
を備え
前記車両施設は、物流施設であり、
前記駐停車領域は、前記物流施設内の所定の区画であるスパンまたは前記物流施設の敷地内のトラックの待機場であ
ことを特徴とする車両施設監視システム。
A camera provided for each predetermined parking / stopping area in the vehicle facility, and imaging each of the parking / stopping areas;
The state determination model of the parking / stopping region including a case where the allowable number of vehicles for each parking / stopping region dynamically changes by executing machine learning using a positive captured image picked up by the camera A generating unit for generating
A discriminating unit for discriminating the state of the parking / stopping area based on an output value obtained by inputting the captured image that is the discrimination target imaged by the camera to the state discrimination model ;
The vehicle facility is a logistics facility,
The parking or stopping area, the vehicle facilities monitoring system, wherein the Ru holding area der track site of span or the distribution facilities is a predetermined section of the distribution facility.
前記判別部は、
前記出力値に基づいて前記駐停車領域に存在する物体を判別する
ことを特徴とする請求項1に記載の車両施設監視システム。
The discrimination unit
The vehicle facility monitoring system according to claim 1, wherein an object existing in the parking / stopping area is determined based on the output value.
前記判別部は、
前記出力値に基づいて前記駐停車領域における前記車両の満空状態を判別する
ことを特徴とする請求項2に記載の車両施設監視システム。
The discrimination unit
The vehicle facility monitoring system according to claim 2, wherein a full state of the vehicle in the parking / stopping area is determined based on the output value.
前記判別部は、
前記出力値に基づいて前記駐停車領域における前記車両以外の物品を判別する
ことを特徴とする請求項2または3に記載の車両施設監視システム。
The discrimination unit
The vehicle facility monitoring system according to claim 2 or 3, wherein an article other than the vehicle in the parking / stopping area is determined based on the output value.
前記判別部は、
前記出力値に基づいて前記駐停車領域に駐停車されたサイズの異なる複数の前記車両を判別する
ことを特徴とする請求項2、3または4に記載の車両施設監視システム。
The discrimination unit
5. The vehicle facility monitoring system according to claim 2, wherein a plurality of the vehicles having different sizes parked and stopped in the parking / stopping area are determined based on the output value.
前記カメラの前記撮像画像を周期的に収集する収集部
をさらに備え、
前記判別部は、
前記収集部によって収集された前記判別対象分に基づいて前記駐停車領域の状態を判別する
ことを特徴とする請求項1〜5のいずれか一つに記載の車両施設監視システム。
A collection unit that periodically collects the captured images of the camera;
The discrimination unit
The vehicle facility monitoring system according to any one of claims 1 to 5, wherein a state of the parking / stopping area is determined based on the determination target collected by the collection unit.
前記判別部によって判別された前記駐停車領域の状態を所定の監視画面へ表示させる監視部
をさらに備え、
前記監視部は、
少なくとも前記スパンごとの満空状態および前記スパンに具備されたシャッターの開閉状態を前記監視画面へ表示させることを特徴とする請求項1〜6のいずれか一つに記載の車両施設監視システム。
A monitoring unit for displaying a state of the parking / stopping area determined by the determining unit on a predetermined monitoring screen;
The monitoring unit
The vehicle facility monitoring system according to any one of claims 1 to 6, wherein at least an empty state for each span and an open / closed state of a shutter provided in the span are displayed on the monitoring screen.
前記監視部は、
前記カメラによる前記スパンまたは前記待機場の現在の前記撮像画像を前記監視画面へ表示させることを特徴とする請求項に記載の車両施設監視システム。
The monitoring unit
The vehicle facility monitoring system according to claim 7 , wherein the current captured image of the span or the waiting area by the camera is displayed on the monitoring screen.
前記監視部は、
前記シャッターの開閉状態に基づいて前記物流施設をセキュリティ管理する
ことを特徴とする請求項またはに記載の車両施設監視システム。
The monitoring unit
The vehicle facility monitoring system according to claim 7 or 8 , wherein security management is performed on the physical distribution facility based on an open / close state of the shutter.
前記監視部は、
前記判別部によって判別された前記駐停車領域の状態を蓄積および解析して前記駐停車領域の使用状況に関する情報を導出し、該使用状況に関する情報を提示する
ことを特徴とする請求項またはに記載の車両施設監視システム。
The monitoring unit
Claim 7, characterized in that the said determined by the determining unit to accumulate and analyze the state of the parking and stopping area to derive information about the usage of the parking and stopping area, presents information regarding said use situation, 8 Or the vehicle facility monitoring system according to 9 ;
JP2018053092A 2018-03-20 2018-03-20 Vehicle facility monitoring system Expired - Fee Related JP6389976B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018053092A JP6389976B1 (en) 2018-03-20 2018-03-20 Vehicle facility monitoring system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018053092A JP6389976B1 (en) 2018-03-20 2018-03-20 Vehicle facility monitoring system

Publications (2)

Publication Number Publication Date
JP6389976B1 true JP6389976B1 (en) 2018-09-12
JP2019164694A JP2019164694A (en) 2019-09-26

Family

ID=63518855

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018053092A Expired - Fee Related JP6389976B1 (en) 2018-03-20 2018-03-20 Vehicle facility monitoring system

Country Status (1)

Country Link
JP (1) JP6389976B1 (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10504364B2 (en) 2016-01-05 2019-12-10 Locix, Inc. Systems and methods for using radio frequency signals and sensors to monitor environments
CN111506626A (en) * 2020-04-21 2020-08-07 武汉理工大学 Lockage control system based on analysis of ship navigation behavior information
JP2020135535A (en) * 2019-02-21 2020-08-31 株式会社Ye Digital Vehicle discrimination method, vehicle discrimination device, and vehicle discrimination program
JP2020201314A (en) * 2019-06-06 2020-12-17 パナソニックIpマネジメント株式会社 Display device and program
US11030902B2 (en) 2016-01-05 2021-06-08 Locix, Inc. Systems and methods for using radio frequency signals and sensors to monitor environments
US11924757B2 (en) 2015-01-27 2024-03-05 ZaiNar, Inc. Systems and methods for providing wireless asymmetric network architectures of wireless devices with power management features

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021124926A (en) * 2020-02-04 2021-08-30 株式会社デンソーテン Information processing device, distribution system, and information processing method
JP7412326B2 (en) * 2020-12-28 2024-01-12 西菱電機株式会社 Parking lot management device
WO2023162769A1 (en) * 2022-02-24 2023-08-31 Sony Group Corporation Information processing apparatus, information processing method, and non-transitory computer-readable storage medium

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007293674A (en) * 2006-04-26 2007-11-08 Komatsu Butsuryu Kk Vehicle management system and vehicle management method
JP2016531411A (en) * 2013-09-10 2016-10-06 ケーエムダブリュ・インコーポレーテッド LED lighting fixtures for outdoor parking

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007293674A (en) * 2006-04-26 2007-11-08 Komatsu Butsuryu Kk Vehicle management system and vehicle management method
JP2016531411A (en) * 2013-09-10 2016-10-06 ケーエムダブリュ・インコーポレーテッド LED lighting fixtures for outdoor parking

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
長部大・飯塚祐介・東明浩: "機械学習を活用した映像解析技術による社会課題解決ソリューション", FUJITSU 2016年11月号, vol. Vol.67 No.6, JPN6018015378, 1 November 2016 (2016-11-01), JP, pages 29 - 35 *

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11924757B2 (en) 2015-01-27 2024-03-05 ZaiNar, Inc. Systems and methods for providing wireless asymmetric network architectures of wireless devices with power management features
US10504364B2 (en) 2016-01-05 2019-12-10 Locix, Inc. Systems and methods for using radio frequency signals and sensors to monitor environments
US11030902B2 (en) 2016-01-05 2021-06-08 Locix, Inc. Systems and methods for using radio frequency signals and sensors to monitor environments
US11276308B2 (en) 2016-01-05 2022-03-15 Locix, Inc. Systems and methods for using radio frequency signals and sensors to monitor environments
JP2020135535A (en) * 2019-02-21 2020-08-31 株式会社Ye Digital Vehicle discrimination method, vehicle discrimination device, and vehicle discrimination program
JP2020201314A (en) * 2019-06-06 2020-12-17 パナソニックIpマネジメント株式会社 Display device and program
JP7236700B2 (en) 2019-06-06 2023-03-10 パナソニックIpマネジメント株式会社 display and program
CN111506626A (en) * 2020-04-21 2020-08-07 武汉理工大学 Lockage control system based on analysis of ship navigation behavior information
CN111506626B (en) * 2020-04-21 2023-09-26 武汉理工大学 Pass gate control system based on ship navigation behavior information analysis

Also Published As

Publication number Publication date
JP2019164694A (en) 2019-09-26

Similar Documents

Publication Publication Date Title
JP6389976B1 (en) Vehicle facility monitoring system
JP7371157B2 (en) Vehicle monitoring method, device, electronic device, storage medium, computer program, cloud control platform and roadway coordination system
CN111989725B (en) Information processing method and information processing system
EP3762321A2 (en) Methods and apparatus to monitor and manage loading docks and facility operations
US8406986B2 (en) Emergency routing within a controllable transit system
CN108256554A (en) Vehicle reverse stopping judgment method, server and system based on deep learning
EP4227253A1 (en) Information processing device for crane
JP2010152728A (en) Management system, management method, program, management device and on-vehicle machine
US10589720B1 (en) Automated system for car access in retail environment
US20200410250A1 (en) Computer vision system that provides space monitoring and social distancing indicators
JP2020135535A (en) Vehicle discrimination method, vehicle discrimination device, and vehicle discrimination program
CN113762766A (en) Rail transit station transport pipe system, method and device
US20230384787A1 (en) System and apparatus for resource management
US10682980B1 (en) Systems and methods for test driving cars with limited human interaction
JP6539775B1 (en) Vehicle facility monitoring system
KR102072691B1 (en) Integrated vehicle management system in service center
US11540138B2 (en) Interactive local information interface
CN110769042B (en) System for railway loading and unloading operation information acquisition
US20220179409A1 (en) Optimizing management of autonomous vehicles
US11558722B2 (en) Management apparatus, communication apparatus, system, method, and non-transitory computer readable medium
JP2009286205A (en) Train operation schedule preparation system
CN110910078A (en) Truck cargo collection control method, system and computer readable storage medium
JP6909272B2 (en) Vehicle dispatch support system, computer, terminal, vehicle dispatch support method and program
US11726475B2 (en) Autonomous aerial vehicle airspace claiming and announcing
US20230058947A1 (en) Parking support device, parking support method, parking support system, storage medium for storing parking support program, and portable terminal device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180320

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20180320

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20180423

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180508

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180524

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180807

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180820

R150 Certificate of patent or registration of utility model

Ref document number: 6389976

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees