JP6994996B2 - Traffic route judgment system - Google Patents

Traffic route judgment system Download PDF

Info

Publication number
JP6994996B2
JP6994996B2 JP2018057627A JP2018057627A JP6994996B2 JP 6994996 B2 JP6994996 B2 JP 6994996B2 JP 2018057627 A JP2018057627 A JP 2018057627A JP 2018057627 A JP2018057627 A JP 2018057627A JP 6994996 B2 JP6994996 B2 JP 6994996B2
Authority
JP
Japan
Prior art keywords
passage
unit
vibration
image
acquisition unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018057627A
Other languages
Japanese (ja)
Other versions
JP2019167768A (en
Inventor
哲平 小西
隆仁 齊藤
基成 小林
雅二 片桐
大造 池田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NTT Docomo Inc
Original Assignee
NTT Docomo Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NTT Docomo Inc filed Critical NTT Docomo Inc
Priority to JP2018057627A priority Critical patent/JP6994996B2/en
Publication of JP2019167768A publication Critical patent/JP2019167768A/en
Application granted granted Critical
Publication of JP6994996B2 publication Critical patent/JP6994996B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)
  • Road Repair (AREA)
  • Bridges Or Land Bridges (AREA)

Description

本発明は、通行路の状態を判定する通行路判定システムに関する。 The present invention relates to a passage determination system for determining the state of a passage.

特許文献1には、橋梁を通過する車両の車重別の台数を測定して、橋梁の疲労損傷度を求めることが示されている。車両の判別には、橋梁に設けられた歪みセンサを用いるとされている。 Patent Document 1 discloses that the degree of fatigue damage of a bridge is obtained by measuring the number of vehicles passing through the bridge by vehicle weight. It is said that a strain sensor provided on the bridge is used to identify the vehicle.

特開2004-44116号公報Japanese Unexamined Patent Publication No. 2004-44116

特許文献1に記載された方法では、車両を判別するために橋梁に歪みセンサを設置する必要があり、大きな手間及びコストが必要となる。また、歪みセンサでは、必ずしも適切に車両の判別ができず、橋梁の状態を適切に判別できないおそれがあった。 In the method described in Patent Document 1, it is necessary to install a strain sensor on the bridge in order to discriminate the vehicle, which requires a large amount of labor and cost. In addition, the strain sensor cannot always properly discriminate the vehicle, and there is a possibility that the state of the bridge cannot be properly discriminated.

本発明は、上記に鑑みてなされたものであり、簡易かつ適切に橋梁等の通行路の状態の判定を可能にする通行路判定システムを提供することを目的とする。 The present invention has been made in view of the above, and an object of the present invention is to provide a passage determination system that enables easy and appropriate determination of the state of a passage such as a bridge.

上記の目的を達成するために、本発明に係る通行路判定システムは、通行路上を通行する物体を撮像した画像を取得する画像取得部と、画像取得部によって取得された画像から、通行する物体の種別を特定する物体特定部と、物体特定部によって特定された物体の種別に基づいて、通行路の状態を判定する判定部と、物体特定部によって特定された物体が通行路上を通行する際の当該通行路の振動を示す情報を取得する振動取得部と、を備え、判定部は、物体特定部によって特定された物体の種別に応じて、振動取得部によって取得された情報によって示される、同一の種別の物体が通行している場合の異なるタイミングでの振動を比較して通行路の状態を判定する。物体特定部は、画像取得部によって取得された画像から、通行する物体の速度を特定し、判定部は、物体特定部によって特定された物体の速度にも基づいて、通行路の状態を判定する。又は、判定部は、物体特定部によって特定された物体が通行路上を通行する際の当該通行路に係る環境を示す情報を取得して、当該環境を示す情報にも基づいて、通行路の状態を判定する。 In order to achieve the above object, the passage determination system according to the present invention has an image acquisition unit that acquires an image of an object passing on the passage, and an object that passes from the image acquired by the image acquisition unit. An object identification unit that specifies the type of the object, a determination unit that determines the state of the passage based on the type of the object specified by the object identification unit, and an object specified by the object identification unit when passing on the passage. The determination unit includes a vibration acquisition unit that acquires information indicating the vibration of the passage, and the determination unit is indicated by the information acquired by the vibration acquisition unit according to the type of the object specified by the object identification unit. The state of the passage is determined by comparing the vibrations at different timings when objects of the same type are passing. The object identification unit identifies the speed of a passing object from the image acquired by the image acquisition unit, and the determination unit determines the state of the passage based on the speed of the object specified by the object identification unit. .. Alternatively, the determination unit acquires information indicating the environment related to the passage when the object specified by the object identification unit passes on the passage, and the state of the passage is based on the information indicating the environment. To judge.

本発明に係る通行路判定システムでは、画像から通行路上を通行する物体が特定されて、特定された物体に基づいて通行路の状態が判定される。従って、本発明に係る通行路判定システムによれば、簡易かつ適切に橋梁等の通行路の状態の判定を可能にすることができる。 In the passage determination system according to the present invention, an object passing on the passage is specified from the image, and the state of the passage is determined based on the specified object. Therefore, according to the passage determination system according to the present invention, it is possible to easily and appropriately determine the state of the passage such as a bridge.

本発明では、画像から通行路上を通行する物体が特定されて、特定された物体に基づいて通行路の状態が判定される。従って、本発明によれば、簡易かつ適切に橋梁等の通行路の状態の判定を可能にすることができる。 In the present invention, an object passing on the passage is specified from the image, and the state of the passage is determined based on the specified object. Therefore, according to the present invention, it is possible to easily and appropriately determine the state of a passage such as a bridge.

本発明の実施形態に係る通行路判定システムの構成を示す図である。It is a figure which shows the structure of the passage determination system which concerns on embodiment of this invention. 通行路を通行する車両の車種の判別を模式的に示す図である。It is a figure which shows typically the determination of the vehicle type of the vehicle passing through a passage. 画像データベースの例を示す図である。It is a figure which shows the example of an image database. 判定対象の通行路を写した動画像及び要素への分割の例を模式的に示す図である。It is a figure which shows typically the example of the moving image which copied the passage | determination target, and the division into an element. 通行路の振動のデータのグラフの例である。It is an example of the graph of the vibration data of the passage. 振動のデータをフーリエ変換したグラフの例である。This is an example of a graph obtained by Fourier transforming vibration data. 本発明の実施形態に係る通行路判定システムで実行される処理を示すフローチャートである。It is a flowchart which shows the process executed by the passage determination system which concerns on embodiment of this invention. 本発明の実施形態に係る通行路判定システムに含まれるサーバのハードウェア構成を示す図である。It is a figure which shows the hardware configuration of the server included in the passage determination system which concerns on embodiment of this invention.

以下、図面と共に本発明に係る通行路判定システムの実施形態について詳細に説明する。なお、図面の説明においては同一要素には同一符号を付し、重複する説明を省略する。 Hereinafter, embodiments of the passage determination system according to the present invention will be described in detail together with the drawings. In the description of the drawings, the same elements are designated by the same reference numerals, and duplicate description will be omitted.

図1に本実施形態に係る通行路判定システム1を示す。図1に示すように通行路判定システム1は、カメラ10と、サーバ20とを含んで構成される。通行路判定システム1は、通行路の状態を判定するシステムである。判定対象となる通行路は、自動車等の車両が通行する橋梁又は道路等である。判定される通行路の状態は、例えば、通行路に異常が生じている(例えば、劣化が生じている)か否かである。あるいは、判定される通行路の状態は、通行路の劣化状態(劣化度)又は通行路の健全状態(健全度)等である。通行路判定システム1による判定の結果は、例えば、通行路の補強又は改修等の判断に用いられる。通行路判定システム1では、カメラ10で撮像された画像を用いて、サーバ20によって通行路の状態の判定が行われる。 FIG. 1 shows a passage determination system 1 according to the present embodiment. As shown in FIG. 1, the passage determination system 1 includes a camera 10 and a server 20. The passage determination system 1 is a system for determining the state of the passage. The passage to be determined is a bridge or a road through which a vehicle such as an automobile passes. The state of the passage to be determined is, for example, whether or not an abnormality has occurred in the passage (for example, deterioration has occurred). Alternatively, the state of the passage to be determined is a deterioration state (deterioration degree) of the passage, a sound condition (health degree) of the passage, or the like. The result of the determination by the passage determination system 1 is used, for example, for determination of reinforcement or repair of the passage. In the passage determination system 1, the server 20 determines the state of the passage using the image captured by the camera 10.

引き続いて、通行路判定システム1に含まれるカメラ10及びサーバ20の構成を説明する。カメラ10は、判定対象の通行路を通行する車両等の物体を撮像して、動画像を取得する撮像装置である。カメラ10は、予め当該物体を撮像できる位置に固定的に設置される。カメラ10としては、後述するサーバ20による処理に用いることが可能な程度の解像度で撮像を行うことが可能な周知のカメラを用いることができる。カメラ10とサーバ20とは、互いに情報の送受信を行うことができる。カメラ10は、予め設定されたフレームレート(fps)で通行路を撮像して、撮像した動画像をサーバ20に送信する。 Subsequently, the configurations of the camera 10 and the server 20 included in the passage determination system 1 will be described. The camera 10 is an imaging device that captures an object such as a vehicle passing through a passage to be determined and acquires a moving image. The camera 10 is fixedly installed in advance at a position where the object can be imaged. As the camera 10, a well-known camera capable of taking an image at a resolution that can be used for processing by the server 20 described later can be used. The camera 10 and the server 20 can send and receive information to and from each other. The camera 10 images the passage path at a preset frame rate (fps) and transmits the captured moving image to the server 20.

また、カメラ10は、通行路の振動を検出するための動画像を撮像することとしてもよい。当該動画像は、上記の通行路を通行する物体を撮像した動画像と同一のものであってもよいし、別の動画像としてもよい。別の動画像とする場合には、カメラ10は、各動画像用にそれぞれ設けられる。通行路の振動を検出するための動画像を撮像するカメラ10は、予め通行路を撮像できる位置に固定的に設置される。通行路の振動を検出するための動画像は、通行路を通行する車両等の物体の動画像と同一のタイミングで撮像されたものとされる。カメラ10は、当該動画像もサーバ20に送信する。 Further, the camera 10 may capture a moving image for detecting the vibration of the passage. The moving image may be the same as the moving image obtained by capturing an object passing through the passage, or may be another moving image. In the case of different moving images, a camera 10 is provided for each moving image. The camera 10 that captures a moving image for detecting the vibration of the passage path is fixedly installed at a position where the passage path can be imaged in advance. The moving image for detecting the vibration of the passage is taken at the same timing as the moving image of an object such as a vehicle passing through the passage. The camera 10 also transmits the moving image to the server 20.

図1に示すように、サーバ20は、機能的には、画像取得部21と、物体特定部22と、振動取得部23と、判定部24と、出力部25とを備えて構成される。 As shown in FIG. 1, the server 20 is functionally configured to include an image acquisition unit 21, an object identification unit 22, a vibration acquisition unit 23, a determination unit 24, and an output unit 25.

画像取得部21は、通行路上を通行する物体を撮像した画像を取得する機能部である。画像取得部21は、カメラ10から送信される動画像を受信して、当該画像を取得する。画像取得部21は、取得した動画像(画像)を物体特定部22及び振動取得部23に出力する。 The image acquisition unit 21 is a functional unit that acquires an image of an object passing on the passage. The image acquisition unit 21 receives a moving image transmitted from the camera 10 and acquires the image. The image acquisition unit 21 outputs the acquired moving image (image) to the object identification unit 22 and the vibration acquisition unit 23.

物体特定部22は、画像取得部21によって取得された画像から、通行路上を通行する物体を特定する機能部である。物体特定部22は、画像取得部21によって取得された画像から、通行する物体の速度を特定する。 The object identification unit 22 is a functional unit that identifies an object passing on the passage from the image acquired by the image acquisition unit 21. The object identification unit 22 specifies the speed of a passing object from the image acquired by the image acquisition unit 21.

物体特定部22は、画像取得部21から動画像を入力する。例えば、物体特定部22は、通行路上を通行する物体として、通行路上を通行する自動車等の車両の車種を特定する。物体特定部22は、動画像の中の予め設定されたタイミングのフレーム(画像)から車両の車種を特定する。車種の特定は、パターン認識等の周知の方法を用いて行うことができる。図2に車種の特定方法の一例を模式的に示す。 The object identification unit 22 inputs a moving image from the image acquisition unit 21. For example, the object identification unit 22 identifies the vehicle type of a vehicle such as an automobile passing on the passage as an object passing on the passage. The object identification unit 22 identifies the vehicle type of the vehicle from a frame (image) of a preset timing in the moving image. The vehicle type can be specified by using a well-known method such as pattern recognition. FIG. 2 schematically shows an example of a method for specifying a vehicle type.

物体特定部22は、画像データベースを予め記憶している。画像データベースは、画像取得部21から入力した画像から車両が写っている部分を抽出するために用いられる、車両の画像を格納したデータベースである。物体特定部22は、画像取得部21から入力した画像から、予め記憶したカスケード分類器と画像データベースに格納されている画像とから、車両が写っている部分を抽出する。 The object identification unit 22 stores an image database in advance. The image database is a database that stores an image of a vehicle, which is used to extract a portion in which a vehicle is shown from an image input from the image acquisition unit 21. The object identification unit 22 extracts a portion of the vehicle from the image input from the image acquisition unit 21 from the image stored in the cascade classifier and the image database stored in advance.

物体特定部22は、車両データベースを予め記憶している。車両データベースは、上記の抽出した部分画像から車種を特定するために用いられる、車両の画像を格納したデータベースである。車両データベースの例を図3に示す。図3に示すように、車両データベースには、車種毎の車両の画像が格納されている。また、車両データベースには、車種毎に車両の重さを示す情報を対応付けて格納しておいてもよい。 The object identification unit 22 stores the vehicle database in advance. The vehicle database is a database that stores images of vehicles used to identify a vehicle type from the above-extracted partial images. An example of a vehicle database is shown in FIG. As shown in FIG. 3, the vehicle database stores images of vehicles for each vehicle type. Further, in the vehicle database, information indicating the weight of the vehicle may be stored in association with each vehicle type.

物体特定部22は、抽出した部分画像から、予め記憶したカスケード分類器(上記の部分画像を抽出するためのカスケード分類器とは異なる)と車両データベースに格納されている画像とから車種を特定する。 The object identification unit 22 identifies the vehicle type from the extracted partial image from the cascade classifier stored in advance (different from the cascade classifier for extracting the above partial image) and the image stored in the vehicle database. ..

また、物体特定部22は、車種を特定した車両の速度を特定する。物体特定部22は、動画像を構成する各フレーム(画像)から、オプティカルフローによって当該車両のピクセル変位を算出する。物体特定部22は、算出したピクセル変位と、予め設定又は算出されている1ピクセル当たりの実空間上での距離とから、実空間での車両の変位量を算出する。物体特定部22は、算出した車両の変位量と動画像のフレームレートとから当該車両の速度を算出する。なお、動画像からの車両の速度の特定(算出)は、必ずしも上記の方法で行われる必要はなく、従来の任意の方法で行われ得る。物体特定部22は、特定した車両の車種及び速度を示す情報を判定部24に出力する。 Further, the object specifying unit 22 specifies the speed of the vehicle for which the vehicle type has been specified. The object identification unit 22 calculates the pixel displacement of the vehicle from each frame (image) constituting the moving image by optical flow. The object identification unit 22 calculates the displacement amount of the vehicle in the real space from the calculated pixel displacement and the preset or calculated distance per pixel in the real space. The object identification unit 22 calculates the speed of the vehicle from the calculated displacement amount of the vehicle and the frame rate of the moving image. It should be noted that the specification (calculation) of the vehicle speed from the moving image does not necessarily have to be performed by the above method, but may be performed by any conventional method. The object identification unit 22 outputs information indicating the vehicle type and speed of the specified vehicle to the determination unit 24.

振動取得部23は、物体特定部22によって特定された物体が通行路上を通行する際の当該通行路の振動を示す情報を取得する機能部である。振動取得部23は、通行路を撮像した動画像を取得して、取得した動画像から当該通行路の振動を検出する。 The vibration acquisition unit 23 is a functional unit that acquires information indicating vibration of the passage when the object specified by the object identification unit 22 passes on the passage. The vibration acquisition unit 23 acquires a moving image of the passage, and detects the vibration of the passage from the acquired moving image.

振動取得部23は、通行路の振動を検出するための通行路が撮像された動画像を画像取得部21から入力して取得する。振動取得部23は、当該動画像から、POC(Phase Only Correlation)等の従来の技術によってサブピクセル単位での変位を検出して、通行路の振動を検出する。例えば、振動取得部23は、以下のように振動を検出する。 The vibration acquisition unit 23 inputs and acquires a moving image in which the passage path for detecting the vibration of the passage path is captured from the image acquisition unit 21. The vibration acquisition unit 23 detects the displacement in sub-pixel units from the moving image by a conventional technique such as POC (Phase Only Correlation), and detects the vibration of the passage. For example, the vibration acquisition unit 23 detects vibration as follows.

振動取得部23は、図4に示すように取得した動画像を、当該動画像を構成する個々のフレーム(画像)に分割する。振動取得部23は、個々のフレームから、予め設定された位置の複数の領域の部分画像(位相画像)を抽出する(部分画像に分割する)。本実施形態では、個々の領域を要素Eと呼ぶ。要素Eのサイズは、予め設定されている。要素Eの位置は、動画像において通行路が写っている位置とされる。要素Eの位置は、例えば、予め通行路判定システム1のユーザによって設定され、振動取得部23に記憶されている。あるいは、振動取得部23が、動画像において通行路が写っている位置を検出して、検出された位置を要素Eの位置と設定してもよい。 The vibration acquisition unit 23 divides the acquired moving image as shown in FIG. 4 into individual frames (images) constituting the moving image. The vibration acquisition unit 23 extracts (divides into partial images) partial images (phase images) of a plurality of regions at preset positions from individual frames. In this embodiment, each region is referred to as an element E. The size of the element E is preset. The position of the element E is the position where the passage is shown in the moving image. The position of the element E is, for example, set in advance by the user of the passage determination system 1 and stored in the vibration acquisition unit 23. Alternatively, the vibration acquisition unit 23 may detect the position where the passage is shown in the moving image and set the detected position as the position of the element E.

振動取得部23は、前後のフレーム間の同一の(位置の)要素Eの位置ずれをサブピクセル精度で算出する。なお、前後のフレーム間の時間差Δtは、フレームレート(fps)の逆数となる(Δt=1/fps)。振動取得部23は、例えば橋梁の状態を判定する場合には、動画像のy方向について位置ずれの算出を行う。橋梁の劣化は、縦方向(鉛直方向)の振動に応じて進むためである。振動取得部23は、動画像から、各要素について前後の各フレーム間の位置ずれ(変位y)を、通行路の振動として算出する。振動取得部23によって動画像から得られる振動のデータは、図5に示すように要素i及び時間(時刻)t毎の変位yのデータとなる。振動取得部23は、得られた振動のデータを判定部24に出力する。 The vibration acquisition unit 23 calculates the positional deviation of the same (positional) element E between the front and rear frames with sub-pixel accuracy. The time difference Δt between the preceding and following frames is the reciprocal of the frame rate (fps) (Δt = 1 / fps). The vibration acquisition unit 23 calculates the positional deviation in the y direction of the moving image, for example, when determining the state of the bridge. This is because the deterioration of the bridge proceeds in response to vibration in the vertical direction (vertical direction). The vibration acquisition unit 23 calculates the positional deviation (displacement y) between the front and rear frames for each element from the moving image as the vibration of the passage. The vibration data obtained from the moving image by the vibration acquisition unit 23 is the data of the element i and the displacement y for each time (time) t as shown in FIG. The vibration acquisition unit 23 outputs the obtained vibration data to the determination unit 24.

なお、振動取得部23によって取得された当該通行路の振動を示す情報と、物体特定部22によって特定された物体(車両の種別等)を示す情報とは、互いに対応付けられる。当該対応付けは、当該通行路の振動が、特定された物体が通行路上を通行する際の当該通行路の振動であるように行われる。具体的には、同一のタイミングで撮像された画像(動画像)から検出(特定)された振動と、物体とが対応付けられる。また、上記の例では、通行路の複数の箇所(要素)についての振動を検出しているが、複数の箇所である必要はなく、1箇所の振動を検出することとしてもよい。 The information indicating the vibration of the passage acquired by the vibration acquisition unit 23 and the information indicating the object (vehicle type, etc.) specified by the object identification unit 22 are associated with each other. The association is performed so that the vibration of the passage is the vibration of the passage when the specified object passes on the passage. Specifically, the vibration detected (specified) from the image (moving image) captured at the same timing is associated with the object. Further, in the above example, vibrations at a plurality of points (elements) of the passage are detected, but the vibrations at a plurality of points do not have to be detected, and vibrations at one place may be detected.

判定部24は、物体特定部22によって特定された物体に基づいて、通行路の状態を判定する機能部である。判定部24は、物体特定部22によって特定された物体の速度にも基づいて、通行路の状態を判定する。判定部24は、物体特定部22によって特定された物体に応じて、振動取得部23によって取得された情報によって示される異なるタイミングでの振動を比較して通行路の状態を判定する。 The determination unit 24 is a functional unit that determines the state of the passage based on the object specified by the object identification unit 22. The determination unit 24 determines the state of the passage based on the speed of the object specified by the object identification unit 22. The determination unit 24 determines the state of the passage by comparing the vibrations at different timings indicated by the information acquired by the vibration acquisition unit 23 according to the object specified by the object identification unit 22.

車両等の通行による通行路の振動は、当該通行路の劣化等の状態に応じたものとなる。従って、時系列の通行路の振動を比較することで、通行路の劣化等の状態を把握することができる。しかしながら、その一方で通行路の振動は通行する車両等に応じたものとなる。例えば、重い車両が通行した場合と軽い車両が通行した場合とで、通行路の振動は異なるものとなる。その場合、これらの振動を比較しても、通行路の劣化等の状態を適切に把握することができない。本実施形態は、互いに比較すべき振動を、物体特定部22によって特定された物体によって適切なものとする。 The vibration of the passage due to the passage of a vehicle or the like depends on the deterioration of the passage. Therefore, by comparing the vibrations of the passages in time series, it is possible to grasp the state of deterioration of the passages and the like. However, on the other hand, the vibration of the passage is dependent on the passing vehicle or the like. For example, the vibration of the passage differs depending on whether a heavy vehicle passes through or a light vehicle passes through. In that case, even if these vibrations are compared, it is not possible to properly grasp the state such as deterioration of the passage. In this embodiment, the vibrations to be compared with each other are appropriate for the object specified by the object identification unit 22.

上述したように判定部24による判定は、異なるタイミングでの通行路の振動に基づいて行われる。そのため、異なる複数のタイミングで撮像された動画像から、物体特定部22は物体を特定し、振動取得部23は通行路の振動を検出する。判定部24は、各タイミングにおいて撮像された動画像から特定された物体及び振動の情報を、物体特定部22及び振動取得部23から入力する。 As described above, the determination by the determination unit 24 is performed based on the vibration of the passage at different timings. Therefore, the object identification unit 22 identifies the object from the moving images captured at a plurality of different timings, and the vibration acquisition unit 23 detects the vibration of the passage. The determination unit 24 inputs information on the object and vibration specified from the moving image captured at each timing from the object identification unit 22 and the vibration acquisition unit 23.

判定部24は、例えば、同一の車種の車両が通行している場合の振動を比較して通行路の状態を判定する。判定部24は、例えば、異なるタイミングでの固有振動数を比較して状態の判断を行う。判定部24は、振動取得部23から入力したタイミング毎の振動のデータ(時間(時刻)t毎の変位yのデータ)をフーリエ変換する。フーリエ変換によって振動のデータは、図6に示すような周波数(Hz)毎の強度(パワー)のデータとなる。判定部24は、フーリエ変換によって得られた振動のデータから固有振動数(卓越周波数)を算出(検出)する。固有振動数は、例えば、強度が極大値となる周波数のうち、最も小さい周波数である。一般に橋梁は劣化すると固有振動数が低くなると言われている。判定部24は、図5に示すような複数のタイミングで撮像された動画像について、固有振動数を算出して、固有振動数が予め設定された閾値以上下がっていた場合、通行路が劣化したと判断する。なお、通行路の振動を要素毎に検出している場合には、要素(箇所)毎に判断することとしてもよい。 The determination unit 24 determines, for example, the state of the passage by comparing the vibrations when vehicles of the same vehicle type are passing. The determination unit 24 determines the state by comparing the natural frequencies at different timings, for example. The determination unit 24 Fourier transforms the vibration data (displacement y data for each time (time) t) input from the vibration acquisition unit 23 for each timing. By the Fourier transform, the vibration data becomes the intensity (power) data for each frequency (Hz) as shown in FIG. The determination unit 24 calculates (detects) the natural frequency (predominant frequency) from the vibration data obtained by the Fourier transform. The natural frequency is, for example, the lowest frequency among the frequencies at which the intensity reaches the maximum value. It is generally said that when a bridge deteriorates, its natural frequency decreases. The determination unit 24 calculates the natural frequency of the moving images captured at a plurality of timings as shown in FIG. 5, and when the natural frequency is lower than the preset threshold value, the passage is deteriorated. Judge. When the vibration of the passage is detected for each element, it may be determined for each element (location).

判定部24は、例えば、車両の速度を一定の間隔毎に分けて、同一の車種の車両が同一の速度の範囲で通行している場合の振動を比較して通行路の状態を判定することとしてもよい。また、判定部24は、例えば、車両の重さを一定の間隔毎に分けて、車種ではなく同一の範囲の重さの車両が通行している場合の振動を比較して通行路の状態を判定することとしてもよい。 For example, the determination unit 24 divides the speed of the vehicle at regular intervals and compares the vibrations when vehicles of the same vehicle type are passing in the same speed range to determine the state of the passage. May be. Further, for example, the determination unit 24 divides the weight of the vehicle at regular intervals and compares the vibrations when a vehicle having the same range of weight is passing instead of the vehicle type to determine the state of the passage. It may be determined.

また、判定部24は、物体特定部22によって特定された物体が通行路上を通行する際の当該通行路に係る環境を示す情報を取得して、当該環境を示す情報(外部情報)にも基づいて、通行路の状態を判定することとしてもよい。環境を示す情報としては、例えば、振動を検出したタイミングでの通行路の箇所の天気又は気温を用いる。これらの情報ついては、通行路のセンサを設けて取得してもよいし、外部のサーバ等から天気予報の情報を取得することとしてもよい。天気及び気温も、通行路の振動に影響を与え得る。判定部24は、取得した環境を示す情報にも基づいて、車種等に加えて、同一の天気、又は同一の範囲の気温の場合の振動を比較して通行路の状態を判定することとしてもよい。 Further, the determination unit 24 acquires information indicating the environment related to the passage when the object specified by the object identification unit 22 passes on the passage, and is also based on the information indicating the environment (external information). Therefore, the state of the passage may be determined. As the information indicating the environment, for example, the weather or the air temperature at the place of the passage at the timing when the vibration is detected is used. This information may be acquired by providing a sensor for the passage route, or may be acquired from an external server or the like for weather forecast information. Weather and temperature can also affect the vibration of the passage. The determination unit 24 may determine the state of the passage by comparing the vibrations in the case of the same weather or the same range of temperature in addition to the vehicle type, etc., based on the acquired information indicating the environment. good.

判定部24は、判定結果を示す情報、例えば、通行路に劣化が生じている否かを示す情報を出力部25に出力する。 The determination unit 24 outputs information indicating the determination result, for example, information indicating whether or not the passage has deteriorated, to the output unit 25.

出力部25は、判定部24による通行路の状態の判定結果を示す情報を出力する機能部である。出力部25は、例えば、サーバ20に接続された端末に当該情報を送信して表示させる。出力部25による出力は、例えば、通行路判定システム1のユーザにより参照され、上述したように、通行路の補強又は改修等の判断に用いられる。なお、出力部25による出力は、上記以外の装置に対して、また、上記以外の形態で行われてもよい。以上が、通行路判定システム1の構成である。 The output unit 25 is a functional unit that outputs information indicating a determination result of the state of the passage by the determination unit 24. The output unit 25 transmits, for example, the information to a terminal connected to the server 20 and displays the information. The output by the output unit 25 is referred to by, for example, the user of the passage determination system 1, and is used for determination of reinforcement or repair of the passage as described above. The output by the output unit 25 may be performed on a device other than the above, or may be performed in a form other than the above. The above is the configuration of the passage determination system 1.

引き続いて、図7のフローチャートを用いて、本実施形態に係る通行路判定システム1で実行される処理(通行路判定システム1が行う動作方法)を説明する。まず、カメラ10によって、判定対象の通行路、及び当該通行路を通行する車両が撮像されて、動画像が取得される(S01)。撮像された動画像は、カメラ10からサーバ20に送信される。サーバ20では、画像取得部21によって動画像が取得される。続いて、物体特定部22によって、動画像から、車両の車種及び速度等が特定される(S02)。また、振動取得部23によって、動画像から、通行路の振動が検出される(S03)。撮像(S02)、車種等の特定(S02)及び通行路の振動の検出(S03)は、複数の異なるタイミングで行われる。 Subsequently, using the flowchart of FIG. 7, a process executed by the passage determination system 1 according to the present embodiment (operation method performed by the passage determination system 1) will be described. First, the camera 10 takes an image of the passage to be determined and the vehicle passing through the passage, and acquires a moving image (S01). The captured moving image is transmitted from the camera 10 to the server 20. In the server 20, a moving image is acquired by the image acquisition unit 21. Subsequently, the object identification unit 22 identifies the vehicle type, speed, and the like of the vehicle from the moving image (S02). Further, the vibration acquisition unit 23 detects the vibration of the passage from the moving image (S03). Imaging (S02), identification of vehicle type (S02), and detection of vibration of a passage (S03) are performed at a plurality of different timings.

続いて、判定部24によって、特定された車種等に応じて、異なるタイミングでの振動が比較されて通行路の状態が判定される(S04)。続いて、出力部25によって、判定部24による通行路の状態の判定結果を示す情報が出力される(S05)。以上が、本実施形態に係る通行路判定システム1で実行される処理である。 Subsequently, the determination unit 24 compares the vibrations at different timings according to the specified vehicle type and the like, and determines the state of the passage (S04). Subsequently, the output unit 25 outputs information indicating the determination result of the state of the passage by the determination unit 24 (S05). The above is the process executed by the passage determination system 1 according to the present embodiment.

本実施形態では、画像から通行路上を通行する車両等の物体が特定されて、特定された物体に基づいて通行路の状態が判定される。従って、歪みセンサ等を通行路に設けなくても、通行路を通行した物体に応じた判定を行うことができる。また、歪みセンサ等による場合と比べて、適切に物体の特定を行うことができる。よって、本実施形態によれば、簡易かつ適切に橋梁等の通行路の状態の判定を可能にすることができる。 In the present embodiment, an object such as a vehicle passing on the passage is specified from the image, and the state of the passage is determined based on the specified object. Therefore, even if the strain sensor or the like is not provided in the passage path, the determination can be made according to the object passing through the passage path. In addition, the object can be specified more appropriately than in the case of using a strain sensor or the like. Therefore, according to the present embodiment, it is possible to easily and appropriately determine the state of a passage such as a bridge.

また、本実施形態のように速度にも基づいて通行路の判定を行うこととしてもよい。上述したように通行路を通行する車両等の速度も通行路の振動に影響を及ぼす。従って、この構成によれば、更に適切に通行路の状態の判定を行うことができる。但し、通行路の判定に必ずしも速度を用いる必要はない。 Further, as in the present embodiment, the passage route may be determined based on the speed. As described above, the speed of a vehicle or the like passing through the passage also affects the vibration of the passage. Therefore, according to this configuration, it is possible to more appropriately determine the state of the passage. However, it is not always necessary to use the speed to determine the passage route.

また、本実施形態のように通行路の振動を示す情報を取得して、特定された物体に応じて振動を比較して通行路の状態を判定することとしてもよい。この構成によれば、通行路の振動を用いた適切な判定を行うことができる。但し、本発明は、画像から車両を特定して判定すればよく、必ずしも振動を用いた判定を行わなくてもよい。 Further, as in the present embodiment, information indicating the vibration of the passage may be acquired, and the vibration may be compared according to the specified object to determine the state of the passage. According to this configuration, it is possible to make an appropriate determination using the vibration of the passage. However, in the present invention, the vehicle may be specified and determined from the image, and the determination using vibration does not necessarily have to be performed.

また、本実施形態のように、振動による判定を行う場合、動画像から振動を検出することとしてもよい。この構成によれば、物体の特定を含めて撮像された動画像から行うことができ、簡易かつ適切に通行路の状態の判定を行うことができる。但し、振動の検出は、必ずしも動画像によって行われる必要はなく、通行路に設けた振動センサ等によって行われてもよい。 Further, when the determination is made by vibration as in the present embodiment, the vibration may be detected from the moving image. According to this configuration, it can be performed from the moving image captured including the identification of the object, and the state of the passage can be easily and appropriately determined. However, the vibration is not necessarily detected by a moving image, but may be detected by a vibration sensor or the like provided in the passageway.

また、本実施形態のように天気又は気温といった環境を示す情報にも基づいて通行路の判定を行うこととしてもよい。上述したように天気又は気温といった環境も通行路の振動に影響を及ぼす。従って、この構成によれば、更に適切に通行路の状態の判定を行うことができる。但し、通行路の判定に必ずしも環境を示す情報を用いる必要はない。 Further, as in the present embodiment, the passage route may be determined based on the information indicating the environment such as the weather or the temperature. As mentioned above, the environment such as weather or temperature also affects the vibration of the passage. Therefore, according to this configuration, it is possible to more appropriately determine the state of the passage. However, it is not always necessary to use information indicating the environment for determining the passage route.

なお、本実施形態では、カメラ10は、撮像して動画像を取得することしたが、画像から車種の特定のみを行う場合等には、必ずしも動画像が取得される必要はなく、画像が取得されてもよい。 In the present embodiment, the camera 10 captures and acquires a moving image, but when only the vehicle type is specified from the image, it is not always necessary to acquire the moving image, and the image is acquired. May be done.

また、本発明に係る通行路判定システムは、画像又は動画像が取得できればよいので、通行路判定システム以外から動画像を取得できる構成となっていてもよい。例えば、本実施形態に係るサーバ20は、(通行路判定システム以外の)カメラ10から画像又は動画像を取得できる構成となっていれば、サーバ20のみで通行路判定システムが構成されていてもよい。 Further, since the passage determination system according to the present invention only needs to be able to acquire an image or a moving image, it may be configured to be able to acquire a moving image from other than the passage determination system. For example, if the server 20 according to the present embodiment is configured to be able to acquire an image or a moving image from the camera 10 (other than the passage determination system), even if the passage determination system is configured only by the server 20. good.

また、本実施形態では、通行路を通行する物体の例を自動車等の車両であることとしたが、当該物体は自動車以外の車両又は車両以外のもの(例えば、人)であってもよい。例えば、上記の車両の車種にかえて通行人の数に応じて、通行路の状態を判定することとしてもよい。また、判定対象の通行路は、電車等が通行する線路であってもよい。この場合、通行路を通行する物体は、電車等の車両であってもよい。 Further, in the present embodiment, the example of the object passing through the passage is a vehicle such as an automobile, but the object may be a vehicle other than the automobile or an object other than the vehicle (for example, a person). For example, the state of the passage may be determined according to the number of passersby instead of the vehicle type of the above-mentioned vehicle. Further, the passage to be determined may be a track on which a train or the like passes. In this case, the object passing through the passage may be a vehicle such as a train.

なお、上記実施の形態の説明に用いたブロック図は、機能単位のブロックを示している。これらの機能ブロック(構成部)は、ハードウェア及び/又はソフトウェアの任意の組み合わせによって実現される。また、各機能ブロックの実現手段は特に限定されない。すなわち、各機能ブロックは、物理的及び/又は論理的に結合した1つの装置により実現されてもよいし、物理的及び/又は論理的に分離した2つ以上の装置を直接的及び/又は間接的に(例えば、有線及び/又は無線)で接続し、これら複数の装置により実現されてもよい。 The block diagram used in the description of the above embodiment shows a block of functional units. These functional blocks (components) are realized by any combination of hardware and / or software. Further, the means for realizing each functional block is not particularly limited. That is, each functional block may be realized by one physically and / or logically coupled device, or directly and / or indirectly by two or more physically and / or logically separated devices. (For example, wired and / or wireless) may be connected and realized by these plurality of devices.

例えば、本発明の一実施の形態におけるサーバ20は、本実施形態のサーバ20の処理を行うコンピュータとして機能してもよい。図8は、本実施形態に係るサーバ20のハードウェア構成の一例を示す図である。上述のサーバ20は、物理的には、プロセッサ1001、メモリ1002、ストレージ1003、通信装置1004、入力装置1005、出力装置1006、バス1007などを含むコンピュータ装置として構成されてもよい。 For example, the server 20 in one embodiment of the present invention may function as a computer that processes the server 20 in the present embodiment. FIG. 8 is a diagram showing an example of the hardware configuration of the server 20 according to the present embodiment. The server 20 described above may be physically configured as a computer device including a processor 1001, a memory 1002, a storage 1003, a communication device 1004, an input device 1005, an output device 1006, a bus 1007, and the like.

なお、以下の説明では、「装置」という文言は、回路、デバイス、ユニットなどに読み替えることができる。サーバ20のハードウェア構成は、図に示した各装置を1つ又は複数含むように構成されてもよいし、一部の装置を含まずに構成されてもよい。 In the following description, the word "device" can be read as a circuit, a device, a unit, or the like. The hardware configuration of the server 20 may be configured to include one or more of the devices shown in the figure, or may be configured not to include some of the devices.

サーバ20における各機能は、プロセッサ1001、メモリ1002などのハードウェア上に所定のソフトウェア(プログラム)を読み込ませることで、プロセッサ1001が演算を行い、通信装置1004による通信や、メモリ1002及びストレージ1003におけるデータの読み出し及び/又は書き込みを制御することで実現される。 For each function in the server 20, by loading predetermined software (program) on hardware such as the processor 1001 and the memory 1002, the processor 1001 performs an operation, and the communication device 1004 communicates with the memory 1002 and the storage 1003. It is realized by controlling the reading and / or writing of data.

プロセッサ1001は、例えば、オペレーティングシステムを動作させてコンピュータ全体を制御する。プロセッサ1001は、周辺装置とのインターフェース、制御装置、演算装置、レジスタなどを含む中央処理装置(CPU:Central Processing Unit)で構成されてもよい。例えば、サーバ20の各機能は、プロセッサ1001で実現されてもよい。 Processor 1001 operates, for example, an operating system to control the entire computer. The processor 1001 may be composed of a central processing unit (CPU) including an interface with a peripheral device, a control device, an arithmetic unit, a register, and the like. For example, each function of the server 20 may be realized by the processor 1001.

また、プロセッサ1001は、プログラム(プログラムコード)、ソフトウェアモジュールやデータを、ストレージ1003及び/又は通信装置1004からメモリ1002に読み出し、これらに従って各種の処理を実行する。プログラムとしては、上述の実施の形態で説明した動作の少なくとも一部をコンピュータに実行させるプログラムが用いられる。例えば、サーバ20の各機能は、メモリ1002に格納され、プロセッサ1001で動作する制御プログラムによって実現されてもよい。上述の各種処理は、1つのプロセッサ1001で実行される旨を説明してきたが、2以上のプロセッサ1001により同時又は逐次に実行されてもよい。プロセッサ1001は、1以上のチップで実装されてもよい。なお、プログラムは、電気通信回線を介してネットワークから送信されても良い。 Further, the processor 1001 reads a program (program code), a software module and data from the storage 1003 and / or the communication device 1004 into the memory 1002, and executes various processes according to these. As the program, a program that causes a computer to execute at least a part of the operations described in the above-described embodiment is used. For example, each function of the server 20 may be realized by a control program stored in the memory 1002 and operated by the processor 1001. Although it has been described that the various processes described above are executed by one processor 1001, they may be executed simultaneously or sequentially by two or more processors 1001. Processor 1001 may be mounted on one or more chips. The program may be transmitted from the network via a telecommunication line.

メモリ1002は、コンピュータ読み取り可能な記録媒体であり、例えば、ROM(Read Only Memory)、EPROM(Erasable Programmable ROM)、EEPROM(Electrically Erasable Programmable ROM)、RAM(Random Access Memory)などの少なくとも1つで構成されてもよい。メモリ1002は、レジスタ、キャッシュ、メインメモリ(主記憶装置)などと呼ばれてもよい。メモリ1002は、本発明の一実施の形態に係る方法を実施するために実行可能なプログラム(プログラムコード)、ソフトウェアモジュールなどを保存することができる。 The memory 1002 is a computer-readable recording medium, and is composed of at least one such as a ROM (Read Only Memory), an EPROM (Erasable Programmable ROM), an EEPROM (Electrically Erasable Programmable ROM), and a RAM (Random Access Memory). May be done. The memory 1002 may be referred to as a register, a cache, a main memory (main storage device), or the like. The memory 1002 can store a program (program code), a software module, or the like that can be executed to carry out the method according to the embodiment of the present invention.

ストレージ1003は、コンピュータ読み取り可能な記録媒体であり、例えば、CD-ROM(Compact Disc ROM)などの光ディスク、ハードディスクドライブ、フレキシブルディスク、光磁気ディスク(例えば、コンパクトディスク、デジタル多用途ディスク、Blu-ray(登録商標)ディスク)、スマートカード、フラッシュメモリ(例えば、カード、スティック、キードライブ)、フロッピー(登録商標)ディスク、磁気ストリップなどの少なくとも1つで構成されてもよい。ストレージ1003は、補助記憶装置と呼ばれてもよい。上述の記憶媒体は、例えば、メモリ1002及び/又はストレージ1003を含むデータベース、サーバその他の適切な媒体であってもよい。 The storage 1003 is a computer-readable recording medium, for example, an optical disk such as a CD-ROM (Compact Disc ROM), a hard disk drive, a flexible disk, an optical magnetic disk (for example, a compact disk, a digital versatile disk, a Blu-ray). It may consist of at least one (registered trademark) disk), smart card, flash memory (eg, card, stick, key drive), floppy (registered trademark) disk, magnetic strip, and the like. The storage 1003 may be referred to as an auxiliary storage device. The storage medium described above may be, for example, a database, server or other suitable medium containing memory 1002 and / or storage 1003.

通信装置1004は、有線及び/又は無線ネットワークを介してコンピュータ間の通信を行うためのハードウェア(送受信デバイス)であり、例えばネットワークデバイス、ネットワークコントローラ、ネットワークカード、通信モジュールなどともいう。例えば、サーバ20の各機能は、通信装置1004で実現されてもよい。 The communication device 1004 is hardware (transmission / reception device) for communicating between computers via a wired and / or wireless network, and is also referred to as, for example, a network device, a network controller, a network card, a communication module, or the like. For example, each function of the server 20 may be realized by the communication device 1004.

入力装置1005は、外部からの入力を受け付ける入力デバイス(例えば、キーボード、マウス、マイクロフォン、スイッチ、ボタン、センサなど)である。出力装置1006は、外部への出力を実施する出力デバイス(例えば、ディスプレイ、スピーカー、LEDランプなど)である。なお、入力装置1005及び出力装置1006は、一体となった構成(例えば、タッチパネル)であってもよい。 The input device 1005 is an input device (for example, a keyboard, a mouse, a microphone, a switch, a button, a sensor, etc.) that receives an input from the outside. The output device 1006 is an output device (for example, a display, a speaker, an LED lamp, etc.) that outputs to the outside. The input device 1005 and the output device 1006 may have an integrated configuration (for example, a touch panel).

また、プロセッサ1001やメモリ1002などの各装置は、情報を通信するためのバス1007で接続される。バス1007は、単一のバスで構成されてもよいし、装置間で異なるバスで構成されてもよい。 Further, each device such as the processor 1001 and the memory 1002 is connected by a bus 1007 for communicating information. The bus 1007 may be composed of a single bus or may be composed of different buses between the devices.

また、サーバ20は、マイクロプロセッサ、デジタル信号プロセッサ(DSP:Digital Signal Processor)、ASIC(Application Specific Integrated Circuit)、PLD(Programmable Logic Device)、FPGA(Field Programmable Gate Array)などのハードウェアを含んで構成されてもよく、当該ハードウェアにより、各機能ブロックの一部又は全てが実現されてもよい。例えば、プロセッサ1001は、これらのハードウェアの少なくとも1つで実装されてもよい。 Further, the server 20 includes hardware such as a microprocessor, a digital signal processor (DSP: Digital Signal Processor), an ASIC (Application Specific Integrated Circuit), a PLD (Programmable Logic Device), and an FPGA (Field Programmable Gate Array). The hardware may implement some or all of each functional block. For example, the processor 1001 may be implemented on at least one of these hardware.

以上、本実施形態について詳細に説明したが、当業者にとっては、本実施形態が本明細書中に説明した実施形態に限定されるものではないということは明らかである。本実施形態は、特許請求の範囲の記載により定まる本発明の趣旨及び範囲を逸脱することなく修正及び変更態様として実施することができる。したがって、本明細書の記載は、例示説明を目的とするものであり、本実施形態に対して何ら制限的な意味を有するものではない。 Although the present embodiment has been described in detail above, it is clear to those skilled in the art that the present embodiment is not limited to the embodiments described in the present specification. This embodiment can be implemented as an amendment or modification without departing from the spirit and scope of the present invention as determined by the description of the scope of claims. Therefore, the description herein is for purposes of illustration only and has no limiting implications for this embodiment.

情報の通知は、本明細書で説明した態様/実施形態に限られず、他の方法で行われてもよい。例えば、情報の通知は、物理レイヤシグナリング(例えば、DCI(Downlink Control Information)、UCI(Uplink Control Information))、上位レイヤシグナリング(例えば、RRC(Radio Resource Control)シグナリング、MAC(Medium Access Control)シグナリング、報知情報(MIB(Master Information Block)、SIB(System Information Block)))、その他の信号又はこれらの組み合わせによって実施されてもよい。また、RRCシグナリングは、RRCメッセージと呼ばれてもよく、例えば、RRC接続セットアップ(RRC Connection Setup)メッセージ、RRC接続再構成(RRC ConnectionReconfiguration)メッセージなどであってもよい。 The notification of information is not limited to the embodiments / embodiments described herein, and may be performed by other methods. For example, information notification includes physical layer signaling (eg, DCI (Downlink Control Information), UCI (Uplink Control Information)), higher layer signaling (eg, RRC (Radio Resource Control) signaling, MAC (Medium Access Control) signaling, etc. It may be carried out by broadcast information (MIB (Master Information Block), SIB (System Information Block)), other signals, or a combination thereof. Further, the RRC signaling may be referred to as an RRC message, and may be, for example, an RRC Connection Setup message, an RRC Connection Reconfiguration message, or the like.

本明細書で説明した各態様/実施形態の処理手順、シーケンス、フローチャートなどは、矛盾の無い限り、順序を入れ替えてもよい。例えば、本明細書で説明した方法については、例示的な順序で様々なステップの要素を提示しており、提示した特定の順序に限定されない。 The processing procedures, sequences, flowcharts, and the like of each aspect / embodiment described in the present specification may be rearranged in order as long as there is no contradiction. For example, the methods described herein present elements of various steps in an exemplary order and are not limited to the particular order presented.

入出力された情報等は特定の場所(例えば、メモリ)に保存されてもよいし、管理テーブルで管理してもよい。入出力される情報等は、上書き、更新、または追記され得る。出力された情報等は削除されてもよい。入力された情報等は他の装置へ送信されてもよい。 The input / output information and the like may be stored in a specific place (for example, a memory) or may be managed by a management table. Information to be input / output may be overwritten, updated, or added. The output information and the like may be deleted. The input information or the like may be transmitted to another device.

判定は、1ビットで表される値(0か1か)によって行われてもよいし、真偽値(Boolean:trueまたはfalse)によって行われてもよいし、数値の比較(例えば、所定の値との比較)によって行われてもよい。 The determination may be made by a value represented by one bit (0 or 1), by a true / false value (Boolean: true or false), or by comparing numerical values (for example, a predetermined value). It may be done by comparison with the value).

本明細書で説明した各態様/実施形態は単独で用いてもよいし、組み合わせて用いてもよいし、実行に伴って切り替えて用いてもよい。また、所定の情報の通知(例えば、「Xであること」の通知)は、明示的に行うものに限られず、暗黙的(例えば、当該所定の情報の通知を行わない)ことによって行われてもよい。 Each aspect / embodiment described in the present specification may be used alone, in combination, or may be switched and used according to the execution. Further, the notification of predetermined information (for example, the notification of "being X") is not limited to the explicit one, but is performed implicitly (for example, the notification of the predetermined information is not performed). May be good.

ソフトウェアは、ソフトウェア、ファームウェア、ミドルウェア、マイクロコード、ハードウェア記述言語と呼ばれるか、他の名称で呼ばれるかを問わず、命令、命令セット、コード、コードセグメント、プログラムコード、プログラム、サブプログラム、ソフトウェアモジュール、アプリケーション、ソフトウェアアプリケーション、ソフトウェアパッケージ、ルーチン、サブルーチン、オブジェクト、実行可能ファイル、実行スレッド、手順、機能などを意味するよう広く解釈されるべきである。 Software, whether called software, firmware, middleware, microcode, hardware description language, or other names, is an instruction, instruction set, code, code segment, program code, program, subprogram, software module. , Applications, software applications, software packages, routines, subroutines, objects, executable files, execution threads, procedures, features, etc. should be broadly interpreted.

また、ソフトウェア、命令などは、伝送媒体を介して送受信されてもよい。例えば、ソフトウェアが、同軸ケーブル、光ファイバケーブル、ツイストペア及びデジタル加入者回線(DSL)などの有線技術及び/又は赤外線、無線及びマイクロ波などの無線技術を使用してウェブサイト、サーバ、又は他のリモートソースから送信される場合、これらの有線技術及び/又は無線技術は、伝送媒体の定義内に含まれる。 Further, software, instructions, and the like may be transmitted and received via a transmission medium. For example, the software may use wired technology such as coaxial cable, fiber optic cable, twisted pair and digital subscriber line (DSL) and / or wireless technology such as infrared, wireless and microwave to website, server, or other. When transmitted from a remote source, these wired and / or wireless technologies are included within the definition of transmission medium.

本明細書で説明した情報、信号などは、様々な異なる技術のいずれかを使用して表されてもよい。例えば、上記の説明全体に渡って言及され得るデータ、命令、コマンド、情報、信号、ビット、シンボル、チップなどは、電圧、電流、電磁波、磁界若しくは磁性粒子、光場若しくは光子、又はこれらの任意の組み合わせによって表されてもよい。 The information, signals, etc. described herein may be represented using any of a variety of different techniques. For example, data, instructions, commands, information, signals, bits, symbols, chips, etc. that may be referred to throughout the above description are voltages, currents, electromagnetic waves, magnetic fields or magnetic particles, light fields or photons, or any of these. It may be represented by a combination of.

なお、本明細書で説明した用語及び/又は本明細書の理解に必要な用語については、同一の又は類似する意味を有する用語と置き換えてもよい。 The terms described herein and / or the terms necessary for understanding the present specification may be replaced with terms having the same or similar meanings.

本明細書で使用する「システム」および「ネットワーク」という用語は、互換的に使用される。 The terms "system" and "network" used herein are used interchangeably.

また、本明細書で説明した情報、パラメータなどは、絶対値で表されてもよいし、所定の値からの相対値で表されてもよいし、対応する別の情報で表されてもよい。 Further, the information, parameters, etc. described in the present specification may be represented by an absolute value, a relative value from a predetermined value, or another corresponding information. ..

上述したパラメータに使用する名称はいかなる点においても限定的なものではない。さらに、これらのパラメータを使用する数式等は、本明細書で明示的に開示したものと異なる場合もある。 The names used for the parameters mentioned above are not limited in any way. Further, mathematical formulas and the like using these parameters may differ from those expressly disclosed herein.

本明細書で使用する「判断(determining)」、「決定(determining)」という用語は、多種多様な動作を包含する場合がある。「判断」、「決定」は、例えば、判定(judging)、計算(calculating)、算出(computing)、処理(processing)、導出(deriving)、調査(investigating)、探索(looking up)(例えば、テーブル、データベースまたは別のデータ構造での探索)、確認(ascertaining)した事を「判断」「決定」したとみなす事などを含み得る。また、「判断」、「決定」は、受信(receiving)(例えば、情報を受信すること)、送信(transmitting)(例えば、情報を送信すること)、入力(input)、出力(output)、アクセス(accessing)(例えば、メモリ中のデータにアクセスすること)した事を「判断」「決定」したとみなす事などを含み得る。また、「判断」、「決定」は、解決(resolving)、選択(selecting)、選定(choosing)、確立(establishing)、比較(comparing)などした事を「判断」「決定」したとみなす事を含み得る。つまり、「判断」「決定」は、何らかの動作を「判断」「決定」したとみなす事を含み得る。 The terms "determining" and "determining" as used herein may include a wide variety of actions. "Judgment" and "decision" are, for example, judgment, calculation, computing, processing, deriving, investigating, looking up (eg, table). , Searching in a database or another data structure), ascertaining can be considered as a "judgment" or "decision". Also, "judgment" and "decision" are receiving (for example, receiving information), transmitting (for example, transmitting information), input (input), output (output), and access. It may include (for example, accessing data in memory) to be regarded as "judgment" or "decision". In addition, "judgment" and "decision" are considered to be "judgment" and "decision" when the things such as solving, selecting, choosing, establishing, and comparing are regarded as "judgment" and "decision". Can include. That is, "judgment" and "decision" may include considering some action as "judgment" and "decision".

「接続された(connected)」、「結合された(coupled)」という用語、又はこれらのあらゆる変形は、2又はそれ以上の要素間の直接的又は間接的なあらゆる接続又は結合を意味し、互いに「接続」又は「結合」された2つの要素間に1又はそれ以上の中間要素が存在することを含むことができる。要素間の結合又は接続は、物理的なものであっても、論理的なものであっても、或いはこれらの組み合わせであってもよい。本明細書で使用する場合、2つの要素は、1又はそれ以上の電線、ケーブル及び/又はプリント電気接続を使用することにより、並びにいくつかの非限定的かつ非包括的な例として、無線周波数領域、マイクロ波領域及び光(可視及び不可視の両方)領域の波長を有する電磁エネルギーなどの電磁エネルギーを使用することにより、互いに「接続」又は「結合」されると考えることができる。 The terms "connected", "coupled", or any variation thereof, mean any direct or indirect connection or connection between two or more elements and each other. It can include the presence of one or more intermediate elements between two "connected" or "combined" elements. The connection or connection between the elements may be physical, logical, or a combination thereof. As used herein, the two elements are by using one or more wires, cables and / or printed electrical connections, and, as some non-limiting and non-comprehensive examples, radio frequencies. By using electromagnetic energies such as electromagnetic energies with wavelengths in the region, microwave region and light (both visible and invisible) regions, they can be considered to be "connected" or "coupled" to each other.

本明細書で使用する「に基づいて」という記載は、別段に明記されていない限り、「のみに基づいて」を意味しない。言い換えれば、「に基づいて」という記載は、「のみに基づいて」と「に少なくとも基づいて」の両方を意味する。 The phrase "based on" as used herein does not mean "based on" unless otherwise stated. In other words, the statement "based on" means both "based only" and "at least based on".

本明細書で「第1の」、「第2の」などの呼称を使用した場合においては、その要素へのいかなる参照も、それらの要素の量または順序を全般的に限定するものではない。これらの呼称は、2つ以上の要素間を区別する便利な方法として本明細書で使用され得る。したがって、第1および第2の要素への参照は、2つの要素のみがそこで採用され得ること、または何らかの形で第1の要素が第2の要素に先行しなければならないことを意味しない。 As used herein by designations such as "first", "second", etc., any reference to that element does not generally limit the quantity or order of those elements. These designations can be used herein as a convenient way to distinguish between two or more elements. Therefore, references to the first and second elements do not mean that only two elements can be adopted there, or that the first element must somehow precede the second element.

「含む(include)」、「含んでいる(including)」、およびそれらの変形が、本明細書あるいは特許請求の範囲で使用されている限り、これら用語は、用語「備える(comprising)」と同様に、包括的であることが意図される。さらに、本明細書あるいは特許請求の範囲において使用されている用語「または(or)」は、排他的論理和ではないことが意図される。 As long as "include", "including", and variations thereof are used herein or within the scope of the claims, these terms are similar to the term "comprising". In addition, it is intended to be inclusive. Moreover, the term "or" as used herein or in the claims is intended to be non-exclusive.

本明細書において、文脈または技術的に明らかに1つのみしか存在しない装置である場合以外は、複数の装置をも含むものとする。本開示の全体において、文脈から明らかに単数を示したものではなければ、複数のものを含むものとする。 In the present specification, a plurality of devices shall be included unless the device has only one device apparently in context or technically. The entire disclosure is intended to include more than one, unless the context clearly indicates the singular.

1…通行路判定システム、10…カメラ、20…サーバ、21…画像取得部、22…物体特定部、23…振動取得部、24…判定部、25…出力部、1001…プロセッサ、1002…メモリ、1003…ストレージ、1004…通信装置、1005…入力装置、1006…出力装置、1007…バス。 1 ... Traffic path determination system, 10 ... Camera, 20 ... Server, 21 ... Image acquisition unit, 22 ... Object identification unit, 23 ... Vibration acquisition unit, 24 ... Judgment unit, 25 ... Output unit, 1001 ... Processor, 1002 ... Memory , 1003 ... Storage, 1004 ... Communication device, 1005 ... Input device, 1006 ... Output device, 1007 ... Bus.

Claims (3)

通行路上を通行する物体を撮像した画像を取得する画像取得部と、
前記画像取得部によって取得された画像から、前記通行する物体の種別を特定する物体特定部と、
前記物体特定部によって特定された物体の種別に基づいて、前記通行路の状態を判定する判定部と、
前記物体特定部によって特定された物体が前記通行路上を通行する際の当該通行路の振動を示す情報を取得する振動取得部と、
を備え、
前記判定部は、前記物体特定部によって特定された物体の種別に応じて、前記振動取得部によって取得された情報によって示される、同一の種別の物体が通行している場合の異なるタイミングでの振動を比較して前記通行路の状態を判定し、
前記物体特定部は、前記画像取得部によって取得された画像から、通行する物体の速度を特定し、
前記判定部は、前記物体特定部によって特定された物体の速度にも基づいて、前記通行路の状態を判定する、通行路判定システム。
An image acquisition unit that acquires an image of an object passing on a passageway, and an image acquisition unit.
From the image acquired by the image acquisition unit, the object identification unit that specifies the type of the passing object and the object identification unit.
A determination unit that determines the state of the passage based on the type of the object specified by the object identification unit, and a determination unit.
A vibration acquisition unit that acquires information indicating vibration of the passage when an object specified by the object identification portion passes on the passage, and a vibration acquisition unit.
Equipped with
The determination unit vibrates at different timings when an object of the same type is passing, which is indicated by the information acquired by the vibration acquisition unit, according to the type of the object specified by the object identification unit. To determine the condition of the passage ,
The object identification unit identifies the speed of a passing object from the image acquired by the image acquisition unit.
The determination unit is a passage determination system that determines the state of the passage based on the speed of the object specified by the object identification unit .
通行路上を通行する物体を撮像した画像を取得する画像取得部と、
前記画像取得部によって取得された画像から、前記通行する物体の種別を特定する物体特定部と、
前記物体特定部によって特定された物体の種別に基づいて、前記通行路の状態を判定する判定部と、
前記物体特定部によって特定された物体が前記通行路上を通行する際の当該通行路の振動を示す情報を取得する振動取得部と、
を備え、
前記判定部は、前記物体特定部によって特定された物体の種別に応じて、前記振動取得部によって取得された情報によって示される、同一の種別の物体が通行している場合の異なるタイミングでの振動を比較して前記通行路の状態を判定し、
前記判定部は、前記物体特定部によって特定された物体が前記通行路上を通行する際の当該通行路に係る環境を示す情報を取得して、当該環境を示す情報にも基づいて、前記通行路の状態を判定する、通行路判定システム。
An image acquisition unit that acquires an image of an object passing on a passageway, and an image acquisition unit.
From the image acquired by the image acquisition unit, the object identification unit that specifies the type of the passing object and the object identification unit.
A determination unit that determines the state of the passage based on the type of the object specified by the object identification unit, and a determination unit.
A vibration acquisition unit that acquires information indicating vibration of the passage when an object specified by the object identification portion passes on the passage, and a vibration acquisition unit.
Equipped with
The determination unit vibrates at different timings when an object of the same type is passing, which is indicated by the information acquired by the vibration acquisition unit, according to the type of the object specified by the object identification unit. To determine the condition of the passage ,
The determination unit acquires information indicating the environment related to the passage when the object specified by the object identification unit passes on the passage, and based on the information indicating the environment, the passage. Traffic route judgment system that judges the state of .
前記振動取得部は、前記通行路を撮像した動画像を取得して、取得した動画像から当該通行路の振動を検出する請求項1又は2に記載の通行路判定システム。 The passage determination system according to claim 1 or 2, wherein the vibration acquisition unit acquires a moving image of the passage and detects the vibration of the passage from the acquired moving image.
JP2018057627A 2018-03-26 2018-03-26 Traffic route judgment system Active JP6994996B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018057627A JP6994996B2 (en) 2018-03-26 2018-03-26 Traffic route judgment system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018057627A JP6994996B2 (en) 2018-03-26 2018-03-26 Traffic route judgment system

Publications (2)

Publication Number Publication Date
JP2019167768A JP2019167768A (en) 2019-10-03
JP6994996B2 true JP6994996B2 (en) 2022-01-14

Family

ID=68106347

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018057627A Active JP6994996B2 (en) 2018-03-26 2018-03-26 Traffic route judgment system

Country Status (1)

Country Link
JP (1) JP6994996B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7451280B2 (en) * 2020-04-23 2024-03-18 株式会社Nttドコモ Structure determination system

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000162096A (en) 1998-11-30 2000-06-16 Kurimoto Ltd Measuring method for vibration of civil enginnering and construction structure
JP2003156389A (en) 2001-11-21 2003-05-30 Toshiba Corp Vibration measuring apparatus and storage medium
JP2013047674A (en) 2011-07-28 2013-03-07 Kobe Steel Ltd Vibration measurement apparatus and vibration measurement method
JP2015078553A (en) 2013-10-18 2015-04-23 公益財団法人鉄道総合技術研究所 Soundness evaluation method of substructure work, and soundness evaluation device of substructure work
JP2015175827A (en) 2014-03-18 2015-10-05 日本電気株式会社 Vibration measurement device
JP2016050404A (en) 2014-08-29 2016-04-11 東日本旅客鉄道株式会社 Abnormality detection method at support part of railway bridge
JP2016057063A (en) 2014-09-05 2016-04-21 公益財団法人鉄道総合技術研究所 Non-contact detecting method for measurement objects, and apparatus for the same
JP2016084579A (en) 2014-10-23 2016-05-19 国立研究開発法人産業技術総合研究所 Monitoring method and monitoring device for deflection amount distribution of structure
JP2016184316A (en) 2015-03-26 2016-10-20 株式会社東芝 Vehicle type determination device and vehicle type determination method
JP2016194442A (en) 2015-03-31 2016-11-17 公益財団法人鉄道総合技術研究所 Method of evaluating specific frequency variations of railway bridges
JP2017053165A (en) 2015-09-11 2017-03-16 ルネサスエレクトロニクス株式会社 Sensor control device, sensor system, and bridge monitoring system

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3453952B2 (en) * 1995-09-29 2003-10-06 株式会社日立製作所 Traffic flow measurement device
JPH1186185A (en) * 1997-09-03 1999-03-30 Mitsubishi Heavy Ind Ltd Vehicle-type discriminating device

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000162096A (en) 1998-11-30 2000-06-16 Kurimoto Ltd Measuring method for vibration of civil enginnering and construction structure
JP2003156389A (en) 2001-11-21 2003-05-30 Toshiba Corp Vibration measuring apparatus and storage medium
JP2013047674A (en) 2011-07-28 2013-03-07 Kobe Steel Ltd Vibration measurement apparatus and vibration measurement method
JP2015078553A (en) 2013-10-18 2015-04-23 公益財団法人鉄道総合技術研究所 Soundness evaluation method of substructure work, and soundness evaluation device of substructure work
JP2015175827A (en) 2014-03-18 2015-10-05 日本電気株式会社 Vibration measurement device
JP2016050404A (en) 2014-08-29 2016-04-11 東日本旅客鉄道株式会社 Abnormality detection method at support part of railway bridge
JP2016057063A (en) 2014-09-05 2016-04-21 公益財団法人鉄道総合技術研究所 Non-contact detecting method for measurement objects, and apparatus for the same
JP2016084579A (en) 2014-10-23 2016-05-19 国立研究開発法人産業技術総合研究所 Monitoring method and monitoring device for deflection amount distribution of structure
JP2016184316A (en) 2015-03-26 2016-10-20 株式会社東芝 Vehicle type determination device and vehicle type determination method
JP2016194442A (en) 2015-03-31 2016-11-17 公益財団法人鉄道総合技術研究所 Method of evaluating specific frequency variations of railway bridges
JP2017053165A (en) 2015-09-11 2017-03-16 ルネサスエレクトロニクス株式会社 Sensor control device, sensor system, and bridge monitoring system

Also Published As

Publication number Publication date
JP2019167768A (en) 2019-10-03

Similar Documents

Publication Publication Date Title
JP6944405B2 (en) Building judgment system
JP7058164B2 (en) Traffic route judgment system
CN110349289A (en) Failure prediction method, device, storage medium and electronic equipment
CN110235189B (en) Information processing apparatus, information processing method, and computer-readable storage medium
US20230351617A1 (en) Crowd type classification system, crowd type classification method and storage medium for storing crowd type classification program
CN111783665A (en) Action recognition method and device, storage medium and electronic equipment
KR20170135061A (en) Method and device for acquiring input
US20180322652A1 (en) Object detection system and method, and computer readable recording medium
CN108710828B (en) Method, device and storage medium for identifying target object and vehicle
KR102261187B1 (en) System and method for machine learning based surveillance video analysis
JP6994996B2 (en) Traffic route judgment system
CN113743228A (en) Obstacle existence detection method and device based on multi-data fusion result
US20150379364A1 (en) Object detection apparatus
KR20160035631A (en) Method for detecting motion vector based on histogram
CN109800678A (en) The attribute determining method and device of object in a kind of video
KR20140072442A (en) Apparatus and method for detecting vehicle
JP2019178894A (en) System for evaluating characteristics of structure
JP2023037848A (en) Displacement quantity calculation device
KR20210023859A (en) Image processing device, mobile device and method, and program
KR102286250B1 (en) Vehicle number recognition system using cctv
US11680832B2 (en) Detection device
JP7099091B2 (en) License plate recognition device, license plate recognition method and program
JP7451280B2 (en) Structure determination system
KR101284200B1 (en) Video processing apparatus and method for detecting smoke from video
KR101886856B1 (en) System and method for data combining based on result of non-rigid object tracking on multi-sensor seeker

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200814

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210624

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210706

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210804

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210928

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211027

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20211116

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20211214

R150 Certificate of patent or registration of utility model

Ref document number: 6994996

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150