JP6997664B2 - Status judgment device - Google Patents

Status judgment device Download PDF

Info

Publication number
JP6997664B2
JP6997664B2 JP2018064521A JP2018064521A JP6997664B2 JP 6997664 B2 JP6997664 B2 JP 6997664B2 JP 2018064521 A JP2018064521 A JP 2018064521A JP 2018064521 A JP2018064521 A JP 2018064521A JP 6997664 B2 JP6997664 B2 JP 6997664B2
Authority
JP
Japan
Prior art keywords
area
image
passage
unit
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018064521A
Other languages
Japanese (ja)
Other versions
JP2019174345A (en
Inventor
哲平 小西
隆仁 齊藤
基成 小林
雅二 片桐
大造 池田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NTT Docomo Inc
Original Assignee
NTT Docomo Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NTT Docomo Inc filed Critical NTT Docomo Inc
Priority to JP2018064521A priority Critical patent/JP6997664B2/en
Publication of JP2019174345A publication Critical patent/JP2019174345A/en
Application granted granted Critical
Publication of JP6997664B2 publication Critical patent/JP6997664B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Investigating Materials By The Use Of Optical Means Adapted For Particular Applications (AREA)

Description

本発明は、状態判定装置に関する。 The present invention relates to a state determination device.

近年、橋梁等の構造物の劣化診断が行われている。構造物の劣化診断技術の一例として、特許文献1には、コンクリート構造物の劣化要因に基づいて、コンクリート構造物の劣化状態を推定する点検支援装置が開示されている。この点検支援装置では、コンクリート構造物が位置する地域を示す地域情報等が劣化要因として用いられる。地域情報は、塩害環境地域のように、コンクリート構造物を劣化させる要因となる地理的特性を示す。 In recent years, deterioration diagnosis of structures such as bridges has been carried out. As an example of the deterioration diagnosis technique of a structure, Patent Document 1 discloses an inspection support device for estimating a deterioration state of a concrete structure based on a deterioration factor of the concrete structure. In this inspection support device, area information indicating the area where the concrete structure is located is used as a deterioration factor. Regional information indicates geographic characteristics that contribute to the deterioration of concrete structures, such as salt-damaged areas.

特開2016-65809号公報Japanese Unexamined Patent Publication No. 2016-65809

橋梁等の通行路では、通行路上を人及び車両等の物体が通行するので、物体の重量等が、通行路の劣化に影響を及ぼすと考えられる。特許文献1に記載された劣化診断技術では、地理的特性を考慮して構造物の劣化を診断しているが、この技術で通行路の劣化を診断すると、通行路の劣化を適切に判定することができないおそれがある。 In a passage such as a bridge, an object such as a person or a vehicle passes on the passage, and it is considered that the weight of the object affects the deterioration of the passage. In the deterioration diagnosis technique described in Patent Document 1, deterioration of the structure is diagnosed in consideration of geographical characteristics, but when the deterioration of the passage is diagnosed by this technique, the deterioration of the passage is appropriately determined. May not be possible.

本発明は、通行路の劣化状態の判定精度を向上させることが可能な状態判定装置を提供する。 The present invention provides a state determination device capable of improving the determination accuracy of the deterioration state of the passage.

本発明の一側面に係る状態判定装置は、1以上の通行路を含む地域の画像である地域画像を取得する第1画像取得部と、1以上の通行路のうちの判定対象の通行路である対象通行路上を通行する物体を撮像した画像である通行画像を取得する第2画像取得部と、地域画像に基づいて、対象通行路が位置する設置エリアの地理的特性を示す地理情報を算出する地理情報算出部と、通行画像に基づいて、物体に関する物体情報を算出する物体情報算出部と、地理情報及び物体情報に基づいて、対象通行路の劣化状態を判定する判定部と、を備える。 The state determination device according to one aspect of the present invention is a first image acquisition unit that acquires an area image that is an image of an area including one or more passages, and a passage to be determined among one or more passages. Based on the second image acquisition unit that acquires the traffic image, which is an image of an object passing on a certain target passage, and the area image, the geographical information indicating the geographical characteristics of the installation area where the target passage is located is calculated. It is provided with a geographic information calculation unit, an object information calculation unit that calculates object information about an object based on a traffic image, and a determination unit that determines a deterioration state of a target passage based on the geographic information and the object information. ..

この状態判定装置では、対象通行路を含む地域画像に基づいて、対象通行路が位置する設置エリアの地理的特性を示す地理情報が算出され、対象通行路上を通行する物体を撮像した通行画像に基づいて、物体に関する物体情報が算出される。そして、地理情報及び物体情報に基づいて、対象通行路の劣化状態が判定される。このように、設置エリアの地理的特性だけでなく、対象通行路上を通行する物体に関する情報を考慮して、対象通行路の劣化状態が判定される。その結果、通行路の劣化状態の判定精度を向上させることが可能となる。 In this state determination device, geographic information showing the geographical characteristics of the installation area where the target passage is located is calculated based on the area image including the target passage, and the traffic image of the object passing on the target passage is captured. Based on this, object information about the object is calculated. Then, the deterioration state of the target passage is determined based on the geographical information and the object information. In this way, the deterioration state of the target passage is determined in consideration of not only the geographical characteristics of the installation area but also the information about the object passing on the target passage. As a result, it is possible to improve the accuracy of determining the deterioration state of the passage.

本発明によれば、通行路の劣化状態の判定精度を向上させることができる。 According to the present invention, it is possible to improve the accuracy of determining the deterioration state of the passage.

図1は、一実施形態に係る状態判定装置を含む通行路判定システムの構成を示す図である。FIG. 1 is a diagram showing a configuration of a passage determination system including a state determination device according to an embodiment. 図2は、図1に示される状態判定装置の機能構成を示すブロック図である。FIG. 2 is a block diagram showing a functional configuration of the state determination device shown in FIG. 図3は、選択可能領域を抽出する方法を説明するための図である。FIG. 3 is a diagram for explaining a method of extracting a selectable area. 図4は、ユーザによる対象通行路の選択例を示す図である。FIG. 4 is a diagram showing an example of selection of a target passage by a user. 図5は、車両の車種を判別する方法を説明するための図である。FIG. 5 is a diagram for explaining a method of determining a vehicle type of a vehicle. 図6は、車両データベースの一例を示す図である。FIG. 6 is a diagram showing an example of a vehicle database. 図7は、劣化状態を判定する方法を説明するための図である。FIG. 7 is a diagram for explaining a method of determining a deterioration state. 図8は、図2に示される状態判定装置が行う状態判定方法の一連の処理を示すフローチャートである。FIG. 8 is a flowchart showing a series of processes of the state determination method performed by the state determination device shown in FIG. 図9は、図2に示される状態判定装置のハードウェア構成を示す図である。FIG. 9 is a diagram showing a hardware configuration of the state determination device shown in FIG. 2.

以下、添付図面を参照しながら本発明の実施形態を詳細に説明する。なお、図面の説明においては同一要素には同一符号を付し、重複する説明を省略する。 Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings. In the description of the drawings, the same elements are designated by the same reference numerals, and duplicate description will be omitted.

図1は、一実施形態に係る状態判定装置を含む通行路判定システムの構成を示す図である。図1に示される通行路判定システム1は、通行路の劣化状態を判定するシステムである。通行路の例として、橋梁、道路、及び線路が挙げられる。劣化状態を示す指標として、例えば、健全度又は劣化度が用いられる。健全度は、例えば、値が大きいほど劣化していることを示す指標である。劣化度は、例えば、値が大きいほど劣化していることを示す指標である。劣化状態を示す指標として、通行路に劣化が生じている否かを表す2値の指標が用いられてもよい。通行路判定システム1による判定結果は、例えば、通行路の補強又は改修等の判断に用いられる。 FIG. 1 is a diagram showing a configuration of a passage determination system including a state determination device according to an embodiment. The passage determination system 1 shown in FIG. 1 is a system for determining a deterioration state of a passage. Examples of routes include bridges, roads, and railroad tracks. For example, the degree of soundness or the degree of deterioration is used as an index indicating the deterioration state. The soundness is, for example, an index indicating that the larger the value, the worse the deterioration. The degree of deterioration is, for example, an index indicating that the larger the value, the more the deterioration. As an index indicating the deterioration state, a binary index indicating whether or not deterioration has occurred in the passage may be used. The determination result by the passage determination system 1 is used, for example, for determination of reinforcement or repair of the passage.

通行路判定システム1は、カメラ2と、カメラ3と、外部サーバ4と、状態判定装置10と、を備えている。カメラ2、カメラ3、外部サーバ4、及び状態判定装置10は、ネットワークNWを介して互いに通信可能に構成されている。ネットワークNWは、有線及び無線のいずれで構成されてもよい。ネットワークNWの例としては、移動体通信網、インターネット、及びWAN(Wide Area Network)が挙げられる。 The passage determination system 1 includes a camera 2, a camera 3, an external server 4, and a state determination device 10. The camera 2, the camera 3, the external server 4, and the state determination device 10 are configured to be able to communicate with each other via the network NW. The network NW may be configured by either wired or wireless. Examples of network NWs include mobile communication networks, the Internet, and WANs (Wide Area Networks).

カメラ2は、判定対象となり得る通行路である候補通行路を含む地域を上空から撮像することによって、地域の画像である地域画像を取得する撮像装置である。地域には、1以上の候補通行路が含まれている。カメラ2は、例えば、有人航空機、無人航空機、及び人工衛星に搭載される。地域画像として、航空画像、又は衛星画像が用いられ得る。地域画像は、静止画像でもよく、動画像でもよい。カメラ2としては、後述する状態判定装置10による処理に用いることが可能な程度の解像度で撮像を行うことが可能な周知のカメラが用いられる。カメラ2は、地域画像を状態判定装置10に送信する。 The camera 2 is an imaging device that acquires a regional image, which is an image of an area, by capturing an image of an area including a candidate passage, which is a passage that can be a determination target, from the sky. The area includes one or more candidate routes. The camera 2 is mounted on, for example, manned aircraft, unmanned aerial vehicles, and artificial satellites. As the area image, an aerial image or a satellite image may be used. The area image may be a still image or a moving image. As the camera 2, a well-known camera capable of taking an image at a resolution that can be used for processing by the state determination device 10 described later is used. The camera 2 transmits the area image to the state determination device 10.

カメラ3は、候補通行路を通行する車両等の物体(移動物体)を撮像することによって、動画像を取得する撮像装置である。カメラ3は、全ての候補通行路に設置されている。カメラ3は、当該物体を撮像できる位置に予め固定的に設置される。カメラ3としては、後述する状態判定装置10による処理に用いることが可能な程度の解像度で撮像を行うことが可能な周知のカメラが用いられる。カメラ3は、予め設定されたフレームレート(fps)で通行路を撮像して、撮像した動画像を状態判定装置10に送信する。 The camera 3 is an image pickup device that acquires a moving image by taking an image of an object (moving object) such as a vehicle passing through a candidate passage. Cameras 3 are installed in all candidate passages. The camera 3 is fixedly installed in advance at a position where the object can be imaged. As the camera 3, a well-known camera capable of taking an image at a resolution that can be used for processing by the state determination device 10 described later is used. The camera 3 captures an image of the passage at a preset frame rate (fps), and transmits the captured moving image to the state determination device 10.

外部サーバ4は、状態判定装置10の判定に用いられる各種環境情報を提供する装置である。外部サーバ4によって提供される環境情報は、経時変化する情報であり、後述の地理的特性を含まない。地理的特性も時間の経過とともに変化し得るが、環境情報と地理的特性とでは、変化の速度が異なる。地理的特性は数か月から数年に亘って徐々に変化し得る。一方、環境情報は刻一刻と変化する(動的に変化する)。 The external server 4 is a device that provides various environmental information used for determination of the state determination device 10. The environmental information provided by the external server 4 is information that changes over time and does not include the geographical characteristics described later. Geographical characteristics can also change over time, but environmental information and geographical characteristics differ in the rate of change. Geographical characteristics can change gradually over months to years. On the other hand, environmental information changes from moment to moment (changes dynamically).

このような環境情報の例として、気象情報、地盤情報、及び騒音情報が挙げられる。気象情報としては、例えば、通行路が位置するエリア(設置エリア)の降水量、降雪量、及び日射量が用いられる。設置エリアは、通行路ごとに予め定められている。設置エリアは、後述のエリアと同じ大きさを有してもよく、異なる大きさを有してもよい。地盤情報としては、例えば、設置エリアにおける地盤の沈降量が用いられる。騒音情報は、通行路における騒音量である。外部サーバ4は、1台のサーバで構成されてもよく、複数台のサーバで構成されてもよい。これらの環境情報は、通行路に設置されたセンサ等によって取得され、提供されてもよい。 Examples of such environmental information include meteorological information, ground information, and noise information. As the meteorological information, for example, the amount of precipitation, the amount of snowfall, and the amount of solar radiation in the area (installation area) where the passage is located are used. The installation area is predetermined for each passage. The installation area may have the same size as the area described later, or may have a different size. As the ground information, for example, the amount of sedimentation of the ground in the installation area is used. Noise information is the amount of noise in the passage. The external server 4 may be configured by one server or may be configured by a plurality of servers. These environmental information may be acquired and provided by a sensor or the like installed in the passageway.

状態判定装置10は、通行路の劣化状態を判定する装置である。図2を参照して、状態判定装置10の機能構成について説明する。図2は、図1に示される状態判定装置の機能構成を示すブロック図である。図2に示されるように、状態判定装置10は、機能的には、画像取得部11(第1画像取得部)と、分類部12と、抽出部13と、特定部14と、画像取得部15(第2画像取得部)と、環境情報取得部16と、地理情報算出部17と、物体情報算出部18と、判定部19と、出力部20と、を備えている。 The state determination device 10 is a device for determining a deterioration state of a passage. The functional configuration of the state determination device 10 will be described with reference to FIG. FIG. 2 is a block diagram showing a functional configuration of the state determination device shown in FIG. As shown in FIG. 2, the state determination device 10 functionally includes an image acquisition unit 11 (first image acquisition unit), a classification unit 12, an extraction unit 13, a specific unit 14, and an image acquisition unit. It includes a 15 (second image acquisition unit), an environment information acquisition unit 16, a geographic information calculation unit 17, an object information calculation unit 18, a determination unit 19, and an output unit 20.

画像取得部11は、地域画像を取得する機能部である。画像取得部11は、カメラ2から地域画像を受信することによって、地域画像を取得する。画像取得部11は、取得した地域画像を分類部12に出力する。 The image acquisition unit 11 is a functional unit that acquires a regional image. The image acquisition unit 11 acquires a regional image by receiving the regional image from the camera 2. The image acquisition unit 11 outputs the acquired area image to the classification unit 12.

分類部12は、地域に含まれる複数のエリアのそれぞれを地理的特性に基づいて分類する機能部である。図3に示されるように、分類部12は、画像取得部11から地域画像Gを受信し、地域画像Gを複数の部分画像gmに区分する。部分画像gmは、エリアの画像である。エリアは、一辺が数百メートル程度の矩形形状を有するメッシュとして定められてもよい。分類部12は、各エリアがいずれの地理的特性を有するかを判定し、当該地理的特性を示すラベルを各エリアの部分画像gmに付与する。地理的特性の例としては、住宅地、工業地、森林地(山間部)、及び沿岸部が挙げられる。分類部12は、例えば、機械学習によって生成される分類用モデルMcを用いて、各エリアが有する地理的特性を判定する。つまり、各エリアの地理的特性は、分類用モデルMcに当該エリアの部分画像gmを入力することによって得られる。分類部12は、地域画像と各エリアの地理的特性を示すエリア情報とを、抽出部13及び地理情報算出部17に出力する。 The classification unit 12 is a functional unit that classifies each of a plurality of areas included in the area based on geographical characteristics. As shown in FIG. 3, the classification unit 12 receives the regional image G from the image acquisition unit 11 and divides the regional image G into a plurality of partial image gms. The partial image gm is an image of the area. The area may be defined as a mesh having a rectangular shape with a side of about several hundred meters. The classification unit 12 determines which geographical characteristic each area has, and assigns a label indicating the geographical characteristic to the partial image gm of each area. Examples of geographical characteristics include residential areas, industrial areas, forest areas (mountainous areas), and coastal areas. The classification unit 12 determines the geographical characteristics of each area by using, for example, the classification model Mc generated by machine learning. That is, the geographical characteristics of each area are obtained by inputting the partial image gm of the area into the classification model Mc. The classification unit 12 outputs the area image and the area information indicating the geographical characteristics of each area to the extraction unit 13 and the geographic information calculation unit 17.

分類用モデルMcは、予め準備され、分類部12に記憶されている。例えば、ユーザが、互いに異なる複数の地域を上空から撮像して得られた各画像を矩形に区切る。そして、ユーザは、区切られた部分画像に含まれる領域が有する地理的特性を判別し、当該部分画像に地理的特性を示すラベルを付与する。ラベルが付与された部分画像を教師データとして、ディープラーニング等の機械学習手法によって学習させることにより、分類用モデルMcが生成(構築)される。分類用モデルMcは、線形回帰、SVM(Support Vector Machine)、及びRandomforest等によって得られる回帰モデルでもよい。 The classification model Mc is prepared in advance and stored in the classification unit 12. For example, a user captures a plurality of different areas from the sky and divides each image obtained into a rectangle. Then, the user determines the geographical characteristics of the area included in the divided partial image, and assigns a label indicating the geographical characteristics to the partial image. A classification model Mc is generated (constructed) by learning a partially image with a label as teacher data by a machine learning method such as deep learning. The classification model Mc may be a regression model obtained by linear regression, SVM (Support Vector Machine), Random forest, or the like.

抽出部13は、地域画像から選択可能領域を抽出する機能部である。選択可能領域は、判定対象の通行路である対象通行路を選択可能な領域である。通行路の周辺環境等によって、劣化の進行速度が異なる。この点を考慮して、本実施形態では、劣化が進む可能性が高い通行路が、判定対象として選択される。抽出部13は、分類部12から地域画像及びエリア情報を受け取り、地域画像に対応する地域に含まれる各エリアの地理的特性に基づいて、選択可能領域を抽出する。抽出部13は、例えば、通行路の劣化に影響を与える地理的特性を有するエリアを抽出する。抽出部13は、抽出したエリアによって形成される領域を選択可能領域とする。 The extraction unit 13 is a functional unit that extracts a selectable area from the area image. The selectable area is an area in which the target passage, which is the passage to be determined, can be selected. The rate of deterioration varies depending on the surrounding environment of the passage. In consideration of this point, in the present embodiment, a passage route having a high possibility of deterioration is selected as a determination target. The extraction unit 13 receives the area image and the area information from the classification unit 12, and extracts the selectable area based on the geographical characteristics of each area included in the area corresponding to the area image. The extraction unit 13 extracts, for example, an area having geographical characteristics that affect the deterioration of the passage. The extraction unit 13 sets a region formed by the extracted area as a selectable region.

例えば、沿岸部では、塩害により通行路が劣化するおそれがある。また、森林地では、積雪により通行路が劣化するおそれがある。これらの点を考慮して、抽出部13は、地域画像のうち、沿岸部及び森林地に属するエリアの部分画像を抽出してもよい。抽出部13は、地理的特性ごとに重みを付与し、予め定められた閾値よりも大きい重みを有するエリアの部分画像を抽出してもよい。例えば、通行路の劣化に与える影響が大きい地理的特性ほど、大きい値の重みが付与される。 For example, in coastal areas, there is a risk that the passage will deteriorate due to salt damage. In addition, in forest areas, there is a risk that the passageway will deteriorate due to snow cover. In consideration of these points, the extraction unit 13 may extract a partial image of the area belonging to the coastal area and the forest area from the area image. The extraction unit 13 may give a weight to each geographical characteristic and extract a partial image of an area having a weight larger than a predetermined threshold value. For example, a geographical characteristic that has a greater effect on the deterioration of a passage is given a larger weight.

抽出部13は、例えば、表示装置を介して選択可能領域をユーザに提示する。図3に示されるように、抽出部13は、例えば、地域画像Gに選択可能領域Rsを重畳表示することで、選択可能領域Rsをユーザに提示してもよい。 The extraction unit 13 presents the user with a selectable area, for example, via a display device. As shown in FIG. 3, the extraction unit 13 may present the selectable area Rs to the user by, for example, superimposing the selectable area Rs on the area image G.

特定部14は、対象通行路を特定する機能部である。特定部14は、地域画像に対応する地域に属する1以上の候補通行路から、ユーザによって選択された候補通行路を対象通行路として特定する。ここでは、特定部14は、選択可能領域に含まれる候補通行路のうち、ユーザによって選択された候補通行路を対象通行路として特定する。なお、図4に示されるように、ユーザは、入力装置を用いて、選択可能領域Rsに含まれる候補通行路から対象通行路を矩形のポインタPで選択する。特定部14は、対象通行路を一意に識別可能な通行路情報を画像取得部15、環境情報取得部16、及び地理情報算出部17に出力する。 The specific unit 14 is a functional unit that specifies the target passage route. The specifying unit 14 identifies the candidate passage route selected by the user from one or more candidate passage routes belonging to the area corresponding to the area image as the target passage route. Here, the specifying unit 14 specifies the candidate passage route selected by the user among the candidate passage routes included in the selectable area as the target passage route. As shown in FIG. 4, the user uses the input device to select the target passage from the candidate passages included in the selectable area Rs with the rectangular pointer P. The specific unit 14 outputs the passage information that can uniquely identify the target passage to the image acquisition unit 15, the environment information acquisition unit 16, and the geographic information calculation unit 17.

画像取得部15は、対象通行路上を通行する物体を撮像した画像である通行画像を取得する機能部である。画像取得部15は、特定部14から通行路情報を受け取ると、通行路情報によって示される対象通行路に設置されたカメラ3から動画像を受信することによって、通行画像を取得する。画像取得部15は、取得した通行画像を物体情報算出部18に出力する。 The image acquisition unit 15 is a functional unit that acquires a passage image, which is an image of an object passing on the target passage. When the image acquisition unit 15 receives the passage information from the specific unit 14, the image acquisition unit 15 acquires the passage image by receiving a moving image from the camera 3 installed in the target passage indicated by the passage information. The image acquisition unit 15 outputs the acquired traffic image to the object information calculation unit 18.

環境情報取得部16は、設置エリアの環境情報を取得する機能部である。環境情報取得部16は、特定部14から通行路情報を受け取ると、通行路情報によって示される対象通行路の設置エリアを特定する。環境情報取得部16は、外部サーバ4にアクセスすることで、外部サーバ4から設置エリアの環境情報を取得する。判定部19の判定には、環境情報として、例えば、設置エリアの気象情報、設置エリアの地盤情報、及び対象通行路における騒音情報が用いられる。 The environmental information acquisition unit 16 is a functional unit that acquires environmental information of the installation area. Upon receiving the traffic route information from the specific unit 14, the environmental information acquisition unit 16 specifies the installation area of the target traffic route indicated by the traffic route information. The environment information acquisition unit 16 acquires the environment information of the installation area from the external server 4 by accessing the external server 4. For the determination of the determination unit 19, for example, the weather information of the installation area, the ground information of the installation area, and the noise information in the target passage are used as the environmental information.

降水量として、例えば、設置エリアの平均降水量が用いられる。平均降水量は、年ごとの平均降水量、又は判定を行う月と同じ月の平均降水量であってもよい。降水量として、対象通行路が竣工してから判定を行う日までの合計の降水量である積算降水量が用いられてもよい。積雪量として、例えば、設置エリアの平均積雪量が用いられる。平均積雪量は、年ごとの平均降水量であってもよい。積雪量として、対象通行路が竣工してから判定を行う日までの合計の積雪量である積算積雪量が用いられてもよい。沈降量として、基準高度に対して設置エリアの地盤が沈んでいる高度を示す沈降量が用いられる。騒音量として、対象通行路における平均騒音量が用いられる。平均騒音量は、日ごとの平均騒音量であってもよい。騒音量として、対象通行路が竣工してから判定を行う日までの合計の騒音量である積算騒音量が用いられてもよい。 As the amount of precipitation, for example, the average amount of precipitation in the installation area is used. The average precipitation may be the average precipitation for each year or the average precipitation in the same month as the month in which the determination is made. As the precipitation amount, the cumulative precipitation amount, which is the total precipitation amount from the completion of the target passage to the day when the determination is made, may be used. As the amount of snowfall, for example, the average amount of snowfall in the installation area is used. The average amount of snow cover may be the average amount of precipitation for each year. As the amount of snowfall, the cumulative amount of snowfall, which is the total amount of snowfall from the completion of the target passage to the day when the determination is made, may be used. As the amount of subsidence, the amount of subsidence indicating the altitude at which the ground in the installation area is submerged with respect to the reference altitude is used. As the noise amount, the average noise amount in the target passage is used. The average noise level may be the average daily noise level. As the noise amount, the integrated noise amount, which is the total noise amount from the completion of the target passage to the day when the determination is made, may be used.

環境情報取得部16は、判定部19の判定に用いられる環境情報を外部サーバ4から直接取得してもよいし、外部サーバ4から取得した情報を用いて、判定部19の判定に用いられる環境情報を算出してもよい。環境情報取得部16は、環境情報を判定部19に出力する。 The environment information acquisition unit 16 may directly acquire the environment information used for the determination of the determination unit 19 from the external server 4, or the environment used for the determination of the determination unit 19 using the information acquired from the external server 4. Information may be calculated. The environmental information acquisition unit 16 outputs the environmental information to the determination unit 19.

地理情報算出部17は、地域画像に基づいて、設置エリアの地理的特性を示す地理情報を算出する機能部である。地理情報としては、例えば、住宅地度、工業地度、森林地度、及び海までの距離が用いられる。住宅地度は、設置エリアが住宅地である可能性を示す指標である。住宅地度の値が大きいほど、当該設置エリアが住宅地である可能性が高い。工業地度は、設置エリアが工業地である可能性を示す指標である。工業地度の値が大きいほど、当該設置エリアが工業地である可能性が高い。森林地度は、設置エリアが森林地である可能性を示す指標である。森林地度の値が大きいほど、当該設置エリアが森林地である可能性が高い。海までの距離は、対象通行路が設置されている設置位置から海(海岸線)までの直線距離である。 The geographic information calculation unit 17 is a functional unit that calculates geographic information indicating the geographical characteristics of the installation area based on the regional image. As the geographical information, for example, a residential area, an industrial area, a forest area, and a distance to the sea are used. The degree of residential area is an index showing the possibility that the installation area is a residential area. The larger the value of the degree of residential area, the higher the possibility that the installation area is a residential area. The degree of industrial land is an index showing the possibility that the installation area is an industrial land. The larger the value of the degree of industrial land, the higher the possibility that the installation area is an industrial land. The degree of forest land is an index showing the possibility that the installation area is a forest land. The larger the value of the degree of forest land, the higher the possibility that the installation area is forest land. The distance to the sea is the straight line distance from the installation position where the target passage is installed to the sea (coastline).

地理情報算出部17は、設置位置の周辺のエリアの地理的特性に応じて、設置エリアの住宅地度、工業地度、及び森林地度を算出する。具体的には、地理情報算出部17は、設置位置を中心とした所定範囲内のエリアの地理的特性から、設置エリアの住宅地度、工業地度、及び森林地度を算出する。例えば、地理情報算出部17は、所定範囲内のエリアのうち、地理的特性が住宅地であるエリアの数、地理的特性が工業地であるエリアの数、及び地理的特性が森林地であるエリアの数に応じて、設置エリアの住宅地度、工業地度、及び森林地度を算出する。例えば、地理的特性が住宅地であるエリアの数が相対的に多ければ、住宅地度が大きい値に設定される。また、地理情報算出部17は、エリアの数を計数する際に、所定範囲内のエリアの地理的特性に重みを付与してもよい。例えば、設置位置に近いエリアほど、大きい値の重みが付与される。 The geographic information calculation unit 17 calculates the residential area, the industrial area, and the forest area of the installation area according to the geographical characteristics of the area around the installation position. Specifically, the geographic information calculation unit 17 calculates the residential area, industrial area, and forest area of the installation area from the geographical characteristics of the area within a predetermined range centered on the installation position. For example, in the geographic information calculation unit 17, among the areas within a predetermined range, the number of areas whose geographical characteristics are residential areas, the number of areas whose geographical characteristics are industrial areas, and the geographical characteristics are forest areas. Calculate the residential area, industrial area, and forest area of the installation area according to the number of areas. For example, if the number of areas whose geographical characteristics are residential areas is relatively large, the degree of residential areas is set to a large value. Further, the geographic information calculation unit 17 may give a weight to the geographical characteristics of the area within a predetermined range when counting the number of areas. For example, the closer the area is to the installation position, the larger the weight is given.

地理情報算出部17は、地域画像に基づいて、設置位置から海までの距離を算出する。地理情報算出部17は、地域画像において、設置位置と海(海岸線)とを直線(線分)で接続し、当該直線が通過するピクセル数を計数する。地理情報算出部17は、ピクセル数と予め設定又は算出されている1ピクセル当たりの実空間上での距離とから、海までの距離を算出する。地理情報算出部17は、海岸線の位置を示す海岸線情報を取得し、対象通行路が設置されている位置から海岸線までの直線距離を算出することで、海までの距離を得てもよい。海岸線情報は、外部サーバ4から取得され得る。 The geographic information calculation unit 17 calculates the distance from the installation position to the sea based on the area image. The geographic information calculation unit 17 connects the installation position and the sea (coastline) with a straight line (line segment) in the area image, and counts the number of pixels through which the straight line passes. The geographic information calculation unit 17 calculates the distance to the sea from the number of pixels and the preset or calculated distance in real space per pixel. The geographic information calculation unit 17 may obtain the distance to the sea by acquiring the coastline information indicating the position of the coastline and calculating the straight line distance from the position where the target passage is installed to the coastline. The coastline information can be acquired from the external server 4.

地理情報算出部17は、地理情報を判定部19に出力する。 The geographic information calculation unit 17 outputs the geographic information to the determination unit 19.

物体情報算出部18は、通行画像に基づいて、対象通行路を通行した物体に関する物体情報を算出する機能部である。物体情報としては、例えば、対象通行路を通行した物体の重量、及び速度が用いられる。物体の重量として、対象通行路が竣工してから判定を行う日までに対象通行路を通行した物体の総重量が用いられてもよい。物体の速度として、対象通行路を通行した物体の平均速度が用いられてもよい。本実施形態では、対象通行路を通行する物体として、自動車等の車両を用いて説明する。なお、当該物体は、自動車以外の車両又は車両以外の移動物体(例えば、人)であってもよい。対象通行路が線路である場合、対象通行路を通行する物体は、電車等の車両であってもよい。 The object information calculation unit 18 is a functional unit that calculates object information about an object that has passed through a target passage based on a traffic image. As the object information, for example, the weight and speed of the object passing through the target passage are used. As the weight of the object, the total weight of the object that has passed through the target passageway from the completion of the completion of the target passageway to the day when the determination is made may be used. As the velocity of the object, the average velocity of the object passing through the target passage may be used. In the present embodiment, a vehicle such as an automobile will be described as an object passing through the target passage. The object may be a vehicle other than an automobile or a moving object other than the vehicle (for example, a person). When the target passage is a railroad track, the object passing through the target passage may be a vehicle such as a train.

物体情報算出部18は、画像取得部15から通行画像を受け取る。例えば、物体情報算出部18は、対象通行路上を通行する物体として、対象通行路上を通行する自動車等の車両の車種を特定する。物体情報算出部18は、通行画像の中の予め設定されたタイミングのフレーム(画像)から車両の車種を特定する。車種の特定は、パターン認識等の周知の方法を用いて行うことができる。図5に車種の特定方法の一例を模式的に示す。 The object information calculation unit 18 receives a passing image from the image acquisition unit 15. For example, the object information calculation unit 18 specifies a vehicle type of a vehicle such as an automobile passing on the target passage as an object passing on the target passage. The object information calculation unit 18 identifies the vehicle type of the vehicle from a frame (image) of a preset timing in the traffic image. The vehicle type can be specified by using a well-known method such as pattern recognition. FIG. 5 schematically shows an example of a method for specifying a vehicle type.

物体情報算出部18は、画像データベースを予め記憶している。画像データベースは、車両の画像を格納したデータベースである。画像データベースは、画像取得部15から受け取った通行画像から、車両が写っている部分を抽出するために用いられる。物体情報算出部18は、通行画像から、物体情報算出部18に予め記憶されているカスケード分類器と画像データベースに格納されている画像とから、車両が写っている部分を抽出する。 The object information calculation unit 18 stores an image database in advance. The image database is a database that stores images of vehicles. The image database is used to extract a portion of the vehicle from the traffic image received from the image acquisition unit 15. The object information calculation unit 18 extracts a portion of the vehicle from the traffic image from the cascade classifier stored in advance in the object information calculation unit 18 and the image stored in the image database.

物体情報算出部18は、車両データベースを予め記憶している。車両データベースは、車種ごとに車両の画像を格納したデータベースである。車両データベースは、上記の抽出した部分画像から車種を特定するために用いられる。図6は、車両データベースの一例を示す図である。図6に示されるように、車両データベースには、車種ごとに車両の画像が格納されている。また、車両データベースには、各車種の車両の重さ(重量)を示す情報が、車種に対応付けられて格納されていてもよい。 The object information calculation unit 18 stores the vehicle database in advance. The vehicle database is a database that stores vehicle images for each vehicle type. The vehicle database is used to identify the vehicle type from the above extracted partial images. FIG. 6 is a diagram showing an example of a vehicle database. As shown in FIG. 6, the vehicle database stores images of vehicles for each vehicle type. Further, in the vehicle database, information indicating the weight (weight) of the vehicle of each vehicle type may be stored in association with the vehicle type.

物体情報算出部18は、抽出した部分画像から、物体情報算出部18に予め記憶されているカスケード分類器(上記の部分画像を抽出するためのカスケード分類器とは異なる)と車両データベースに格納されている画像とから車種を特定する。物体情報算出部18は、車両データベースを参照することで、車種から当該車両の重量を取得する。 The object information calculation unit 18 is stored in the cascade classifier (different from the cascade classifier for extracting the above partial image) and the vehicle database stored in advance in the object information calculation unit 18 from the extracted partial image. Identify the vehicle type from the image. The object information calculation unit 18 acquires the weight of the vehicle from the vehicle type by referring to the vehicle database.

物体情報算出部18は、車種を特定した車両の速度を特定する。物体情報算出部18は、通行画像(動画像)を構成する各フレーム(画像)から、オプティカルフローによって当該車両のピクセル変位を算出する。物体情報算出部18は、算出したピクセル変位と、予め設定又は算出されている1ピクセル当たりの実空間上での距離とから、実空間での車両の変位量を算出する。物体情報算出部18は、算出した車両の変位量と動画像のフレームレートとから当該車両の速度を算出する。なお、通行画像からの車両の速度の特定(算出)は、必ずしも上記の方法で行われる必要はなく、従来の任意の方法で行われ得る。 The object information calculation unit 18 specifies the speed of the vehicle for which the vehicle type has been specified. The object information calculation unit 18 calculates the pixel displacement of the vehicle from each frame (image) constituting the traffic image (moving image) by optical flow. The object information calculation unit 18 calculates the displacement amount of the vehicle in the real space from the calculated pixel displacement and the preset or calculated distance per pixel in the real space. The object information calculation unit 18 calculates the speed of the vehicle from the calculated displacement amount of the vehicle and the frame rate of the moving image. It should be noted that the specification (calculation) of the vehicle speed from the traffic image does not necessarily have to be performed by the above method, but may be performed by any conventional method.

物体情報算出部18は、物体情報を判定部19に出力する。なお、対象通行路を人が通行する場合、物体情報算出部18は、車両と同様に、通行人の重量、及び速度を物体情報としてもよい。物体情報算出部18は、通行人の人数を物体情報に含めてもよい。 The object information calculation unit 18 outputs the object information to the determination unit 19. When a person passes through the target passage, the object information calculation unit 18 may use the weight and speed of the passerby as object information, as in the case of a vehicle. The object information calculation unit 18 may include the number of passersby in the object information.

判定部19は、地理情報及び物体情報に基づいて、対象通行路の劣化状態を判定する機能部である。本実施形態では、判定部19は、地理情報及び物体情報に加えて、対象通行路の供用期間(対象通行路が竣工してからの経過時間)及び設置エリアの環境情報にさらに基づいて、対象通行路の劣化状態を判定する。供用期間は、外部サーバ4から取得され得る。図7に示されるように、判定部19は、例えば、機械学習によって生成される予測モデルMdを用いて、対象通行路の劣化状態を判定する。本実施形態では、劣化状態を示す指標として健全度が用いられる。つまり、対象通行路の健全度は、予測モデルMdに各パラメータの値(地理情報、物体情報、供用期間、及び環境情報)を入力することによって得られる。 The determination unit 19 is a functional unit that determines the deterioration state of the target passage based on the geographical information and the object information. In the present embodiment, the determination unit 19 further bases the target on the in-service period of the target passage (elapsed time since the completion of the target passage) and the environmental information of the installation area in addition to the geographical information and the object information. Determine the deterioration state of the passage. The service period can be obtained from the external server 4. As shown in FIG. 7, the determination unit 19 determines the deterioration state of the target passage using, for example, the prediction model Md generated by machine learning. In this embodiment, soundness is used as an index indicating a deterioration state. That is, the soundness of the target passage is obtained by inputting the values of each parameter (geographical information, object information, service period, and environmental information) into the prediction model Md.

予測モデルMdは、予め準備され、判定部19に記憶されている。例えば、健全度が既知である通行路のパラメータの値を教師データとして、ディープラーニング等の機械学習手法によって学習させることにより、予測モデルMdが生成(構築)される。予測モデルMdは、線形回帰、SVM、及びRandomforest等によって得られる回帰モデルでもよい。 The prediction model Md is prepared in advance and stored in the determination unit 19. For example, a prediction model Md is generated (constructed) by learning by a machine learning method such as deep learning using the value of a passage parameter whose soundness is known as training data. The prediction model Md may be a regression model obtained by linear regression, SVM, Random forest, or the like.

判定部19は、判定結果を示す情報である結果情報を出力部20に出力する。結果情報は、例えば、健全度を示す情報である。結果情報は、劣化度を示す情報でもよく、対象通行路に劣化が生じている否かを示す情報でもよい。 The determination unit 19 outputs the result information, which is information indicating the determination result, to the output unit 20. The result information is, for example, information indicating the soundness. The result information may be information indicating the degree of deterioration, or may be information indicating whether or not deterioration has occurred in the target passage.

出力部20は、結果情報を出力する機能部である。出力部20は、例えば、状態判定装置10が備えるディスプレイ等の表示装置に結果情報を出力し、判定結果を表示させてもよい。出力部20は、状態判定装置10に接続された別の端末に結果情報を送信し、判定結果を表示させてもよい。出力部20による出力は、例えば、通行路判定システム1のユーザにより参照され、上述したように、通行路の補強又は改修等の判断に用いられる。なお、出力部20は、上記以外の装置に結果情報を出力してもよく、また、上記以外の形態で結果情報を出力してもよい。 The output unit 20 is a functional unit that outputs result information. The output unit 20 may output the result information to a display device such as a display included in the state determination device 10 and display the determination result, for example. The output unit 20 may transmit the result information to another terminal connected to the state determination device 10 and display the determination result. The output by the output unit 20 is referred to by, for example, the user of the passage determination system 1, and is used for determination of reinforcement or repair of the passage as described above. The output unit 20 may output the result information to a device other than the above, or may output the result information in a form other than the above.

次に、図8を参照して、状態判定装置10が行う状態判定方法を説明する。図8は、図2に示される状態判定装置が行う状態判定方法の一連の処理を示すフローチャートである。図8に示される一連の処理は、例えば、ユーザがカメラ2によって通行路を含む地域を撮像することによって開始される。 Next, a state determination method performed by the state determination device 10 will be described with reference to FIG. FIG. 8 is a flowchart showing a series of processes of the state determination method performed by the state determination device shown in FIG. The series of processes shown in FIG. 8 is started, for example, by the user taking an image of an area including a passage with a camera 2.

まず、カメラ2によって地域が上空から撮像されることにより、地域画像が取得され、地域画像がカメラ2から状態判定装置10に送信される。そして、画像取得部11は、カメラ2から地域画像を受信することで地域画像を取得する(ステップS11)。そして、画像取得部11は、地域画像を分類部12に出力する。 First, the area is imaged from the sky by the camera 2, so that the area image is acquired and the area image is transmitted from the camera 2 to the state determination device 10. Then, the image acquisition unit 11 acquires the regional image by receiving the regional image from the camera 2 (step S11). Then, the image acquisition unit 11 outputs the regional image to the classification unit 12.

続いて、分類部12は、画像取得部11から地域画像を受け取ると、地域画像に対応する地域に含まれる各エリアを地理的特性に基づいて分類する(ステップS12)。具体的には、分類部12は、分類用モデルMc(図3参照)を用いて、各エリアがいずれの地理的特性を有するかを判定し、当該地理的特性を示すラベルを各エリアの部分画像に付与する。そして、分類部12は、地域画像及びエリア情報を抽出部13及び地理情報算出部17に出力する。 Subsequently, when the classification unit 12 receives the area image from the image acquisition unit 11, each area included in the area corresponding to the area image is classified based on the geographical characteristics (step S12). Specifically, the classification unit 12 determines which geographical characteristic each area has by using the classification model Mc (see FIG. 3), and puts a label indicating the geographical characteristic on the portion of each area. Give to the image. Then, the classification unit 12 outputs the area image and the area information to the extraction unit 13 and the geographic information calculation unit 17.

続いて、抽出部13は、分類部12から地域画像及びエリア情報を受け取ると、各エリアの地理的特性に基づいて、地域画像から選択可能領域を抽出する(ステップS13)。そして、抽出部13は、表示装置を介して選択可能領域をユーザに提示する。 Subsequently, when the extraction unit 13 receives the area image and the area information from the classification unit 12, the extraction unit 13 extracts the selectable area from the area image based on the geographical characteristics of each area (step S13). Then, the extraction unit 13 presents the selectable area to the user via the display device.

続いて、特定部14は、ユーザによって、選択可能領域に含まれる候補通行路から、対象通行路が選択されたか否かを判定する(ステップS14)。特定部14は、対象通行路が選択されていないと判定した場合(ステップS14:NO)、対象通行路が選択されるまで、ステップS14の判定を繰り返す。そして、特定部14は、対象通行路が選択されたと判定すると(ステップS14:YES)、対象通行路を示す通行路情報を画像取得部15、環境情報取得部16、及び地理情報算出部17に出力する。 Subsequently, the specific unit 14 determines whether or not the target passage has been selected from the candidate passages included in the selectable area by the user (step S14). When the specific unit 14 determines that the target passage has not been selected (step S14: NO), the specific unit 14 repeats the determination in step S14 until the target passage is selected. Then, when the specific unit 14 determines that the target traffic route has been selected (step S14: YES), the specific unit 14 transfers the traffic route information indicating the target traffic route to the image acquisition unit 15, the environmental information acquisition unit 16, and the geographic information calculation unit 17. Output.

続いて、画像取得部15は、特定部14から通行路情報を受け取ると、通行路情報によって示される対象通行路に設置されたカメラ3から動画像を受信することによって、通行画像を取得する(ステップS15)。そして、画像取得部15は、取得した通行画像を物体情報算出部18に出力する。 Subsequently, when the image acquisition unit 15 receives the passage information from the specific unit 14, the image acquisition unit 15 acquires the passage image by receiving a moving image from the camera 3 installed in the target passage indicated by the passage information (). Step S15). Then, the image acquisition unit 15 outputs the acquired traffic image to the object information calculation unit 18.

続いて、環境情報取得部16は、特定部14から通行路情報を受け取ると、通行路情報によって示される対象通行路の設置エリアを特定する。そして、環境情報取得部16は、外部サーバ4にアクセスすることで、外部サーバ4から設置エリアの環境情報を取得する(ステップS16)。そして、環境情報取得部16は、環境情報を判定部19に出力する。 Subsequently, when the environmental information acquisition unit 16 receives the passage information from the specific unit 14, the environment information acquisition unit 16 identifies the installation area of the target passage indicated by the passage information. Then, the environment information acquisition unit 16 acquires the environment information of the installation area from the external server 4 by accessing the external server 4 (step S16). Then, the environmental information acquisition unit 16 outputs the environmental information to the determination unit 19.

続いて、地理情報算出部17は、分類部12から地域画像及びエリア情報を受け取り、特定部14から通行路情報を受け取ると、地域画像に基づいて、通行路情報によって示される対象通行路の設置エリアの地理情報を算出する(ステップS17)。例えば、地理情報算出部17は、設置エリアについて、住宅地度、工業地度、森林地度、及び海までの距離を地理情報として算出する。そして、地理情報算出部17は、地理情報を判定部19に出力する。 Subsequently, when the geographic information calculation unit 17 receives the area image and the area information from the classification unit 12, and receives the passage information from the specific unit 14, the geographic information calculation unit 17 installs the target passage indicated by the passage information based on the area image. The geographic information of the area is calculated (step S17). For example, the geographic information calculation unit 17 calculates the residential area, the industrial area, the forest area, and the distance to the sea as geographic information for the installation area. Then, the geographic information calculation unit 17 outputs the geographic information to the determination unit 19.

続いて、物体情報算出部18は、画像取得部15から通行画像を受け取ると、通行画像に基づいて、対象通行路を通行した物体に関する物体情報を算出する(ステップS18)。例えば、物体情報算出部18は、対象通行路を通行した物体の重量、及び速度を物体情報として算出する。そして、物体情報算出部18は、物体情報を判定部19に出力する。 Subsequently, when the object information calculation unit 18 receives the passage image from the image acquisition unit 15, the object information calculation unit 18 calculates the object information regarding the object passing through the target passage based on the passage image (step S18). For example, the object information calculation unit 18 calculates the weight and speed of an object that has passed through the target passage as object information. Then, the object information calculation unit 18 outputs the object information to the determination unit 19.

続いて、判定部19は、地理情報算出部17から地理情報を受け取り、物体情報算出部18から物体情報を受け取り、環境情報取得部16から環境情報を受け取ると、対象通行路の供用期間、地理情報、物体情報、及び環境情報に基づいて、対象通行路の劣化状態を判定する(ステップS19)。具体的には、判定部19は、予測モデルMd(図7参照)を用いて、対象通行路の劣化状態を判定する。そして、判定部19は、判定結果を示す結果情報を出力部20に出力する。 Subsequently, when the determination unit 19 receives the geographic information from the geographic information calculation unit 17, the object information from the object information calculation unit 18, and the environmental information from the environmental information acquisition unit 16, the in-service period of the target passage and the geography Based on the information, the object information, and the environmental information, the deterioration state of the target passage is determined (step S19). Specifically, the determination unit 19 determines the deterioration state of the target passage using the prediction model Md (see FIG. 7). Then, the determination unit 19 outputs the result information indicating the determination result to the output unit 20.

続いて、出力部20は、判定部19から結果情報を受け取ると、結果情報を出力する(ステップS20)。例えば、出力部20は、状態判定装置10が備える表示装置に判定結果を送信し、判定結果を表示させる。 Subsequently, when the output unit 20 receives the result information from the determination unit 19, the output unit 20 outputs the result information (step S20). For example, the output unit 20 transmits the determination result to the display device included in the state determination device 10 and displays the determination result.

以上のようにして、状態判定装置10が行う状態判定方法の一連の処理が終了する。 As described above, a series of processes of the state determination method performed by the state determination device 10 is completed.

なお、ステップS15における通行画像の取得とステップS18における物体情報の算出とを含む一連の処理と、ステップS16における環境情報の取得と、ステップS17における地理情報の算出と、は、任意の順番で行われてもよく、並行して行われてもよい。つまり、ステップS15~S18では、ステップS15よりも後にステップS18が行われるが、それ以外の処理順は任意である。ステップS16,S17は、ステップS15よりも先に行われてもよく、ステップS15と並行して行われてもよい。ステップS16,S17は、ステップS18よりも後に行われてもよく、ステップS18と並行して行われてもよい。また、ステップS16は、ステップS17よりも後に行われてもよく、ステップS17と並行して行われてもよい。 A series of processes including acquisition of a traffic image in step S15 and calculation of object information in step S18, acquisition of environmental information in step S16, and calculation of geographic information in step S17 are performed in an arbitrary order. It may be done in parallel. That is, in steps S15 to S18, step S18 is performed after step S15, but the processing order other than that is arbitrary. Steps S16 and S17 may be performed before step S15, or may be performed in parallel with step S15. Steps S16 and S17 may be performed after step S18, or may be performed in parallel with step S18. Further, step S16 may be performed after step S17, or may be performed in parallel with step S17.

以上説明したように、状態判定装置10では、対象通行路を含む地域画像に基づいて、設置エリアの地理的特性を示す地理情報が算出され、対象通行路上を通行する物体を撮像した通行画像に基づいて、物体に関する物体情報が算出される。そして、地理情報及び物体情報に基づいて、対象通行路の劣化状態が判定される。このように、設置エリアの地理的特性だけでなく、対象通行路上を通行する物体に関する情報を考慮して、対象通行路の劣化状態が判定される。その結果、通行路の劣化状態の判定精度を向上させることが可能となる。また、状態判定装置10では、通行路に生じている劣化(損傷)が認識できる程度の画像を準備する必要がないので、作業効率を改善することができるとともに、そのような画像を記憶するためのメモリ容量を削減することができる。 As described above, in the state determination device 10, the geographical information indicating the geographical characteristics of the installation area is calculated based on the area image including the target passage, and the traffic image obtained by capturing the object passing on the target passage is obtained. Based on this, object information about the object is calculated. Then, the deterioration state of the target passage is determined based on the geographical information and the object information. In this way, the deterioration state of the target passage is determined in consideration of not only the geographical characteristics of the installation area but also the information about the object passing on the target passage. As a result, it is possible to improve the accuracy of determining the deterioration state of the passage. Further, in the state determination device 10, it is not necessary to prepare an image to the extent that deterioration (damage) occurring in the passage can be recognized, so that the work efficiency can be improved and such an image is stored. Memory capacity can be reduced.

特定部14は、地域画像に含まれる1以上の候補通行路のうち、ユーザによって選択された候補通行路を対象通行路として特定する。したがって、ユーザが対象通行路を選択することができるので、利便性が向上する。 The specifying unit 14 specifies the candidate passage route selected by the user from among the one or more candidate passage routes included in the regional image as the target passage route. Therefore, the user can select the target passage route, which improves convenience.

抽出部13は、地域画像から選択可能領域を抽出し、特定部14は、選択可能領域に含まれる候補通行路のうち、ユーザによって選択された候補通行路を対象通行路として特定する。ユーザが対象通行路を選択できる範囲が選択可能領域に制限されるので、選択可能領域が設定されない場合と比較して、選択され得る対象通行路の最大数が減少する。その結果、状態判定装置10が行う計算負荷を低減することができる。つまり、状態判定装置10におけるプロセッサ等のハードウェア資源の処理負荷を低減することができる。 The extraction unit 13 extracts the selectable area from the area image, and the specific unit 14 specifies the candidate passage route selected by the user among the candidate passage routes included in the selectable region as the target passage route. Since the range in which the user can select the target passage is limited to the selectable area, the maximum number of target passages that can be selected is reduced as compared with the case where the selectable area is not set. As a result, the calculation load performed by the state determination device 10 can be reduced. That is, it is possible to reduce the processing load of hardware resources such as a processor in the state determination device 10.

分類部12は、地域に含まれる複数のエリアのそれぞれを地理的特性に基づいて分類する。抽出部13は、複数のエリアの地理的特性に基づいて、選択可能領域を抽出する。対象通行路の周辺環境等によって、劣化の進行速度が異なる。例えば、通行路の劣化に影響を与える地理的特性を有するエリアによって形成される領域を選択可能領域とすることで、劣化が進んでいる可能性が高い通行路を対象通行路として選択することができる。 The classification unit 12 classifies each of the plurality of areas included in the area based on the geographical characteristics. The extraction unit 13 extracts selectable areas based on the geographical characteristics of the plurality of areas. The rate of deterioration varies depending on the surrounding environment of the target passage. For example, by setting an area formed by an area having geographical characteristics that affect the deterioration of the passage as a selectable area, it is possible to select a passage that is likely to be deteriorated as a target passage. can.

判定部19は、環境情報に基づいて、対象通行路の劣化状態を判定する。降水量、及び騒音量等の環境情報も、通行路の劣化に影響を及ぼす。したがって、環境情報を考慮することで、通行路の劣化状態の判定精度をさらに向上させることが可能となる。 The determination unit 19 determines the deterioration state of the target passage based on the environmental information. Environmental information such as precipitation and noise also affects the deterioration of traffic routes. Therefore, by considering the environmental information, it is possible to further improve the accuracy of determining the deterioration state of the passage.

判定部19は、対象通行路の供用期間に基づいて、対象通行路の劣化状態を判定する。対象通行路の供用期間が長いほど、対象通行路は劣化する。したがって、供用期間を考慮することで、通行路の劣化状態の判定精度をさらに向上させることが可能となる。 The determination unit 19 determines the deterioration state of the target passage based on the service period of the target passage. The longer the target traffic route is in service, the worse the target traffic route will be. Therefore, by considering the service period, it is possible to further improve the accuracy of determining the deterioration state of the passage.

以上、本発明の実施形態について説明したが、本発明は上記実施形態に限定されない。 Although the embodiment of the present invention has been described above, the present invention is not limited to the above embodiment.

上記実施形態では、選択可能領域から対象通行路が選択されているが、地域画像(地域)全体から対象通行路が選択されてもよい。この場合、状態判定装置10は、抽出部13を備えていなくてもよい。特定部14は、地域画像に対応する地域に属する1以上の候補通行路から、ユーザによって選択された候補通行路を対象通行路として特定する。 In the above embodiment, the target passage is selected from the selectable area, but the target passage may be selected from the entire area image (region). In this case, the state determination device 10 does not have to include the extraction unit 13. The specifying unit 14 identifies the candidate passage route selected by the user from one or more candidate passage routes belonging to the area corresponding to the area image as the target passage route.

通行路の劣化判定に、環境情報が用いられなくてもよい。この場合、状態判定装置10は、環境情報取得部16を備えていなくてもよい。また、通行路の劣化判定に、供用期間が用いられなくてもよい。 Environmental information may not be used to determine the deterioration of the passage. In this case, the state determination device 10 does not have to include the environment information acquisition unit 16. Further, the service period may not be used for determining the deterioration of the passage.

地理情報算出部17は、分類部12によって判定された各エリアの地理的特性に基づいて、設置エリアの地理情報を算出しているが、地理情報の算出には、各エリアの地理的特性が用いられなくてもよい。地理情報算出部17は、地理情報算出部17に予め記憶されているモデルに地域画像を入力することによって、地理情報(住宅地度、工業地度、森林地度、及び海までの距離)を算出(取得)してもよい。この場合、状態判定装置10は、分類部12を備えていなくてもよい。 The geographic information calculation unit 17 calculates the geographic information of the installation area based on the geographical characteristics of each area determined by the classification unit 12, but the geographical characteristics of each area are used in the calculation of the geographic information. It does not have to be used. The geographic information calculation unit 17 inputs geographical information (residential area, industrial area, forest area, and distance to the sea) by inputting a regional image into a model stored in advance in the geographic information calculation unit 17. It may be calculated (acquired). In this case, the state determination device 10 does not have to include the classification unit 12.

本実施形態では、カメラ3は、撮像して通行画像を取得しているが、画像から車種の特定のみを行う場合等には、必ずしも動画像が取得される必要はない。この場合、カメラ3は、静止画像を取得してもよい。 In the present embodiment, the camera 3 takes an image and acquires a traffic image, but it is not always necessary to acquire a moving image when only the vehicle type is specified from the image. In this case, the camera 3 may acquire a still image.

また、通行路判定システム1は、地域画像及び動画像が取得できればよいので、通行路判定システム1以外から各画像を取得可能な構成を有してもよい。 Further, since the passage route determination system 1 only needs to be able to acquire a regional image and a moving image, it may have a configuration in which each image can be acquired from other than the passage route determination system 1.

状態判定装置10は、カメラ2を備えてもよく、カメラ3を備えてもよい。また、状態判定装置10は、外部サーバ4から環境情報を取得しているが、この構成に代えて、状態判定装置10は、各通行路の環境情報を記憶する記憶部を備えてもよい。この場合、環境情報取得部16は、記憶部から環境情報を取得してもよい。 The state determination device 10 may include a camera 2 or a camera 3. Further, although the state determination device 10 acquires the environmental information from the external server 4, the state determination device 10 may include a storage unit for storing the environmental information of each passage instead of this configuration. In this case, the environmental information acquisition unit 16 may acquire environmental information from the storage unit.

なお、上記実施形態の説明に用いたブロック図は、機能単位のブロックを示している。これらの機能ブロック(構成部)は、ハードウェア及び/又はソフトウェアの任意の組み合わせによって実現される。また、各機能ブロックの実現手段は特に限定されない。すなわち、各機能ブロックは、物理的及び/又は論理的に結合した1つの装置により実現されてもよいし、物理的及び/又は論理的に分離した2つ以上の装置を直接的及び/又は間接的に(例えば、有線及び/又は無線)で接続し、これら複数の装置により実現されてもよい。 The block diagram used in the description of the above embodiment shows a block of functional units. These functional blocks (components) are realized by any combination of hardware and / or software. Further, the means for realizing each functional block is not particularly limited. That is, each functional block may be realized by one physically and / or logically coupled device, or directly and / or indirectly by two or more physically and / or logically separated devices. (For example, wired and / or wireless) may be connected and realized by these plurality of devices.

例えば、本発明の一実施形態における状態判定装置10は、本実施形態の状態判定装置10の処理を行うコンピュータとして機能してもよい。図9は、本実施形態に係る状態判定装置10のハードウェア構成の一例を示す図である。上述の状態判定装置10は、物理的には、プロセッサ1001、メモリ1002、ストレージ1003、通信装置1004、入力装置1005、出力装置1006、バス1007などを含むコンピュータ装置として構成されてもよい。 For example, the state determination device 10 in one embodiment of the present invention may function as a computer that processes the state determination device 10 of the present embodiment. FIG. 9 is a diagram showing an example of the hardware configuration of the state determination device 10 according to the present embodiment. The above-mentioned state determination device 10 may be physically configured as a computer device including a processor 1001, a memory 1002, a storage 1003, a communication device 1004, an input device 1005, an output device 1006, a bus 1007, and the like.

なお、以下の説明では、「装置」という文言は、回路、デバイス、ユニットなどに読み替えることができる。状態判定装置10のハードウェア構成は、図に示した各装置を1つ又は複数含むように構成されてもよいし、一部の装置を含まずに構成されてもよい。 In the following description, the word "device" can be read as a circuit, a device, a unit, or the like. The hardware configuration of the state determination device 10 may be configured to include one or more of the devices shown in the figure, or may be configured not to include some of the devices.

状態判定装置10における各機能は、プロセッサ1001、メモリ1002などのハードウェア上に所定のソフトウェア(プログラム)を読み込ませることで、プロセッサ1001が演算を行い、通信装置1004による通信、並びにメモリ1002及びストレージ1003におけるデータの読み出し及び/又は書き込みを制御することで実現される。 For each function in the state determination device 10, by loading predetermined software (program) on hardware such as the processor 1001 and the memory 1002, the processor 1001 performs an calculation, communication by the communication device 1004, and the memory 1002 and the storage. It is realized by controlling the reading and / or writing of data in 1003.

プロセッサ1001は、例えば、オペレーティングシステムを動作させてコンピュータ全体を制御する。プロセッサ1001は、周辺装置とのインターフェース、制御装置、演算装置、レジスタなどを含む中央処理装置(CPU:Central Processing Unit)で構成されてもよい。例えば、状態判定装置10の各機能は、プロセッサ1001で実現されてもよい。 Processor 1001 operates, for example, an operating system to control the entire computer. The processor 1001 may be composed of a central processing unit (CPU) including an interface with a peripheral device, a control device, an arithmetic unit, a register, and the like. For example, each function of the state determination device 10 may be realized by the processor 1001.

また、プロセッサ1001は、プログラム(プログラムコード)、ソフトウェアモジュール、及びデータを、ストレージ1003及び/又は通信装置1004からメモリ1002に読み出し、これらに従って各種の処理を実行する。プログラムとしては、上述の実施形態で説明した動作の少なくとも一部をコンピュータに実行させるプログラムが用いられる。例えば、状態判定装置10の各機能は、メモリ1002に格納され、プロセッサ1001で動作する制御プログラムによって実現されてもよい。上述の各種処理は、1つのプロセッサ1001で実行される旨を説明してきたが、2以上のプロセッサ1001により同時又は逐次に実行されてもよい。プロセッサ1001は、1以上のチップで実装されてもよい。なお、プログラムは、電気通信回線を介してネットワークから送信されても良い。 Further, the processor 1001 reads a program (program code), a software module, and data from the storage 1003 and / or the communication device 1004 into the memory 1002, and executes various processes according to these. As the program, a program that causes a computer to execute at least a part of the operations described in the above-described embodiment is used. For example, each function of the state determination device 10 may be realized by a control program stored in the memory 1002 and operated by the processor 1001. Although it has been described that the various processes described above are executed by one processor 1001, they may be executed simultaneously or sequentially by two or more processors 1001. Processor 1001 may be mounted on one or more chips. The program may be transmitted from the network via a telecommunication line.

メモリ1002は、コンピュータ読み取り可能な記録媒体であり、例えば、ROM(Read Only Memory)、EPROM(Erasable Programmable ROM)、EEPROM(Electrically Erasable Programmable ROM)、RAM(Random Access Memory)などの少なくとも1つで構成されてもよい。メモリ1002は、レジスタ、キャッシュ、メインメモリ(主記憶装置)などと呼ばれてもよい。メモリ1002は、本発明の一実施形態に係る方法を実施するために実行可能なプログラム(プログラムコード)、ソフトウェアモジュールなどを保存することができる。 The memory 1002 is a computer-readable recording medium, and is composed of at least one such as a ROM (Read Only Memory), an EPROM (Erasable Programmable ROM), an EEPROM (Electrically Erasable Programmable ROM), and a RAM (Random Access Memory). May be done. The memory 1002 may be referred to as a register, a cache, a main memory (main storage device), or the like. The memory 1002 can store a program (program code), a software module, or the like that can be executed to carry out the method according to the embodiment of the present invention.

ストレージ1003は、コンピュータ読み取り可能な記録媒体であり、例えば、CD-ROM(Compact Disc ROM)などの光ディスク、ハードディスクドライブ、フレキシブルディスク、光磁気ディスク(例えば、コンパクトディスク、デジタル多用途ディスク、Blu-ray(登録商標)ディスク)、スマートカード、フラッシュメモリ(例えば、カード、スティック、キードライブ)、フロッピー(登録商標)ディスク、磁気ストリップなどの少なくとも1つで構成されてもよい。ストレージ1003は、補助記憶装置と呼ばれてもよい。上述の記憶媒体は、例えば、メモリ1002及び/又はストレージ1003を含むデータベース、サーバその他の適切な媒体であってもよい。 The storage 1003 is a computer-readable recording medium, for example, an optical disk such as a CD-ROM (Compact Disc ROM), a hard disk drive, a flexible disk, an optical magnetic disk (for example, a compact disk, a digital versatile disk, a Blu-ray). It may consist of at least one (registered trademark) disk), smart card, flash memory (eg, card, stick, key drive), floppy (registered trademark) disk, magnetic strip, and the like. The storage 1003 may be referred to as an auxiliary storage device. The storage medium described above may be, for example, a database, server or other suitable medium containing memory 1002 and / or storage 1003.

通信装置1004は、有線及び/又は無線ネットワークを介してコンピュータ間の通信を行うためのハードウェア(送受信デバイス)であり、例えばネットワークデバイス、ネットワークコントローラ、ネットワークカード、通信モジュールなどともいう。例えば、状態判定装置10の各機能は、通信装置1004で実現されてもよい。 The communication device 1004 is hardware (transmission / reception device) for communicating between computers via a wired and / or wireless network, and is also referred to as, for example, a network device, a network controller, a network card, a communication module, or the like. For example, each function of the state determination device 10 may be realized by the communication device 1004.

入力装置1005は、外部からの入力を受け付ける入力デバイス(例えば、キーボード、マウス、マイクロフォン、スイッチ、ボタン、センサなど)である。出力装置1006は、外部への出力を実施する出力デバイス(例えば、ディスプレイ、スピーカー、LEDランプなど)である。なお、入力装置1005及び出力装置1006は、一体となった構成(例えば、タッチパネル)であってもよい。 The input device 1005 is an input device (for example, a keyboard, a mouse, a microphone, a switch, a button, a sensor, etc.) that receives an input from the outside. The output device 1006 is an output device (for example, a display, a speaker, an LED lamp, etc.) that performs output to the outside. The input device 1005 and the output device 1006 may have an integrated configuration (for example, a touch panel).

また、プロセッサ1001及びメモリ1002などの各装置は、情報を通信するためのバス1007で接続される。バス1007は、単一のバスで構成されてもよいし、装置間で異なるバスで構成されてもよい。 Further, each device such as the processor 1001 and the memory 1002 is connected by a bus 1007 for communicating information. The bus 1007 may be composed of a single bus or may be composed of different buses between the devices.

また、状態判定装置10は、マイクロプロセッサ、デジタル信号プロセッサ(DSP:Digital Signal Processor)、ASIC(Application Specific Integrated Circuit)、PLD(Programmable Logic Device)、FPGA(Field Programmable Gate Array)などのハードウェアを含んで構成されてもよく、当該ハードウェアにより、各機能ブロックの一部又は全てが実現されてもよい。例えば、プロセッサ1001は、これらのハードウェアの少なくとも1つで実装されてもよい。 Further, the state determination device 10 includes hardware such as a microprocessor, a digital signal processor (DSP: Digital Signal Processor), an ASIC (Application Specific Integrated Circuit), a PLD (Programmable Logic Device), and an FPGA (Field Programmable Gate Array). It may be configured by, and a part or all of each functional block may be realized by the hardware. For example, the processor 1001 may be implemented on at least one of these hardware.

以上、本実施形態について詳細に説明したが、当業者にとっては、本実施形態が本明細書中に説明した実施形態に限定されるものではないということは明らかである。本実施形態は、特許請求の範囲の記載により定まる本発明の趣旨及び範囲を逸脱することなく修正及び変更態様として実施することができる。したがって、本明細書の記載は、例示説明を目的とするものであり、本実施形態に対して何ら制限的な意味を有するものではない。 Although the present embodiment has been described in detail above, it is clear to those skilled in the art that the present embodiment is not limited to the embodiments described in the present specification. This embodiment can be implemented as an amendment or modification without departing from the spirit and scope of the present invention as determined by the description of the scope of claims. Therefore, the description herein is for purposes of illustration only and has no limiting implications for this embodiment.

情報の通知は、本明細書で説明した態様/実施形態に限られず、他の方法で行われてもよい。例えば、情報の通知は、物理レイヤシグナリング(例えば、DCI(Downlink Control Information)、UCI(Uplink Control Information))、上位レイヤシグナリング(例えば、RRC(Radio Resource Control)シグナリング、MAC(Medium Access Control)シグナリング、報知情報(MIB(Master Information Block)、SIB(System Information Block)))、その他の信号又はこれらの組み合わせによって実施されてもよい。また、RRCシグナリングは、RRCメッセージと呼ばれてもよく、例えば、RRC接続セットアップ(RRC Connection Setup)メッセージ、RRC接続再構成(RRC Connection Reconfiguration)メッセージなどであってもよい。 The notification of information is not limited to the embodiments / embodiments described herein, and may be performed by other methods. For example, information notification includes physical layer signaling (eg, DCI (Downlink Control Information), UCI (Uplink Control Information)), higher layer signaling (eg, RRC (Radio Resource Control) signaling, MAC (Medium Access Control) signaling, etc. It may be carried out by broadcast information (MIB (Master Information Block), SIB (System Information Block)), other signals, or a combination thereof. Further, the RRC signaling may be referred to as an RRC message, and may be, for example, an RRC Connection Setup message, an RRC Connection Reconfiguration message, or the like.

本明細書で説明した各態様/実施形態の処理手順、シーケンス、フローチャートなどは、矛盾の無い限り、順序を入れ替えてもよい。例えば、本明細書で説明した方法については、例示的な順序で様々なステップの要素を提示しており、提示した特定の順序に限定されない。 The processing procedures, sequences, flowcharts, and the like of each aspect / embodiment described in the present specification may be rearranged in order as long as there is no contradiction. For example, the methods described herein present elements of various steps in an exemplary order and are not limited to the particular order presented.

入出力された情報等は特定の場所(例えば、メモリ)に保存されてもよいし、管理テーブルで管理されてもよい。入出力される情報等は、上書き、更新、又は追記され得る。出力された情報等は削除されてもよい。入力された情報等は他の装置へ送信されてもよい。 The input / output information and the like may be stored in a specific place (for example, a memory) or may be managed by a management table. Information to be input / output may be overwritten, updated, or added. The output information and the like may be deleted. The input information or the like may be transmitted to another device.

判定は、1ビットで表される値(0か1か)によって行われてもよいし、真偽値(Boolean:true又はfalse)によって行われてもよいし、数値の比較(例えば、所定の値との比較)によって行われてもよい。 The determination may be made by a value represented by 1 bit (0 or 1), by a boolean value (Boolean: true or false), or by comparing numerical values (for example, a predetermined value). It may be done by comparison with the value).

本明細書で説明した各態様/実施形態は単独で用いてもよいし、組み合わせて用いてもよいし、実行に伴って切り替えて用いてもよい。また、所定の情報の通知(例えば、「Xであること」の通知)は、明示的に行うものに限られず、暗黙的に(例えば、当該所定の情報の通知を行わないことによって)行われてもよい。 Each aspect / embodiment described in the present specification may be used alone, in combination, or may be switched and used according to the execution. Further, the notification of predetermined information (for example, the notification of "being X") is not limited to the explicit one, but is implicitly (for example, by not notifying the predetermined information). You may.

ソフトウェアは、ソフトウェア、ファームウェア、ミドルウェア、マイクロコード、ハードウェア記述言語と呼ばれるか、他の名称で呼ばれるかを問わず、命令、命令セット、コード、コードセグメント、プログラムコード、プログラム、サブプログラム、ソフトウェアモジュール、アプリケーション、ソフトウェアアプリケーション、ソフトウェアパッケージ、ルーチン、サブルーチン、オブジェクト、実行可能ファイル、実行スレッド、手順、機能などを意味するよう広く解釈されるべきである。 Software, whether referred to as software, firmware, middleware, microcode, hardware description language, or other names, is an instruction, instruction set, code, code segment, program code, program, subprogram, software module. , Applications, software applications, software packages, routines, subroutines, objects, executable files, execution threads, procedures, features, etc. should be broadly interpreted.

また、ソフトウェア、命令などは、伝送媒体を介して送受信されてもよい。例えば、ソフトウェアが、同軸ケーブル、光ファイバケーブル、ツイストペア及びデジタル加入者回線(DSL)などの有線技術及び/又は赤外線、無線及びマイクロ波などの無線技術を使用してウェブサイト、サーバ、又は他のリモートソースから送信される場合、これらの有線技術及び/又は無線技術は、伝送媒体の定義内に含まれる。 Further, software, instructions, and the like may be transmitted and received via a transmission medium. For example, the software may use wired technology such as coaxial cable, fiber optic cable, twisted pair and digital subscriber line (DSL) and / or wireless technology such as infrared, wireless and microwave to website, server, or other. When transmitted from a remote source, these wired and / or wireless technologies are included within the definition of transmission medium.

本明細書で説明した情報、信号などは、様々な異なる技術のいずれかを使用して表されてもよい。例えば、上記の説明全体に渡って言及され得るデータ、命令、コマンド、情報、信号、ビット、シンボル、チップなどは、電圧、電流、電磁波、磁界若しくは磁性粒子、光場若しくは光子、又はこれらの任意の組み合わせによって表されてもよい。 The information, signals, etc. described herein may be represented using any of a variety of different techniques. For example, data, instructions, commands, information, signals, bits, symbols, chips, etc. that may be referred to throughout the above description are voltages, currents, electromagnetic waves, magnetic fields or magnetic particles, light fields or photons, or any of these. It may be represented by a combination of.

なお、本明細書で説明した用語及び/又は本明細書の理解に必要な用語については、同一の又は類似する意味を有する用語と置き換えてもよい。 The terms described herein and / or the terms necessary for understanding the present specification may be replaced with terms having the same or similar meanings.

本明細書で使用する「システム」及び「ネットワーク」という用語は、互換的に使用される。 The terms "system" and "network" used herein are used interchangeably.

また、本明細書で説明した情報、パラメータなどは、絶対値で表されてもよいし、所定の値からの相対値で表されてもよいし、対応する別の情報で表されてもよい。 Further, the information, parameters, etc. described in the present specification may be represented by an absolute value, a relative value from a predetermined value, or another corresponding information. ..

上述したパラメータに使用する名称はいかなる点においても限定的なものではない。さらに、これらのパラメータを使用する数式等は、本明細書で明示的に開示したものと異なる場合もある。 The names used for the parameters mentioned above are not limited in any way. Further, mathematical formulas and the like using these parameters may differ from those expressly disclosed herein.

本明細書で使用する「判断(determining)」、「決定(determining)」という用語は、多種多様な動作を包含する場合がある。「判断」、「決定」は、例えば、判定(judging)、計算(calculating)、算出(computing)、処理(processing)、導出(deriving)、調査(investigating)、探索(looking up)(例えば、テーブル、データベース又は別のデータ構造での探索)、確認(ascertaining)した事を「判断」「決定」したとみなす事などを含み得る。また、「判断」、「決定」は、受信(receiving)(例えば、情報を受信すること)、送信(transmitting)(例えば、情報を送信すること)、入力(input)、出力(output)、アクセス(accessing)(例えば、メモリ中のデータにアクセスすること)した事を「判断」「決定」したとみなす事などを含み得る。また、「判断」、「決定」は、解決(resolving)、選択(selecting)、選定(choosing)、確立(establishing)、比較(comparing)などした事を「判断」「決定」したとみなす事を含み得る。つまり、「判断」「決定」は、何らかの動作を「判断」「決定」したとみなす事を含み得る。 As used herein, the terms "determining" and "determining" may include a wide variety of actions. “Judgment” and “decision” are, for example, judgment, calculation, computing, processing, deriving, investigating, and looking up (for example, a table). , Searching in a database or another data structure), ascertaining can be regarded as "judgment" or "decision". Also, "judgment" and "decision" are receiving (for example, receiving information), transmitting (for example, transmitting information), input (input), output (output), and access. (Accessing) (for example, accessing data in memory) may be regarded as "judgment" or "decision". In addition, "judgment" and "decision" are considered to be "judgment" and "decision" when the things such as solving, selecting, selecting, establishing, and comparing are regarded as "judgment" and "decision". Can include. That is, "judgment" and "decision" may include considering some action as "judgment" and "decision".

「接続された(connected)」、「結合された(coupled)」という用語、又はこれらのあらゆる変形は、2又はそれ以上の要素間の直接的又は間接的なあらゆる接続又は結合を意味し、互いに「接続」又は「結合」された2つの要素間に1又はそれ以上の中間要素が存在することを含むことができる。要素間の結合又は接続は、物理的なものであっても、論理的なものであっても、或いはこれらの組み合わせであってもよい。本明細書で使用する場合、2つの要素は、1又はそれ以上の電線、ケーブル及び/又はプリント電気接続を使用することにより、並びにいくつかの非限定的かつ非包括的な例として、無線周波数領域、マイクロ波領域及び光(可視及び不可視の両方)領域の波長を有する電磁エネルギーなどの電磁エネルギーを使用することにより、互いに「接続」又は「結合」されると考えることができる。 The terms "connected", "coupled", or any variation thereof, mean any direct or indirect connection or connection between two or more elements and each other. It can include the presence of one or more intermediate elements between two "connected" or "combined" elements. The connection or connection between the elements may be physical, logical, or a combination thereof. As used herein, the two elements are by using one or more wires, cables and / or printed electrical connections, and, as some non-limiting and non-comprehensive examples, radio frequencies. By using electromagnetic energies such as electromagnetic energies with wavelengths in the region, microwave region and light (both visible and invisible) regions, they can be considered to be "connected" or "coupled" to each other.

本明細書で使用する「に基づいて」という記載は、別段に明記されていない限り、「のみに基づいて」を意味しない。言い換えれば、「に基づいて」という記載は、「のみに基づいて」と「に少なくとも基づいて」の両方を意味する。 The phrase "based on" as used herein does not mean "based on" unless otherwise stated. In other words, the statement "based on" means both "based only" and "at least based on".

本明細書で「第1の」、「第2の」などの呼称を使用した場合においては、その要素へのいかなる参照も、それらの要素の量又は順序を全般的に限定するものではない。これらの呼称は、2つ以上の要素間を区別する便利な方法として本明細書で使用され得る。したがって、第1及び第2の要素への参照は、2つの要素のみがそこで採用され得ること、又は何らかの形で第1の要素が第2の要素に先行しなければならないことを意味しない。 As used herein by designations such as "first", "second", etc., any reference to that element does not generally limit the quantity or order of those elements. These designations can be used herein as a convenient way to distinguish between two or more elements. Therefore, references to the first and second elements do not mean that only two elements can be adopted there, or that the first element must somehow precede the second element.

「含む(include)」、「含んでいる(including)」、及びそれらの変形が、本明細書あるいは特許請求の範囲で使用されている限り、これら用語は、用語「備える(comprising)」と同様に、包括的であることが意図される。さらに、本明細書あるいは特許請求の範囲において使用されている用語「又は(or)」は、排他的論理和ではないことが意図される。 As long as "include", "including", and variations thereof are used herein or within the scope of the claims, these terms are similar to the term "comprising". In addition, it is intended to be inclusive. Moreover, the term "or" as used herein or in the claims is intended to be non-exclusive.

本明細書において、文脈又は技術的に明らかに1つのみしか存在しない装置である場合以外は、複数の装置をも含むものとする。本開示の全体において、文脈から明らかに単数を示したものではなければ、複数のものを含むものとする。 In the present specification, a plurality of devices shall be included unless the device has only one device apparently in context or technically. The entire disclosure is intended to include more than one, unless the context clearly indicates the singular.

1…通行路判定システム、2…カメラ、3…カメラ、4…外部サーバ、10…状態判定装置、11…画像取得部(第1画像取得部)、12…分類部、13…抽出部、14…特定部、15…画像取得部(第2画像取得部)、16…環境情報取得部、17…地理情報算出部、18…物体情報算出部、19…判定部、20…出力部、1001…プロセッサ、1002…メモリ、1003…ストレージ、1004…通信装置、1005…入力装置、1006…出力装置、1007…バス。 1 ... Traffic path determination system, 2 ... Camera, 3 ... Camera, 4 ... External server, 10 ... Status determination device, 11 ... Image acquisition unit (first image acquisition unit), 12 ... Classification unit, 13 ... Extraction unit, 14 ... Specific unit, 15 ... Image acquisition unit (second image acquisition unit), 16 ... Environmental information acquisition unit, 17 ... Geographic information calculation unit, 18 ... Object information calculation unit, 19 ... Judgment unit, 20 ... Output unit, 1001 ... Processor, 1002 ... Memory, 1003 ... Storage, 1004 ... Communication device, 1005 ... Input device, 1006 ... Output device, 1007 ... Bus.

Claims (6)

1以上の通行路を含む地域の画像である地域画像を取得する第1画像取得部と、
前記1以上の通行路のうちの判定対象の通行路である対象通行路上を通行する物体を撮像した画像である通行画像を取得する第2画像取得部と、
前記地域画像に基づいて、前記対象通行路が位置する設置エリアの地理的特性を示す地理情報を算出する地理情報算出部と、
前記通行画像に基づいて、前記物体に関する物体情報を算出する物体情報算出部と、
前記地理情報及び前記物体情報に基づいて、前記対象通行路の劣化状態を判定する判定部と、
を備え
前記物体情報は、前記物体の重量を含む、状態判定装置。
The first image acquisition unit that acquires an area image that is an image of an area including one or more passages, and
A second image acquisition unit that acquires a passage image that is an image of an object passing on the target passage, which is the passage to be determined among the one or more passages, and the second image acquisition unit.
Based on the area image, a geographic information calculation unit that calculates geographic information indicating the geographical characteristics of the installation area where the target passage is located, and
An object information calculation unit that calculates object information about the object based on the traffic image,
A determination unit for determining a deterioration state of the target passage based on the geographic information and the object information, and a determination unit.
Equipped with
The object information is a state determination device including the weight of the object .
前記1以上の通行路のうち、ユーザによって選択された通行路を前記対象通行路として特定する特定部をさらに備える、請求項1に記載の状態判定装置。 The state determination device according to claim 1, further comprising a specific unit that identifies the passage selected by the user as the target passage among the one or more passages. 前記地域画像から、前記対象通行路を選択可能な領域である選択可能領域を抽出する抽出部をさらに備え、
前記特定部は、前記選択可能領域に含まれる通行路のうち、ユーザによって選択された通行路を前記対象通行路として特定する、請求項2に記載の状態判定装置。
Further, an extraction unit for extracting a selectable area, which is a selectable area for the target passage, is provided from the area image.
The state determination device according to claim 2, wherein the specifying unit specifies a passage selected by a user among the passages included in the selectable area as the target passage.
前記地域に含まれる複数のエリアのそれぞれを地理的特性で分類する分類部をさらに備え、
前記抽出部は、前記複数のエリアの地理的特性に基づいて、前記選択可能領域を抽出する、請求項3に記載の状態判定装置。
Further equipped with a classification unit that classifies each of the plurality of areas included in the area by geographical characteristics.
The state determination device according to claim 3, wherein the extraction unit extracts the selectable area based on the geographical characteristics of the plurality of areas.
前記設置エリアの経時変化する環境情報を取得する環境情報取得部をさらに備え、
前記判定部は、前記環境情報にさらに基づいて、前記対象通行路の劣化状態を判定する、請求項1~請求項4のいずれか一項に記載の状態判定装置。
It is further equipped with an environmental information acquisition unit that acquires environmental information that changes over time in the installation area.
The state determination device according to any one of claims 1 to 4, wherein the determination unit determines a deterioration state of the target passage based on the environmental information.
前記判定部は、前記対象通行路の供用期間にさらに基づいて、前記対象通行路の劣化状態を判定する、請求項1~請求項5のいずれか一項に記載の状態判定装置。 The state determination device according to any one of claims 1 to 5, wherein the determination unit determines a deterioration state of the target passage based on the service period of the target passage.
JP2018064521A 2018-03-29 2018-03-29 Status judgment device Active JP6997664B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018064521A JP6997664B2 (en) 2018-03-29 2018-03-29 Status judgment device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018064521A JP6997664B2 (en) 2018-03-29 2018-03-29 Status judgment device

Publications (2)

Publication Number Publication Date
JP2019174345A JP2019174345A (en) 2019-10-10
JP6997664B2 true JP6997664B2 (en) 2022-01-17

Family

ID=68170264

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018064521A Active JP6997664B2 (en) 2018-03-29 2018-03-29 Status judgment device

Country Status (1)

Country Link
JP (1) JP6997664B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7321452B2 (en) * 2019-10-11 2023-08-07 Biprogy株式会社 Program, information processing device, information processing method, and method for generating learned model

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001101570A (en) 1999-09-30 2001-04-13 Sumitomo Electric Ind Ltd Method and device for calculating necessary time
JP2004151940A (en) 2002-10-30 2004-05-27 B M C:Kk Asset management and maintenance system for structure by private fund introduction
JP2005134320A (en) 2003-10-31 2005-05-26 Nippon Steel Corp Method and apparatus for predicting amount of corrosion wear loss in wear-resistant steel, method for selecting steel type applied to steel structure, steel material applied to steel structure, and business method thereof
JP2007066041A (en) 2005-08-31 2007-03-15 Nagaoka Univ Of Technology Image processing apparatus, method and program
JP2012251846A (en) 2011-06-02 2012-12-20 Nippon Telegr & Teleph Corp <Ntt> Corrosion analysis system and method
JP2013114494A (en) 2011-11-29 2013-06-10 Toshiba Corp Toll collection system and server
JP2016065809A (en) 2014-09-25 2016-04-28 前田建設工業株式会社 Concrete structure inspection support device, inspection support method and program
JP2017071972A (en) 2015-10-08 2017-04-13 株式会社ニコン Inspection support method and inspection support system

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001101570A (en) 1999-09-30 2001-04-13 Sumitomo Electric Ind Ltd Method and device for calculating necessary time
JP2004151940A (en) 2002-10-30 2004-05-27 B M C:Kk Asset management and maintenance system for structure by private fund introduction
JP2005134320A (en) 2003-10-31 2005-05-26 Nippon Steel Corp Method and apparatus for predicting amount of corrosion wear loss in wear-resistant steel, method for selecting steel type applied to steel structure, steel material applied to steel structure, and business method thereof
JP2007066041A (en) 2005-08-31 2007-03-15 Nagaoka Univ Of Technology Image processing apparatus, method and program
JP2012251846A (en) 2011-06-02 2012-12-20 Nippon Telegr & Teleph Corp <Ntt> Corrosion analysis system and method
JP2013114494A (en) 2011-11-29 2013-06-10 Toshiba Corp Toll collection system and server
JP2016065809A (en) 2014-09-25 2016-04-28 前田建設工業株式会社 Concrete structure inspection support device, inspection support method and program
JP2017071972A (en) 2015-10-08 2017-04-13 株式会社ニコン Inspection support method and inspection support system

Also Published As

Publication number Publication date
JP2019174345A (en) 2019-10-10

Similar Documents

Publication Publication Date Title
US10795056B2 (en) Local weather forecast
CN109961057B (en) Vehicle position obtaining method and device
KR20190029610A (en) Image acquisition system based on change detection
US20100305851A1 (en) Device and method for updating cartographic data
US20140334689A1 (en) Infrastructure assessment via imaging sources
US20160148383A1 (en) Estimating rainfall precipitation amounts by applying computer vision in cameras
US20160214533A1 (en) Autonomous vehicle cameras used for near real-time imaging
CN112562314A (en) Road end sensing method and device based on deep fusion, road end equipment and system
CN108550258B (en) Vehicle queuing length detection method and device, storage medium and electronic equipment
US11340081B2 (en) System and method for updating map
US11164031B2 (en) System and method for analyzing an image of a vehicle
US20230306573A1 (en) Systems and methods for assessing infrastructure
US20230081098A1 (en) Deterioration diagnosis device, deterioration diagnosis method, and recording medium
CN113297946A (en) Monitoring blind area identification method and identification system
CN113743151A (en) Method and device for detecting road surface sprinkled object and storage medium
JP6997664B2 (en) Status judgment device
CN111651547B (en) Method and device for acquiring high-precision map data and readable storage medium
US11187554B2 (en) Method, device and computer storage medium for providing running speed of urban road
CN116071730A (en) Background object detection method, device and equipment and automatic driving vehicle
JP7327355B2 (en) Map update device and map update method
KR102437690B1 (en) Fine dust reduction urban platform
CN116974735A (en) Method, electronic device and computer program product for model training
CN116311015A (en) Road scene recognition method, device, server, storage medium and program product
CN115982306B (en) Method and device for identifying retrograde behavior of target object
CN115546704B (en) Vehicle projectile identification method, device and application

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200814

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210526

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210601

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210726

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20211214

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20211217

R150 Certificate of patent or registration of utility model

Ref document number: 6997664

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150