JP2020170907A - Monitoring system and monitoring method - Google Patents
Monitoring system and monitoring method Download PDFInfo
- Publication number
- JP2020170907A JP2020170907A JP2019070202A JP2019070202A JP2020170907A JP 2020170907 A JP2020170907 A JP 2020170907A JP 2019070202 A JP2019070202 A JP 2019070202A JP 2019070202 A JP2019070202 A JP 2019070202A JP 2020170907 A JP2020170907 A JP 2020170907A
- Authority
- JP
- Japan
- Prior art keywords
- feature point
- unit
- point group
- image
- feature points
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000012544 monitoring process Methods 0.000 title claims abstract description 43
- 238000000034 method Methods 0.000 title claims description 77
- 238000006073 displacement reaction Methods 0.000 claims abstract description 48
- 229910000831 Steel Inorganic materials 0.000 claims abstract description 39
- 239000010959 steel Substances 0.000 claims abstract description 39
- 230000008859 change Effects 0.000 claims abstract description 23
- 239000000284 extract Substances 0.000 claims abstract description 13
- 238000012545 processing Methods 0.000 claims description 60
- 238000000605 extraction Methods 0.000 claims description 32
- 230000002787 reinforcement Effects 0.000 claims description 30
- 230000008439 repair process Effects 0.000 claims description 29
- 238000004364 calculation method Methods 0.000 claims description 18
- 230000004044 response Effects 0.000 claims description 14
- 238000005259 measurement Methods 0.000 claims description 11
- 230000001360 synchronised effect Effects 0.000 claims description 3
- 230000010365 information processing Effects 0.000 description 44
- 238000010586 diagram Methods 0.000 description 25
- 230000008569 process Effects 0.000 description 18
- 230000003287 optical effect Effects 0.000 description 17
- 230000003321 amplification Effects 0.000 description 16
- 238000003199 nucleic acid amplification method Methods 0.000 description 16
- 230000033001 locomotion Effects 0.000 description 10
- 238000004891 communication Methods 0.000 description 7
- 230000005540 biological transmission Effects 0.000 description 4
- 238000003384 imaging method Methods 0.000 description 4
- 230000004048 modification Effects 0.000 description 4
- 238000012986 modification Methods 0.000 description 4
- 230000009466 transformation Effects 0.000 description 4
- 238000012217 deletion Methods 0.000 description 3
- 230000037430 deletion Effects 0.000 description 3
- 238000001514 detection method Methods 0.000 description 3
- 238000004458 analytical method Methods 0.000 description 2
- 238000013473 artificial intelligence Methods 0.000 description 2
- 238000005401 electroluminescence Methods 0.000 description 2
- 230000010354 integration Effects 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 230000002194 synthesizing effect Effects 0.000 description 2
- 238000013528 artificial neural network Methods 0.000 description 1
- 239000011248 coating agent Substances 0.000 description 1
- 238000000576 coating method Methods 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 230000004907 flux Effects 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000012423 maintenance Methods 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000002265 prevention Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Images
Abstract
Description
本発明は、監視システム及び監視方法に関する。 The present invention relates to a monitoring system and a monitoring method.
鋼橋に生じる損傷は、車両等の走行による活荷重が原因である場合が多く、例えば、鋼橋の疲労き裂は、車両等の走行によって鋼橋を構成する部材が変形し、特定箇所に応力集中が発生することによって発生する。このため、部材の変形状態を特定することは、補修補強の計画を策定する上で重要である。また、車両等の走行と疲労き裂とが密接に関係しているため、補修補強の計画を策定の際に、鋼橋を構成する部材に対する外力の作用位置も特定することも重要である。 Damage to a steel bridge is often caused by the live load caused by the running of a vehicle or the like. For example, a fatigue crack in a steel bridge causes the members constituting the steel bridge to be deformed by the running of a vehicle or the like to a specific location. It is generated by the occurrence of stress concentration. Therefore, it is important to identify the deformed state of the member in formulating a repair and reinforcement plan. In addition, since the running of vehicles and fatigue cracks are closely related, it is also important to specify the position of external force acting on the members that make up the steel bridge when formulating a repair and reinforcement plan.
鋼橋を構成する部材の変形を特定するためには、例えば、車両等の走行によって生じたひずみ応答及び/又は変位応答の計測結果に基づいて部材の変形状態を推定すること、又は、有限要素法によって橋梁の部材の変形状態を推定すること、等が必要である。 In order to specify the deformation of the members constituting the steel bridge, for example, the deformation state of the members is estimated based on the measurement results of the strain response and / or the displacement response generated by the running of a vehicle or the like, or a finite element. It is necessary to estimate the deformation state of the bridge members by the method.
例えば、特許文献1には、橋脚等の大規模構造物又は建築物等の予防及び保全のために、測定対象の構造物又は建築物にひずみゲージを貼付け、構造物又は建築物に生じたひずみ応答を、ひずみゲージによって測定する方法が開示されている。
For example, in
また、特許文献2には、橋梁の有限要素(Finite Element Method,FEM)モデルを作成し、公知の有限要素解析ソフトウェアを用いて橋梁の部材の変形状態を解析的に推定する方法が開示されている。
Further,
しかしながら、従来のひずみ応答等の計測結果に基づく推定方法では、ひずみゲージを設置するために橋梁の部材の対応箇所の塗膜を剥がなくてはならず、且つ、接触式変位計等を用いた変位測定が実施されることが多いため、計測に要する時間及び費用が掛かり、計測自体が困難となることがあった。 However, in the conventional estimation method based on the measurement results such as strain response, the coating film at the corresponding portion of the bridge member must be peeled off in order to install the strain gauge, and a contact type displacement gauge or the like is used. Since displacement measurement is often performed, the time and cost required for the measurement are long, and the measurement itself may be difficult.
また、従来の有限要素法による推定方法では、FEMモデルの作成に要する時間が多大であり、推定自体に時間が掛かるという問題が生じるとともに、対象となる橋梁の実構造とは異なる仮定の構造を前提とした解析が行われるため、解析結果が実現象とは相違してしまうことがあった。 In addition, the conventional estimation method using the finite element method requires a large amount of time to create an FEM model, which causes a problem that the estimation itself takes time, and a hypothetical structure different from the actual structure of the target bridge is used. Since the analysis is performed on the premise, the analysis result may differ from the actual phenomenon.
さらに、車両等の走行位置を特定するためには、道路の路面を撮影する必要があるが、歩道部等の撮影箇所の確保が困難な高速道路等ではカメラを設置できないため、撮影できない路面区間が発生することもあった。 Furthermore, in order to identify the traveling position of a vehicle or the like, it is necessary to photograph the road surface, but it is not possible to install a camera on a highway or the like where it is difficult to secure a shooting location such as a sidewalk. Occasionally occurred.
本発明は、このような従来の課題を解決すべくなされたものであり、鋼橋を撮影した動画像のみに基づいて、鋼橋を構成する部材の変形状態を把握することを可能とする監視システム及び監視方法を提供することを目的とする。 The present invention has been made to solve such a conventional problem, and is capable of grasping the deformed state of the members constituting the steel bridge based only on the moving image of the steel bridge. The purpose is to provide a system and monitoring method.
本発明に係る監視システムは、車両等が走行する鋼橋を撮影した動画像を撮影装置から取得する取得部と、動画像に含まれる複数のフレーム画像のそれぞれから複数の特徴点を抽出する抽出部と、複数のフレーム画像のうちの2のフレーム画像において、所定のフレーム画像に含まれる一の特徴点と同一であると見做される、他のフレームに含まれる一の特徴点を判定し、同一であると見做される複数の特徴点を含む特徴点グループを作成する作成部と、特徴点グループごとに、各特徴点グループに含まれる特徴点間の変位に基づいて、各特徴点グループの振動周波数を算出する算出部と、算出された振動周波数のうち、車両等に固有の周波数帯に含まれる振動周波数を特定し、特定された振動周波数の特徴点グループを特定する特定部と、特定された特徴点グループに含まれる特徴点間の変位を増幅させ、増幅された変位に基づいて、特定された特徴点グループに含まれる特徴点を移動させることにより、複数のフレーム画像のそれぞれを変化させる画像処理部と、変化後の複数のフレーム画像を含む動画像を出力する出力部と、を有する。 The monitoring system according to the present invention has an acquisition unit that acquires a moving image of a steel bridge on which a vehicle or the like is traveling from a photographing device, and an extraction that extracts a plurality of feature points from each of a plurality of frame images included in the moving image. In the unit and two frame images of the plurality of frame images, one feature point included in another frame, which is considered to be the same as one feature point included in the predetermined frame image, is determined. , A creation unit that creates a feature point group containing a plurality of feature points that are considered to be the same, and each feature point group based on the displacement between the feature points included in each feature point group. A calculation unit that calculates the vibration frequency of the group, and a specific unit that specifies the vibration frequency included in the frequency band unique to the vehicle, etc., and specifies the feature point group of the specified vibration frequency among the calculated vibration frequencies. By amplifying the displacement between the feature points included in the specified feature point group and moving the feature points included in the specified feature point group based on the amplified displacement, each of the plurality of frame images. It has an image processing unit that changes the number of frames, and an output unit that outputs a moving image including a plurality of frame images after the change.
また、本発明に係る監視システムにおいて、車両等の走行に起因する鋼橋の部材の変形モードに関する情報と、変形モードに対応する部材の補修補強方法に関する情報とを記憶する記憶部と、変化後のフレーム画像に基づいて、鋼橋の部材の変形モードを判定するモード判定部と、を更に有し、出力部は、判定された変形モードに対応する補修補強方法に関する情報を記憶部から抽出し、抽出した補修補強方法に関する情報を出力することが好ましい。 Further, in the monitoring system according to the present invention, a storage unit that stores information on the deformation mode of the steel bridge member due to the running of a vehicle or the like and information on the repair and reinforcement method of the member corresponding to the deformation mode, and after the change. The output unit further has a mode determination unit for determining the deformation mode of the steel bridge member based on the frame image of the above, and the output unit extracts information on the repair and reinforcement method corresponding to the determined deformation mode from the storage unit. , It is preferable to output information on the extracted repair and reinforcement method.
また、本発明に係る監視システムにおいて、複数のフレーム画像のそれぞれについて、特徴点グループに含まれる特徴点を抽出し、抽出された特徴点のうち、互いの距離が第1距離内の2つの特徴点を含む近距離グループを作成し、少なくとも一つの特徴点が共通する複数の近距離グループを抽出して、抽出した複数の近距離グループを統合した新たな近距離グループを作成し、複数の近距離グループが抽出されなくなるまで、新たな近距離グループの作成を繰り返し、近距離グループに含まれる特徴点のうち、対応する変位が最も大きい特徴点を、当該車両等の輪位置として特定する、位置特定部を有し、出力部は、特定された輪位置を示す軌跡画像を、対応するフレーム画像に重畳することで、車両等の輪位置が特定された動画像を出力することが好ましい。 Further, in the monitoring system according to the present invention, feature points included in the feature point group are extracted for each of the plurality of frame images, and among the extracted feature points, two features whose distances from each other are within the first distance. Create a short-distance group including points, extract multiple short-distance groups that have at least one feature point in common, create a new short-distance group that integrates the extracted multiple short-distance groups, and create multiple short-distance groups. A position where a new short-distance group is repeatedly created until the distance group is no longer extracted, and the feature point having the largest corresponding displacement among the feature points included in the short-distance group is specified as the wheel position of the vehicle or the like. It is preferable that the output unit has a specific unit and outputs a moving image in which the wheel position of a vehicle or the like is specified by superimposing a locus image indicating the specified wheel position on the corresponding frame image.
また、本発明に係る監視システムにおいて、取得部は、ユーザによって入力された動画像に含まれる鋼橋の部材の損傷発生位置を取得し、位置特定部は、近距離グループに含まれる特徴点のうち、対応する変位が最も大きい特徴点であって、損傷発生位置から第2距離内の特徴点を、損傷発生に影響を与えた車両等の輪位置として特定することが好ましい。 Further, in the monitoring system according to the present invention, the acquisition unit acquires the damage occurrence position of the steel bridge member included in the moving image input by the user, and the position identification unit is the feature point included in the short-distance group. Of these, it is preferable to specify the feature point having the largest corresponding displacement and within the second distance from the damage occurrence position as the wheel position of the vehicle or the like that has influenced the damage occurrence.
また、本発明に係る監視システムにおいて、取得部は、損傷発生位置の近傍に設置されたひずみ測定装置から出力されたひずみ応答データを測定時刻とともに取得し、出力部は、動画像の撮影時刻と測定時刻とに基づいて、動画像と同期させたひずみ応答データを出力することが好ましい。 Further, in the monitoring system according to the present invention, the acquisition unit acquires the strain response data output from the strain measuring device installed near the damage occurrence position together with the measurement time, and the output unit determines the shooting time of the moving image. It is preferable to output the strain response data synchronized with the moving image based on the measurement time.
本発明に係る監視方法は、監視システムが実行する監視方法であって、車両等が走行する鋼橋を撮影した動画像を撮影装置から取得し、動画像に含まれる複数のフレーム画像のそれぞれから複数の特徴点を抽出し、複数のフレーム画像のうちの2のフレーム画像において、所定のフレーム画像に含まれる一の特徴点と同一であると見做される、他のフレームに含まれる一の特徴点を判定し、同一であると見做される複数の特徴点を含む特徴点グループを作成し、特徴点グループごとに、各特徴点グループに含まれる特徴点間の変位に基づいて、各特徴点グループの振動周波数を算出し、算出された振動周波数のうち、車両等に固有の周波数帯に含まれる振動周波数を特定し、特定された振動周波数の特徴点グループを特定し、特定された特徴点グループに含まれる特徴点間の変位を増幅させ、増幅された変位に基づいて、特定された特徴点グループに含まれる特徴点を移動させることにより、複数のフレーム画像のそれぞれを変化させ、変化後の複数のフレーム画像を含む動画像を出力する、ことを含む。 The monitoring method according to the present invention is a monitoring method executed by a monitoring system, in which a moving image of a steel bridge on which a vehicle or the like is traveling is acquired from a photographing device and is taken from each of a plurality of frame images included in the moving image. A plurality of feature points are extracted, and in two frame images of the plurality of frame images, one feature point included in another frame, which is considered to be the same as one feature point included in a predetermined frame image. The feature points are determined, a feature point group including a plurality of feature points considered to be the same is created, and each feature point group is based on the displacement between the feature points included in each feature point group. The vibration frequency of the feature point group was calculated, and among the calculated vibration frequencies, the vibration frequency included in the frequency band peculiar to the vehicle or the like was specified, and the feature point group of the specified vibration frequency was specified and specified. By amplifying the displacement between the feature points included in the feature point group and moving the feature points included in the specified feature point group based on the amplified displacement, each of the plurality of frame images is changed. It includes outputting a moving image including a plurality of frame images after the change.
本発明に係る監視システム及び監視方法によって、鋼橋を撮影した動画像のみに基づいて、鋼橋を構成する部材の変形状態を把握することが可能となる。 According to the monitoring system and the monitoring method according to the present invention, it is possible to grasp the deformed state of the members constituting the steel bridge based only on the moving image of the steel bridge.
以下、図面を参照しつつ、本発明の様々な実施形態について説明する。ただし、本発明の技術的範囲はそれらの実施形態に限定されず、特許請求の範囲に記載された発明とその均等物に及ぶ点に留意されたい。 Hereinafter, various embodiments of the present invention will be described with reference to the drawings. However, it should be noted that the technical scope of the present invention is not limited to those embodiments, but extends to the inventions described in the claims and their equivalents.
(監視システムの概要)
図1及び図2は、本実施形態の監視システムの概要を説明するための模式図である。
(Overview of monitoring system)
1 and 2 are schematic views for explaining the outline of the monitoring system of the present embodiment.
監視システムは、鋼橋の一部又は全部を撮影するための撮影装置及び当該撮影装置によって撮影された動画像情報を処理する情報処理装置を有する。例えば、撮影装置は、車両等が走行する鋼橋の路面下部の床版の裏面を撮影できるように、撮影対象の道路橋梁等の下の地面に設置される。撮影対象が箱桁橋である場合、撮影装置は、箱桁橋の箱桁内部に設置されてもよい。撮影装置は、鋼橋のどの部材を撮影するものであってもよい。 The monitoring system includes a photographing device for photographing a part or all of the steel bridge and an information processing device for processing moving image information photographed by the photographing device. For example, the photographing device is installed on the ground under the road bridge or the like to be photographed so that the back surface of the floor slab under the road surface of the steel bridge on which the vehicle or the like travels can be photographed. When the object to be photographed is a box girder bridge, the photographing device may be installed inside the box girder of the box girder bridge. The photographing device may photograph any member of the steel bridge.
撮影装置は、所定の撮影方向の撮影対象空間を所定の時間間隔で撮影する。所定の時間間隔は1/30秒であり、撮影装置は、1/30秒ごとに所定の撮影方向の撮影対象空間を撮影した動画像情報を出力する。なお、所定の時間間隔は、1秒、1/5秒、又は1/50秒等でもよい。情報処理装置は、例えば、パーソナルコンピュータ(Personal Computer,PC)、サーバ装置等のコンピュータである。情報処理装置は、撮影装置から動画像情報を取得し、各種の情報処理を実行する機能を有するものであれば、どのような情報処理装置であってもよい。 The photographing device photographs the space to be photographed in a predetermined shooting direction at predetermined time intervals. The predetermined time interval is 1/30 second, and the photographing device outputs moving image information obtained by photographing the imaging target space in the predetermined imaging direction every 1/30 second. The predetermined time interval may be 1 second, 1/5 second, 1/50 second, or the like. The information processing device is, for example, a computer such as a personal computer (PC) or a server device. The information processing device may be any information processing device as long as it has a function of acquiring moving image information from a photographing device and executing various types of information processing.
情報処理装置は、撮影装置から記憶媒体を介して、撮影装置によって撮影された動画像情報を取得する。撮影装置及び情報処理装置が有線又は無線の通信機能を有する場合、情報処理装置は、当該通信機能を用いて撮影装置から動画像情報を取得してもよい。以下、動画像情報を、単に動画像と称する場合がある。 The information processing device acquires moving image information captured by the photographing device from the photographing device via a storage medium. When the photographing device and the information processing device have a wired or wireless communication function, the information processing device may acquire moving image information from the photographing device by using the communication function. Hereinafter, the moving image information may be simply referred to as a moving image.
図1の(1)は、動画像に含まれるフレーム画像の一例を示す図である。フレーム画像は、所定の時間間隔で撮影された静止画像である。例えば、動画像の所定時間間隔が1/30秒である場合、当該動画像には1秒間に30のフレーム画像が含まれる。図1の(1)に示すフレーム画像の例では、鋼床版の裏面に配置された、主桁ウェブ、Uリブ、デッキプレート、横リブ等が撮影されている。 FIG. 1 (1) is a diagram showing an example of a frame image included in a moving image. The frame image is a still image taken at a predetermined time interval. For example, when the predetermined time interval of the moving image is 1/30 second, the moving image includes 30 frame images per second. In the example of the frame image shown in FIG. 1 (1), the main girder web, the U rib, the deck plate, the horizontal rib, etc. arranged on the back surface of the steel deck plate are photographed.
情報処理装置は、撮影装置から動画像を取得すると、当該動画像に含まれる複数のフレーム画像のそれぞれから複数の特徴点を抽出する。例えば、情報処理装置は、動画像に含まれる最初のフレーム画像から所定の特徴点抽出法を用いて特徴点を抽出し、以降、撮影された順番に従い、各フレーム画像から所定の特徴点抽出法を用いて特徴点を順次抽出する。情報処理装置は、動画像に含まれる最後のフレーム画像から所定の特徴点抽出法を用いて特徴点を抽出すると、特徴点の抽出処理を終了する。所定の特徴点抽出方法は、例えば、SIFT(Scale-Invariant Feature Transform)法、又は、SURF(Speeded Up Robust Features)法等である。 When the information processing device acquires a moving image from the photographing device, the information processing device extracts a plurality of feature points from each of the plurality of frame images included in the moving image. For example, the information processing device extracts feature points from the first frame image included in the moving image by using a predetermined feature point extraction method, and thereafter, according to the order in which the images are taken, a predetermined feature point extraction method is used. The feature points are sequentially extracted using. When the information processing apparatus extracts the feature points from the last frame image included in the moving image by using a predetermined feature point extraction method, the information processing apparatus ends the feature point extraction process. The predetermined feature point extraction method is, for example, a SIFT (Scale-Invariant Feature Transform) method, a SURF (Speeded Up Robust Features) method, or the like.
情報処理装置は、特徴点の抽出処理が終了すると、複数のフレーム画像のうちの2のフレーム画像を特定する。2のフレーム画像は、連続する2つのフレーム画像である。連続する2のフレーム画像は、例えば、最初(1番目)のフレーム画像及び2番目のフレーム画像、又は、2番目のフレーム画像及び3番目のフレーム画像等である。フレーム画像の数が1000であり且つ全てのフレーム画像が処理対象である場合、2のフレーム画像の組の数は999である。 When the feature point extraction process is completed, the information processing device identifies two frame images out of the plurality of frame images. The two frame images are two consecutive frame images. The two consecutive frame images are, for example, the first (first) frame image and the second frame image, or the second frame image and the third frame image. When the number of frame images is 1000 and all the frame images are the processing targets, the number of sets of 2 frame images is 999.
2のフレーム画像は、撮影時刻が所定時間(例えば1/10秒)以内である2つのフレーム画像でもよい。例えば、2つのフレーム画像のうちの先のフレーム画像が最初(1番目)のフレーム画像である場合、2つのフレーム画像のうちの後のフレーム画像は、先のフレーム画像が撮影された撮影時刻から1/10秒後に撮影されたフレーム画像でもよい。所定時間は、後述する振動周波数が算出され得る時間であれば、どのような時間であってもよい。以降、特定された2のフレーム画像のそれぞれを、対象フレーム画像と称する場合がある。 The two frame images may be two frame images whose shooting time is within a predetermined time (for example, 1/10 second). For example, if the first frame image of the two frame images is the first (first) frame image, the second frame image of the two frame images is from the shooting time when the first frame image was taken. It may be a frame image taken after 1/10 second. The predetermined time may be any time as long as the vibration frequency described later can be calculated. Hereinafter, each of the two specified frame images may be referred to as a target frame image.
情報処理装置は、先の対象フレーム画像から抽出された特徴点と対応する、後の対象フレーム画像から抽出された特徴点を判定する。情報処理装置は、先の対象フレーム画像から抽出された特徴点及び後の対象フレーム画像から抽出された特徴点の輝度を算出し、Lucas−Kanade法等を用いて、先の対象フレーム画像から抽出された特徴点と同一であると見做すことができる、後の対象フレーム画像から抽出された特徴点を判定する。 The information processing device determines the feature points extracted from the later target frame image that correspond to the feature points extracted from the earlier target frame image. The information processing device calculates the brightness of the feature points extracted from the previous target frame image and the brightness of the feature points extracted from the later target frame image, and extracts the feature points from the previous target frame image by using the Lucas-Kanade method or the like. The feature points extracted from the later target frame image, which can be regarded as the same as the feature points, are determined.
情報処理装置は、対応する2の特徴点を含むグループを作成する。以降、当該グループを対応特徴点グループと称する場合がある。 The information processing device creates a group including the corresponding two feature points. Hereinafter, the group may be referred to as a corresponding feature point group.
情報処理装置は、作成された複数の対応特徴点グループを参照し、共通する特徴点を含む複数のグループを一つのグループに統合する。1番目のフレーム画像の特徴点A及び2番目のフレーム画像の特徴点Bを含む対応特徴点グループXと、2番目のフレーム画像の特徴点B及び3番目のフレーム画像の特徴点Cを含む対応特徴点グループYとが作成された場合を例に説明する。両特徴点グループX及びYは、共に特徴点Bを含むため、両特徴点グループX及びYを統合した新たな特徴点グループが作成される。新たな特徴点グループには、特徴点A、特徴点B及び特徴点Cが含まれる。新たな特徴点グループと、他の対応特徴点グループ又は他の新たな特徴点グループとが共通する特徴点を含む場合、共通する特徴点を有するグループを統合することで新たな特徴点グループが作成される。以降、対応特徴点グループ及び特徴点グループを、単にグループと称する場合がある。 The information processing device refers to the created plurality of corresponding feature point groups, and integrates the plurality of groups including the common feature points into one group. Correspondence including feature point A of the first frame image and feature point B of the second frame image Correspondence feature point group X including feature point B of the second frame image and feature point C of the third frame image The case where the feature point group Y is created will be described as an example. Since both feature point groups X and Y include feature points B, a new feature point group is created by integrating both feature point groups X and Y. The new feature point group includes feature point A, feature point B and feature point C. When a new feature point group contains a feature point that is common to another corresponding feature point group or another new feature point group, a new feature point group is created by integrating the groups having the common feature point. Will be done. Hereinafter, the corresponding feature point group and the feature point group may be simply referred to as a group.
情報処理装置は、上述の統合処理を繰り返して実行することによって、それぞれが同一と見做すことができる複数の特徴点を含む特徴点グループを作成する。 The information processing apparatus creates a feature point group including a plurality of feature points, each of which can be regarded as the same, by repeatedly executing the above-mentioned integrated process.
情報処理装置は、特徴点グループごとに、各特徴点グループに含まれる特徴点間の変位に基づいて、各特徴点グループの振動周波数(1秒間の振動数)を算出する。図1の(2)には、特徴点グループに含まれる複数の特徴点A,B,C,及びDと、特徴点間の変位が示されている。図1の(2)に示す例では、複数の特徴点A,B,C,及びDは、それぞれ異なるフレーム画像から抽出された特徴点であり且つ同一と見做すことができる特徴点であり、路面上を走行する車両等を起因として、所定の振動周波数で振動していることが示されている。 The information processing device calculates the vibration frequency (frequency per second) of each feature point group based on the displacement between the feature points included in each feature point group for each feature point group. FIG. 1 (2) shows a plurality of feature points A, B, C, and D included in the feature point group, and displacements between the feature points. In the example shown in FIG. 1 (2), the plurality of feature points A, B, C, and D are feature points extracted from different frame images and can be regarded as the same. , It is shown that the vehicle vibrates at a predetermined vibration frequency due to a vehicle traveling on the road surface or the like.
情報処理装置は、特徴点A及びB間の変位、特徴点B及びC間の変位、並びに特徴点C及びD間の変位に基づいて、特徴点グループの振動周波数を算出する。 The information processing device calculates the vibration frequency of the feature point group based on the displacement between the feature points A and B, the displacement between the feature points B and C, and the displacement between the feature points C and D.
路面上を走行する車両等を起因として発生する振動の周波数帯は、例えば、0.4Hz〜3.0Hzの周波数帯、及び、2.0Hz〜20Hz等の公知の周波数帯である。情報処理装置は、算出された振動周波数のうち、車両等に固有の周波数帯に含まれる振動周波数を特定し、特定された振動周波数の特徴点グループを特定する。 The frequency band of vibration generated due to a vehicle or the like traveling on a road surface is, for example, a frequency band of 0.4 Hz to 3.0 Hz and a known frequency band of 2.0 Hz to 20 Hz. The information processing device specifies the vibration frequency included in the frequency band peculiar to the vehicle or the like among the calculated vibration frequencies, and specifies the feature point group of the specified vibration frequency.
情報処理装置は、特定された特定された特徴点グループに含まれる特徴点間の変位を増幅させる。例えば、図1の(3)に示す例では、振動周波数が0.4Hz〜3.0Hzの周波数帯に含まれる場合、当該振動周波数の特徴点グループに含まれる特徴点間の変位を増幅させる。例えば、情報処理装置は、対象フレーム画像ごとに、各特徴点に対応する画素を、増幅後の変位に基づいて移動させるとともに、変位を増幅させる特徴点の間の画素を、各特徴点に対応する画素の移動に合わせて移動させる。 The information processing device amplifies the displacement between the feature points included in the identified identified feature point group. For example, in the example shown in FIG. 1 (3), when the vibration frequency is included in the frequency band of 0.4 Hz to 3.0 Hz, the displacement between the feature points included in the feature point group of the vibration frequency is amplified. For example, the information processing device moves the pixels corresponding to each feature point for each target frame image based on the displacement after amplification, and the pixels between the feature points for amplifying the displacement correspond to each feature point. Move according to the movement of the pixel to be processed.
図1の(4)は、増幅処理前の対象フレーム画像の一例であり、図1の(5)は、増幅処理後の対象フレーム画像の一例である。図1の(4)に示す対象フレーム画像のように、増幅処理前の対象フレーム画像における振動は微細であるため、ユーザ(道路管理者等)は、当該画像内で振動を把握し得ない。一方、図1の(5)に示す対象フレーム画像では、振動による変位が大きくなっているため、ユーザは、当該画像内で振動を把握することができる。 FIG. 1 (4) is an example of the target frame image before the amplification process, and FIG. 1 (5) is an example of the target frame image after the amplification process. Since the vibration in the target frame image before the amplification process is minute as in the target frame image shown in FIG. 1 (4), the user (road manager or the like) cannot grasp the vibration in the image. On the other hand, in the target frame image shown in FIG. 1 (5), the displacement due to vibration is large, so that the user can grasp the vibration in the image.
情報処理装置は、全て又は一部の対象フレーム画像において増幅処理を行った後、増幅処理後の対象フレーム画像を含む動画像を作成し、作成された動画像を表示出力する。 The information processing device performs amplification processing on all or part of the target frame images, creates a moving image including the target frame image after the amplification processing, and displays and outputs the created moving image.
図2の(1)、(2)及び(3)は、動画像の表示出力画面を、時系列に従って示した例である。図2の(1)、(2)及び(3)に示すように、表示出力された動画像は、増幅処理によって変化した対象フレーム画像を含むため、ユーザ(道路管理者等)は、表示出力された動画像によって、車両等の走行に追従するように変位箇所が移動していることを把握することができる。 (1), (2) and (3) of FIG. 2 are examples in which the display and output screens of moving images are shown in chronological order. As shown in (1), (2), and (3) of FIG. 2, since the moving image displayed and output includes the target frame image changed by the amplification process, the user (road manager, etc.) can display and output the moving image. It is possible to grasp that the displacement portion is moving so as to follow the running of the vehicle or the like from the moving image.
以上で詳述したとおり、監視システムでは、鋼橋を撮影した動画像のみに基づいて、鋼橋を構成する部材の変形状態を把握することが可能となる。また、鋼橋を構成する部材の変形状態を把握することができるようになるため、ユーザ(道路管理者等)は、鋼橋の補修補強方法を容易に判定することが可能になる。 As described in detail above, in the monitoring system, it is possible to grasp the deformed state of the members constituting the steel bridge based only on the moving image of the steel bridge. Further, since the deformed state of the members constituting the steel bridge can be grasped, the user (road manager or the like) can easily determine the repair and reinforcement method of the steel bridge.
なお、上述した図1及び図2の説明は、本発明の内容への理解を深めるための説明にすぎない。本発明は、具体的には、次に説明する各実施形態において実施され、且つ、本発明の原則を実質的に超えずに、さまざまな変形例によって実施されてもよい。このような変形例はすべて、本発明および本明細書の開示範囲に含まれる。 The above-mentioned explanations of FIGS. 1 and 2 are merely explanations for deepening the understanding of the contents of the present invention. Specifically, the present invention may be carried out in each of the embodiments described below, and may be carried out by various modifications without substantially exceeding the principles of the present invention. All such variations are included within the scope of the present invention and the present specification.
(監視システム1)
図3は、監視システム1の概略構成の一例を示す図である。監視システム1は、撮影装置2及び情報処理装置3を有する。
(Monitoring system 1)
FIG. 3 is a diagram showing an example of a schematic configuration of the
撮影装置2は、所定の画角を有する光学系と撮像素子と画像処理部とを有する。光学系は、例えば光学レンズであり、被写体からの光束を撮像素子の撮像面上に結像させる。なお、光学系は複数設けられてもよく、例えば、撮影装置2は、二系統の光学系を設けたステレオカメラでも、三系統の光学系を設けた三眼カメラでもよい。
The photographing
撮像素子は、CCD(Charge Coupled Device)又はCMOS(Complementary Metal Oxide Semiconductor)等であり、撮像面上に結像した被写体像の画像を出力する。画像処理部は、連続して撮像素子によって生成された画像から、ファイル形式の動画像を作成して出力する。 The image pickup device is a CCD (Charge Coupled Device), CMOS (Complementary Metal Oxide Semiconductor), or the like, and outputs an image of a subject image formed on the image pickup surface. The image processing unit continuously creates and outputs a moving image in a file format from the images generated by the image sensor.
撮影装置2は、可搬型記録媒体Mを着脱可能に保持する撮影装着部(図示せず)を備える。可搬型記録媒体MがSDメモリカードである場合は、撮影装着部はSDメモリカードスロットを備える。撮影装着部は、装着された可搬型記録媒体Mに動画像を記録する機能を有する。なお、可搬型記録媒体MがDVD−ROMである場合は、撮影装着部はDVD−ROMドライブを備える。
The photographing
撮影装置2は、所定の送信時間間隔ごとに、出力した動画像を、無線又は有線の通信ネットワークを介して情報処理装置3に、送信する撮影送信部(図示せず)を備えてもよい。所定の送信時間間隔は10秒である。なお、所定の送信時間間隔は、5秒、15秒、30秒、1分でもよい。
The photographing
情報処理装置3は、パーソナルコンピュータ(Personal Computer, PC)又はサーバ装置である。情報処理装置3は、情報処理装置3は、本発明が適用可能であればよく、例えば、多機能携帯電話(所謂「スマートフォン」)、携帯電話(所謂「フィーチャーフォン」)や携帯情報端末(Personal Digital Assistant, PDA)、携帯ゲーム機、携帯音楽プレーヤ、タブレット端末、タブレットPC、ノートPC等でもよい。
The
情報処理装置3は、鋼橋の一部(車両等が走行する路面下部の床版等)又は全部の裏面を撮影した動画像が記録された可搬型記録媒体Mから動画像を取得し、取得した動画像に対する各種の情報処理を実行する。
The
(情報処理装置3)
図4は、情報処理装置3の概略構成の一例を示す図である。
(Information processing device 3)
FIG. 4 is a diagram showing an example of a schematic configuration of the
情報処理装置3は、撮影装置2から取得した動画像に含まれる複数のフレーム画像を変化させる機能を有する。この機能を実現するために、情報処理装置3は、記憶部31と、操作部32と、表示部33と、装着部34と、処理部35とを備える。
The
記憶部31は、例えば、半導体メモリ、磁気ディスク装置及び光ディスク装置のうちの少なくとも一つを有する。記憶部31は、処理部35による処理に用いられるドライバプログラム、オペレーティングシステムプログラム、アプリケーションプログラム、データ等を記憶する。例えば、記憶部31は、ドライバプログラムとして、表示部33を制御する表示デバイスドライバプログラム、装着部34を制御する情報記録/読出デバイスドライバプログラム等を記憶する。各種プログラムは、例えばCD−ROM、DVD−ROM等のコンピュータ読み取り可能な可搬型記録媒体から、公知のセットアッププログラム等を用いて記憶部31にインストールされてもよい。なお、記憶部31は、データとして、後述する各種テーブル等を記憶する。
The storage unit 31 has, for example, at least one of a semiconductor memory, a magnetic disk device, and an optical disk device. The storage unit 31 stores a driver program, an operating system program, an application program, data, and the like used for processing by the
操作部32は、キーボード及びマウスである。なお、操作部32は、タッチパネル等でもよい。ユーザは、操作部32を用いて、文字や数字、記号等を入力することができる。操作部32は、ユーザにより操作されると、その操作に対応する信号を発生する。そして、発生した信号は、ユーザの指示として、処理部35に供給される。
The
表示部33は、液晶ディスプレイである。なお、表示部33は、有機EL(Electro−Luminescence)ディスプレイ等でもよい。表示部33は、処理部35から供給された映像データに応じた映像、及び、画像データに応じた画像等を表示する。
The
装着部34は、可搬型記録媒体Mを着脱可能に保持する入出力装置を備える。可搬型記録媒体MがSDメモリカードである場合は、装着部34はSDメモリカードスロットを備える。装着部34は、装着された可搬型記録媒体Mに記憶された各種情報を読み出し、且つ、装着された可搬型記録媒体Mに各種情報を記録する機能を有する。なお、可搬型記録媒体MがDVD−ROMである場合は、装着部34はDVD−ROMドライブを備える。
The mounting
情報処理装置3は、装着部34に代えて又は装着部34とともに通信部(図示せず)を備えてもよい。撮影装置2が撮影送信部を備える場合、情報処理装置3の通信部は、撮影送信部から送信された動画像を、無線又は有線の通信ネットワークを介して受信する。
The
処理部35は、一又は複数個のプロセッサ及びその周辺回路を備える。処理部35は、情報処理装置3の全体的な動作を統括的に制御するCPU(Central Processing Unit)である。処理部35は、情報処理装置3の各種処理が記憶部31に記憶されているプログラムや操作部32の操作に基づいて適切な手順で実行されるように、第2通信部51や表示部33等の動作を制御する。処理部35は、記憶部31に記憶されているプログラム(オペレーティングシステムプログラムやドライバプログラム、アプリケーションプログラム等)に基づいて処理を実行する。また、処理部35は、複数のプログラム(アプリケーションプログラム等)を並列に実行することができる。
The
処理部35は、取得部351と、抽出部352と、作成部353と、算出部354と、特定部355と、画像処理部356と、判定部357と、出力処理部358とを有する。処理部35が有するこれらの各部は、処理部35が備えるプロセッサで実行されるプログラムにより実現される機能モジュールである。あるいは、処理部35が有するこれらの各部は、ファームウェアとして情報処理装置3に実装されてもよい。
The
以下、図5〜10を参照して、取得部351と、抽出部352と、作成部353と、算出部354と、特定部355と、画像処理部356と、判定部357、及び出力処理部358について説明する。
Hereinafter, with reference to FIGS. 5 to 10, the
取得部351は、鋼橋の一部(車両等が走行する路面下部の床版の裏面等)又は全部を撮影した動画像を記録する可搬型記録媒体Mが、装着部34に装着された場合、ユーザによる操作部32の操作に応じて入力された取得指示に従って、可搬型記録媒体Mから動画像を取得する。取得部351は、可搬型記録媒体Mから取得した動画像を抽出部352に渡す。
When a portable recording medium M for recording a moving image obtained by photographing a part (such as the back surface of the floor slab under the road surface on which a vehicle or the like travels) or the whole of the steel bridge is mounted on the mounting
抽出部352は、取得部351から動画像を取得すると、動画像に含まれる複数のフレーム画像のそれぞれから複数の特徴点を抽出する。
When the moving image is acquired from the
特徴点は、所定の特徴点抽出法を用いて画像情報から抽出される。所定の特徴点抽出法は、SIFT法、又は、SURF法等である。また、特徴点抽出法は、コーナー検出法でもよい。コーナー検出法では、画素を移動した際の画素値の変化量に基づいて、コーナーや孤立点が特徴点として検出される。 The feature points are extracted from the image information using a predetermined feature point extraction method. The predetermined feature point extraction method is the SIFT method, the SURF method, or the like. Further, the feature point extraction method may be a corner detection method. In the corner detection method, corners and isolated points are detected as feature points based on the amount of change in the pixel value when the pixel is moved.
以下、SIFT法による特徴点抽出法について説明する。まず、抽出部352は、フレーム画像に対してDoG(Difference-of-Gaussian)処理を実行することにより、フレーム画像内の特徴点の候補を検出する。DoG処理では、抽出部352は、フレーム画像に基づいて複数のDoG画像を生成し、生成した複数のDoG画像から極値が検出された画素を、特徴点の候補として特定する。
Hereinafter, the feature point extraction method by the SIFT method will be described. First, the
次に、抽出部352は、特徴点の候補の中から所定の削除条件を満たす候補を削除することで、特徴点を抽出する。所定の削除条件は、特徴点の候補が、コーナー検出法等によって検出された点と同一であるという条件である。また、所定の削除条件は、特徴点の候補極値が所定の数値以下であるという条件であってもよい。このようにして削除された残りの特徴点の候補が、特徴点として抽出される。SIFT法による特徴点抽出法については、例えば、特開2015−213615号公報を参照されたい。
Next, the
図5(a)は、取得部351によって取得された動画像に含まれるフレーム画像の一例を示す図である。図5(a)に示す例には、フレーム画像と重畳する複数の特徴点が示されている。
FIG. 5A is a diagram showing an example of a frame image included in the moving image acquired by the
図5(b)は、抽出特徴点テーブルT1のデータ構造の一例を示す図である。抽出特徴点テーブルT1は、取得部351によって取得された動画像に含まれる複数のフレーム画像から抽出された特徴点を管理するためのテーブルである。抽出部352は、特徴点の抽出処理後又は抽出処理中において、複数のフレーム画像のそれぞれについて抽出した特徴点に関する情報を含む抽出特徴点テーブルT1を記憶部31に記憶する。
FIG. 5B is a diagram showing an example of the data structure of the extraction feature point table T1. The extraction feature point table T1 is a table for managing feature points extracted from a plurality of frame images included in the moving image acquired by the
抽出特徴点テーブルT1には、複数のフレーム画像のそれぞれについて、各フレーム画像のフレーム番号、撮影時刻、特徴点等が、互いに関連付けて記憶されている。フレーム番号は、各フレーム画像を一意に識別するための識別情報の一例であり、例えば、撮影された順に大きくなるような整数値である。撮影時刻は、各フレーム画像が撮影された時刻である。特徴点は、フレーム画像から抽出された各特徴点のフレーム画像内の位置である。例えば、特徴点として、フレーム画像の上辺からの画素数とフレーム画像の左辺からの画素数とで示される2次元座標値が記憶される。 In the extraction feature point table T1, the frame number, shooting time, feature point, etc. of each frame image are stored in association with each other for each of the plurality of frame images. The frame number is an example of identification information for uniquely identifying each frame image, and is, for example, an integer value that increases in the order in which the images are taken. The shooting time is the time when each frame image was shot. The feature points are the positions in the frame image of each feature point extracted from the frame image. For example, as feature points, a two-dimensional coordinate value represented by the number of pixels from the upper side of the frame image and the number of pixels from the left side of the frame image is stored.
作成部353は、抽出特徴点テーブルT1から、複数のフレーム画像のうちの2の対象フレーム画像のそれぞれに関連付けられた特徴点を読み出す。例えば、作成部353は、複数のフレーム画像のうちの所定のフレーム画像を、先の対象フレーム画像として特定し、当該所定のフレーム画像よりも後の撮影時刻のフレーム画像を、後の対象フレーム画像として特定する。所定のフレーム画像は、例えば、複数のフレーム画像のうちの最初のフレーム画像である。所定のフレーム画像は、ユーザによって指定されたフレーム画像であってもよい。以降、先の対象フレーム画像に関連付けられた特徴点を、先の特徴点と称し、後の対象フレーム画像に関連付けられた特徴点を後の特徴点と称する場合がある。
The
作成部353は、先の特徴点に対応する後の特徴点を判定する。例えば、作成部353は、先の特徴点及び後の特徴点のそれぞれの輝度を算出し、Lucas−Kanade法等を用いて、先の特徴点と同一であると見做すことができる後の特徴点を判定する。
The
Lucas−Kanade法では、作成部353は、先の特徴点を始点とし、当該先の特徴点と同一であると見做すことができる後の特徴点を終点としたオプティカルフロー(動きベクトル)を算出する。先の特徴点及び後の特徴点が同じ輝度である場合、先の特徴点及び後の特徴点が同一であると見做される。この場合、先の特徴点とオプティカルフローとは式(1)のように表すことができる。
式(1)において、Iは、第1の画像情報における先の特徴点の輝度、x及びyは、先の特徴点の2次元座標、vx及びvyは、オプティカルフローである。 In the formula (1), I is the brightness of the previous feature point in the first image information, x and y are the two-dimensional coordinates of the previous feature point, and v x and v y are optical flows.
次に、作成部353は、式(1)をテーラー展開することにより式(2)を得る。
次に、作成部353は、式(2)に基づいて次のオプティカルフローの拘束式(3)を得る。
Next, the creating
次に、作成部353は、先の特徴点を略中心とした画像領域(仮想のウィンドウ)を設定し、当該画像領域内における全てのオプティカルフローは一定であるという条件を満たすような、当該先の特徴点を始点としたオプティカルフローを算出する。作成部353は、次の式(4)によってオプティカルフローを算出する。
Next, the
そして、作成部353は、先の特徴点を始点とした場合におけるオプティカルフローの終点にあたる特徴点を、当該先の特徴点に対応する後の特徴点と判定する。以降、先の特徴点及び当該先の特徴点に対応する後の特徴点(すなわち、オプティカルフローにおいて、始点に当たる特徴点と終点に当たる特徴点)を、対応する2の特徴点と称する場合がある。
Then, the creating
なお、Lucas−Kanade法によるオプティカルフローの算出処理については、例えば、B.D.Lucas and T.Kanade,「An iterative image registration technique with an application to stereo vision」,in Proc Imaging Understanding Workshop,pp.121−130,1981年を参照されたい。 Regarding the calculation process of the optical flow by the Lucas-Kanade method, for example, B.I. D. Lucas and T. Kanade, "An iterative image registration technique with an application to stereo vision", in Proc Imaging Understancing Workshop, pp. See 121-130, 1981.
図6(a)は、対応特徴点テーブルT2のデータ構造の一例を示す図である。対応特徴点テーブルT2は、作成部353によって判定された対応する2の特徴点を管理するためのテーブルである。作成部353は、対応する2の特徴点の判定処理後又は判定処理中において、2のフレーム画像の組ごとに判定した対応する2の特徴点を記憶する。
FIG. 6A is a diagram showing an example of the data structure of the corresponding feature point table T2. The corresponding feature point table T2 is a table for managing the corresponding 2 feature points determined by the creating
対応特徴点テーブルT2には、2の対象フレーム画像の組ごとに、フレーム組ID(identifier)、フレーム組、対応特徴点グループ等が、互いに関連付けて記憶されている。フレーム組IDは、2の対象フレーム画像の組を一意に識別するための識別情報の一例である。フレーム組は、2の対象フレーム画像のそれぞれのフレーム番号である。対応特徴点グループは、対応する2の特徴点のそれぞれの対象フレーム画像内の位置である。 In the corresponding feature point table T2, a frame set ID (identifier), a frame set, a corresponding feature point group, and the like are stored in association with each other for each set of the target frame images of 2. The frame set ID is an example of identification information for uniquely identifying a set of two target frame images. The frame set is the frame number of each of the two target frame images. The corresponding feature point group is the position in the target frame image of each of the two corresponding feature points.
図6(a)に示す対応特徴点テーブルT2の例では、フレーム組ID「B000001」と、フレーム番号「000001」及び「000002」とが関連付けて記憶される。フレーム番号「000001」は、先の対象フレーム画像を示すフレーム番号であり、フレーム番号「000002」は、後の対象フレーム画像を示すフレーム番号である。さらに、対応特徴点グループを示す、対応する2の特徴点のそれぞれの対象フレーム画像内の位置「(132,528),(133,528)」,「(142,511),(143,510)」,・・・が、フレーム組ID「B000001」に関連付けて記憶されている。フレーム画像内の位置「(132,528)」は、フレーム番号「000001」の先のフレーム画像内における先の特徴点の位置である。フレーム画像内の位置「(133,528)」は、フレーム番号「000002」の後のフレーム画像内の後の特徴点の位置である。 In the example of the corresponding feature point table T2 shown in FIG. 6A, the frame set ID “B000001” is stored in association with the frame numbers “000001” and “000002”. The frame number "000001" is a frame number indicating the first target frame image, and the frame number "000002" is a frame number indicating the later target frame image. Further, the positions "(132,528), (133,528)", "(142,511), (143,510) of the corresponding two feature points indicating the corresponding feature point group in the target frame image". , ... Are stored in association with the frame set ID “B000001”. The position “(132,528)” in the frame image is the position of the feature point in the frame image after the frame number “000001”. The position "(133,528)" in the frame image is the position of the later feature point in the frame image after the frame number "000002".
対応特徴点グループは、対応特徴点グループに含まれる2の特徴点のそれぞれを識別し得る情報であればどのような情報でもよい。 The corresponding feature point group may be any information as long as it can identify each of the two feature points included in the corresponding feature point group.
以降、作成部353と、算出部354と、特定部355と、画像処理部356とによって、公知のEulerian Motion Magnificationを用いた動画像の誇張表現処理が実行される。以下、Eulerian Motion Magnificationの概要を説明する。なお、Eulerian Motion Magnificationの詳細は、例えば、「Eulerian Video Magnification for Revealing Subtle Changes in the World」,H.Y Wu他,ACM Transactions on Graphics(TOG), SIGGRAPH 2012, Conference Proceedings, Volume 31 Issue 4, Article No. 65, July 2012等を参照されたい。
After that, the
特定の時刻tにおけるフレーム画像内の特定の場所xに対応する輝度が、I(x,t)のように示すことができる。以下、I(x,t)が次の式(5)のように表現できる場合について説明する。 The brightness corresponding to a specific place x in the frame image at a specific time t can be indicated as I (x, t). Hereinafter, a case where I (x, t) can be expressed as the following equation (5) will be described.
δ(t)は変位関数である。 δ (t) is a displacement function.
フレーム画像が、一次テーラー級数で表すことができると仮定すると、I(x,t)は、次の式(6)のように表現できる。 Assuming that the frame image can be represented by a first-order Taylor series, I (x, t) can be represented by the following equation (6).
次に、I(x,t)に対して、バンドパスフィルタが適用されると、f(x)が除去され、次の式(7)に示すB(x、t)が生成される。 Next, when a bandpass filter is applied to I (x, t), f (x) is removed and B (x, t) shown in the following equation (7) is generated.
B(x,t)が所定の増幅率αだけ増幅され、次の式(8)に示すように、増幅後のB(x,t)が元のI(x,t)に加算されることより、増幅信号が生成される。
そして、増幅信号のうちの一又は複数の信号が、動画像に合成されることで、誇張表現処理が終了する。 Then, one or a plurality of the amplified signals are combined with the moving image to complete the exaggerated expression processing.
以下、作成部353と、算出部354と、特定部355と、画像処理部356とによって実行される動画像の誇張表現処理の一例を説明する。
Hereinafter, an example of the exaggerated expression processing of the moving image executed by the
作成部353は、対応特徴点テーブルT2に記憶されたフレーム組IDに関連付けられた対応特徴点グループを読み出し、読み出した対応特徴点グループのうち、共通する特徴点を含む複数の対応特徴点グループを統合して新たな特徴点グループを作成する。
The
図6(a)に示す対応特徴点テーブルT2の例では、フレーム組ID「B000001」に関連付けられた対応特徴点グループ「(132,528),(133,528)」と、フレーム組ID「B000002」に関連付けられた対応特徴点グループ「(133,528),(133,529)」とは、フレーム番号「000002」における特徴点の位置「(133,528)」が共通している。作成部353は、対応特徴点グループ「(132,528),(133,528)」と対応特徴点グループ「(133,528),(133,529)」とを統合した特徴点グループ「(132,528),(133,528),(133,529)」を作成する。
In the example of the corresponding feature point table T2 shown in FIG. 6A, the corresponding feature point groups “(132,528), (133,528)” associated with the frame set ID “B000001” and the frame set ID “B000002” The corresponding feature point groups "(133,528), (133,529)" associated with "" have the same feature point position "(133,528)" in the frame number "000002". The
以降、作成部353は、2の対応特徴点グループが共通する特徴点を含む場合、新たな特徴点グループと対応特徴点グループとが共通する特徴点を含む場合、及び、2の特徴点グループが共通する特徴点を含む場合、共通する特徴点を有するグループを統合することで新たな特徴点グループを作成する。作成部353は、共通する特徴点を有するグループが無くなるまで、グループの統合処理を繰り返し実行する。
After that, the
算出部354は、作成部353によるグループの統合処理が終了すると、特徴点グループごとに、各特徴点グループに含まれる特徴点間の変位に基づいて、各特徴点グループの振動周波数を算出する。例えば、算出部354は、特徴点間の変位の全て又は一部の向きを算出し、算出した向きの平均向きを算出する。次に、算出部354は、平均向きをX軸方向とし、平均向きの直行方向をY軸方向として設定する。次に、算出部354は、特徴点間の変位の全て又は一部の変位のベクトル(動きベクトル)を、設定したX軸方向の成分及びY軸方向の成分に分解する。そして、算出部354は、1秒当たりの、X軸方向の動きベクトルの成分の向きがマイナス方向に向く回数を振動周波数とする。
When the group integration process by the creating
図6(b)は、特徴点グループテーブルT3のデータ構造の一例を示す図である。特徴点グループテーブルT3は、作成部353によって作成された特徴点グループ及び算出部354によって算出された振動周波数を管理するためのテーブルである。作成部353は、特徴点グループの作成処理後又は作成処理中において、作成された特徴点グループを記憶し、算出部354によって算出された、記憶された特徴点グループに対応する振動周波数を記憶する。
FIG. 6B is a diagram showing an example of the data structure of the feature point group table T3. The feature point group table T3 is a table for managing the feature point group created by the
特徴点グループテーブルT3には、各特徴点グループについて、特徴点グループID、グループ内特徴点、振動周波数等が、互いに関連付けて記憶されている。特徴点グループIは、各特徴点グループを一意に識別するための識別情報の一例である。グループ内特徴点は、作成部353によって作成された特徴点グループに含まれる特徴点の位置と、当該特徴点の抽出元のフレーム画像のフレーム番号との組合せである。振動周波数は、算出部354によって算出された振動周波数である。
In the feature point group table T3, the feature point group ID, the feature points in the group, the vibration frequency, and the like are stored in association with each other for each feature point group. The feature point group I is an example of identification information for uniquely identifying each feature point group. The feature point in the group is a combination of the position of the feature point included in the feature point group created by the
図6(b)に示す特徴点グループテーブルT3の例では、特徴点グループID「G0001」によって示される特徴点グループに含まれるグループ内特徴点として、フレーム番号「000001」のフレーム画像内の位置(132,528)の特徴点、フレーム番号「000001」のフレーム画像内の位置(133,529)の特徴点、及びフレーム番号「000001」のフレーム画像内の位置「(133,530)の特徴点、・・・等が記憶される。また、特徴点グループテーブルT3では、特徴点グループID「G0001」によって示される特徴点グループの振動周波数として、「2.2Hz」が記憶される。 In the example of the feature point group table T3 shown in FIG. 6B, the position in the frame image of the frame number “000001” as the feature point in the group included in the feature point group indicated by the feature point group ID “G0001” ( 132,528) feature points, position (133,529) feature points in the frame image of frame number "000001", and position "(133,530) feature points" in the frame image of frame number "000001". ... Etc. are stored. Further, in the feature point group table T3, "2.2 Hz" is stored as the vibration frequency of the feature point group indicated by the feature point group ID "G0001".
図7(a)は、振動周波数帯テーブルT4のデータ構造の一例を示す図である。振動周波数帯テーブルT4は、車両等に固有の周波数帯を管理するためのテーブルである。振動周波数帯テーブルT4には、複数の周波数帯が記憶されるとともに、各周波数帯に対する増幅倍率(1+α)が関連付けて記憶されている。図7(a)に示す振動周波数帯テーブルT4の例では、0.4Hz〜3.0Hzの周波数帯が、車両等に固有の周波数帯であり、この周波数帯に含まれる振動周波数の特徴点グループに含まれる特徴点間の変位が増幅される。 FIG. 7A is a diagram showing an example of the data structure of the vibration frequency band table T4. The vibration frequency band table T4 is a table for managing a frequency band peculiar to a vehicle or the like. In the vibration frequency band table T4, a plurality of frequency bands are stored, and the amplification factor (1 + α) for each frequency band is stored in association with each other. In the example of the vibration frequency band table T4 shown in FIG. 7A, the frequency band of 0.4 Hz to 3.0 Hz is a frequency band peculiar to a vehicle or the like, and a characteristic point group of vibration frequencies included in this frequency band. The displacement between the feature points included in is amplified.
特定部355は、振動周波数帯テーブルT4から周波数帯「0.4Hz〜3.0Hz」を読み出し、特徴点グループテーブルT3に記憶された複数の振動周波数のうち、読み出された周波数帯「0.4Hz〜3.0Hz」に含まれる振動周波数を特定する。次に、特定部355は、特定した振動周波数に関連付けられた特徴点グループID及びグループ内特徴点を特定し、特定した特徴点グループID及びグループ内特徴点を画像処理部356に渡す。
The
画像処理部356は、複数のフレーム画像のそれぞれについて、特定部355から受け取ったグループ内特徴点に基づいて、特徴点間の変位を増幅させ、増幅された変位に基づいて、特定された特徴点グループに含まれる特徴点を移動させる。画像処理部356は、複数のフレーム画像のそれぞれについて、移動後の特徴点と整合するように他の画素を移動させる。
The
画像処理部356は、変化後の複数のフレーム画像を元の動画像に合成することによって、変化後の複数のフレーム画像を含む動画像を生成し、出力処理部358は、図2のように、生成された動画像を表示部33に表示出力する。
The
作成部353と、算出部354と、特定部355と、画像処理部356とによって実行される処理は、上述した処理に限らず、Eulerian Motion Magnificationを用いた動画像の誇張表現処理が実現する処理であれば、どのような処理であってもよい。
The processing executed by the
図7(b)は、増幅特徴点テーブルT5のデータ構造の一例を示す図である。増幅特徴点テーブルT5は、画像処理部356によって作成された増幅後の特徴点を管理するためのテーブルである。画像処理部356は、増幅処理後又は増幅処理中において、増幅後の特徴点を記憶する。
FIG. 7B is a diagram showing an example of the data structure of the amplification feature point table T5. The amplified feature point table T5 is a table for managing the feature points after amplification created by the
増幅特徴点テーブルT5には、各特徴点グループについて、特徴点グループID、増幅特徴点、振動周波数等が、互いに関連付けて記憶されている。増幅特徴点は、画像処理部356によって作成された特徴点グループに含まれる増幅後の特徴点の位置と、当該特徴点の抽出元のフレーム画像のフレーム番号との組合せである。
In the amplified feature point table T5, the feature point group ID, the amplified feature point, the vibration frequency, and the like are stored in association with each other for each feature point group. The amplified feature point is a combination of the position of the feature point after amplification included in the feature point group created by the
特定部355は、特徴点グループテーブルT3に記憶された複数の振動周波数のうち、周波数帯「0.4Hz〜3.0Hz」に含まれる振動周波数に関連付けられた特徴点グループID及びグループ内特徴点を特定すると、近接する特徴点グループを統合した近距離グループを作成する。
The
例えば、特定部355は、特定されたグループ内特徴点の平均位置又は重心位置を算出し、算出した位置を、特徴点グループ位置として、特定された特徴点グループIDに関連付ける。次に、特定部355は、特徴点グループ位置が第1距離以内の関係にある特徴点グループを統合して近距離グループを作成する。
For example, the
そして、特定部355は、近距離グループに含まれる特徴点のうち、複数のフレーム画像のそれぞれにおいて、対応する変位が最も大きい特徴点を、近距離グループに対応する車両等の輪位置として特定する。
Then, the specifying
図8(a)は、輪位置テーブルT6のデータ構造の一例を示す図である。輪位置テーブルT6は、特定部355によって特定された車両等の輪位置を管理するためのテーブルである。特定部355は、輪位置の特定処理後又は輪位置の特定処理中において、特定された車両等の輪位置を記憶する。
FIG. 8A is a diagram showing an example of the data structure of the wheel position table T6. The wheel position table T6 is a table for managing the wheel positions of the vehicle or the like specified by the
輪位置テーブルT6には、複数のフレーム画像のそれぞれについて、各フレーム画像のフレーム番号、輪位置情報、撮影時刻等が、互いに関連付けて記憶されている。輪位置情報は、複数のフレーム画像のそれぞれにおいて特定された、各近距離グループに対応する車輪等の輪位置を示す情報である。例えば、輪位置として、フレーム画像の上辺からの画素数とフレーム画像の左辺からの画素数とで示される2次元座標値が記憶される。 In the wheel position table T6, the frame number, the wheel position information, the shooting time, and the like of each frame image are stored in association with each other for each of the plurality of frame images. The wheel position information is information indicating the wheel positions of the wheels and the like corresponding to each short-distance group, which are specified in each of the plurality of frame images. For example, as the ring position, a two-dimensional coordinate value represented by the number of pixels from the upper side of the frame image and the number of pixels from the left side of the frame image is stored.
画像処理部356は、変化後の複数のフレーム画像を含む動画像又は元の動画像に、特定した輪位置を示す軌跡画像を重畳した動画像を作成し、出力処理部358は、図8(b)のように、生成された動画像を表示部33に表示出力する。図8(b)は、軌跡画像が重畳されたフレーム画像の一例を示す図である。図8(b)に示す軌跡画像は、複数の輪位置を接続した線分状の画像である。
The
判定部357は、変化後のフレーム画像に基づいて、車両等が走行する路面下部における、鋼橋の各種部材の変形モードを判定する。判定部357は、例えば、主桁ウェブの面内変形を示す複数のサンプル画像、及び、デッキプレートの面外変形を示す複数のサンプル画像を用いた公知の画像マッチング手法に基づいて、変化後のフレーム画像が、主桁ウェブの面内変形か、又は、デッキプレートの面外変形かを判定する。
The
図9(a)は、主桁ウェブの面内変形が撮影された変化後のフレーム画像の一例を説明するための模式図である。図9(a)に示すフレーム画像の例は、変化後のフレーム画像であるため、主桁ウェブの面内変形の度合いが、元のフレーム画像よりも大きく表示されている。 FIG. 9A is a schematic diagram for explaining an example of a frame image after the change in which the in-plane deformation of the main girder web is photographed. Since the example of the frame image shown in FIG. 9A is a frame image after the change, the degree of in-plane deformation of the main girder web is displayed larger than that of the original frame image.
図9(b)は、デッキプレートの面外変形が撮影された変化後のフレーム画像の一例を示す図である。図9(b)に示すフレーム画像の例は、変化後のフレーム画像であるため、デッキプレートの面外変形の度合いが、元のフレーム画像よりも大きく表示されている。 FIG. 9B is a diagram showing an example of a frame image after the change in which the out-of-plane deformation of the deck plate is photographed. Since the example of the frame image shown in FIG. 9B is the frame image after the change, the degree of out-of-plane deformation of the deck plate is displayed larger than that of the original frame image.
(変化前の)元のフレーム画像では、主桁ウェブの面内変形及びデッキプレートの面外変形の度合いが極めて小さいため、公知の画像マッチング手法を用いても、変形が判定されないことが多かった。情報処理装置3の判定部357は、変位が増幅された(変形の度合いの大きい)変化後のフレーム画像を用いた画像マッチング手法を適用するため、判定精度の高い画像マッチングを行うことが可能になる。
In the original frame image (before change), the degree of in-plane deformation of the main girder web and out-of-plane deformation of the deck plate is extremely small, so deformation was often not determined even by using a known image matching method. .. Since the
図10は、補修補強方法テーブルT7のデータ構造の一例を示す図である。補修補強方法テーブルT7は、変形モード及び変形モードに対応する補修補強方法を管理するためのテーブルである。 FIG. 10 is a diagram showing an example of the data structure of the repair and reinforcement method table T7. The repair and reinforcement method table T7 is a table for managing the deformation mode and the repair and reinforcement method corresponding to the deformation mode.
補修補強方法テーブルT7には、変形モード(各部材に対する面外変形モード又は面内変形モード)ごとに、サンプル画像及び補修補強方法等が、互いに関連付けて記憶されている。サンプル画像は、過去に作成された変化後のフレーム画像のうち、各変形モードを含む画像である。なお、例えば、サンプル画像を撮影した際の撮影装置の床版からの相対位置及び撮影装置の傾きは、動画像を撮影した際の撮影装置の床版からの相対位置及び撮影装置の傾きと略同一である。 In the repair and reinforcement method table T7, a sample image, a repair and reinforcement method, and the like are stored in association with each other for each deformation mode (out-of-plane deformation mode or in-plane deformation mode for each member). The sample image is an image including each transformation mode among the frame images after the change created in the past. For example, the relative position of the photographing device from the floor slab and the inclination of the photographing device when the sample image is taken are abbreviated as the relative position of the photographing device from the floor slab and the inclination of the photographing device when the moving image is taken. It is the same.
補修補強方法は、サンプル画像によって示される変形に伴う損傷に対処する補修補強方法に関する情報である。例えば、補修補強方法は、L形鋼を用いた当て板補強、平形鋼を用いた当て板補強、及び形状改良補修等である。補修補強方法に関する情報は、補修補強方法の名称を示す文字情報、補修補強方法を説明する文字情報、及び/又は、補修補強方法を示す画像(動画像及び/又は静止画像)情報等である。 The repair and reinforcement method is information on the repair and reinforcement method for dealing with the deformation-related damage shown by the sample image. For example, the repair and reinforcement method includes a backing plate reinforcement using L-shaped steel, a backing plate reinforcement using flat steel, and shape improvement repair. The information regarding the repair and reinforcement method includes character information indicating the name of the repair and reinforcement method, character information explaining the repair and reinforcement method, and / or image (moving image and / or still image) information indicating the repair and reinforcement method.
判定部357によって実行される画像マッチング処理は、記憶部31に記憶されたAI(Artificial Intelligence)プログラムによって実行されるものでもよい。例えば、判定部357は、補修補強方法テーブルT7に記憶されたサンプル画像(入力データ)と補修補強方法テーブルT7に記憶された変形モード(出力データ)とを含む教師データに基づいて学習したニューラルネットワークモデル等を用い、変形後のフレーム画像に含まれる各種部材の変形モードの可能性を示す数値を算出してもよい。そして、判定部357は、算出された数値のうちの最大の数値の変形モードを、当該変形後のフレーム画像の変形モードであると判定する。
The image matching process executed by the
判定部357によって実行される画像マッチング処理として、AIプログラムを用いた画像マッチング手法が適用される場合でも、変位が増幅された(変形の度合いの大きい)変化後のフレーム画像が用いられるため、判定部357は、判定精度の高い画像マッチングを行うことが可能になる。
As the image matching process executed by the
判定部357は、変化後のフレーム画像について変形モードを判定すると、補修補強方法テーブルT7を参照し、当該変形モードに対応する補修補強方法を判定する。
When the
(監視システム1による監視方法の動作フロー)
図11は、監視システム1による監視方法の動作フローの一例を示す図である。
(Operation flow of monitoring method by monitoring system 1)
FIG. 11 is a diagram showing an example of an operation flow of the monitoring method by the
まず、取得部351は、鋼橋の一部(車両等が走行する路面下部の床版の裏面等)又は全部を撮影した動画像を記録する可搬型記録媒体Mが、装着部34に装着された場合、ユーザによる操作部32の操作に応じて入力された取得指示に従って、可搬型記録媒体Mから動画像を取得する(ステップS101)。
First, in the
次に、抽出部352は、取得部351によって取得された動画像に含まれる複数のフレーム画像のそれぞれから複数の特徴点を抽出する(ステップS102)。
Next, the
次に、作成部353は、抽出特徴点テーブルT1から、複数のフレーム画像のうちの2の対象フレーム画像から、対応する2の特徴点を含む対応特徴点グループを作成する(ステップS103)。
Next, the
次に、作成部353は、複数の対応特徴点グループに基づいて特徴点グループを作成する(ステップS104)。
Next, the
次に、算出部354は、特徴点グループごとに、各特徴点グループに含まれる特徴点間の変位に基づいて、各特徴点グループの振動周波数を算出する(ステップS105)。
Next, the
次に、特定部355は、振動周波数帯テーブルT4から車両等に固有の周波数帯を読み出し、算出された各特徴点グループの振動周波数のうち、車両等に固有の周波数帯に含まれる振動周波数を特定する。次に、特定部355は、特定した振動周波数に関連付けられた特徴点グループを特定する(ステップS106)。
Next, the
次に、画像処理部356は、フレーム画像ごとに、車両等に固有の周波数帯に含まれる振動周波数の特徴点グループ内の特徴点間の変位を増幅させる(ステップS107)。
Next, the
次に、画像処理部356は、フレーム画像ごとに、増幅された変位に基づいて、車両等に固有の周波数帯に含まれる振動周波数の特徴点グループに含まれる特徴点を移動させるとともに、移動後の特徴点と整合するように他の画素も移動させる。そして、画像処理部356は、変化後の複数のフレーム画像を元の動画像に合成することによって、変化後の複数のフレーム画像を含む動画像を生成する(ステップS108)。
Next, the
次に、判定部357は、変化後のフレーム画像に基づいて、例えば、車両等が走行する路面下部の床版及び主桁ウェブの変形モードを判定する(ステップS109)。
Next, the
そして、判定部357は、補修補強方法テーブルT7を参照し、ステップS109において判定された変形モードに対応する補修補強方法を判定する(ステップS110)。
Then, the
以上、詳述したとおり、本実施形態の監視システム1では、鋼橋の一部(道路橋梁の路面下部の床版の裏面等)又は全部を撮影した動画像のみに基づいて、鋼橋を構成する部材の変形状態を把握することが可能となる。
As described in detail above, in the
(変形例1)
なお、本発明は、本実施形態に限定されるものではない。例えば、特定部355による輪位置の特定処理において、ユーザによって入力された鋼橋の部材(例えば、床版の裏面)の損傷発生位置が用いられてもよい。
(Modification example 1)
The present invention is not limited to the present embodiment. For example, in the process of specifying the wheel position by the
例えば、取得部351は、ユーザによって入力された、動画像に含まれる床版の裏面の損傷発生位置を取得する。例えば、取得部351は、表示部33に動画像が表示されている際に、ユーザによる操作部32の操作に応じて入力された画面位置を、損傷発生位置として取得する。特定部355は、複数のフレーム画像のそれぞれにおいて、特定した近距離グループに含まれ且つ取得した損傷発生位置から第2距離内の特徴点のうち、対応する変位が最も大きい特徴点を、損傷発生に影響を与えた車両等の輪位置として特定する。
For example, the
この場合、画像処理部356は、変化後の複数のフレーム画像を含む動画像又は元の動画像に、特定した輪位置を示す軌跡画像を重畳した動画像を作成し、出力処理部358は、生成された動画像を表示部33に表示出力する。
In this case, the
このように、監視システム1は、道路橋梁の路面下部の床版の裏面を撮影した動画像のみに基づいて、既に発生した損傷発生位置に影響すると推察される輪位置をユーザに提示することを可能とする。
In this way, the
(変形例2)
取得部351は、損傷発生位置の近傍に設置されたひずみ測定装置から出力されたひずみ応答データを測定時刻とともに取得し、出力処理部358は、動画像に含まれる各フレーム画像の撮影時刻と取得した測定時刻とに基づいて、変化後の複数のフレーム画像を含む動画像又は元の動画像に同期させたひずみ応答データを表示部33に表示出力してもよい。
(Modification 2)
The
このように、監視システム1は、損傷発生位置に関するひずみ応答データを、変化後の複数のフレーム画像を含む動画像又は元の動画像とともにユーザに提示することを可能とする。
In this way, the
当業者は、本発明の精神及び範囲から外れることなく、様々な変更、置換、及び修正をこれに加えることが可能であることを理解されたい。 It will be appreciated by those skilled in the art that various changes, substitutions, and modifications can be made to this without departing from the spirit and scope of the invention.
1 監視システム
2 撮影装置
3 情報処理装置
31 記憶部
32 操作部
33 表示部
34 装着部
35 処理部
351 取得部
352 抽出部
353 作成部
354 算出部
355 特定部
356 画像処理部
357 判定部
358 出力処理部
1
Claims (6)
前記動画像に含まれる複数のフレーム画像のそれぞれから複数の特徴点を抽出する抽出部と、
所定のフレーム画像に含まれる一の特徴点と同一であると見做される、他のフレームに含まれる一の特徴点を判定し、同一であると見做される複数の特徴点を含む特徴点グループを作成する作成部と、
前記特徴点グループごとに、各特徴点グループに含まれる特徴点間の変位に基づいて、各特徴点グループの振動周波数を算出する算出部と、
算出された前記振動周波数のうち、前記車両等に固有の周波数帯に含まれる振動周波数を特定し、特定された前記振動周波数の特徴点グループを特定する特定部と、
特定された前記特徴点グループに含まれる特徴点間の前記変位を増幅させ、前記増幅された変位に基づいて、特定された前記特徴点グループに含まれる前記特徴点を移動させることにより、前記複数のフレーム画像のそれぞれを変化させる画像処理部と、
変化後の前記複数のフレーム画像を含む前記動画像を出力する出力部と、
を有する監視システム。 An acquisition unit that acquires a moving image of a steel bridge on which a vehicle or the like is traveling from a photographing device,
An extraction unit that extracts a plurality of feature points from each of the plurality of frame images included in the moving image,
A feature including a plurality of feature points that are considered to be the same as one feature point included in a predetermined frame image is determined, and one feature point included in another frame is determined to be the same. A creation unit that creates a point group, and
For each feature point group, a calculation unit that calculates the vibration frequency of each feature point group based on the displacement between the feature points included in each feature point group.
Among the calculated vibration frequencies, a specific unit that specifies the vibration frequency included in the frequency band peculiar to the vehicle or the like and specifies the feature point group of the specified vibration frequency, and
By amplifying the displacement between the feature points included in the specified feature point group and moving the feature points included in the specified feature point group based on the amplified displacement, the plurality of said. The image processing unit that changes each of the frame images of
An output unit that outputs the moving image including the plurality of frame images after the change,
Surveillance system with.
変化後の前記フレーム画像に基づいて、前記鋼橋の部材の変形モードを判定するモード判定部と、を更に有し、
前記出力部は、判定された前記変形モードに対応する前記補修補強方法に関する情報を前記記憶部から抽出し、抽出した前記補修補強方法に関する情報を出力する、請求項1に記載の監視システム。 A storage unit that stores information on the deformation mode of the member of the steel bridge due to the traveling of the vehicle or the like and information on the repair and reinforcement method of the member corresponding to the deformation mode.
Further, it has a mode determination unit for determining the deformation mode of the member of the steel bridge based on the frame image after the change.
The monitoring system according to claim 1, wherein the output unit extracts information on the repair and reinforcement method corresponding to the determined deformation mode from the storage unit and outputs the extracted information on the repair and reinforcement method.
前記各特徴点グループの位置を算出し、互いの距離が第1距離内の特徴点グループを統合して近距離グループを作成し、
前記近距離グループに含まれる特徴点のうち、対応する前記変位が最も大きい特徴点を、当該車両等の輪位置として特定する、位置特定部を有し、
前記出力部は、前記特定された輪位置を示す軌跡画像を、対応する前記フレーム画像に重畳することで、車両等の輪位置が特定された動画像を出力する、請求項2に記載の監視システム。 For each of the plurality of frame images
The position of each feature point group is calculated, and the feature point groups whose distances are within the first distance are integrated to create a short-distance group.
Among the feature points included in the short-distance group, the feature point having the largest displacement corresponds to the feature point having a position specifying portion for designating the wheel position of the vehicle or the like.
The monitoring according to claim 2, wherein the output unit outputs a moving image in which the wheel position of a vehicle or the like is specified by superimposing a locus image indicating the specified wheel position on the corresponding frame image. system.
前記位置特定部は、前記近距離グループに含まれる特徴点のうち、対応する前記変位が最も大きい特徴点であって、前記損傷発生位置から第2距離内の特徴点を、前記損傷発生に影響を与えた車両等の輪位置として特定する、請求項3に記載の監視システム。 The acquisition unit acquires the damage occurrence position of the steel bridge member included in the moving image input by the user.
The position specifying portion is a feature point having the largest displacement among the feature points included in the short-distance group, and the feature point within a second distance from the damage occurrence position affects the damage occurrence. The monitoring system according to claim 3, which specifies the wheel position of the vehicle or the like given the above.
前記出力部は、前記動画像の撮影時刻と前記測定時刻とに基づいて、前記動画像と同期させたひずみ応答データを出力する、請求項4に記載の監視システム。 The acquisition unit acquires strain response data output from a strain measuring device installed near the damage occurrence position together with the measurement time.
The monitoring system according to claim 4, wherein the output unit outputs strain response data synchronized with the moving image based on the shooting time of the moving image and the measurement time.
車両等が走行する鋼橋を撮影した動画像を撮影装置から取得し、
前記動画像に含まれる複数のフレーム画像のそれぞれから複数の特徴点を抽出し、
所定のフレーム画像に含まれる一の特徴点と同一であると見做される、他のフレームに含まれる一の特徴点を判定し、同一であると見做される複数の特徴点を含む特徴点グループを作成し、
前記特徴点グループごとに、各特徴点グループに含まれる特徴点間の変位に基づいて、各特徴点グループの振動周波数を算出し、
算出された前記振動周波数のうち、前記車両等に固有の周波数帯に含まれる振動周波数を特定し、特定された前記振動周波数の特徴点グループを特定し、
特定された前記特徴点グループに含まれる特徴点間の前記変位を増幅させ、前記増幅された変位に基づいて、特定された前記特徴点グループに含まれる前記特徴点を移動させることにより、前記複数のフレーム画像のそれぞれを変化させ、
変化後の前記複数のフレーム画像を含む前記動画像を出力する、
ことを含む監視方法。 It is a monitoring method executed by the monitoring system.
Acquire a moving image of a steel bridge on which a vehicle or the like is traveling from the photographing device,
A plurality of feature points are extracted from each of the plurality of frame images included in the moving image, and a plurality of feature points are extracted.
A feature including a plurality of feature points that are considered to be the same as one feature point included in a predetermined frame image is determined, and one feature point included in another frame is determined to be the same. Create a point group and
For each feature point group, the vibration frequency of each feature point group is calculated based on the displacement between the feature points included in each feature point group.
Among the calculated vibration frequencies, the vibration frequency included in the frequency band peculiar to the vehicle or the like is specified, and the feature point group of the specified vibration frequency is specified.
By amplifying the displacement between the feature points included in the specified feature point group and moving the feature points included in the specified feature point group based on the amplified displacement, the plurality of said. Change each of the frame images of
Output the moving image including the plurality of frame images after the change.
Monitoring methods including that.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019070202A JP7235242B2 (en) | 2019-04-01 | 2019-04-01 | Monitoring system and monitoring method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019070202A JP7235242B2 (en) | 2019-04-01 | 2019-04-01 | Monitoring system and monitoring method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020170907A true JP2020170907A (en) | 2020-10-15 |
JP7235242B2 JP7235242B2 (en) | 2023-03-08 |
Family
ID=72747277
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019070202A Active JP7235242B2 (en) | 2019-04-01 | 2019-04-01 | Monitoring system and monitoring method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7235242B2 (en) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113063484A (en) * | 2021-03-31 | 2021-07-02 | 中煤科工集团重庆研究院有限公司 | Vibration identification amplification method |
CN114646381A (en) * | 2022-03-30 | 2022-06-21 | 西安交通大学 | Rotary mechanical vibration measuring method, system, equipment and storage medium |
WO2023089706A1 (en) * | 2021-11-17 | 2023-05-25 | 日本電信電話株式会社 | Image processing device, image processing method, and program |
WO2023089705A1 (en) * | 2021-11-17 | 2023-05-25 | 日本電信電話株式会社 | Image processing device, image processing method, and program |
Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2010131489A1 (en) * | 2009-05-15 | 2010-11-18 | 株式会社パスコ | Method for detecting damage to a deck of a bridge |
JP2015190270A (en) * | 2014-03-28 | 2015-11-02 | 株式会社Nttファシリティーズ | Bridge monitoring system, bridge monitoring method, and program |
JP2017002658A (en) * | 2015-06-15 | 2017-01-05 | 阪神高速技術株式会社 | Bridge inspection method |
JP2017067721A (en) * | 2015-10-02 | 2017-04-06 | セイコーエプソン株式会社 | Measurement device, measurement method, measurement system and program |
WO2017110278A1 (en) * | 2015-12-25 | 2017-06-29 | 富士フイルム株式会社 | Information processing device and information processing method |
WO2017130700A1 (en) * | 2016-01-26 | 2017-08-03 | 富士フイルム株式会社 | Photography assistance device and photography assistance method |
WO2017130699A1 (en) * | 2016-01-26 | 2017-08-03 | 富士フイルム株式会社 | Crack information detection device, crack information detection method, and crack information detection program |
US20170221216A1 (en) * | 2016-02-01 | 2017-08-03 | Massachusetts Institute Of Technology | Video-Based Identification of Operational Mode Shapes |
US20180067637A1 (en) * | 2014-12-11 | 2018-03-08 | Jeffrey R. Hay | Non-contacting monitor for bridges and civil structures |
CN108458847A (en) * | 2018-01-03 | 2018-08-28 | 东南大学 | A kind of bridge people causes impact load measuring method and its fast testing system |
JP2018138930A (en) * | 2016-02-24 | 2018-09-06 | パナソニックIpマネジメント株式会社 | Displacement detection system and displacement detection method |
-
2019
- 2019-04-01 JP JP2019070202A patent/JP7235242B2/en active Active
Patent Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2010131489A1 (en) * | 2009-05-15 | 2010-11-18 | 株式会社パスコ | Method for detecting damage to a deck of a bridge |
JP2015190270A (en) * | 2014-03-28 | 2015-11-02 | 株式会社Nttファシリティーズ | Bridge monitoring system, bridge monitoring method, and program |
US20180067637A1 (en) * | 2014-12-11 | 2018-03-08 | Jeffrey R. Hay | Non-contacting monitor for bridges and civil structures |
JP2017002658A (en) * | 2015-06-15 | 2017-01-05 | 阪神高速技術株式会社 | Bridge inspection method |
JP2017067721A (en) * | 2015-10-02 | 2017-04-06 | セイコーエプソン株式会社 | Measurement device, measurement method, measurement system and program |
WO2017110278A1 (en) * | 2015-12-25 | 2017-06-29 | 富士フイルム株式会社 | Information processing device and information processing method |
WO2017130700A1 (en) * | 2016-01-26 | 2017-08-03 | 富士フイルム株式会社 | Photography assistance device and photography assistance method |
WO2017130699A1 (en) * | 2016-01-26 | 2017-08-03 | 富士フイルム株式会社 | Crack information detection device, crack information detection method, and crack information detection program |
US20170221216A1 (en) * | 2016-02-01 | 2017-08-03 | Massachusetts Institute Of Technology | Video-Based Identification of Operational Mode Shapes |
JP2018138930A (en) * | 2016-02-24 | 2018-09-06 | パナソニックIpマネジメント株式会社 | Displacement detection system and displacement detection method |
CN108458847A (en) * | 2018-01-03 | 2018-08-28 | 东南大学 | A kind of bridge people causes impact load measuring method and its fast testing system |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113063484A (en) * | 2021-03-31 | 2021-07-02 | 中煤科工集团重庆研究院有限公司 | Vibration identification amplification method |
CN113063484B (en) * | 2021-03-31 | 2022-10-04 | 中煤科工集团重庆研究院有限公司 | Vibration identification amplification method |
WO2023089706A1 (en) * | 2021-11-17 | 2023-05-25 | 日本電信電話株式会社 | Image processing device, image processing method, and program |
WO2023089705A1 (en) * | 2021-11-17 | 2023-05-25 | 日本電信電話株式会社 | Image processing device, image processing method, and program |
CN114646381A (en) * | 2022-03-30 | 2022-06-21 | 西安交通大学 | Rotary mechanical vibration measuring method, system, equipment and storage medium |
CN114646381B (en) * | 2022-03-30 | 2023-01-24 | 西安交通大学 | Rotary mechanical vibration measuring method, system, equipment and storage medium |
Also Published As
Publication number | Publication date |
---|---|
JP7235242B2 (en) | 2023-03-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7235242B2 (en) | Monitoring system and monitoring method | |
JP4958497B2 (en) | Position / orientation measuring apparatus, position / orientation measuring method, mixed reality presentation system, computer program, and storage medium | |
Luo et al. | Edge‐enhanced matching for gradient‐based computer vision displacement measurement | |
JP2011505610A (en) | Method and apparatus for mapping distance sensor data to image sensor data | |
KR20110076899A (en) | Method of and arrangement for blurring an image | |
JP6239186B2 (en) | Display control apparatus, display control method, and display control program | |
US20150302611A1 (en) | Vehicle dimension estimation from vehicle images | |
CN109767453A (en) | Information processing unit, background image update method and non-transient computer readable storage medium | |
JP2018036226A (en) | Image processing program, image processing method, and image processing device | |
JP2013007624A (en) | Displacement observation method and displacement observation system | |
JP2010140425A (en) | Image processing system | |
JP2009140402A (en) | Information display device, information display method, information display program, and recording medium with recorded information display program | |
CN113610702B (en) | Picture construction method and device, electronic equipment and storage medium | |
Min et al. | Non-contact and real-time dynamic displacement monitoring using smartphone technologies | |
US10970876B2 (en) | Methods and apparatus for image locating relative to the global structure | |
US10346706B2 (en) | Image processing device, image processing method, and non-transitory storage medium storing image processing program | |
WO2015005102A1 (en) | Image processing device, image processing method, and image processing program | |
JP2010146522A (en) | Face image tracking device, face image tracking method, and program | |
CN105869413A (en) | Method for measuring traffic flow and speed based on camera video | |
JP2011090708A (en) | Apparatus and method for detecting the number of objects | |
JP5251460B2 (en) | Approaching object detection device, approaching object detection program, approaching object detection method | |
Kim et al. | Real-time assessment of surface cracks in concrete structures using integrated deep neural networks with autonomous unmanned aerial vehicle | |
US20210027481A1 (en) | System, method, and computer-readable medium for managing position of target | |
JP2016115082A (en) | Image search system and image search method | |
CN103900713A (en) | Device and method for detecting thermal image |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190617 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220325 |
|
TRDD | Decision of grant or rejection written | ||
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230118 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230124 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230215 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7235242 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
S531 | Written request for registration of change of domicile |
Free format text: JAPANESE INTERMEDIATE CODE: R313531 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |