JP2020170907A - Monitoring system and monitoring method - Google Patents

Monitoring system and monitoring method Download PDF

Info

Publication number
JP2020170907A
JP2020170907A JP2019070202A JP2019070202A JP2020170907A JP 2020170907 A JP2020170907 A JP 2020170907A JP 2019070202 A JP2019070202 A JP 2019070202A JP 2019070202 A JP2019070202 A JP 2019070202A JP 2020170907 A JP2020170907 A JP 2020170907A
Authority
JP
Japan
Prior art keywords
feature point
unit
point group
image
feature points
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019070202A
Other languages
Japanese (ja)
Other versions
JP7235242B2 (en
Inventor
千壽 三木
Senju Miki
千壽 三木
英彦 関屋
Hidehiko Sekiya
英彦 関屋
秀一 平野
Shuichi Hirano
秀一 平野
翔 中溝
Sho Nakamizo
翔 中溝
翔祐 塚田
Shosuke Tsukada
翔祐 塚田
勲 大宮
Isao Omiya
勲 大宮
瑞樹 葉山
Mizuki Hayama
瑞樹 葉山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Metropolitan Expressway Co Ltd
Gotoh Educational Corp
Highway Technology Research Center
Shutoko Engineering Co Ltd
Original Assignee
Metropolitan Expressway Co Ltd
Gotoh Educational Corp
Highway Technology Research Center
Shutoko Engineering Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Metropolitan Expressway Co Ltd, Gotoh Educational Corp, Highway Technology Research Center, Shutoko Engineering Co Ltd filed Critical Metropolitan Expressway Co Ltd
Priority to JP2019070202A priority Critical patent/JP7235242B2/en
Publication of JP2020170907A publication Critical patent/JP2020170907A/en
Application granted granted Critical
Publication of JP7235242B2 publication Critical patent/JP7235242B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

To make it possible to grasp the deformed state of a member constituting a steel bridge only on the basis of a moving image of the steel bridge.SOLUTION: A monitoring system according to the present invention extracts a plurality of feature points from each of a plurality of frame images included in a moving image of a steel bridge on which a vehicle or the like travels, calculates the vibration frequency of the feature point group on the basis of the displacement between the feature points included in the feature point group including a plurality of feature points, identifies the vibration frequency included in the frequency band unique to the vehicle, etc., from among the calculated vibration frequencies, identifies the feature point group of the identified vibration frequency, amplifies the displacement between the feature points included in the identified feature point group, changes each of the plurality of frame images by moving the feature points included in the specified feature point group on the basis of the amplified displacement, and outputs a moving image including a plurality of frame images after the change.SELECTED DRAWING: Figure 1

Description

本発明は、監視システム及び監視方法に関する。 The present invention relates to a monitoring system and a monitoring method.

鋼橋に生じる損傷は、車両等の走行による活荷重が原因である場合が多く、例えば、鋼橋の疲労き裂は、車両等の走行によって鋼橋を構成する部材が変形し、特定箇所に応力集中が発生することによって発生する。このため、部材の変形状態を特定することは、補修補強の計画を策定する上で重要である。また、車両等の走行と疲労き裂とが密接に関係しているため、補修補強の計画を策定の際に、鋼橋を構成する部材に対する外力の作用位置も特定することも重要である。 Damage to a steel bridge is often caused by the live load caused by the running of a vehicle or the like. For example, a fatigue crack in a steel bridge causes the members constituting the steel bridge to be deformed by the running of a vehicle or the like to a specific location. It is generated by the occurrence of stress concentration. Therefore, it is important to identify the deformed state of the member in formulating a repair and reinforcement plan. In addition, since the running of vehicles and fatigue cracks are closely related, it is also important to specify the position of external force acting on the members that make up the steel bridge when formulating a repair and reinforcement plan.

鋼橋を構成する部材の変形を特定するためには、例えば、車両等の走行によって生じたひずみ応答及び/又は変位応答の計測結果に基づいて部材の変形状態を推定すること、又は、有限要素法によって橋梁の部材の変形状態を推定すること、等が必要である。 In order to specify the deformation of the members constituting the steel bridge, for example, the deformation state of the members is estimated based on the measurement results of the strain response and / or the displacement response generated by the running of a vehicle or the like, or a finite element. It is necessary to estimate the deformation state of the bridge members by the method.

例えば、特許文献1には、橋脚等の大規模構造物又は建築物等の予防及び保全のために、測定対象の構造物又は建築物にひずみゲージを貼付け、構造物又は建築物に生じたひずみ応答を、ひずみゲージによって測定する方法が開示されている。 For example, in Patent Document 1, a strain gauge is attached to a structure or a building to be measured for prevention and maintenance of a large-scale structure such as a pier or a building, and the strain generated in the structure or the building is attached. A method of measuring the response with a strain gauge is disclosed.

また、特許文献2には、橋梁の有限要素(Finite Element Method,FEM)モデルを作成し、公知の有限要素解析ソフトウェアを用いて橋梁の部材の変形状態を解析的に推定する方法が開示されている。 Further, Patent Document 2 discloses a method of creating a finite element (FEM) model of a bridge and analytically estimating the deformation state of a member of the bridge using known finite element analysis software. There is.

特開2005−291999号公報Japanese Unexamined Patent Publication No. 2005-291999 特開2007−270552号公報JP-A-2007-270552

しかしながら、従来のひずみ応答等の計測結果に基づく推定方法では、ひずみゲージを設置するために橋梁の部材の対応箇所の塗膜を剥がなくてはならず、且つ、接触式変位計等を用いた変位測定が実施されることが多いため、計測に要する時間及び費用が掛かり、計測自体が困難となることがあった。 However, in the conventional estimation method based on the measurement results such as strain response, the coating film at the corresponding portion of the bridge member must be peeled off in order to install the strain gauge, and a contact type displacement gauge or the like is used. Since displacement measurement is often performed, the time and cost required for the measurement are long, and the measurement itself may be difficult.

また、従来の有限要素法による推定方法では、FEMモデルの作成に要する時間が多大であり、推定自体に時間が掛かるという問題が生じるとともに、対象となる橋梁の実構造とは異なる仮定の構造を前提とした解析が行われるため、解析結果が実現象とは相違してしまうことがあった。 In addition, the conventional estimation method using the finite element method requires a large amount of time to create an FEM model, which causes a problem that the estimation itself takes time, and a hypothetical structure different from the actual structure of the target bridge is used. Since the analysis is performed on the premise, the analysis result may differ from the actual phenomenon.

さらに、車両等の走行位置を特定するためには、道路の路面を撮影する必要があるが、歩道部等の撮影箇所の確保が困難な高速道路等ではカメラを設置できないため、撮影できない路面区間が発生することもあった。 Furthermore, in order to identify the traveling position of a vehicle or the like, it is necessary to photograph the road surface, but it is not possible to install a camera on a highway or the like where it is difficult to secure a shooting location such as a sidewalk. Occasionally occurred.

本発明は、このような従来の課題を解決すべくなされたものであり、鋼橋を撮影した動画像のみに基づいて、鋼橋を構成する部材の変形状態を把握することを可能とする監視システム及び監視方法を提供することを目的とする。 The present invention has been made to solve such a conventional problem, and is capable of grasping the deformed state of the members constituting the steel bridge based only on the moving image of the steel bridge. The purpose is to provide a system and monitoring method.

本発明に係る監視システムは、車両等が走行する鋼橋を撮影した動画像を撮影装置から取得する取得部と、動画像に含まれる複数のフレーム画像のそれぞれから複数の特徴点を抽出する抽出部と、複数のフレーム画像のうちの2のフレーム画像において、所定のフレーム画像に含まれる一の特徴点と同一であると見做される、他のフレームに含まれる一の特徴点を判定し、同一であると見做される複数の特徴点を含む特徴点グループを作成する作成部と、特徴点グループごとに、各特徴点グループに含まれる特徴点間の変位に基づいて、各特徴点グループの振動周波数を算出する算出部と、算出された振動周波数のうち、車両等に固有の周波数帯に含まれる振動周波数を特定し、特定された振動周波数の特徴点グループを特定する特定部と、特定された特徴点グループに含まれる特徴点間の変位を増幅させ、増幅された変位に基づいて、特定された特徴点グループに含まれる特徴点を移動させることにより、複数のフレーム画像のそれぞれを変化させる画像処理部と、変化後の複数のフレーム画像を含む動画像を出力する出力部と、を有する。 The monitoring system according to the present invention has an acquisition unit that acquires a moving image of a steel bridge on which a vehicle or the like is traveling from a photographing device, and an extraction that extracts a plurality of feature points from each of a plurality of frame images included in the moving image. In the unit and two frame images of the plurality of frame images, one feature point included in another frame, which is considered to be the same as one feature point included in the predetermined frame image, is determined. , A creation unit that creates a feature point group containing a plurality of feature points that are considered to be the same, and each feature point group based on the displacement between the feature points included in each feature point group. A calculation unit that calculates the vibration frequency of the group, and a specific unit that specifies the vibration frequency included in the frequency band unique to the vehicle, etc., and specifies the feature point group of the specified vibration frequency among the calculated vibration frequencies. By amplifying the displacement between the feature points included in the specified feature point group and moving the feature points included in the specified feature point group based on the amplified displacement, each of the plurality of frame images. It has an image processing unit that changes the number of frames, and an output unit that outputs a moving image including a plurality of frame images after the change.

また、本発明に係る監視システムにおいて、車両等の走行に起因する鋼橋の部材の変形モードに関する情報と、変形モードに対応する部材の補修補強方法に関する情報とを記憶する記憶部と、変化後のフレーム画像に基づいて、鋼橋の部材の変形モードを判定するモード判定部と、を更に有し、出力部は、判定された変形モードに対応する補修補強方法に関する情報を記憶部から抽出し、抽出した補修補強方法に関する情報を出力することが好ましい。 Further, in the monitoring system according to the present invention, a storage unit that stores information on the deformation mode of the steel bridge member due to the running of a vehicle or the like and information on the repair and reinforcement method of the member corresponding to the deformation mode, and after the change. The output unit further has a mode determination unit for determining the deformation mode of the steel bridge member based on the frame image of the above, and the output unit extracts information on the repair and reinforcement method corresponding to the determined deformation mode from the storage unit. , It is preferable to output information on the extracted repair and reinforcement method.

また、本発明に係る監視システムにおいて、複数のフレーム画像のそれぞれについて、特徴点グループに含まれる特徴点を抽出し、抽出された特徴点のうち、互いの距離が第1距離内の2つの特徴点を含む近距離グループを作成し、少なくとも一つの特徴点が共通する複数の近距離グループを抽出して、抽出した複数の近距離グループを統合した新たな近距離グループを作成し、複数の近距離グループが抽出されなくなるまで、新たな近距離グループの作成を繰り返し、近距離グループに含まれる特徴点のうち、対応する変位が最も大きい特徴点を、当該車両等の輪位置として特定する、位置特定部を有し、出力部は、特定された輪位置を示す軌跡画像を、対応するフレーム画像に重畳することで、車両等の輪位置が特定された動画像を出力することが好ましい。 Further, in the monitoring system according to the present invention, feature points included in the feature point group are extracted for each of the plurality of frame images, and among the extracted feature points, two features whose distances from each other are within the first distance. Create a short-distance group including points, extract multiple short-distance groups that have at least one feature point in common, create a new short-distance group that integrates the extracted multiple short-distance groups, and create multiple short-distance groups. A position where a new short-distance group is repeatedly created until the distance group is no longer extracted, and the feature point having the largest corresponding displacement among the feature points included in the short-distance group is specified as the wheel position of the vehicle or the like. It is preferable that the output unit has a specific unit and outputs a moving image in which the wheel position of a vehicle or the like is specified by superimposing a locus image indicating the specified wheel position on the corresponding frame image.

また、本発明に係る監視システムにおいて、取得部は、ユーザによって入力された動画像に含まれる鋼橋の部材の損傷発生位置を取得し、位置特定部は、近距離グループに含まれる特徴点のうち、対応する変位が最も大きい特徴点であって、損傷発生位置から第2距離内の特徴点を、損傷発生に影響を与えた車両等の輪位置として特定することが好ましい。 Further, in the monitoring system according to the present invention, the acquisition unit acquires the damage occurrence position of the steel bridge member included in the moving image input by the user, and the position identification unit is the feature point included in the short-distance group. Of these, it is preferable to specify the feature point having the largest corresponding displacement and within the second distance from the damage occurrence position as the wheel position of the vehicle or the like that has influenced the damage occurrence.

また、本発明に係る監視システムにおいて、取得部は、損傷発生位置の近傍に設置されたひずみ測定装置から出力されたひずみ応答データを測定時刻とともに取得し、出力部は、動画像の撮影時刻と測定時刻とに基づいて、動画像と同期させたひずみ応答データを出力することが好ましい。 Further, in the monitoring system according to the present invention, the acquisition unit acquires the strain response data output from the strain measuring device installed near the damage occurrence position together with the measurement time, and the output unit determines the shooting time of the moving image. It is preferable to output the strain response data synchronized with the moving image based on the measurement time.

本発明に係る監視方法は、監視システムが実行する監視方法であって、車両等が走行する鋼橋を撮影した動画像を撮影装置から取得し、動画像に含まれる複数のフレーム画像のそれぞれから複数の特徴点を抽出し、複数のフレーム画像のうちの2のフレーム画像において、所定のフレーム画像に含まれる一の特徴点と同一であると見做される、他のフレームに含まれる一の特徴点を判定し、同一であると見做される複数の特徴点を含む特徴点グループを作成し、特徴点グループごとに、各特徴点グループに含まれる特徴点間の変位に基づいて、各特徴点グループの振動周波数を算出し、算出された振動周波数のうち、車両等に固有の周波数帯に含まれる振動周波数を特定し、特定された振動周波数の特徴点グループを特定し、特定された特徴点グループに含まれる特徴点間の変位を増幅させ、増幅された変位に基づいて、特定された特徴点グループに含まれる特徴点を移動させることにより、複数のフレーム画像のそれぞれを変化させ、変化後の複数のフレーム画像を含む動画像を出力する、ことを含む。 The monitoring method according to the present invention is a monitoring method executed by a monitoring system, in which a moving image of a steel bridge on which a vehicle or the like is traveling is acquired from a photographing device and is taken from each of a plurality of frame images included in the moving image. A plurality of feature points are extracted, and in two frame images of the plurality of frame images, one feature point included in another frame, which is considered to be the same as one feature point included in a predetermined frame image. The feature points are determined, a feature point group including a plurality of feature points considered to be the same is created, and each feature point group is based on the displacement between the feature points included in each feature point group. The vibration frequency of the feature point group was calculated, and among the calculated vibration frequencies, the vibration frequency included in the frequency band peculiar to the vehicle or the like was specified, and the feature point group of the specified vibration frequency was specified and specified. By amplifying the displacement between the feature points included in the feature point group and moving the feature points included in the specified feature point group based on the amplified displacement, each of the plurality of frame images is changed. It includes outputting a moving image including a plurality of frame images after the change.

本発明に係る監視システム及び監視方法によって、鋼橋を撮影した動画像のみに基づいて、鋼橋を構成する部材の変形状態を把握することが可能となる。 According to the monitoring system and the monitoring method according to the present invention, it is possible to grasp the deformed state of the members constituting the steel bridge based only on the moving image of the steel bridge.

監視システムの概要を説明するための模式図である。It is a schematic diagram for demonstrating the outline of a monitoring system. 監視システムの概要を説明するための模式図である。It is a schematic diagram for demonstrating the outline of a monitoring system. 監視システム1の概略構成の一例を示す図である。It is a figure which shows an example of the schematic structure of the monitoring system 1. 情報処理装置3の概略構成の一例を示す図である。It is a figure which shows an example of the schematic structure of the information processing apparatus 3. (a)は、動画像に含まれるフレーム画像の一例を示す図であり、(b)は、抽出特徴点テーブルT1のデータ構造の一例を示す図である。(A) is a diagram showing an example of a frame image included in a moving image, and (b) is a diagram showing an example of a data structure of the extraction feature point table T1. (a)は、対応特徴点テーブルT2のデータ構造の一例を示す図であり、(b)は、特徴点グループテーブルT3のデータ構造の一例を示す図である。(A) is a diagram showing an example of the data structure of the corresponding feature point table T2, and (b) is a diagram showing an example of the data structure of the feature point group table T3. (a)は、振動周波数帯テーブルT4のデータ構造の一例を示す図であり、(b)は、増幅特徴点テーブルT5のデータ構造の一例を示す図である。(A) is a diagram showing an example of the data structure of the vibration frequency band table T4, and (b) is a diagram showing an example of the data structure of the amplification feature point table T5. (a)は、輪位置テーブルT6のデータ構造の一例を示す図であり、(b)は、軌跡画像が重畳されたフレーム画像の一例を示す図である。(A) is a diagram showing an example of the data structure of the wheel position table T6, and (b) is a diagram showing an example of a frame image on which a locus image is superimposed. (a)は、主桁ウェブの面内変形が撮影された変化後のフレーム画像の一例を説明するための模式図であり、(b)は、床板の面外変形が撮影された変化後のフレーム画像の一例を示す図である。(A) is a schematic view for explaining an example of the frame image after the change in which the in-plane deformation of the main girder web is photographed, and (b) is the change after the in-plane deformation of the floor plate is photographed. It is a figure which shows an example of a frame image. 補修補強方法テーブルT7のデータ構造の一例を示す図である。It is a figure which shows an example of the data structure of the repair reinforcement method table T7. 監視システム1による監視方法の動作フローの一例を示す図である。It is a figure which shows an example of the operation flow of the monitoring method by the monitoring system 1.

以下、図面を参照しつつ、本発明の様々な実施形態について説明する。ただし、本発明の技術的範囲はそれらの実施形態に限定されず、特許請求の範囲に記載された発明とその均等物に及ぶ点に留意されたい。 Hereinafter, various embodiments of the present invention will be described with reference to the drawings. However, it should be noted that the technical scope of the present invention is not limited to those embodiments, but extends to the inventions described in the claims and their equivalents.

(監視システムの概要)
図1及び図2は、本実施形態の監視システムの概要を説明するための模式図である。
(Overview of monitoring system)
1 and 2 are schematic views for explaining the outline of the monitoring system of the present embodiment.

監視システムは、鋼橋の一部又は全部を撮影するための撮影装置及び当該撮影装置によって撮影された動画像情報を処理する情報処理装置を有する。例えば、撮影装置は、車両等が走行する鋼橋の路面下部の床版の裏面を撮影できるように、撮影対象の道路橋梁等の下の地面に設置される。撮影対象が箱桁橋である場合、撮影装置は、箱桁橋の箱桁内部に設置されてもよい。撮影装置は、鋼橋のどの部材を撮影するものであってもよい。 The monitoring system includes a photographing device for photographing a part or all of the steel bridge and an information processing device for processing moving image information photographed by the photographing device. For example, the photographing device is installed on the ground under the road bridge or the like to be photographed so that the back surface of the floor slab under the road surface of the steel bridge on which the vehicle or the like travels can be photographed. When the object to be photographed is a box girder bridge, the photographing device may be installed inside the box girder of the box girder bridge. The photographing device may photograph any member of the steel bridge.

撮影装置は、所定の撮影方向の撮影対象空間を所定の時間間隔で撮影する。所定の時間間隔は1/30秒であり、撮影装置は、1/30秒ごとに所定の撮影方向の撮影対象空間を撮影した動画像情報を出力する。なお、所定の時間間隔は、1秒、1/5秒、又は1/50秒等でもよい。情報処理装置は、例えば、パーソナルコンピュータ(Personal Computer,PC)、サーバ装置等のコンピュータである。情報処理装置は、撮影装置から動画像情報を取得し、各種の情報処理を実行する機能を有するものであれば、どのような情報処理装置であってもよい。 The photographing device photographs the space to be photographed in a predetermined shooting direction at predetermined time intervals. The predetermined time interval is 1/30 second, and the photographing device outputs moving image information obtained by photographing the imaging target space in the predetermined imaging direction every 1/30 second. The predetermined time interval may be 1 second, 1/5 second, 1/50 second, or the like. The information processing device is, for example, a computer such as a personal computer (PC) or a server device. The information processing device may be any information processing device as long as it has a function of acquiring moving image information from a photographing device and executing various types of information processing.

情報処理装置は、撮影装置から記憶媒体を介して、撮影装置によって撮影された動画像情報を取得する。撮影装置及び情報処理装置が有線又は無線の通信機能を有する場合、情報処理装置は、当該通信機能を用いて撮影装置から動画像情報を取得してもよい。以下、動画像情報を、単に動画像と称する場合がある。 The information processing device acquires moving image information captured by the photographing device from the photographing device via a storage medium. When the photographing device and the information processing device have a wired or wireless communication function, the information processing device may acquire moving image information from the photographing device by using the communication function. Hereinafter, the moving image information may be simply referred to as a moving image.

図1の(1)は、動画像に含まれるフレーム画像の一例を示す図である。フレーム画像は、所定の時間間隔で撮影された静止画像である。例えば、動画像の所定時間間隔が1/30秒である場合、当該動画像には1秒間に30のフレーム画像が含まれる。図1の(1)に示すフレーム画像の例では、鋼床版の裏面に配置された、主桁ウェブ、Uリブ、デッキプレート、横リブ等が撮影されている。 FIG. 1 (1) is a diagram showing an example of a frame image included in a moving image. The frame image is a still image taken at a predetermined time interval. For example, when the predetermined time interval of the moving image is 1/30 second, the moving image includes 30 frame images per second. In the example of the frame image shown in FIG. 1 (1), the main girder web, the U rib, the deck plate, the horizontal rib, etc. arranged on the back surface of the steel deck plate are photographed.

情報処理装置は、撮影装置から動画像を取得すると、当該動画像に含まれる複数のフレーム画像のそれぞれから複数の特徴点を抽出する。例えば、情報処理装置は、動画像に含まれる最初のフレーム画像から所定の特徴点抽出法を用いて特徴点を抽出し、以降、撮影された順番に従い、各フレーム画像から所定の特徴点抽出法を用いて特徴点を順次抽出する。情報処理装置は、動画像に含まれる最後のフレーム画像から所定の特徴点抽出法を用いて特徴点を抽出すると、特徴点の抽出処理を終了する。所定の特徴点抽出方法は、例えば、SIFT(Scale-Invariant Feature Transform)法、又は、SURF(Speeded Up Robust Features)法等である。 When the information processing device acquires a moving image from the photographing device, the information processing device extracts a plurality of feature points from each of the plurality of frame images included in the moving image. For example, the information processing device extracts feature points from the first frame image included in the moving image by using a predetermined feature point extraction method, and thereafter, according to the order in which the images are taken, a predetermined feature point extraction method is used. The feature points are sequentially extracted using. When the information processing apparatus extracts the feature points from the last frame image included in the moving image by using a predetermined feature point extraction method, the information processing apparatus ends the feature point extraction process. The predetermined feature point extraction method is, for example, a SIFT (Scale-Invariant Feature Transform) method, a SURF (Speeded Up Robust Features) method, or the like.

情報処理装置は、特徴点の抽出処理が終了すると、複数のフレーム画像のうちの2のフレーム画像を特定する。2のフレーム画像は、連続する2つのフレーム画像である。連続する2のフレーム画像は、例えば、最初(1番目)のフレーム画像及び2番目のフレーム画像、又は、2番目のフレーム画像及び3番目のフレーム画像等である。フレーム画像の数が1000であり且つ全てのフレーム画像が処理対象である場合、2のフレーム画像の組の数は999である。 When the feature point extraction process is completed, the information processing device identifies two frame images out of the plurality of frame images. The two frame images are two consecutive frame images. The two consecutive frame images are, for example, the first (first) frame image and the second frame image, or the second frame image and the third frame image. When the number of frame images is 1000 and all the frame images are the processing targets, the number of sets of 2 frame images is 999.

2のフレーム画像は、撮影時刻が所定時間(例えば1/10秒)以内である2つのフレーム画像でもよい。例えば、2つのフレーム画像のうちの先のフレーム画像が最初(1番目)のフレーム画像である場合、2つのフレーム画像のうちの後のフレーム画像は、先のフレーム画像が撮影された撮影時刻から1/10秒後に撮影されたフレーム画像でもよい。所定時間は、後述する振動周波数が算出され得る時間であれば、どのような時間であってもよい。以降、特定された2のフレーム画像のそれぞれを、対象フレーム画像と称する場合がある。 The two frame images may be two frame images whose shooting time is within a predetermined time (for example, 1/10 second). For example, if the first frame image of the two frame images is the first (first) frame image, the second frame image of the two frame images is from the shooting time when the first frame image was taken. It may be a frame image taken after 1/10 second. The predetermined time may be any time as long as the vibration frequency described later can be calculated. Hereinafter, each of the two specified frame images may be referred to as a target frame image.

情報処理装置は、先の対象フレーム画像から抽出された特徴点と対応する、後の対象フレーム画像から抽出された特徴点を判定する。情報処理装置は、先の対象フレーム画像から抽出された特徴点及び後の対象フレーム画像から抽出された特徴点の輝度を算出し、Lucas−Kanade法等を用いて、先の対象フレーム画像から抽出された特徴点と同一であると見做すことができる、後の対象フレーム画像から抽出された特徴点を判定する。 The information processing device determines the feature points extracted from the later target frame image that correspond to the feature points extracted from the earlier target frame image. The information processing device calculates the brightness of the feature points extracted from the previous target frame image and the brightness of the feature points extracted from the later target frame image, and extracts the feature points from the previous target frame image by using the Lucas-Kanade method or the like. The feature points extracted from the later target frame image, which can be regarded as the same as the feature points, are determined.

情報処理装置は、対応する2の特徴点を含むグループを作成する。以降、当該グループを対応特徴点グループと称する場合がある。 The information processing device creates a group including the corresponding two feature points. Hereinafter, the group may be referred to as a corresponding feature point group.

情報処理装置は、作成された複数の対応特徴点グループを参照し、共通する特徴点を含む複数のグループを一つのグループに統合する。1番目のフレーム画像の特徴点A及び2番目のフレーム画像の特徴点Bを含む対応特徴点グループXと、2番目のフレーム画像の特徴点B及び3番目のフレーム画像の特徴点Cを含む対応特徴点グループYとが作成された場合を例に説明する。両特徴点グループX及びYは、共に特徴点Bを含むため、両特徴点グループX及びYを統合した新たな特徴点グループが作成される。新たな特徴点グループには、特徴点A、特徴点B及び特徴点Cが含まれる。新たな特徴点グループと、他の対応特徴点グループ又は他の新たな特徴点グループとが共通する特徴点を含む場合、共通する特徴点を有するグループを統合することで新たな特徴点グループが作成される。以降、対応特徴点グループ及び特徴点グループを、単にグループと称する場合がある。 The information processing device refers to the created plurality of corresponding feature point groups, and integrates the plurality of groups including the common feature points into one group. Correspondence including feature point A of the first frame image and feature point B of the second frame image Correspondence feature point group X including feature point B of the second frame image and feature point C of the third frame image The case where the feature point group Y is created will be described as an example. Since both feature point groups X and Y include feature points B, a new feature point group is created by integrating both feature point groups X and Y. The new feature point group includes feature point A, feature point B and feature point C. When a new feature point group contains a feature point that is common to another corresponding feature point group or another new feature point group, a new feature point group is created by integrating the groups having the common feature point. Will be done. Hereinafter, the corresponding feature point group and the feature point group may be simply referred to as a group.

情報処理装置は、上述の統合処理を繰り返して実行することによって、それぞれが同一と見做すことができる複数の特徴点を含む特徴点グループを作成する。 The information processing apparatus creates a feature point group including a plurality of feature points, each of which can be regarded as the same, by repeatedly executing the above-mentioned integrated process.

情報処理装置は、特徴点グループごとに、各特徴点グループに含まれる特徴点間の変位に基づいて、各特徴点グループの振動周波数(1秒間の振動数)を算出する。図1の(2)には、特徴点グループに含まれる複数の特徴点A,B,C,及びDと、特徴点間の変位が示されている。図1の(2)に示す例では、複数の特徴点A,B,C,及びDは、それぞれ異なるフレーム画像から抽出された特徴点であり且つ同一と見做すことができる特徴点であり、路面上を走行する車両等を起因として、所定の振動周波数で振動していることが示されている。 The information processing device calculates the vibration frequency (frequency per second) of each feature point group based on the displacement between the feature points included in each feature point group for each feature point group. FIG. 1 (2) shows a plurality of feature points A, B, C, and D included in the feature point group, and displacements between the feature points. In the example shown in FIG. 1 (2), the plurality of feature points A, B, C, and D are feature points extracted from different frame images and can be regarded as the same. , It is shown that the vehicle vibrates at a predetermined vibration frequency due to a vehicle traveling on the road surface or the like.

情報処理装置は、特徴点A及びB間の変位、特徴点B及びC間の変位、並びに特徴点C及びD間の変位に基づいて、特徴点グループの振動周波数を算出する。 The information processing device calculates the vibration frequency of the feature point group based on the displacement between the feature points A and B, the displacement between the feature points B and C, and the displacement between the feature points C and D.

路面上を走行する車両等を起因として発生する振動の周波数帯は、例えば、0.4Hz〜3.0Hzの周波数帯、及び、2.0Hz〜20Hz等の公知の周波数帯である。情報処理装置は、算出された振動周波数のうち、車両等に固有の周波数帯に含まれる振動周波数を特定し、特定された振動周波数の特徴点グループを特定する。 The frequency band of vibration generated due to a vehicle or the like traveling on a road surface is, for example, a frequency band of 0.4 Hz to 3.0 Hz and a known frequency band of 2.0 Hz to 20 Hz. The information processing device specifies the vibration frequency included in the frequency band peculiar to the vehicle or the like among the calculated vibration frequencies, and specifies the feature point group of the specified vibration frequency.

情報処理装置は、特定された特定された特徴点グループに含まれる特徴点間の変位を増幅させる。例えば、図1の(3)に示す例では、振動周波数が0.4Hz〜3.0Hzの周波数帯に含まれる場合、当該振動周波数の特徴点グループに含まれる特徴点間の変位を増幅させる。例えば、情報処理装置は、対象フレーム画像ごとに、各特徴点に対応する画素を、増幅後の変位に基づいて移動させるとともに、変位を増幅させる特徴点の間の画素を、各特徴点に対応する画素の移動に合わせて移動させる。 The information processing device amplifies the displacement between the feature points included in the identified identified feature point group. For example, in the example shown in FIG. 1 (3), when the vibration frequency is included in the frequency band of 0.4 Hz to 3.0 Hz, the displacement between the feature points included in the feature point group of the vibration frequency is amplified. For example, the information processing device moves the pixels corresponding to each feature point for each target frame image based on the displacement after amplification, and the pixels between the feature points for amplifying the displacement correspond to each feature point. Move according to the movement of the pixel to be processed.

図1の(4)は、増幅処理前の対象フレーム画像の一例であり、図1の(5)は、増幅処理後の対象フレーム画像の一例である。図1の(4)に示す対象フレーム画像のように、増幅処理前の対象フレーム画像における振動は微細であるため、ユーザ(道路管理者等)は、当該画像内で振動を把握し得ない。一方、図1の(5)に示す対象フレーム画像では、振動による変位が大きくなっているため、ユーザは、当該画像内で振動を把握することができる。 FIG. 1 (4) is an example of the target frame image before the amplification process, and FIG. 1 (5) is an example of the target frame image after the amplification process. Since the vibration in the target frame image before the amplification process is minute as in the target frame image shown in FIG. 1 (4), the user (road manager or the like) cannot grasp the vibration in the image. On the other hand, in the target frame image shown in FIG. 1 (5), the displacement due to vibration is large, so that the user can grasp the vibration in the image.

情報処理装置は、全て又は一部の対象フレーム画像において増幅処理を行った後、増幅処理後の対象フレーム画像を含む動画像を作成し、作成された動画像を表示出力する。 The information processing device performs amplification processing on all or part of the target frame images, creates a moving image including the target frame image after the amplification processing, and displays and outputs the created moving image.

図2の(1)、(2)及び(3)は、動画像の表示出力画面を、時系列に従って示した例である。図2の(1)、(2)及び(3)に示すように、表示出力された動画像は、増幅処理によって変化した対象フレーム画像を含むため、ユーザ(道路管理者等)は、表示出力された動画像によって、車両等の走行に追従するように変位箇所が移動していることを把握することができる。 (1), (2) and (3) of FIG. 2 are examples in which the display and output screens of moving images are shown in chronological order. As shown in (1), (2), and (3) of FIG. 2, since the moving image displayed and output includes the target frame image changed by the amplification process, the user (road manager, etc.) can display and output the moving image. It is possible to grasp that the displacement portion is moving so as to follow the running of the vehicle or the like from the moving image.

以上で詳述したとおり、監視システムでは、鋼橋を撮影した動画像のみに基づいて、鋼橋を構成する部材の変形状態を把握することが可能となる。また、鋼橋を構成する部材の変形状態を把握することができるようになるため、ユーザ(道路管理者等)は、鋼橋の補修補強方法を容易に判定することが可能になる。 As described in detail above, in the monitoring system, it is possible to grasp the deformed state of the members constituting the steel bridge based only on the moving image of the steel bridge. Further, since the deformed state of the members constituting the steel bridge can be grasped, the user (road manager or the like) can easily determine the repair and reinforcement method of the steel bridge.

なお、上述した図1及び図2の説明は、本発明の内容への理解を深めるための説明にすぎない。本発明は、具体的には、次に説明する各実施形態において実施され、且つ、本発明の原則を実質的に超えずに、さまざまな変形例によって実施されてもよい。このような変形例はすべて、本発明および本明細書の開示範囲に含まれる。 The above-mentioned explanations of FIGS. 1 and 2 are merely explanations for deepening the understanding of the contents of the present invention. Specifically, the present invention may be carried out in each of the embodiments described below, and may be carried out by various modifications without substantially exceeding the principles of the present invention. All such variations are included within the scope of the present invention and the present specification.

(監視システム1)
図3は、監視システム1の概略構成の一例を示す図である。監視システム1は、撮影装置2及び情報処理装置3を有する。
(Monitoring system 1)
FIG. 3 is a diagram showing an example of a schematic configuration of the monitoring system 1. The monitoring system 1 includes a photographing device 2 and an information processing device 3.

撮影装置2は、所定の画角を有する光学系と撮像素子と画像処理部とを有する。光学系は、例えば光学レンズであり、被写体からの光束を撮像素子の撮像面上に結像させる。なお、光学系は複数設けられてもよく、例えば、撮影装置2は、二系統の光学系を設けたステレオカメラでも、三系統の光学系を設けた三眼カメラでもよい。 The photographing device 2 includes an optical system having a predetermined angle of view, an image pickup device, and an image processing unit. The optical system is, for example, an optical lens, and a light flux from a subject is imaged on an image pickup surface of an image pickup device. A plurality of optical systems may be provided. For example, the photographing device 2 may be a stereo camera provided with two optical systems or a trinocular camera provided with three optical systems.

撮像素子は、CCD(Charge Coupled Device)又はCMOS(Complementary Metal Oxide Semiconductor)等であり、撮像面上に結像した被写体像の画像を出力する。画像処理部は、連続して撮像素子によって生成された画像から、ファイル形式の動画像を作成して出力する。 The image pickup device is a CCD (Charge Coupled Device), CMOS (Complementary Metal Oxide Semiconductor), or the like, and outputs an image of a subject image formed on the image pickup surface. The image processing unit continuously creates and outputs a moving image in a file format from the images generated by the image sensor.

撮影装置2は、可搬型記録媒体Mを着脱可能に保持する撮影装着部(図示せず)を備える。可搬型記録媒体MがSDメモリカードである場合は、撮影装着部はSDメモリカードスロットを備える。撮影装着部は、装着された可搬型記録媒体Mに動画像を記録する機能を有する。なお、可搬型記録媒体MがDVD−ROMである場合は、撮影装着部はDVD−ROMドライブを備える。 The photographing device 2 includes a photographing mounting portion (not shown) that holds the portable recording medium M detachably. When the portable recording medium M is an SD memory card, the photographing mounting unit includes an SD memory card slot. The photographing mounting unit has a function of recording a moving image on the mounted portable recording medium M. When the portable recording medium M is a DVD-ROM, the photographing mounting unit includes a DVD-ROM drive.

撮影装置2は、所定の送信時間間隔ごとに、出力した動画像を、無線又は有線の通信ネットワークを介して情報処理装置3に、送信する撮影送信部(図示せず)を備えてもよい。所定の送信時間間隔は10秒である。なお、所定の送信時間間隔は、5秒、15秒、30秒、1分でもよい。 The photographing device 2 may include a photographing transmission unit (not shown) that transmits the output moving image to the information processing device 3 via a wireless or wired communication network at predetermined transmission time intervals. The predetermined transmission time interval is 10 seconds. The predetermined transmission time interval may be 5 seconds, 15 seconds, 30 seconds, or 1 minute.

情報処理装置3は、パーソナルコンピュータ(Personal Computer, PC)又はサーバ装置である。情報処理装置3は、情報処理装置3は、本発明が適用可能であればよく、例えば、多機能携帯電話(所謂「スマートフォン」)、携帯電話(所謂「フィーチャーフォン」)や携帯情報端末(Personal Digital Assistant, PDA)、携帯ゲーム機、携帯音楽プレーヤ、タブレット端末、タブレットPC、ノートPC等でもよい。 The information processing device 3 is a personal computer (PC) or a server device. The information processing device 3 may be the information processing device 3 as long as the present invention can be applied. For example, a multifunctional mobile phone (so-called "smartphone"), a mobile phone (so-called "feature phone"), or a personal digital assistant (Personal). Digital Assistant, PDA), portable game machines, portable music players, tablet terminals, tablet PCs, notebook PCs, etc. may be used.

情報処理装置3は、鋼橋の一部(車両等が走行する路面下部の床版等)又は全部の裏面を撮影した動画像が記録された可搬型記録媒体Mから動画像を取得し、取得した動画像に対する各種の情報処理を実行する。 The information processing device 3 acquires a moving image from a portable recording medium M on which a moving image of a part (such as a floor slab under the road surface on which a vehicle or the like travels) or the entire back surface of the steel bridge is recorded. It executes various information processing on the moving image.

(情報処理装置3)
図4は、情報処理装置3の概略構成の一例を示す図である。
(Information processing device 3)
FIG. 4 is a diagram showing an example of a schematic configuration of the information processing device 3.

情報処理装置3は、撮影装置2から取得した動画像に含まれる複数のフレーム画像を変化させる機能を有する。この機能を実現するために、情報処理装置3は、記憶部31と、操作部32と、表示部33と、装着部34と、処理部35とを備える。 The information processing device 3 has a function of changing a plurality of frame images included in the moving image acquired from the photographing device 2. In order to realize this function, the information processing device 3 includes a storage unit 31, an operation unit 32, a display unit 33, a mounting unit 34, and a processing unit 35.

記憶部31は、例えば、半導体メモリ、磁気ディスク装置及び光ディスク装置のうちの少なくとも一つを有する。記憶部31は、処理部35による処理に用いられるドライバプログラム、オペレーティングシステムプログラム、アプリケーションプログラム、データ等を記憶する。例えば、記憶部31は、ドライバプログラムとして、表示部33を制御する表示デバイスドライバプログラム、装着部34を制御する情報記録/読出デバイスドライバプログラム等を記憶する。各種プログラムは、例えばCD−ROM、DVD−ROM等のコンピュータ読み取り可能な可搬型記録媒体から、公知のセットアッププログラム等を用いて記憶部31にインストールされてもよい。なお、記憶部31は、データとして、後述する各種テーブル等を記憶する。 The storage unit 31 has, for example, at least one of a semiconductor memory, a magnetic disk device, and an optical disk device. The storage unit 31 stores a driver program, an operating system program, an application program, data, and the like used for processing by the processing unit 35. For example, the storage unit 31 stores, as a driver program, a display device driver program that controls the display unit 33, an information recording / reading device driver program that controls the mounting unit 34, and the like. The various programs may be installed in the storage unit 31 from a computer-readable portable recording medium such as a CD-ROM or a DVD-ROM using a known setup program or the like. The storage unit 31 stores various tables and the like, which will be described later, as data.

操作部32は、キーボード及びマウスである。なお、操作部32は、タッチパネル等でもよい。ユーザは、操作部32を用いて、文字や数字、記号等を入力することができる。操作部32は、ユーザにより操作されると、その操作に対応する信号を発生する。そして、発生した信号は、ユーザの指示として、処理部35に供給される。 The operation unit 32 is a keyboard and a mouse. The operation unit 32 may be a touch panel or the like. The user can input characters, numbers, symbols, etc. using the operation unit 32. When the operation unit 32 is operated by the user, the operation unit 32 generates a signal corresponding to the operation. Then, the generated signal is supplied to the processing unit 35 as a user's instruction.

表示部33は、液晶ディスプレイである。なお、表示部33は、有機EL(Electro−Luminescence)ディスプレイ等でもよい。表示部33は、処理部35から供給された映像データに応じた映像、及び、画像データに応じた画像等を表示する。 The display unit 33 is a liquid crystal display. The display unit 33 may be an organic EL (Electro-Luminescence) display or the like. The display unit 33 displays an image corresponding to the image data supplied from the processing unit 35, an image corresponding to the image data, and the like.

装着部34は、可搬型記録媒体Mを着脱可能に保持する入出力装置を備える。可搬型記録媒体MがSDメモリカードである場合は、装着部34はSDメモリカードスロットを備える。装着部34は、装着された可搬型記録媒体Mに記憶された各種情報を読み出し、且つ、装着された可搬型記録媒体Mに各種情報を記録する機能を有する。なお、可搬型記録媒体MがDVD−ROMである場合は、装着部34はDVD−ROMドライブを備える。 The mounting unit 34 includes an input / output device that detachably holds the portable recording medium M. When the portable recording medium M is an SD memory card, the mounting unit 34 includes an SD memory card slot. The mounting unit 34 has a function of reading various information stored in the mounted portable recording medium M and recording various information on the mounted portable recording medium M. When the portable recording medium M is a DVD-ROM, the mounting unit 34 includes a DVD-ROM drive.

情報処理装置3は、装着部34に代えて又は装着部34とともに通信部(図示せず)を備えてもよい。撮影装置2が撮影送信部を備える場合、情報処理装置3の通信部は、撮影送信部から送信された動画像を、無線又は有線の通信ネットワークを介して受信する。 The information processing device 3 may include a communication unit (not shown) in place of or together with the mounting unit 34. When the photographing device 2 includes a photographing transmitting unit, the communication unit of the information processing device 3 receives the moving image transmitted from the photographing transmitting unit via a wireless or wired communication network.

処理部35は、一又は複数個のプロセッサ及びその周辺回路を備える。処理部35は、情報処理装置3の全体的な動作を統括的に制御するCPU(Central Processing Unit)である。処理部35は、情報処理装置3の各種処理が記憶部31に記憶されているプログラムや操作部32の操作に基づいて適切な手順で実行されるように、第2通信部51や表示部33等の動作を制御する。処理部35は、記憶部31に記憶されているプログラム(オペレーティングシステムプログラムやドライバプログラム、アプリケーションプログラム等)に基づいて処理を実行する。また、処理部35は、複数のプログラム(アプリケーションプログラム等)を並列に実行することができる。 The processing unit 35 includes one or more processors and peripheral circuits thereof. The processing unit 35 is a CPU (Central Processing Unit) that comprehensively controls the overall operation of the information processing device 3. The processing unit 35 has the second communication unit 51 and the display unit 33 so that various processes of the information processing device 3 are executed in an appropriate procedure based on the program stored in the storage unit 31 and the operation of the operation unit 32. Etc. are controlled. The processing unit 35 executes processing based on a program (operating system program, driver program, application program, etc.) stored in the storage unit 31. Further, the processing unit 35 can execute a plurality of programs (application programs and the like) in parallel.

処理部35は、取得部351と、抽出部352と、作成部353と、算出部354と、特定部355と、画像処理部356と、判定部357と、出力処理部358とを有する。処理部35が有するこれらの各部は、処理部35が備えるプロセッサで実行されるプログラムにより実現される機能モジュールである。あるいは、処理部35が有するこれらの各部は、ファームウェアとして情報処理装置3に実装されてもよい。 The processing unit 35 includes an acquisition unit 351, an extraction unit 352, a creation unit 353, a calculation unit 354, a specific unit 355, an image processing unit 356, a determination unit 357, and an output processing unit 358. Each of these units included in the processing unit 35 is a functional module realized by a program executed by the processor included in the processing unit 35. Alternatively, each of these units included in the processing unit 35 may be mounted on the information processing device 3 as firmware.

以下、図5〜10を参照して、取得部351と、抽出部352と、作成部353と、算出部354と、特定部355と、画像処理部356と、判定部357、及び出力処理部358について説明する。 Hereinafter, with reference to FIGS. 5 to 10, the acquisition unit 351, the extraction unit 352, the creation unit 353, the calculation unit 354, the specific unit 355, the image processing unit 356, the determination unit 357, and the output processing unit 358 will be described.

取得部351は、鋼橋の一部(車両等が走行する路面下部の床版の裏面等)又は全部を撮影した動画像を記録する可搬型記録媒体Mが、装着部34に装着された場合、ユーザによる操作部32の操作に応じて入力された取得指示に従って、可搬型記録媒体Mから動画像を取得する。取得部351は、可搬型記録媒体Mから取得した動画像を抽出部352に渡す。 When a portable recording medium M for recording a moving image obtained by photographing a part (such as the back surface of the floor slab under the road surface on which a vehicle or the like travels) or the whole of the steel bridge is mounted on the mounting section 34. , Acquires a moving image from the portable recording medium M according to the acquisition instruction input in response to the operation of the operation unit 32 by the user. The acquisition unit 351 passes the moving image acquired from the portable recording medium M to the extraction unit 352.

抽出部352は、取得部351から動画像を取得すると、動画像に含まれる複数のフレーム画像のそれぞれから複数の特徴点を抽出する。 When the moving image is acquired from the acquisition unit 351, the extraction unit 352 extracts a plurality of feature points from each of the plurality of frame images included in the moving image.

特徴点は、所定の特徴点抽出法を用いて画像情報から抽出される。所定の特徴点抽出法は、SIFT法、又は、SURF法等である。また、特徴点抽出法は、コーナー検出法でもよい。コーナー検出法では、画素を移動した際の画素値の変化量に基づいて、コーナーや孤立点が特徴点として検出される。 The feature points are extracted from the image information using a predetermined feature point extraction method. The predetermined feature point extraction method is the SIFT method, the SURF method, or the like. Further, the feature point extraction method may be a corner detection method. In the corner detection method, corners and isolated points are detected as feature points based on the amount of change in the pixel value when the pixel is moved.

以下、SIFT法による特徴点抽出法について説明する。まず、抽出部352は、フレーム画像に対してDoG(Difference-of-Gaussian)処理を実行することにより、フレーム画像内の特徴点の候補を検出する。DoG処理では、抽出部352は、フレーム画像に基づいて複数のDoG画像を生成し、生成した複数のDoG画像から極値が検出された画素を、特徴点の候補として特定する。 Hereinafter, the feature point extraction method by the SIFT method will be described. First, the extraction unit 352 detects candidate feature points in the frame image by executing DoG (Difference-of-Gaussian) processing on the frame image. In the DoG process, the extraction unit 352 generates a plurality of DoG images based on the frame image, and identifies pixels in which extreme values are detected from the generated plurality of DoG images as candidates for feature points.

次に、抽出部352は、特徴点の候補の中から所定の削除条件を満たす候補を削除することで、特徴点を抽出する。所定の削除条件は、特徴点の候補が、コーナー検出法等によって検出された点と同一であるという条件である。また、所定の削除条件は、特徴点の候補極値が所定の数値以下であるという条件であってもよい。このようにして削除された残りの特徴点の候補が、特徴点として抽出される。SIFT法による特徴点抽出法については、例えば、特開2015−213615号公報を参照されたい。 Next, the extraction unit 352 extracts the feature points by deleting the candidates satisfying the predetermined deletion conditions from the feature point candidates. The predetermined deletion condition is that the candidate feature points are the same as the points detected by the corner detection method or the like. Further, the predetermined deletion condition may be a condition that the candidate pole value of the feature point is equal to or less than a predetermined numerical value. Candidates for the remaining feature points deleted in this way are extracted as feature points. For the feature point extraction method by the SIFT method, refer to, for example, Japanese Patent Application Laid-Open No. 2015-213615.

図5(a)は、取得部351によって取得された動画像に含まれるフレーム画像の一例を示す図である。図5(a)に示す例には、フレーム画像と重畳する複数の特徴点が示されている。 FIG. 5A is a diagram showing an example of a frame image included in the moving image acquired by the acquisition unit 351. In the example shown in FIG. 5A, a plurality of feature points superimposed on the frame image are shown.

図5(b)は、抽出特徴点テーブルT1のデータ構造の一例を示す図である。抽出特徴点テーブルT1は、取得部351によって取得された動画像に含まれる複数のフレーム画像から抽出された特徴点を管理するためのテーブルである。抽出部352は、特徴点の抽出処理後又は抽出処理中において、複数のフレーム画像のそれぞれについて抽出した特徴点に関する情報を含む抽出特徴点テーブルT1を記憶部31に記憶する。 FIG. 5B is a diagram showing an example of the data structure of the extraction feature point table T1. The extraction feature point table T1 is a table for managing feature points extracted from a plurality of frame images included in the moving image acquired by the acquisition unit 351. The extraction unit 352 stores in the storage unit 31 an extraction feature point table T1 including information on the feature points extracted for each of the plurality of frame images after the feature point extraction process or during the extraction process.

抽出特徴点テーブルT1には、複数のフレーム画像のそれぞれについて、各フレーム画像のフレーム番号、撮影時刻、特徴点等が、互いに関連付けて記憶されている。フレーム番号は、各フレーム画像を一意に識別するための識別情報の一例であり、例えば、撮影された順に大きくなるような整数値である。撮影時刻は、各フレーム画像が撮影された時刻である。特徴点は、フレーム画像から抽出された各特徴点のフレーム画像内の位置である。例えば、特徴点として、フレーム画像の上辺からの画素数とフレーム画像の左辺からの画素数とで示される2次元座標値が記憶される。 In the extraction feature point table T1, the frame number, shooting time, feature point, etc. of each frame image are stored in association with each other for each of the plurality of frame images. The frame number is an example of identification information for uniquely identifying each frame image, and is, for example, an integer value that increases in the order in which the images are taken. The shooting time is the time when each frame image was shot. The feature points are the positions in the frame image of each feature point extracted from the frame image. For example, as feature points, a two-dimensional coordinate value represented by the number of pixels from the upper side of the frame image and the number of pixels from the left side of the frame image is stored.

作成部353は、抽出特徴点テーブルT1から、複数のフレーム画像のうちの2の対象フレーム画像のそれぞれに関連付けられた特徴点を読み出す。例えば、作成部353は、複数のフレーム画像のうちの所定のフレーム画像を、先の対象フレーム画像として特定し、当該所定のフレーム画像よりも後の撮影時刻のフレーム画像を、後の対象フレーム画像として特定する。所定のフレーム画像は、例えば、複数のフレーム画像のうちの最初のフレーム画像である。所定のフレーム画像は、ユーザによって指定されたフレーム画像であってもよい。以降、先の対象フレーム画像に関連付けられた特徴点を、先の特徴点と称し、後の対象フレーム画像に関連付けられた特徴点を後の特徴点と称する場合がある。 The creation unit 353 reads the feature points associated with each of the two target frame images out of the plurality of frame images from the extraction feature point table T1. For example, the creation unit 353 specifies a predetermined frame image among the plurality of frame images as the target frame image ahead, and sets the frame image at the shooting time after the predetermined frame image as the target frame image after. Identify as. The predetermined frame image is, for example, the first frame image among a plurality of frame images. The predetermined frame image may be a frame image specified by the user. Hereinafter, the feature point associated with the earlier target frame image may be referred to as the earlier feature point, and the feature point associated with the later target frame image may be referred to as the later feature point.

作成部353は、先の特徴点に対応する後の特徴点を判定する。例えば、作成部353は、先の特徴点及び後の特徴点のそれぞれの輝度を算出し、Lucas−Kanade法等を用いて、先の特徴点と同一であると見做すことができる後の特徴点を判定する。 The creation unit 353 determines the later feature points corresponding to the earlier feature points. For example, the creation unit 353 calculates the brightness of each of the first feature point and the second feature point, and can be regarded as the same as the previous feature point by using the Lucas-Kanade method or the like. Determine the feature points.

Lucas−Kanade法では、作成部353は、先の特徴点を始点とし、当該先の特徴点と同一であると見做すことができる後の特徴点を終点としたオプティカルフロー(動きベクトル)を算出する。先の特徴点及び後の特徴点が同じ輝度である場合、先の特徴点及び後の特徴点が同一であると見做される。この場合、先の特徴点とオプティカルフローとは式(1)のように表すことができる。

Figure 2020170907
In the Lucas-Kanade method, the creation unit 353 creates an optical flow (motion vector) starting from the previous feature point and ending at the later feature point that can be regarded as being the same as the previous feature point. calculate. When the first feature point and the second feature point have the same brightness, the first feature point and the second feature point are considered to be the same. In this case, the above feature points and the optical flow can be expressed as in the equation (1).
Figure 2020170907

式(1)において、Iは、第1の画像情報における先の特徴点の輝度、x及びyは、先の特徴点の2次元座標、vx及びvyは、オプティカルフローである。 In the formula (1), I is the brightness of the previous feature point in the first image information, x and y are the two-dimensional coordinates of the previous feature point, and v x and v y are optical flows.

次に、作成部353は、式(1)をテーラー展開することにより式(2)を得る。

Figure 2020170907
Next, the creating unit 353 obtains the equation (2) by Taylor-expanding the equation (1).
Figure 2020170907

次に、作成部353は、式(2)に基づいて次のオプティカルフローの拘束式(3)を得る。 Next, the creating unit 353 obtains the following optical flow constraint equation (3) based on the equation (2).

Figure 2020170907
Figure 2020170907

次に、作成部353は、先の特徴点を略中心とした画像領域(仮想のウィンドウ)を設定し、当該画像領域内における全てのオプティカルフローは一定であるという条件を満たすような、当該先の特徴点を始点としたオプティカルフローを算出する。作成部353は、次の式(4)によってオプティカルフローを算出する。 Next, the creation unit 353 sets an image area (virtual window) substantially centered on the above feature points, and satisfies the condition that all optical flows in the image area are constant. Calculate the optical flow starting from the feature point of. The creation unit 353 calculates the optical flow by the following equation (4).

Figure 2020170907
Figure 2020170907

そして、作成部353は、先の特徴点を始点とした場合におけるオプティカルフローの終点にあたる特徴点を、当該先の特徴点に対応する後の特徴点と判定する。以降、先の特徴点及び当該先の特徴点に対応する後の特徴点(すなわち、オプティカルフローにおいて、始点に当たる特徴点と終点に当たる特徴点)を、対応する2の特徴点と称する場合がある。 Then, the creating unit 353 determines that the feature point corresponding to the end point of the optical flow when the previous feature point is the start point is the later feature point corresponding to the previous feature point. Hereinafter, the earlier feature point and the later feature point corresponding to the previous feature point (that is, the feature point corresponding to the start point and the feature point corresponding to the end point in the optical flow) may be referred to as the corresponding two feature points.

なお、Lucas−Kanade法によるオプティカルフローの算出処理については、例えば、B.D.Lucas and T.Kanade,「An iterative image registration technique with an application to stereo vision」,in Proc Imaging Understanding Workshop,pp.121−130,1981年を参照されたい。 Regarding the calculation process of the optical flow by the Lucas-Kanade method, for example, B.I. D. Lucas and T. Kanade, "An iterative image registration technique with an application to stereo vision", in Proc Imaging Understancing Workshop, pp. See 121-130, 1981.

図6(a)は、対応特徴点テーブルT2のデータ構造の一例を示す図である。対応特徴点テーブルT2は、作成部353によって判定された対応する2の特徴点を管理するためのテーブルである。作成部353は、対応する2の特徴点の判定処理後又は判定処理中において、2のフレーム画像の組ごとに判定した対応する2の特徴点を記憶する。 FIG. 6A is a diagram showing an example of the data structure of the corresponding feature point table T2. The corresponding feature point table T2 is a table for managing the corresponding 2 feature points determined by the creating unit 353. The creation unit 353 stores the corresponding 2 feature points determined for each set of the 2 frame images after or during the determination process of the corresponding 2 feature points.

対応特徴点テーブルT2には、2の対象フレーム画像の組ごとに、フレーム組ID(identifier)、フレーム組、対応特徴点グループ等が、互いに関連付けて記憶されている。フレーム組IDは、2の対象フレーム画像の組を一意に識別するための識別情報の一例である。フレーム組は、2の対象フレーム画像のそれぞれのフレーム番号である。対応特徴点グループは、対応する2の特徴点のそれぞれの対象フレーム画像内の位置である。 In the corresponding feature point table T2, a frame set ID (identifier), a frame set, a corresponding feature point group, and the like are stored in association with each other for each set of the target frame images of 2. The frame set ID is an example of identification information for uniquely identifying a set of two target frame images. The frame set is the frame number of each of the two target frame images. The corresponding feature point group is the position in the target frame image of each of the two corresponding feature points.

図6(a)に示す対応特徴点テーブルT2の例では、フレーム組ID「B000001」と、フレーム番号「000001」及び「000002」とが関連付けて記憶される。フレーム番号「000001」は、先の対象フレーム画像を示すフレーム番号であり、フレーム番号「000002」は、後の対象フレーム画像を示すフレーム番号である。さらに、対応特徴点グループを示す、対応する2の特徴点のそれぞれの対象フレーム画像内の位置「(132,528),(133,528)」,「(142,511),(143,510)」,・・・が、フレーム組ID「B000001」に関連付けて記憶されている。フレーム画像内の位置「(132,528)」は、フレーム番号「000001」の先のフレーム画像内における先の特徴点の位置である。フレーム画像内の位置「(133,528)」は、フレーム番号「000002」の後のフレーム画像内の後の特徴点の位置である。 In the example of the corresponding feature point table T2 shown in FIG. 6A, the frame set ID “B000001” is stored in association with the frame numbers “000001” and “000002”. The frame number "000001" is a frame number indicating the first target frame image, and the frame number "000002" is a frame number indicating the later target frame image. Further, the positions "(132,528), (133,528)", "(142,511), (143,510) of the corresponding two feature points indicating the corresponding feature point group in the target frame image". , ... Are stored in association with the frame set ID “B000001”. The position “(132,528)” in the frame image is the position of the feature point in the frame image after the frame number “000001”. The position "(133,528)" in the frame image is the position of the later feature point in the frame image after the frame number "000002".

対応特徴点グループは、対応特徴点グループに含まれる2の特徴点のそれぞれを識別し得る情報であればどのような情報でもよい。 The corresponding feature point group may be any information as long as it can identify each of the two feature points included in the corresponding feature point group.

以降、作成部353と、算出部354と、特定部355と、画像処理部356とによって、公知のEulerian Motion Magnificationを用いた動画像の誇張表現処理が実行される。以下、Eulerian Motion Magnificationの概要を説明する。なお、Eulerian Motion Magnificationの詳細は、例えば、「Eulerian Video Magnification for Revealing Subtle Changes in the World」,H.Y Wu他,ACM Transactions on Graphics(TOG), SIGGRAPH 2012, Conference Proceedings, Volume 31 Issue 4, Article No. 65, July 2012等を参照されたい。 After that, the creation unit 353, the calculation unit 354, the specific unit 355, and the image processing unit 356 execute the exaggerated expression processing of the moving image using the known Eulerian Motion Magnification. The outline of Eulerian Motion Magnification will be described below. For details on Eulerian Motion Magnification, see, for example, "Eulerian Video Magnification for Revealing Subtle Changes in the World", HY Wu et al., ACM Transactions on Graphics (TOG), SIGGRAPH 2012, Conference Proceedings, Volume 31 Issue 4, Article No. Please refer to 65, July 2012, etc.

特定の時刻tにおけるフレーム画像内の特定の場所xに対応する輝度が、I(x,t)のように示すことができる。以下、I(x,t)が次の式(5)のように表現できる場合について説明する。 The brightness corresponding to a specific place x in the frame image at a specific time t can be indicated as I (x, t). Hereinafter, a case where I (x, t) can be expressed as the following equation (5) will be described.

Figure 2020170907
Figure 2020170907

δ(t)は変位関数である。 δ (t) is a displacement function.

フレーム画像が、一次テーラー級数で表すことができると仮定すると、I(x,t)は、次の式(6)のように表現できる。 Assuming that the frame image can be represented by a first-order Taylor series, I (x, t) can be represented by the following equation (6).

Figure 2020170907
Figure 2020170907

次に、I(x,t)に対して、バンドパスフィルタが適用されると、f(x)が除去され、次の式(7)に示すB(x、t)が生成される。 Next, when a bandpass filter is applied to I (x, t), f (x) is removed and B (x, t) shown in the following equation (7) is generated.

Figure 2020170907
Figure 2020170907

B(x,t)が所定の増幅率αだけ増幅され、次の式(8)に示すように、増幅後のB(x,t)が元のI(x,t)に加算されることより、増幅信号が生成される。

Figure 2020170907
B (x, t) is amplified by a predetermined amplification factor α, and the amplified B (x, t) is added to the original I (x, t) as shown in the following equation (8). As a result, an amplified signal is generated.
Figure 2020170907

そして、増幅信号のうちの一又は複数の信号が、動画像に合成されることで、誇張表現処理が終了する。 Then, one or a plurality of the amplified signals are combined with the moving image to complete the exaggerated expression processing.

以下、作成部353と、算出部354と、特定部355と、画像処理部356とによって実行される動画像の誇張表現処理の一例を説明する。 Hereinafter, an example of the exaggerated expression processing of the moving image executed by the creation unit 353, the calculation unit 354, the specific unit 355, and the image processing unit 356 will be described.

作成部353は、対応特徴点テーブルT2に記憶されたフレーム組IDに関連付けられた対応特徴点グループを読み出し、読み出した対応特徴点グループのうち、共通する特徴点を含む複数の対応特徴点グループを統合して新たな特徴点グループを作成する。 The creation unit 353 reads out the corresponding feature point group associated with the frame set ID stored in the corresponding feature point table T2, and among the read corresponding feature point groups, a plurality of corresponding feature point groups including common feature points are selected. Integrate to create a new feature point group.

図6(a)に示す対応特徴点テーブルT2の例では、フレーム組ID「B000001」に関連付けられた対応特徴点グループ「(132,528),(133,528)」と、フレーム組ID「B000002」に関連付けられた対応特徴点グループ「(133,528),(133,529)」とは、フレーム番号「000002」における特徴点の位置「(133,528)」が共通している。作成部353は、対応特徴点グループ「(132,528),(133,528)」と対応特徴点グループ「(133,528),(133,529)」とを統合した特徴点グループ「(132,528),(133,528),(133,529)」を作成する。 In the example of the corresponding feature point table T2 shown in FIG. 6A, the corresponding feature point groups “(132,528), (133,528)” associated with the frame set ID “B000001” and the frame set ID “B000002” The corresponding feature point groups "(133,528), (133,529)" associated with "" have the same feature point position "(133,528)" in the frame number "000002". The creation unit 353 integrates the corresponding feature point groups "(132,528), (133,528)" and the corresponding feature point groups "(133,528), (133,529)". , 528), (133,528), (133,529) ”.

以降、作成部353は、2の対応特徴点グループが共通する特徴点を含む場合、新たな特徴点グループと対応特徴点グループとが共通する特徴点を含む場合、及び、2の特徴点グループが共通する特徴点を含む場合、共通する特徴点を有するグループを統合することで新たな特徴点グループを作成する。作成部353は、共通する特徴点を有するグループが無くなるまで、グループの統合処理を繰り返し実行する。 After that, the creation unit 353 includes a case where the corresponding feature point group of 2 includes a common feature point, a case where the new feature point group and the corresponding feature point group include a common feature point, and a case where the feature point group of 2 includes a common feature point. When a common feature point is included, a new feature point group is created by integrating the groups having the common feature point. The creation unit 353 repeatedly executes the group integration process until there are no groups having common feature points.

算出部354は、作成部353によるグループの統合処理が終了すると、特徴点グループごとに、各特徴点グループに含まれる特徴点間の変位に基づいて、各特徴点グループの振動周波数を算出する。例えば、算出部354は、特徴点間の変位の全て又は一部の向きを算出し、算出した向きの平均向きを算出する。次に、算出部354は、平均向きをX軸方向とし、平均向きの直行方向をY軸方向として設定する。次に、算出部354は、特徴点間の変位の全て又は一部の変位のベクトル(動きベクトル)を、設定したX軸方向の成分及びY軸方向の成分に分解する。そして、算出部354は、1秒当たりの、X軸方向の動きベクトルの成分の向きがマイナス方向に向く回数を振動周波数とする。 When the group integration process by the creating unit 353 is completed, the calculation unit 354 calculates the vibration frequency of each feature point group for each feature point group based on the displacement between the feature points included in each feature point group. For example, the calculation unit 354 calculates the directions of all or part of the displacements between the feature points, and calculates the average direction of the calculated directions. Next, the calculation unit 354 sets the average direction as the X-axis direction and the orthogonal direction of the average direction as the Y-axis direction. Next, the calculation unit 354 decomposes the displacement vector (motion vector) of all or part of the displacement between the feature points into the set components in the X-axis direction and the components in the Y-axis direction. Then, the calculation unit 354 sets the number of times per second that the direction of the component of the motion vector in the X-axis direction is in the minus direction as the vibration frequency.

図6(b)は、特徴点グループテーブルT3のデータ構造の一例を示す図である。特徴点グループテーブルT3は、作成部353によって作成された特徴点グループ及び算出部354によって算出された振動周波数を管理するためのテーブルである。作成部353は、特徴点グループの作成処理後又は作成処理中において、作成された特徴点グループを記憶し、算出部354によって算出された、記憶された特徴点グループに対応する振動周波数を記憶する。 FIG. 6B is a diagram showing an example of the data structure of the feature point group table T3. The feature point group table T3 is a table for managing the feature point group created by the creation unit 353 and the vibration frequency calculated by the calculation unit 354. The creation unit 353 stores the created feature point group after or during the creation process of the feature point group, and stores the vibration frequency corresponding to the stored feature point group calculated by the calculation unit 354. ..

特徴点グループテーブルT3には、各特徴点グループについて、特徴点グループID、グループ内特徴点、振動周波数等が、互いに関連付けて記憶されている。特徴点グループIは、各特徴点グループを一意に識別するための識別情報の一例である。グループ内特徴点は、作成部353によって作成された特徴点グループに含まれる特徴点の位置と、当該特徴点の抽出元のフレーム画像のフレーム番号との組合せである。振動周波数は、算出部354によって算出された振動周波数である。 In the feature point group table T3, the feature point group ID, the feature points in the group, the vibration frequency, and the like are stored in association with each other for each feature point group. The feature point group I is an example of identification information for uniquely identifying each feature point group. The feature point in the group is a combination of the position of the feature point included in the feature point group created by the creation unit 353 and the frame number of the frame image from which the feature point is extracted. The vibration frequency is a vibration frequency calculated by the calculation unit 354.

図6(b)に示す特徴点グループテーブルT3の例では、特徴点グループID「G0001」によって示される特徴点グループに含まれるグループ内特徴点として、フレーム番号「000001」のフレーム画像内の位置(132,528)の特徴点、フレーム番号「000001」のフレーム画像内の位置(133,529)の特徴点、及びフレーム番号「000001」のフレーム画像内の位置「(133,530)の特徴点、・・・等が記憶される。また、特徴点グループテーブルT3では、特徴点グループID「G0001」によって示される特徴点グループの振動周波数として、「2.2Hz」が記憶される。 In the example of the feature point group table T3 shown in FIG. 6B, the position in the frame image of the frame number “000001” as the feature point in the group included in the feature point group indicated by the feature point group ID “G0001” ( 132,528) feature points, position (133,529) feature points in the frame image of frame number "000001", and position "(133,530) feature points" in the frame image of frame number "000001". ... Etc. are stored. Further, in the feature point group table T3, "2.2 Hz" is stored as the vibration frequency of the feature point group indicated by the feature point group ID "G0001".

図7(a)は、振動周波数帯テーブルT4のデータ構造の一例を示す図である。振動周波数帯テーブルT4は、車両等に固有の周波数帯を管理するためのテーブルである。振動周波数帯テーブルT4には、複数の周波数帯が記憶されるとともに、各周波数帯に対する増幅倍率(1+α)が関連付けて記憶されている。図7(a)に示す振動周波数帯テーブルT4の例では、0.4Hz〜3.0Hzの周波数帯が、車両等に固有の周波数帯であり、この周波数帯に含まれる振動周波数の特徴点グループに含まれる特徴点間の変位が増幅される。 FIG. 7A is a diagram showing an example of the data structure of the vibration frequency band table T4. The vibration frequency band table T4 is a table for managing a frequency band peculiar to a vehicle or the like. In the vibration frequency band table T4, a plurality of frequency bands are stored, and the amplification factor (1 + α) for each frequency band is stored in association with each other. In the example of the vibration frequency band table T4 shown in FIG. 7A, the frequency band of 0.4 Hz to 3.0 Hz is a frequency band peculiar to a vehicle or the like, and a characteristic point group of vibration frequencies included in this frequency band. The displacement between the feature points included in is amplified.

特定部355は、振動周波数帯テーブルT4から周波数帯「0.4Hz〜3.0Hz」を読み出し、特徴点グループテーブルT3に記憶された複数の振動周波数のうち、読み出された周波数帯「0.4Hz〜3.0Hz」に含まれる振動周波数を特定する。次に、特定部355は、特定した振動周波数に関連付けられた特徴点グループID及びグループ内特徴点を特定し、特定した特徴点グループID及びグループ内特徴点を画像処理部356に渡す。 The specific unit 355 reads the frequency band “0.4 Hz to 3.0 Hz” from the vibration frequency band table T4, and among the plurality of vibration frequencies stored in the feature point group table T3, the read frequency band “0. The vibration frequency included in "4Hz to 3.0Hz" is specified. Next, the specifying unit 355 identifies the feature point group ID and the feature point in the group associated with the specified vibration frequency, and passes the specified feature point group ID and the feature point in the group to the image processing unit 356.

画像処理部356は、複数のフレーム画像のそれぞれについて、特定部355から受け取ったグループ内特徴点に基づいて、特徴点間の変位を増幅させ、増幅された変位に基づいて、特定された特徴点グループに含まれる特徴点を移動させる。画像処理部356は、複数のフレーム画像のそれぞれについて、移動後の特徴点と整合するように他の画素を移動させる。 The image processing unit 356 amplifies the displacement between the feature points based on the feature points in the group received from the specific unit 355 for each of the plurality of frame images, and the specified feature points based on the amplified displacement. Move the feature points included in the group. The image processing unit 356 moves other pixels for each of the plurality of frame images so as to match the feature points after the movement.

画像処理部356は、変化後の複数のフレーム画像を元の動画像に合成することによって、変化後の複数のフレーム画像を含む動画像を生成し、出力処理部358は、図2のように、生成された動画像を表示部33に表示出力する。 The image processing unit 356 generates a moving image including the plurality of changed frame images by synthesizing the plurality of changed frame images with the original moving image, and the output processing unit 358 generates a moving image including the plurality of changed frame images, as shown in FIG. , The generated moving image is displayed and output to the display unit 33.

作成部353と、算出部354と、特定部355と、画像処理部356とによって実行される処理は、上述した処理に限らず、Eulerian Motion Magnificationを用いた動画像の誇張表現処理が実現する処理であれば、どのような処理であってもよい。 The processing executed by the creation unit 353, the calculation unit 354, the specific unit 355, and the image processing unit 356 is not limited to the above-mentioned processing, but is a processing that realizes an exaggerated expression processing of a moving image using Eulerian Motion Magnification. If so, any process may be used.

図7(b)は、増幅特徴点テーブルT5のデータ構造の一例を示す図である。増幅特徴点テーブルT5は、画像処理部356によって作成された増幅後の特徴点を管理するためのテーブルである。画像処理部356は、増幅処理後又は増幅処理中において、増幅後の特徴点を記憶する。 FIG. 7B is a diagram showing an example of the data structure of the amplification feature point table T5. The amplified feature point table T5 is a table for managing the feature points after amplification created by the image processing unit 356. The image processing unit 356 stores the feature points after amplification after the amplification processing or during the amplification processing.

増幅特徴点テーブルT5には、各特徴点グループについて、特徴点グループID、増幅特徴点、振動周波数等が、互いに関連付けて記憶されている。増幅特徴点は、画像処理部356によって作成された特徴点グループに含まれる増幅後の特徴点の位置と、当該特徴点の抽出元のフレーム画像のフレーム番号との組合せである。 In the amplified feature point table T5, the feature point group ID, the amplified feature point, the vibration frequency, and the like are stored in association with each other for each feature point group. The amplified feature point is a combination of the position of the feature point after amplification included in the feature point group created by the image processing unit 356 and the frame number of the frame image from which the feature point is extracted.

特定部355は、特徴点グループテーブルT3に記憶された複数の振動周波数のうち、周波数帯「0.4Hz〜3.0Hz」に含まれる振動周波数に関連付けられた特徴点グループID及びグループ内特徴点を特定すると、近接する特徴点グループを統合した近距離グループを作成する。 The specific unit 355 includes a feature point group ID and a feature point in the group associated with the vibration frequency included in the frequency band "0.4 Hz to 3.0 Hz" among the plurality of vibration frequencies stored in the feature point group table T3. When is specified, a short-distance group that integrates adjacent feature point groups is created.

例えば、特定部355は、特定されたグループ内特徴点の平均位置又は重心位置を算出し、算出した位置を、特徴点グループ位置として、特定された特徴点グループIDに関連付ける。次に、特定部355は、特徴点グループ位置が第1距離以内の関係にある特徴点グループを統合して近距離グループを作成する。 For example, the specific unit 355 calculates the average position or the position of the center of gravity of the specified feature points in the group, and associates the calculated position with the specified feature point group ID as the feature point group position. Next, the specific unit 355 integrates the feature point groups having the feature point group positions within the first distance to create a short distance group.

そして、特定部355は、近距離グループに含まれる特徴点のうち、複数のフレーム画像のそれぞれにおいて、対応する変位が最も大きい特徴点を、近距離グループに対応する車両等の輪位置として特定する。 Then, the specifying unit 355 specifies the feature point having the largest corresponding displacement in each of the plurality of frame images among the feature points included in the short-distance group as the wheel position of the vehicle or the like corresponding to the short-distance group. ..

図8(a)は、輪位置テーブルT6のデータ構造の一例を示す図である。輪位置テーブルT6は、特定部355によって特定された車両等の輪位置を管理するためのテーブルである。特定部355は、輪位置の特定処理後又は輪位置の特定処理中において、特定された車両等の輪位置を記憶する。 FIG. 8A is a diagram showing an example of the data structure of the wheel position table T6. The wheel position table T6 is a table for managing the wheel positions of the vehicle or the like specified by the specific unit 355. The specifying unit 355 stores the wheel position of the specified vehicle or the like after the wheel position specifying process or during the wheel position specifying process.

輪位置テーブルT6には、複数のフレーム画像のそれぞれについて、各フレーム画像のフレーム番号、輪位置情報、撮影時刻等が、互いに関連付けて記憶されている。輪位置情報は、複数のフレーム画像のそれぞれにおいて特定された、各近距離グループに対応する車輪等の輪位置を示す情報である。例えば、輪位置として、フレーム画像の上辺からの画素数とフレーム画像の左辺からの画素数とで示される2次元座標値が記憶される。 In the wheel position table T6, the frame number, the wheel position information, the shooting time, and the like of each frame image are stored in association with each other for each of the plurality of frame images. The wheel position information is information indicating the wheel positions of the wheels and the like corresponding to each short-distance group, which are specified in each of the plurality of frame images. For example, as the ring position, a two-dimensional coordinate value represented by the number of pixels from the upper side of the frame image and the number of pixels from the left side of the frame image is stored.

画像処理部356は、変化後の複数のフレーム画像を含む動画像又は元の動画像に、特定した輪位置を示す軌跡画像を重畳した動画像を作成し、出力処理部358は、図8(b)のように、生成された動画像を表示部33に表示出力する。図8(b)は、軌跡画像が重畳されたフレーム画像の一例を示す図である。図8(b)に示す軌跡画像は、複数の輪位置を接続した線分状の画像である。 The image processing unit 356 creates a moving image including a plurality of frame images after the change or a moving image in which a locus image indicating a specified ring position is superimposed on the original moving image, and the output processing unit 358 displays FIG. As in b), the generated moving image is displayed and output to the display unit 33. FIG. 8B is a diagram showing an example of a frame image on which a locus image is superimposed. The locus image shown in FIG. 8B is a line segment image in which a plurality of ring positions are connected.

判定部357は、変化後のフレーム画像に基づいて、車両等が走行する路面下部における、鋼橋の各種部材の変形モードを判定する。判定部357は、例えば、主桁ウェブの面内変形を示す複数のサンプル画像、及び、デッキプレートの面外変形を示す複数のサンプル画像を用いた公知の画像マッチング手法に基づいて、変化後のフレーム画像が、主桁ウェブの面内変形か、又は、デッキプレートの面外変形かを判定する。 The determination unit 357 determines the deformation mode of various members of the steel bridge in the lower part of the road surface on which the vehicle or the like travels, based on the frame image after the change. The determination unit 357 is based on a known image matching method using, for example, a plurality of sample images showing the in-plane deformation of the main girder web and a plurality of sample images showing the out-of-plane deformation of the deck plate. It is determined whether the frame image is in-plane deformation of the main girder web or out-of-plane deformation of the deck plate.

図9(a)は、主桁ウェブの面内変形が撮影された変化後のフレーム画像の一例を説明するための模式図である。図9(a)に示すフレーム画像の例は、変化後のフレーム画像であるため、主桁ウェブの面内変形の度合いが、元のフレーム画像よりも大きく表示されている。 FIG. 9A is a schematic diagram for explaining an example of a frame image after the change in which the in-plane deformation of the main girder web is photographed. Since the example of the frame image shown in FIG. 9A is a frame image after the change, the degree of in-plane deformation of the main girder web is displayed larger than that of the original frame image.

図9(b)は、デッキプレートの面外変形が撮影された変化後のフレーム画像の一例を示す図である。図9(b)に示すフレーム画像の例は、変化後のフレーム画像であるため、デッキプレートの面外変形の度合いが、元のフレーム画像よりも大きく表示されている。 FIG. 9B is a diagram showing an example of a frame image after the change in which the out-of-plane deformation of the deck plate is photographed. Since the example of the frame image shown in FIG. 9B is the frame image after the change, the degree of out-of-plane deformation of the deck plate is displayed larger than that of the original frame image.

(変化前の)元のフレーム画像では、主桁ウェブの面内変形及びデッキプレートの面外変形の度合いが極めて小さいため、公知の画像マッチング手法を用いても、変形が判定されないことが多かった。情報処理装置3の判定部357は、変位が増幅された(変形の度合いの大きい)変化後のフレーム画像を用いた画像マッチング手法を適用するため、判定精度の高い画像マッチングを行うことが可能になる。 In the original frame image (before change), the degree of in-plane deformation of the main girder web and out-of-plane deformation of the deck plate is extremely small, so deformation was often not determined even by using a known image matching method. .. Since the determination unit 357 of the information processing apparatus 3 applies an image matching method using the frame image after the change in which the displacement is amplified (the degree of deformation is large), it is possible to perform image matching with high determination accuracy. Become.

図10は、補修補強方法テーブルT7のデータ構造の一例を示す図である。補修補強方法テーブルT7は、変形モード及び変形モードに対応する補修補強方法を管理するためのテーブルである。 FIG. 10 is a diagram showing an example of the data structure of the repair and reinforcement method table T7. The repair and reinforcement method table T7 is a table for managing the deformation mode and the repair and reinforcement method corresponding to the deformation mode.

補修補強方法テーブルT7には、変形モード(各部材に対する面外変形モード又は面内変形モード)ごとに、サンプル画像及び補修補強方法等が、互いに関連付けて記憶されている。サンプル画像は、過去に作成された変化後のフレーム画像のうち、各変形モードを含む画像である。なお、例えば、サンプル画像を撮影した際の撮影装置の床版からの相対位置及び撮影装置の傾きは、動画像を撮影した際の撮影装置の床版からの相対位置及び撮影装置の傾きと略同一である。 In the repair and reinforcement method table T7, a sample image, a repair and reinforcement method, and the like are stored in association with each other for each deformation mode (out-of-plane deformation mode or in-plane deformation mode for each member). The sample image is an image including each transformation mode among the frame images after the change created in the past. For example, the relative position of the photographing device from the floor slab and the inclination of the photographing device when the sample image is taken are abbreviated as the relative position of the photographing device from the floor slab and the inclination of the photographing device when the moving image is taken. It is the same.

補修補強方法は、サンプル画像によって示される変形に伴う損傷に対処する補修補強方法に関する情報である。例えば、補修補強方法は、L形鋼を用いた当て板補強、平形鋼を用いた当て板補強、及び形状改良補修等である。補修補強方法に関する情報は、補修補強方法の名称を示す文字情報、補修補強方法を説明する文字情報、及び/又は、補修補強方法を示す画像(動画像及び/又は静止画像)情報等である。 The repair and reinforcement method is information on the repair and reinforcement method for dealing with the deformation-related damage shown by the sample image. For example, the repair and reinforcement method includes a backing plate reinforcement using L-shaped steel, a backing plate reinforcement using flat steel, and shape improvement repair. The information regarding the repair and reinforcement method includes character information indicating the name of the repair and reinforcement method, character information explaining the repair and reinforcement method, and / or image (moving image and / or still image) information indicating the repair and reinforcement method.

判定部357によって実行される画像マッチング処理は、記憶部31に記憶されたAI(Artificial Intelligence)プログラムによって実行されるものでもよい。例えば、判定部357は、補修補強方法テーブルT7に記憶されたサンプル画像(入力データ)と補修補強方法テーブルT7に記憶された変形モード(出力データ)とを含む教師データに基づいて学習したニューラルネットワークモデル等を用い、変形後のフレーム画像に含まれる各種部材の変形モードの可能性を示す数値を算出してもよい。そして、判定部357は、算出された数値のうちの最大の数値の変形モードを、当該変形後のフレーム画像の変形モードであると判定する。 The image matching process executed by the determination unit 357 may be executed by the AI (Artificial Intelligence) program stored in the storage unit 31. For example, the determination unit 357 is a neural network learned based on the teacher data including the sample image (input data) stored in the repair reinforcement method table T7 and the deformation mode (output data) stored in the repair reinforcement method table T7. Using a model or the like, numerical values indicating the possibility of deformation modes of various members included in the deformed frame image may be calculated. Then, the determination unit 357 determines that the transformation mode of the maximum numerical value among the calculated numerical values is the transformation mode of the frame image after the transformation.

判定部357によって実行される画像マッチング処理として、AIプログラムを用いた画像マッチング手法が適用される場合でも、変位が増幅された(変形の度合いの大きい)変化後のフレーム画像が用いられるため、判定部357は、判定精度の高い画像マッチングを行うことが可能になる。 As the image matching process executed by the determination unit 357, even when the image matching method using the AI program is applied, the frame image after the change in which the displacement is amplified (the degree of deformation is large) is used, so that the determination is made. The unit 357 can perform image matching with high determination accuracy.

判定部357は、変化後のフレーム画像について変形モードを判定すると、補修補強方法テーブルT7を参照し、当該変形モードに対応する補修補強方法を判定する。 When the determination unit 357 determines the deformation mode of the changed frame image, the determination unit 357 refers to the repair reinforcement method table T7 and determines the repair reinforcement method corresponding to the deformation mode.

(監視システム1による監視方法の動作フロー)
図11は、監視システム1による監視方法の動作フローの一例を示す図である。
(Operation flow of monitoring method by monitoring system 1)
FIG. 11 is a diagram showing an example of an operation flow of the monitoring method by the monitoring system 1.

まず、取得部351は、鋼橋の一部(車両等が走行する路面下部の床版の裏面等)又は全部を撮影した動画像を記録する可搬型記録媒体Mが、装着部34に装着された場合、ユーザによる操作部32の操作に応じて入力された取得指示に従って、可搬型記録媒体Mから動画像を取得する(ステップS101)。 First, in the acquisition unit 351, a portable recording medium M for recording a moving image obtained by photographing a part (the back surface of the floor slab under the road surface on which a vehicle or the like travels) or the whole of the steel bridge is attached to the attachment unit 34. If this is the case, a moving image is acquired from the portable recording medium M according to the acquisition instruction input in response to the operation of the operation unit 32 by the user (step S101).

次に、抽出部352は、取得部351によって取得された動画像に含まれる複数のフレーム画像のそれぞれから複数の特徴点を抽出する(ステップS102)。 Next, the extraction unit 352 extracts a plurality of feature points from each of the plurality of frame images included in the moving image acquired by the acquisition unit 351 (step S102).

次に、作成部353は、抽出特徴点テーブルT1から、複数のフレーム画像のうちの2の対象フレーム画像から、対応する2の特徴点を含む対応特徴点グループを作成する(ステップS103)。 Next, the creation unit 353 creates a corresponding feature point group including the corresponding 2 feature points from the target frame image of 2 out of the plurality of frame images from the extraction feature point table T1 (step S103).

次に、作成部353は、複数の対応特徴点グループに基づいて特徴点グループを作成する(ステップS104)。 Next, the creation unit 353 creates a feature point group based on a plurality of corresponding feature point groups (step S104).

次に、算出部354は、特徴点グループごとに、各特徴点グループに含まれる特徴点間の変位に基づいて、各特徴点グループの振動周波数を算出する(ステップS105)。 Next, the calculation unit 354 calculates the vibration frequency of each feature point group for each feature point group based on the displacement between the feature points included in each feature point group (step S105).

次に、特定部355は、振動周波数帯テーブルT4から車両等に固有の周波数帯を読み出し、算出された各特徴点グループの振動周波数のうち、車両等に固有の周波数帯に含まれる振動周波数を特定する。次に、特定部355は、特定した振動周波数に関連付けられた特徴点グループを特定する(ステップS106)。 Next, the specific unit 355 reads out a frequency band peculiar to the vehicle or the like from the vibration frequency band table T4, and among the calculated vibration frequencies of each feature point group, the vibration frequency included in the frequency band peculiar to the vehicle or the like is selected. Identify. Next, the identification unit 355 identifies a feature point group associated with the specified vibration frequency (step S106).

次に、画像処理部356は、フレーム画像ごとに、車両等に固有の周波数帯に含まれる振動周波数の特徴点グループ内の特徴点間の変位を増幅させる(ステップS107)。 Next, the image processing unit 356 amplifies the displacement between the feature points in the feature point group of the vibration frequency included in the frequency band peculiar to the vehicle or the like for each frame image (step S107).

次に、画像処理部356は、フレーム画像ごとに、増幅された変位に基づいて、車両等に固有の周波数帯に含まれる振動周波数の特徴点グループに含まれる特徴点を移動させるとともに、移動後の特徴点と整合するように他の画素も移動させる。そして、画像処理部356は、変化後の複数のフレーム画像を元の動画像に合成することによって、変化後の複数のフレーム画像を含む動画像を生成する(ステップS108)。 Next, the image processing unit 356 moves the feature points included in the feature point group of the vibration frequency included in the frequency band peculiar to the vehicle or the like based on the amplified displacement for each frame image, and after the movement, Other pixels are also moved so as to match the feature points of. Then, the image processing unit 356 generates a moving image including the plurality of changed frame images by synthesizing the plurality of changed frame images with the original moving image (step S108).

次に、判定部357は、変化後のフレーム画像に基づいて、例えば、車両等が走行する路面下部の床版及び主桁ウェブの変形モードを判定する(ステップS109)。 Next, the determination unit 357 determines the deformation mode of the floor slab and the main girder web under the road surface on which the vehicle or the like travels, based on the changed frame image (step S109).

そして、判定部357は、補修補強方法テーブルT7を参照し、ステップS109において判定された変形モードに対応する補修補強方法を判定する(ステップS110)。 Then, the determination unit 357 determines the repair / reinforcement method corresponding to the deformation mode determined in step S109 with reference to the repair / reinforcement method table T7 (step S110).

以上、詳述したとおり、本実施形態の監視システム1では、鋼橋の一部(道路橋梁の路面下部の床版の裏面等)又は全部を撮影した動画像のみに基づいて、鋼橋を構成する部材の変形状態を把握することが可能となる。 As described in detail above, in the monitoring system 1 of the present embodiment, the steel bridge is configured based only on the moving image obtained by photographing a part or all of the steel bridge (the back surface of the floor slab under the road surface of the road bridge, etc.). It is possible to grasp the deformed state of the member.

(変形例1)
なお、本発明は、本実施形態に限定されるものではない。例えば、特定部355による輪位置の特定処理において、ユーザによって入力された鋼橋の部材(例えば、床版の裏面)の損傷発生位置が用いられてもよい。
(Modification example 1)
The present invention is not limited to the present embodiment. For example, in the process of specifying the wheel position by the specific unit 355, the damage occurrence position of the steel bridge member (for example, the back surface of the floor slab) input by the user may be used.

例えば、取得部351は、ユーザによって入力された、動画像に含まれる床版の裏面の損傷発生位置を取得する。例えば、取得部351は、表示部33に動画像が表示されている際に、ユーザによる操作部32の操作に応じて入力された画面位置を、損傷発生位置として取得する。特定部355は、複数のフレーム画像のそれぞれにおいて、特定した近距離グループに含まれ且つ取得した損傷発生位置から第2距離内の特徴点のうち、対応する変位が最も大きい特徴点を、損傷発生に影響を与えた車両等の輪位置として特定する。 For example, the acquisition unit 351 acquires the damage occurrence position on the back surface of the floor slab included in the moving image, which is input by the user. For example, the acquisition unit 351 acquires the screen position input in response to the operation of the operation unit 32 by the user as the damage occurrence position when the moving image is displayed on the display unit 33. In each of the plurality of frame images, the specific unit 355 damages the feature points having the largest corresponding displacement among the feature points included in the specified short-distance group and within the second distance from the acquired damage occurrence position. It is specified as the wheel position of the vehicle etc. that affected.

この場合、画像処理部356は、変化後の複数のフレーム画像を含む動画像又は元の動画像に、特定した輪位置を示す軌跡画像を重畳した動画像を作成し、出力処理部358は、生成された動画像を表示部33に表示出力する。 In this case, the image processing unit 356 creates a moving image including a plurality of frame images after the change or the original moving image, and the locus image indicating the specified ring position is superimposed, and the output processing unit 358 creates a moving image. The generated moving image is displayed and output to the display unit 33.

このように、監視システム1は、道路橋梁の路面下部の床版の裏面を撮影した動画像のみに基づいて、既に発生した損傷発生位置に影響すると推察される輪位置をユーザに提示することを可能とする。 In this way, the monitoring system 1 presents the user with a wheel position that is presumed to affect the already-occurred damage occurrence position, based only on the moving image of the back surface of the floor slab under the road surface of the road bridge. Make it possible.

(変形例2)
取得部351は、損傷発生位置の近傍に設置されたひずみ測定装置から出力されたひずみ応答データを測定時刻とともに取得し、出力処理部358は、動画像に含まれる各フレーム画像の撮影時刻と取得した測定時刻とに基づいて、変化後の複数のフレーム画像を含む動画像又は元の動画像に同期させたひずみ応答データを表示部33に表示出力してもよい。
(Modification 2)
The acquisition unit 351 acquires the strain response data output from the strain measuring device installed near the damage occurrence position together with the measurement time, and the output processing unit 358 acquires the shooting time and acquisition of each frame image included in the moving image. Based on the measured measurement time, the strain response data synchronized with the moving image including a plurality of changed frame images or the original moving image may be displayed and output to the display unit 33.

このように、監視システム1は、損傷発生位置に関するひずみ応答データを、変化後の複数のフレーム画像を含む動画像又は元の動画像とともにユーザに提示することを可能とする。 In this way, the monitoring system 1 makes it possible to present the strain response data regarding the damage occurrence position to the user together with the moving image including the plurality of frame images after the change or the original moving image.

当業者は、本発明の精神及び範囲から外れることなく、様々な変更、置換、及び修正をこれに加えることが可能であることを理解されたい。 It will be appreciated by those skilled in the art that various changes, substitutions, and modifications can be made to this without departing from the spirit and scope of the invention.

1 監視システム
2 撮影装置
3 情報処理装置
31 記憶部
32 操作部
33 表示部
34 装着部
35 処理部
351 取得部
352 抽出部
353 作成部
354 算出部
355 特定部
356 画像処理部
357 判定部
358 出力処理部
1 Monitoring system 2 Imaging device 3 Information processing device 31 Storage unit 32 Operation unit 33 Display unit 34 Mounting unit 35 Processing unit 351 Acquisition unit 352 Extraction unit 353 Creation unit 354 Calculation unit 355 Specific unit 356 Image processing unit 357 Judgment unit 358 Output processing Department

Claims (6)

車両等が走行する鋼橋を撮影した動画像を撮影装置から取得する取得部と、
前記動画像に含まれる複数のフレーム画像のそれぞれから複数の特徴点を抽出する抽出部と、
所定のフレーム画像に含まれる一の特徴点と同一であると見做される、他のフレームに含まれる一の特徴点を判定し、同一であると見做される複数の特徴点を含む特徴点グループを作成する作成部と、
前記特徴点グループごとに、各特徴点グループに含まれる特徴点間の変位に基づいて、各特徴点グループの振動周波数を算出する算出部と、
算出された前記振動周波数のうち、前記車両等に固有の周波数帯に含まれる振動周波数を特定し、特定された前記振動周波数の特徴点グループを特定する特定部と、
特定された前記特徴点グループに含まれる特徴点間の前記変位を増幅させ、前記増幅された変位に基づいて、特定された前記特徴点グループに含まれる前記特徴点を移動させることにより、前記複数のフレーム画像のそれぞれを変化させる画像処理部と、
変化後の前記複数のフレーム画像を含む前記動画像を出力する出力部と、
を有する監視システム。
An acquisition unit that acquires a moving image of a steel bridge on which a vehicle or the like is traveling from a photographing device,
An extraction unit that extracts a plurality of feature points from each of the plurality of frame images included in the moving image,
A feature including a plurality of feature points that are considered to be the same as one feature point included in a predetermined frame image is determined, and one feature point included in another frame is determined to be the same. A creation unit that creates a point group, and
For each feature point group, a calculation unit that calculates the vibration frequency of each feature point group based on the displacement between the feature points included in each feature point group.
Among the calculated vibration frequencies, a specific unit that specifies the vibration frequency included in the frequency band peculiar to the vehicle or the like and specifies the feature point group of the specified vibration frequency, and
By amplifying the displacement between the feature points included in the specified feature point group and moving the feature points included in the specified feature point group based on the amplified displacement, the plurality of said. The image processing unit that changes each of the frame images of
An output unit that outputs the moving image including the plurality of frame images after the change,
Surveillance system with.
前記車両等の走行に起因する前記鋼橋の部材の変形モードに関する情報と、前記変形モードに対応する前記部材の補修補強方法に関する情報とを記憶する記憶部と、
変化後の前記フレーム画像に基づいて、前記鋼橋の部材の変形モードを判定するモード判定部と、を更に有し、
前記出力部は、判定された前記変形モードに対応する前記補修補強方法に関する情報を前記記憶部から抽出し、抽出した前記補修補強方法に関する情報を出力する、請求項1に記載の監視システム。
A storage unit that stores information on the deformation mode of the member of the steel bridge due to the traveling of the vehicle or the like and information on the repair and reinforcement method of the member corresponding to the deformation mode.
Further, it has a mode determination unit for determining the deformation mode of the member of the steel bridge based on the frame image after the change.
The monitoring system according to claim 1, wherein the output unit extracts information on the repair and reinforcement method corresponding to the determined deformation mode from the storage unit and outputs the extracted information on the repair and reinforcement method.
前記複数のフレーム画像のそれぞれについて、
前記各特徴点グループの位置を算出し、互いの距離が第1距離内の特徴点グループを統合して近距離グループを作成し、
前記近距離グループに含まれる特徴点のうち、対応する前記変位が最も大きい特徴点を、当該車両等の輪位置として特定する、位置特定部を有し、
前記出力部は、前記特定された輪位置を示す軌跡画像を、対応する前記フレーム画像に重畳することで、車両等の輪位置が特定された動画像を出力する、請求項2に記載の監視システム。
For each of the plurality of frame images
The position of each feature point group is calculated, and the feature point groups whose distances are within the first distance are integrated to create a short-distance group.
Among the feature points included in the short-distance group, the feature point having the largest displacement corresponds to the feature point having a position specifying portion for designating the wheel position of the vehicle or the like.
The monitoring according to claim 2, wherein the output unit outputs a moving image in which the wheel position of a vehicle or the like is specified by superimposing a locus image indicating the specified wheel position on the corresponding frame image. system.
前記取得部は、ユーザによって入力された前記動画像に含まれる鋼橋の部材の損傷発生位置を取得し、
前記位置特定部は、前記近距離グループに含まれる特徴点のうち、対応する前記変位が最も大きい特徴点であって、前記損傷発生位置から第2距離内の特徴点を、前記損傷発生に影響を与えた車両等の輪位置として特定する、請求項3に記載の監視システム。
The acquisition unit acquires the damage occurrence position of the steel bridge member included in the moving image input by the user.
The position specifying portion is a feature point having the largest displacement among the feature points included in the short-distance group, and the feature point within a second distance from the damage occurrence position affects the damage occurrence. The monitoring system according to claim 3, which specifies the wheel position of the vehicle or the like given the above.
前記取得部は、前記損傷発生位置の近傍に設置されたひずみ測定装置から出力されたひずみ応答データを測定時刻とともに取得し、
前記出力部は、前記動画像の撮影時刻と前記測定時刻とに基づいて、前記動画像と同期させたひずみ応答データを出力する、請求項4に記載の監視システム。
The acquisition unit acquires strain response data output from a strain measuring device installed near the damage occurrence position together with the measurement time.
The monitoring system according to claim 4, wherein the output unit outputs strain response data synchronized with the moving image based on the shooting time of the moving image and the measurement time.
監視システムが実行する監視方法であって、
車両等が走行する鋼橋を撮影した動画像を撮影装置から取得し、
前記動画像に含まれる複数のフレーム画像のそれぞれから複数の特徴点を抽出し、
所定のフレーム画像に含まれる一の特徴点と同一であると見做される、他のフレームに含まれる一の特徴点を判定し、同一であると見做される複数の特徴点を含む特徴点グループを作成し、
前記特徴点グループごとに、各特徴点グループに含まれる特徴点間の変位に基づいて、各特徴点グループの振動周波数を算出し、
算出された前記振動周波数のうち、前記車両等に固有の周波数帯に含まれる振動周波数を特定し、特定された前記振動周波数の特徴点グループを特定し、
特定された前記特徴点グループに含まれる特徴点間の前記変位を増幅させ、前記増幅された変位に基づいて、特定された前記特徴点グループに含まれる前記特徴点を移動させることにより、前記複数のフレーム画像のそれぞれを変化させ、
変化後の前記複数のフレーム画像を含む前記動画像を出力する、
ことを含む監視方法。
It is a monitoring method executed by the monitoring system.
Acquire a moving image of a steel bridge on which a vehicle or the like is traveling from the photographing device,
A plurality of feature points are extracted from each of the plurality of frame images included in the moving image, and a plurality of feature points are extracted.
A feature including a plurality of feature points that are considered to be the same as one feature point included in a predetermined frame image is determined, and one feature point included in another frame is determined to be the same. Create a point group and
For each feature point group, the vibration frequency of each feature point group is calculated based on the displacement between the feature points included in each feature point group.
Among the calculated vibration frequencies, the vibration frequency included in the frequency band peculiar to the vehicle or the like is specified, and the feature point group of the specified vibration frequency is specified.
By amplifying the displacement between the feature points included in the specified feature point group and moving the feature points included in the specified feature point group based on the amplified displacement, the plurality of said. Change each of the frame images of
Output the moving image including the plurality of frame images after the change.
Monitoring methods including that.
JP2019070202A 2019-04-01 2019-04-01 Monitoring system and monitoring method Active JP7235242B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019070202A JP7235242B2 (en) 2019-04-01 2019-04-01 Monitoring system and monitoring method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019070202A JP7235242B2 (en) 2019-04-01 2019-04-01 Monitoring system and monitoring method

Publications (2)

Publication Number Publication Date
JP2020170907A true JP2020170907A (en) 2020-10-15
JP7235242B2 JP7235242B2 (en) 2023-03-08

Family

ID=72747277

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019070202A Active JP7235242B2 (en) 2019-04-01 2019-04-01 Monitoring system and monitoring method

Country Status (1)

Country Link
JP (1) JP7235242B2 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113063484A (en) * 2021-03-31 2021-07-02 中煤科工集团重庆研究院有限公司 Vibration identification amplification method
CN114646381A (en) * 2022-03-30 2022-06-21 西安交通大学 Rotary mechanical vibration measuring method, system, equipment and storage medium
WO2023089706A1 (en) * 2021-11-17 2023-05-25 日本電信電話株式会社 Image processing device, image processing method, and program
WO2023089705A1 (en) * 2021-11-17 2023-05-25 日本電信電話株式会社 Image processing device, image processing method, and program

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010131489A1 (en) * 2009-05-15 2010-11-18 株式会社パスコ Method for detecting damage to a deck of a bridge
JP2015190270A (en) * 2014-03-28 2015-11-02 株式会社Nttファシリティーズ Bridge monitoring system, bridge monitoring method, and program
JP2017002658A (en) * 2015-06-15 2017-01-05 阪神高速技術株式会社 Bridge inspection method
JP2017067721A (en) * 2015-10-02 2017-04-06 セイコーエプソン株式会社 Measurement device, measurement method, measurement system and program
WO2017110278A1 (en) * 2015-12-25 2017-06-29 富士フイルム株式会社 Information processing device and information processing method
WO2017130700A1 (en) * 2016-01-26 2017-08-03 富士フイルム株式会社 Photography assistance device and photography assistance method
WO2017130699A1 (en) * 2016-01-26 2017-08-03 富士フイルム株式会社 Crack information detection device, crack information detection method, and crack information detection program
US20170221216A1 (en) * 2016-02-01 2017-08-03 Massachusetts Institute Of Technology Video-Based Identification of Operational Mode Shapes
US20180067637A1 (en) * 2014-12-11 2018-03-08 Jeffrey R. Hay Non-contacting monitor for bridges and civil structures
CN108458847A (en) * 2018-01-03 2018-08-28 东南大学 A kind of bridge people causes impact load measuring method and its fast testing system
JP2018138930A (en) * 2016-02-24 2018-09-06 パナソニックIpマネジメント株式会社 Displacement detection system and displacement detection method

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010131489A1 (en) * 2009-05-15 2010-11-18 株式会社パスコ Method for detecting damage to a deck of a bridge
JP2015190270A (en) * 2014-03-28 2015-11-02 株式会社Nttファシリティーズ Bridge monitoring system, bridge monitoring method, and program
US20180067637A1 (en) * 2014-12-11 2018-03-08 Jeffrey R. Hay Non-contacting monitor for bridges and civil structures
JP2017002658A (en) * 2015-06-15 2017-01-05 阪神高速技術株式会社 Bridge inspection method
JP2017067721A (en) * 2015-10-02 2017-04-06 セイコーエプソン株式会社 Measurement device, measurement method, measurement system and program
WO2017110278A1 (en) * 2015-12-25 2017-06-29 富士フイルム株式会社 Information processing device and information processing method
WO2017130700A1 (en) * 2016-01-26 2017-08-03 富士フイルム株式会社 Photography assistance device and photography assistance method
WO2017130699A1 (en) * 2016-01-26 2017-08-03 富士フイルム株式会社 Crack information detection device, crack information detection method, and crack information detection program
US20170221216A1 (en) * 2016-02-01 2017-08-03 Massachusetts Institute Of Technology Video-Based Identification of Operational Mode Shapes
JP2018138930A (en) * 2016-02-24 2018-09-06 パナソニックIpマネジメント株式会社 Displacement detection system and displacement detection method
CN108458847A (en) * 2018-01-03 2018-08-28 东南大学 A kind of bridge people causes impact load measuring method and its fast testing system

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113063484A (en) * 2021-03-31 2021-07-02 中煤科工集团重庆研究院有限公司 Vibration identification amplification method
CN113063484B (en) * 2021-03-31 2022-10-04 中煤科工集团重庆研究院有限公司 Vibration identification amplification method
WO2023089706A1 (en) * 2021-11-17 2023-05-25 日本電信電話株式会社 Image processing device, image processing method, and program
WO2023089705A1 (en) * 2021-11-17 2023-05-25 日本電信電話株式会社 Image processing device, image processing method, and program
CN114646381A (en) * 2022-03-30 2022-06-21 西安交通大学 Rotary mechanical vibration measuring method, system, equipment and storage medium
CN114646381B (en) * 2022-03-30 2023-01-24 西安交通大学 Rotary mechanical vibration measuring method, system, equipment and storage medium

Also Published As

Publication number Publication date
JP7235242B2 (en) 2023-03-08

Similar Documents

Publication Publication Date Title
JP7235242B2 (en) Monitoring system and monitoring method
JP4958497B2 (en) Position / orientation measuring apparatus, position / orientation measuring method, mixed reality presentation system, computer program, and storage medium
Luo et al. Edge‐enhanced matching for gradient‐based computer vision displacement measurement
JP2011505610A (en) Method and apparatus for mapping distance sensor data to image sensor data
KR20110076899A (en) Method of and arrangement for blurring an image
JP6239186B2 (en) Display control apparatus, display control method, and display control program
US20150302611A1 (en) Vehicle dimension estimation from vehicle images
CN109767453A (en) Information processing unit, background image update method and non-transient computer readable storage medium
JP2018036226A (en) Image processing program, image processing method, and image processing device
JP2013007624A (en) Displacement observation method and displacement observation system
JP2010140425A (en) Image processing system
JP2009140402A (en) Information display device, information display method, information display program, and recording medium with recorded information display program
CN113610702B (en) Picture construction method and device, electronic equipment and storage medium
Min et al. Non-contact and real-time dynamic displacement monitoring using smartphone technologies
US10970876B2 (en) Methods and apparatus for image locating relative to the global structure
US10346706B2 (en) Image processing device, image processing method, and non-transitory storage medium storing image processing program
WO2015005102A1 (en) Image processing device, image processing method, and image processing program
JP2010146522A (en) Face image tracking device, face image tracking method, and program
CN105869413A (en) Method for measuring traffic flow and speed based on camera video
JP2011090708A (en) Apparatus and method for detecting the number of objects
JP5251460B2 (en) Approaching object detection device, approaching object detection program, approaching object detection method
Kim et al. Real-time assessment of surface cracks in concrete structures using integrated deep neural networks with autonomous unmanned aerial vehicle
US20210027481A1 (en) System, method, and computer-readable medium for managing position of target
JP2016115082A (en) Image search system and image search method
CN103900713A (en) Device and method for detecting thermal image

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190617

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220325

TRDD Decision of grant or rejection written
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230118

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230124

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230215

R150 Certificate of patent or registration of utility model

Ref document number: 7235242

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350