JP2022015003A - Object state estimation system and object state estimation method - Google Patents

Object state estimation system and object state estimation method Download PDF

Info

Publication number
JP2022015003A
JP2022015003A JP2020117577A JP2020117577A JP2022015003A JP 2022015003 A JP2022015003 A JP 2022015003A JP 2020117577 A JP2020117577 A JP 2020117577A JP 2020117577 A JP2020117577 A JP 2020117577A JP 2022015003 A JP2022015003 A JP 2022015003A
Authority
JP
Japan
Prior art keywords
image
state
change
images
state value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020117577A
Other languages
Japanese (ja)
Other versions
JP7477839B2 (en
Inventor
茂美 長田
Shigemi Osada
俊斉 林
Toshinari Hayashi
淳 齋藤
Atsushi Saito
亮一 ▲高▼木
Ryoichi Takagi
裕史 谷口
Hirofumi Taniguchi
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kanazawa Institute of Technology (KIT)
Hazama Ando Corp
Original Assignee
Kanazawa Institute of Technology (KIT)
Hazama Ando Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kanazawa Institute of Technology (KIT), Hazama Ando Corp filed Critical Kanazawa Institute of Technology (KIT)
Priority to JP2020117577A priority Critical patent/JP7477839B2/en
Publication of JP2022015003A publication Critical patent/JP2022015003A/en
Application granted granted Critical
Publication of JP7477839B2 publication Critical patent/JP7477839B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)

Abstract

To provide an object state estimation system capable of determining the state of the object has changed without relying on determination of an operator, as well as, determining it more appropriately then ever, and to provide an object state estimation method using the system, so as to solve the problem of the prior art.SOLUTION: An object state estimation system of the present invention estimates a state change of an object based on images, and is provided with image classification means, state value calculation means, and change time extraction means. Of these, the state value calculation means calculates a "state value", which is a cumulative number of changed images counted in order of shooting time points from a start of shooting of the object, and the change time extraction means extracts, as a "change time" of the object, a shooting time point of the image when the state value exceeds a predetermined threshold value.SELECTED DRAWING: Figure 2

Description

本願発明は、対象物の状態変化の判断に関する技術であり、より具体的には、複数の画像に基づいて対象物の状態が変化した時点を推定する対象物状態推定システムと、これを用いた対象物状態推定方法に関するものである。 The present invention is a technique for determining a state change of an object, and more specifically, an object state estimation system that estimates a time point when the state of an object changes based on a plurality of images, and an object state estimation system using the same. It relates to an object state estimation method.

コンクリートは鋼材とともに最も重要な建設材料のひとつであり、ダム、トンネル、橋梁といった土木構造物や、集合住宅、オフィスビルなどの建築構造物をはじめ、様々な構造物に用いられている。このコンクリート構造物は、あらかじめ工場等で製作されて所定の場所まで運搬されることもあるが、土木構造物や建築構造物の場合、所定の場所(現場)で直接構築されることが多い。いずれにしろ、セメントと水、骨材等を練り混ぜた状態のコンクリート(フレッシュコンクリート)を型枠の中に投入し、コンクリートの硬化を待って型枠を外すことでコンクリート構造物は構築される。 Concrete is one of the most important construction materials along with steel, and is used in various structures such as civil engineering structures such as dams, tunnels, and bridges, and building structures such as apartment buildings and office buildings. This concrete structure may be manufactured in advance at a factory or the like and transported to a predetermined place, but in the case of a civil engineering structure or a building structure, it is often directly constructed at a predetermined place (site). In any case, the concrete structure is constructed by putting concrete (fresh concrete) in a state where cement, water, aggregate, etc. are kneaded into the formwork, waiting for the concrete to harden, and then removing the formwork. ..

フレッシュコンクリートは、アジテータ車からシュートを介して流し込んだり、コンクリートポンプ車によってホースから落下させたり、場合によっては作業者がスコップではねることによって、型枠内に投入される。そして、型枠内に投入されたフレッシュコンクリートは、振動機(振動バイブレータ)によって締め固められる。振動バイブレータによって振動が与えられるとコンクリートは液状化し、さらに液状化することによってコンクリート内の気泡が上昇して外部に抜けだすとともに、コンクリート内の骨材とモルタルが再配置され、その結果、コンクリートは締め固められる。 Fresh concrete is poured into the formwork by pouring it from an agitator truck through a chute, dropping it from a hose by a concrete pump truck, or in some cases by a worker shoveling it. Then, the fresh concrete put into the formwork is compacted by a vibrator (vibration vibrator). When vibration is applied by the vibration vibrator, the concrete is liquefied, and the liquefaction causes the bubbles in the concrete to rise and escape to the outside, and the aggregate and mortar in the concrete are rearranged, resulting in the concrete. It is compacted.

従来、コンクリートの締固めの程度の適否(つまり、十分に締め固められたか否か)を判断するにあたっては、コンクリート表面の微妙な変化や締固め時間など様々な要因に基づくオペレ―タ(作業者)の判断に委ねられていた。コンクリート標準示方書[施工編]においても、「コンクリートとせき板との接触面にセメントペーストの線が現れること」、「コンクリートの体積が減っていくのが認められず、表面がほぼ水平となり、表面に光沢が現れること」を確認して判断することとしている。つまり、コンクリートの締固め程度の適否判断、ひいてはコンクリート構造物の品質は、振動バイブレータのオペレータの経験や知見に依存していたわけである。しかしながら、締固めの適否判断を正確に行うことができるオペレータは限定的であり、そのうえ近年の慢性的な人手不足の問題もあって、適時にそのようなオペレータを確保することは難しくなっている。 Conventionally, in determining the appropriateness of the degree of compaction of concrete (that is, whether or not it has been sufficiently compacted), an operator (worker) based on various factors such as subtle changes in the concrete surface and compaction time. ) Was left to the judgment. In the concrete standard specification [Construction], "a line of cement paste appears on the contact surface between the concrete and the dam" and "the volume of the concrete is not reduced, and the surface becomes almost horizontal. It is decided to make a judgment after confirming that "gloss appears on the surface". In other words, the appropriateness of the degree of compaction of concrete, and the quality of the concrete structure, depended on the experience and knowledge of the operator of the vibration vibrator. However, the number of operators who can accurately judge the suitability of compaction is limited, and it is difficult to secure such operators in a timely manner due to the problem of chronic labor shortage in recent years. ..

そこで、オペレータのいわば定性的な判断に頼ることなく、客観的にコンクリートの締固めを評価する技術が、これまでにもいくつか提案されてきた。例えば特許文献1では、締固めを行っているコンクリートの画像を連続取得し、機械学習を活用してその画像から締固めの程度を判定する技術について提案している。 Therefore, some techniques for objectively evaluating the compaction of concrete without relying on the operator's so-called qualitative judgment have been proposed so far. For example, Patent Document 1 proposes a technique for continuously acquiring images of concrete to be compacted and utilizing machine learning to determine the degree of compaction from the images.

特開2020-41290号公報Japanese Unexamined Patent Publication No. 2020-41290

特許文献1が示す技術は、オペレータの定性的な判断に頼ることなく、客観的に判定できるという点において極めて有益な技術である。コンクリートの締固めの程度を適切に判断できるオペレータを必ずしも確保する必要がなく、また判断した結果が残るため事後の検証や説明責任を果たすこともできる。 The technique shown in Patent Document 1 is extremely useful in that it can be objectively determined without relying on the qualitative judgment of the operator. It is not always necessary to secure an operator who can properly judge the degree of compaction of concrete, and since the judgment result remains, it is possible to fulfill post-mortem verification and accountability.

ところで、画像によってコンクリートの締固めの程度を判断する場合、特許文献1を含む従来技術では、取得した画像単位で判断するのが主流であった。すなわち、コンクリートの締固め作業中に連続して取得された個々の画像に対して、それぞれ「十分に締固めが行われたと評価(以下、便宜上「完了評価」という。)」、あるいは「まだ十分に締固めが行われていないと評価(以下、便宜上「未完評価」という。)」のうちいずれかを付与し、画像取得から最初に「完了評価」が付与された画像の取得時刻をもってコンクリートの締固めが完了したと判断していたわけである。 By the way, when the degree of compaction of concrete is judged from an image, in the prior art including Patent Document 1, it is the mainstream to judge by the acquired image unit. That is, for each of the individual images continuously acquired during the concrete compaction work, "evaluation that sufficient compaction has been performed (hereinafter referred to as" completion evaluation "for convenience)" or "still sufficient". One of the "evaluations" (hereinafter referred to as "unfinished evaluation" for convenience) "is given to the concrete if it has not been compacted, and the concrete is given the acquisition time of the image to which the" completion evaluation "was first given from the image acquisition. It was judged that the compaction was completed.

しかしながら、機械学習を活用するなど自動的に画像認識を行う技術では、いまだ完全に正解を得ることができないのが現状である。あくまで、完了評価か未完評価のうち尤度が高い方を正解として出力しているに過ぎない。特にコンクリートの締固めの場合、締固め完了前後では熟練したオペレータでもその判断が慎重になるように、画像認識技術による判定では完了評価か未完評価のうち一方の尤度が卓越することがなく、つまり不正解を出力しやすい傾向にある。 However, the current situation is that it is still not possible to obtain a complete correct answer with a technology that automatically recognizes images, such as by utilizing machine learning. To the last, the one with the higher likelihood of the completed evaluation or the incomplete evaluation is output as the correct answer. Especially in the case of concrete compaction, the likelihood of either completion evaluation or incomplete evaluation does not prevail in the judgment by image recognition technology so that even a skilled operator can make a careful judgment before and after the completion of compaction. In other words, it tends to output incorrect answers.

本願発明の課題は、従来技術が抱える問題を解決することであり、すなわち人(オペレータ)の判断に頼ることなく客観的に対象物(例えば、フレッシュコンクリート)の状態が変化した(例えば、十分な締固めが行われた)と判断することができ、しかも従来に比して適切に判断することができる対象物状態推定システムと、これを用いた対象物状態推定方法を提供することである。 The object of the present invention is to solve the problem of the prior art, that is, the state of the object (for example, fresh concrete) is objectively changed without relying on the judgment of a person (operator) (for example, sufficient). It is to provide an object state estimation system that can be determined to have been compacted) and that can be appropriately determined as compared with the conventional case, and an object state estimation method using the system.

本願発明は、その状態が変化する対象物に対して連続して取得された複数の画像のうち、単体の画像によって対象物の状態が変化したと判定するのではなく、複数の画像を用いていわば総合的に対象物の状態変化の判定を行う、という点に着目してなされたものであり、これまでにない発想に基づいて行われた発明である。 The present invention uses a plurality of images, rather than determining that the state of the object has changed due to a single image, among a plurality of images continuously acquired for the object whose state changes. So to speak, it was made focusing on the point that the state change of the object is comprehensively determined, and it is an invention made based on an unprecedented idea.

本願発明の対象物状態推定システムは、所定の撮影時間間隔で対象物を撮影した複数の画像に基づいて対象物の状態の変化を推定するシステムであり、画像分類手段と状態値算出手段、変化時刻抽出手段を備えたものである。このうち画像分類手段は、機械学習によって構築された「学習済みモデル」を用いた画像認識を行うことによって画像ごとに対象物の変化の有無を判定するとともに、対象物に変化が有ると判定された画像を「変化後画像」に分類する手段である。また状態値算出手段は、対象物の撮影開始から撮影時刻順に数えた変化後画像の累計数である「状態値」を算出する手段であり、変化時刻抽出手段は、状態値があらかじめ定めた閾値を超えたときの画像に係る撮影時刻を対象物の「変化時刻」として抽出する手段である。そして変化時刻抽出手段によって抽出された変化時刻において、対象物の状態が変化したと推定する。 The object state estimation system of the present invention is a system that estimates a change in the state of an object based on a plurality of images of the object taken at a predetermined shooting time interval, and is an image classification means, a state value calculation means, and a change. It is equipped with a time extraction means. Of these, the image classification means determines whether or not there is a change in the object for each image by performing image recognition using the "trained model" constructed by machine learning, and it is determined that the object has a change. It is a means to classify the image as a "post-change image". Further, the state value calculation means is a means for calculating a "state value" which is the cumulative number of changed images counted in order of shooting time from the start of shooting of the object, and the change time extraction means is a means for extracting the state value to a predetermined threshold value. This is a means for extracting the shooting time of the image when the value exceeds the above as the "change time" of the object. Then, it is estimated that the state of the object has changed at the change time extracted by the change time extraction means.

本願発明の対象物状態推定システムは、「画像グループ」における変化後画像数の割合を状態値として、対象物の状態変化を推定するものとすることもできる。ここで画像グループとは、撮影時刻順に並べた画像を複数に分割した結果得られる、複数の画像からなる集合である。この場合、状態値算出手段は、画像グループにおける変化後画像数の割合を状態値として算出する。また変化時刻抽出手段は、状態値が閾値を超えた画像グループのうち最も早い撮影時刻に係る画像グループを選出するとともに、選出された画像グループのうちあらかじめ定めた撮影順位(例えば、画像グループの最後)の画像に係る撮影時刻を変化時刻として抽出する。 The object state estimation system of the present invention can also estimate the state change of the object by using the ratio of the number of changed images in the "image group" as the state value. Here, the image group is a set of a plurality of images obtained as a result of dividing the images arranged in order of shooting time into a plurality of images. In this case, the state value calculating means calculates the ratio of the number of changed images in the image group as the state value. Further, the change time extraction means selects the image group related to the earliest shooting time among the image groups whose state values exceed the threshold value, and also selects a predetermined shooting order (for example, the end of the image group) among the selected image groups. ) Is extracted as the change time.

本願発明の対象物状態推定システムは、「画像セット」における変化後画像数の割合を状態値として、対象物の状態変化を推定するものとすることもできる。ここで画像セットとは、撮影時刻順に並べた画像に対して一定数まとめた結果得られる、複数の画像からなる集合である。この場合、状態値算出手段は、画像セットを移動しながら、画像セットにおける変化後画像数の割合を状態値として算出する。また変化時刻抽出手段は、状態値が閾値を超えた画像セットのうち最も早い撮影時刻に係る画像セットを選出するとともに、選出された画像セットのうちあらかじめ定めた撮影順位の画像に係る撮影時刻を変化時刻として抽出する。 The object state estimation system of the present invention can also estimate the state change of the object by using the ratio of the number of changed images in the "image set" as the state value. Here, the image set is a set consisting of a plurality of images obtained as a result of collecting a certain number of images arranged in order of shooting time. In this case, the state value calculating means calculates the ratio of the number of changed images in the image set as the state value while moving the image set. Further, the change time extraction means selects the image set related to the earliest shooting time from the image sets whose state values exceed the threshold value, and also selects the shooting time related to the images of the predetermined shooting order from the selected image sets. Extract as change time.

本願発明の対象物状態推定システムは、継続して締め固めが行われているフレッシュコンクリートを対象として、締固めの程度を推定するものとすることもできる。この場合、画像分類手段は、フレッシュコンクリートが締め固められたと判定された画像を変化後画像に分類する、 The object state estimation system of the present invention can also estimate the degree of compaction of fresh concrete that has been continuously compacted. In this case, the image classification means classifies the image determined to be compacted with fresh concrete into the post-change image.

本願発明の対象物状態推定システムは、表示手段と表示諸元設定手段をさらに備えたものとすることもできる。この表示手段は、画像を複数に分割した「分割画像」を表示する手段であり、表示諸元設定手段は、分割画像ごとに状態値に応じた「表示諸元」を設定する手段である。ここで表示諸元とは、分割画像を表示する際の透過度、分割画像をハイライトするための表示色、分割画像の周囲に表示する枠線の表示色など上げることができる。この場合、画像分類手段は、分割画像ごとに対象物の変化の有無を判定するとともに、対象物に変化が有ると判定された分割画像を変化後画像に分類し、また状態値算出手段は、分割画像ごとに状態値を算出する。そして、表示手段は、表示諸元設定手段によって設定された表示諸元に基づいて、分割画像を表示する。 The object state estimation system of the present invention may further include display means and display specification setting means. This display means is a means for displaying a "divided image" in which an image is divided into a plurality of parts, and a display specification setting means is a means for setting a "display specification" according to a state value for each divided image. Here, the display specifications can be increased such as the transparency when displaying the divided image, the display color for highlighting the divided image, and the display color of the frame line displayed around the divided image. In this case, the image classification means determines whether or not there is a change in the object for each divided image, classifies the divided image determined to have a change in the object into the changed image, and the state value calculation means The state value is calculated for each divided image. Then, the display means displays the divided image based on the display specifications set by the display specification setting means.

本願発明の対象物状態推定方法は、本願発明の対象物状態推定システムを用いて対象物の状態変化を推定する方法であり、画像取得工程と画像分類工程、状態値算出工程、変化時刻抽出工程を備えた方法である。このうち画像取得工程では、撮影時間間隔で対象物を撮影して複数の画像を取得し、画像分類工程では、画像分類手段によって対象物に変化が有ると判定された画像を変化後画像に分類する。また状態値算出工程では、状態値算出手段によって状態値を算出し、変化時刻抽出工程では、変化時刻抽出手段によって対象物の変化時刻を抽出する。そして、変化時刻抽出工程によって抽出された変化時刻において、対象物の状態が変化したと推定する。 The object state estimation method of the present invention is a method of estimating a state change of an object by using the object state estimation system of the present invention, and is an image acquisition step, an image classification step, a state value calculation step, and a change time extraction step. It is a method equipped with. Of these, in the image acquisition step, an object is photographed at shooting time intervals to acquire a plurality of images, and in the image classification step, images determined by the image classification means to have a change in the object are classified into post-change images. do. Further, in the state value calculation step, the state value is calculated by the state value calculation means, and in the change time extraction step, the change time of the object is extracted by the change time extraction means. Then, it is estimated that the state of the object has changed at the change time extracted by the change time extraction step.

本願発明の対象物状態推定システム、及び対象物状態推定方法には、次のような効果がある。
(1)例えば、振動バイブレータを操作するオペレータの判断に頼ることなく、客観的にしかも即時的(リアルタイム)にコンクリート(対象物)の締固め完了(状態変化)を判断することができる。
(2)機械学習による画像認識の誤差を吸収する結果、従来に比して適切にコンクリートの締固め程度を判断することができる。
(3)人によって振動バイブレータを操作する場合に限らず、建設機械等に装着した振動バイブレータを操作する場合など、様々なケースに適用することができる。
The object state estimation system and the object state estimation method of the present invention have the following effects.
(1) For example, it is possible to objectively and immediately (real-time) determine the completion of compaction (state change) of concrete (object) without relying on the determination of the operator who operates the vibration vibrator.
(2) As a result of absorbing the error of image recognition by machine learning, it is possible to appropriately judge the degree of compaction of concrete as compared with the conventional case.
(3) Not only when the vibration vibrator is operated by a person, but also when the vibration vibrator attached to a construction machine or the like is operated, it can be applied to various cases.

動画や連続静止画を構成する複数の画像を模式的に示すモデル図。A model diagram schematically showing a plurality of images constituting a moving image or a continuous still image. 本願発明の対象物状態推定システムの主な構成を示すブロック図。The block diagram which shows the main structure of the object state estimation system of this invention. 本願発明の対象物状態推定システムの主な処理の流れを示すフロー図。The flow chart which shows the main processing flow of the object state estimation system of this invention. 第1の状態値を算出する手順を説明するためのモデル図。A model diagram for explaining a procedure for calculating a first state value. 第2の状態値を算出する手順を説明するためのモデル図。A model diagram for explaining a procedure for calculating a second state value. 第3の状態値を算出する手順を説明するためのモデル図。A model diagram for explaining a procedure for calculating a third state value. (a)は1つの画像を1つの領域として表示された画像を示す正面図、(b)は複数の分割領域で構成された画像を示す正面図。(A) is a front view showing an image displayed with one image as one area, and (b) is a front view showing an image composed of a plurality of divided areas. (a)は締固め初期におけるコンクリートの状態を透過度で表した正面図、(b)は締固めがある程度進行したコンクリートの状態を透過度で表した正面図。(A) is a front view showing the state of concrete at the initial stage of compaction by permeability, and (b) is a front view showing the state of concrete in which compaction has progressed to some extent by permeability. (a)は締固め初期におけるコンクリートの状態を画像枠の表示色で表した正面図、(b)は締固めがある程度進行したコンクリートの状態を画像枠の表示色で表した正面図。(A) is a front view showing the state of concrete at the initial stage of compaction by the display color of the image frame, and (b) is a front view showing the state of concrete in which compaction has progressed to some extent by the display color of the image frame. 注目画像グループや注目画像セットのうちあらかじめ定められた撮影順位に基づいて選出された注目画像を模式的に示すモデル図。A model diagram schematically showing an attention image selected based on a predetermined shooting order from an attention image group or an attention image set. 本願発明の対象物状態方法の主な処理の流れを示すフロー図。The flow chart which shows the main processing flow of the object state method of this invention.

本願発明の対象物状態推定システム、及び対象物状態推定方法の実施の例を図に基づいて説明する。なお、本願発明の対象物状態推定システム、及び対象物状態推定方法は、その状態が変化していく対象物の特定の変化点(変化状態)を推定する技術であり、したがって状態が変化するあらゆるものを対象とすることができる。例えば、対象物をフレッシュコンクリートとして一定程度硬化した状態を推定したり、対象物を締固め作業が行われている盛土として十分に締固まった状態を推定したり、地すべりや崩壊の危険がある斜面を対象として有害な変動が生じた状態を推定するなど、様々な対象物の状態変化を推定する場合に利用することができる。便宜上ここでは、締固め作業が行われているフレッシュコンクリートを対象として、コンクリートが十分に締固められた状態(以下、「締固め完了状態」という。)を推定する例で説明することとする。 An example of the implementation of the object state estimation system and the object state estimation method of the present invention will be described with reference to the drawings. The object state estimation system and the object state estimation method of the present invention are techniques for estimating a specific change point (change state) of an object whose state changes, and therefore any state changes. You can target things. For example, it is estimated that the object is hardened to a certain extent as fresh concrete, it is estimated that the object is sufficiently compacted as an embankment where compaction work is being performed, and slopes where there is a risk of landslides and collapse. It can be used to estimate the state change of various objects, such as estimating the state in which a harmful change has occurred. For the sake of convenience, here, an example of estimating a state in which concrete is sufficiently compacted (hereinafter referred to as "compacting completed state") will be described for fresh concrete in which compaction work is being performed.

また本願発明の対象物状態推定システム、及び対象物状態推定方法を、コンクリートの締固め完了状態の推定に利用する場合、場所打ちコンクリート作業のほか、工場等でのプレキャストコンクリートの製作や、施工現場でのプレキャストコンクリート(いわゆるサイトPC)の製作などで実施することができる。 Further, when the object state estimation system and the object state estimation method of the present invention are used for estimating the compaction completion state of concrete, in addition to cast-in-place concrete work, precast concrete production in factories, etc., and construction sites It can be carried out by manufacturing precast concrete (so-called site PC) in.

1.全体概要
本願発明は、例えば締固め作業が継続して行われているコンクリートを撮影した画像に基づいて、締固め完了状態を推定する技術である。より詳しくは、締固めによって変化するコンクリートを順次撮影していき、その結果得られる複数の画像ごとに締固め完了状態か否かを暫定的に判断するとともに、その判断が行われた複数の画像から総合的に締固め完了状態となった時点を推定する。そのため、目的とする変化状態(締固め完了状態)を逃さないように、対象物(コンクリート)の画像を取得する時間間隔(以下、「撮影時間間隔」という。)は比較的短い方がよく、図1に示すように動画や連続静止画として対象物を撮影するとよい。なお動画、連続静止画ともに極めて短い間隔で取得された画像(フレーム)で構成されるものであるが、一般的に毎秒24~60枚(つまり、24~60fps)の画像によるものを動画とすることから、ここでは特に24fps未満あるいは60fpsを超える画像で構成されるものを連続静止画としている。
1. 1. Overall Overview The present invention is, for example, a technique for estimating the compaction completion state based on an image of concrete in which the compaction work is continuously performed. More specifically, the concrete that changes due to compaction is photographed in sequence, and for each of the multiple images obtained as a result, it is tentatively determined whether or not the compaction is completed, and the multiple images for which the determination is made. Estimate the time when the compaction is completed comprehensively from. Therefore, it is better that the time interval for acquiring the image of the object (concrete) (hereinafter referred to as "shooting time interval") is relatively short so as not to miss the target change state (compacting completed state). As shown in FIG. 1, it is advisable to shoot an object as a moving image or a continuous still image. Both moving images and continuous still images are composed of images (frames) acquired at extremely short intervals, but generally, images of 24 to 60 images per second (that is, 24 to 60 fps) are regarded as moving images. Therefore, here, a continuous still image is defined as an image composed of an image of less than 24 fps or more than 60 fps.

2.対象物状態推定システム
本願発明の対象物状態推定システムについて詳しく説明する。なお、本願発明の対象物状態推定方法は、本願発明の対象物状態推定システムを用いて対象物の変化状態を推定する方法である。したがって、まずは本願発明の対象物状態推定システムについて説明し、その後に本願発明の対象物状態推定方法について説明することとする。
2. 2. Object state estimation system The object state estimation system of the present invention will be described in detail. The object state estimation method of the present invention is a method of estimating the change state of the object by using the object state estimation system of the present invention. Therefore, first, the object state estimation system of the present invention will be described, and then the object state estimation method of the present invention will be described.

図2は、本願発明の対象物状態推定システム100の主な構成を示すブロック図である。この図に示すように本願発明の対象物状態推定システム100は、画像分類手段110と状態値算出手段120、変化時刻抽出手段130を含んで構成され、さらに表示諸元設定手段140やディスプレイなどの表示手段150、画像記憶手段160、学習済みモデル記憶手段170を含んで構成することもできる。 FIG. 2 is a block diagram showing a main configuration of the object state estimation system 100 of the present invention. As shown in this figure, the object state estimation system 100 of the present invention includes an image classification means 110, a state value calculation means 120, and a change time extraction means 130, and further includes display specification setting means 140, a display, and the like. It can also be configured to include a display means 150, an image storage means 160, and a trained model storage means 170.

対象物状態推定システム100を構成する主な要素のうち画像分類手段110と状態値算出手段120、変化時刻抽出手段130、表示諸元設定手段140は、専用のものとして製造することもできるし、汎用的なコンピュータ装置を利用することもできる。このコンピュータ装置は、CPU等のプロセッサ、ROMやRAMといったメモリ、マウスやキーボード等の入力手段やディスプレイを具備するもので、パーソナルコンピュータ(PC)やサーバー、iPad(登録商標)といったタブレット型PC、スマートフォンを含む携帯端末などによって構成することができる。ディスプレイを具備したコンピュータ装置を利用する場合は、そのディスプレイを表示手段150として利用するとよい。 Among the main elements constituting the object state estimation system 100, the image classification means 110, the state value calculation means 120, the change time extraction means 130, and the display specification setting means 140 can be manufactured as dedicated ones. A general-purpose computer device can also be used. This computer device is equipped with a processor such as a CPU, a memory such as a ROM and a RAM, an input means such as a mouse and a keyboard, and a display. A personal computer (PC), a server, a tablet PC such as an iPad (registered trademark), and a smartphone. It can be configured by a mobile terminal or the like including. When a computer device provided with a display is used, the display may be used as the display means 150.

また、画像記憶手段160や学習済みモデル記憶手段170は、汎用的コンピュータの記憶装置を利用することもできるし、データベースサーバーに構築することもできる。データベースサーバーに構築する場合、ローカルなネットワーク(LAN:Local Area Network)に置くこともできるし、インターネット経由(つまり無線通信)で保存するクラウドサーバーとすることもできる。 Further, the image storage means 160 and the trained model storage means 170 can use a storage device of a general-purpose computer or can be built on a database server. When building on a database server, it can be placed on a local network (LAN: Local Area Network), or it can be a cloud server that stores via the Internet (that is, wireless communication).

次に、図3を参照しながら本願発明の対象物状態推定システム100を使用したときの主な処理の流れについて説明する。図3は、対象物状態推定システム100の主な処理の流れを示すフロー図であり、中央の列に実施する処理を示し、左列にはその処理に必要な入力情報を、右列にはその処理から生まれる出力情報を示している。 Next, the main processing flow when the object state estimation system 100 of the present invention is used with reference to FIG. 3 will be described. FIG. 3 is a flow chart showing the main processing flow of the object state estimation system 100. The central column shows the processing to be performed, the left column shows the input information required for the processing, and the right column shows the input information required for the processing. The output information generated from that process is shown.

まずは画像分類手段110(図2)が画像記憶手段160(図2)から画像を読み出し、その画像に収められているコンクリートの状態が「締固め完了状態」か否かを判断する(図3のStep110)。画像記憶手段160には、締固めによって変化するコンクリートを所定の撮影時間間隔で撮影した複数の画像(つまり、動画や連続静止画)が、その撮影時刻と関連付けられた(紐づけられた)うえで記憶されており、すなわちこれら画像には撮影時刻という情報が付与されている。そして画像分類手段110は、読み出した画像ごとにそれぞれ締固め完了状態か否かを判断する。ただし、ここでの判断はあくまで画像単位で行ったいわば暫定的な判断であって、コンクリートの状態を最終的に判断するものではない。便宜上ここでは、対象物に変化が有ると判定された画像、つまり締固め完了状態と判断された画像のことを「変化後画像」ということとし、締固め完了状態と判断されない画像のことを「変化前画像」ということとする。換言すれば画像分類手段110は、画像記憶手段160から読み出した画像ごとに変化後画像、あるいは変化前画像に分類するわけである。 First, the image classification means 110 (FIG. 2) reads an image from the image storage means 160 (FIG. 2), and determines whether or not the state of the concrete contained in the image is the "compacting completed state" (FIG. 3). Step 110). In the image storage means 160, a plurality of images (that is, moving images and continuous still images) obtained by shooting concrete that changes due to compaction at predetermined shooting time intervals are associated (linked) with the shooting time. That is, these images are given information called the shooting time. Then, the image classification means 110 determines whether or not the compaction is completed for each of the read images. However, the judgment here is only a tentative judgment if it is to be made on an image-by-image basis, and is not a final judgment on the state of concrete. For convenience, here, the image determined to have a change in the object, that is, the image determined to be in the compaction completed state is referred to as the "post-change image", and the image not determined to be in the compaction completed state is referred to as "the image in the compaction completed state". It is called "image before change". In other words, the image classification means 110 classifies each image read from the image storage means 160 into a post-change image or a pre-change image.

画像分類手段110が画像を分類するにあたっては、学習済みモデル記憶手段170(図2)に記憶された「学習済みモデル」が利用される。この学習済みモデルは、機械学習によって構築されたものであり、より詳しくは「変化後画像とされた画像」や「変化前画像とされた画像」を教師データとして学習することによって変化後画像の特徴量を抽出したもので、任意の画像を入力すると変化後画像に該当するか否かを出力するモデルである。なお、学習済みモデルを構築するための機械学習は、画像認識として多用されるCNN(Convolutional Neural Network)や、CNNよりも高精度で画像を認識するとされるNIN(Network In Network)を含む深層学習(deep learning)のほか、従来用いられている種々の機械学習技術を採用することができる。 When the image classification means 110 classifies images, the "trained model" stored in the trained model storage means 170 (FIG. 2) is used. This trained model was constructed by machine learning, and more specifically, by learning the "image as a post-change image" and the "image as a pre-change image" as teacher data, the post-change image can be obtained. It is a model that extracts the feature amount and outputs whether or not it corresponds to the changed image when an arbitrary image is input. Machine learning for constructing a trained model includes deep learning including CNN (Convolutional Neural Network), which is often used for image recognition, and NIN (Network In Network), which is said to recognize images with higher accuracy than CNN. In addition to (deep learning), various conventionally used machine learning techniques can be adopted.

画像分類手段110が読み出したすべての画像に対して変化後画像か変化前画像に分類すると、状態値算出手段120(図2)がコンクリートの状態を示す「状態値」を算出する(図3のStep120)。この状態値は、変化後画像の数や割合に応じて決定される値であり、変化後画像の累計数によって求められる状態値(以下、「第1の状態値」という。)、一定数の画像集合(以下、「画像グループ」)における変化後画像の割合によって求められる状態値(以下、「第2の状態値」という。)、移動していく領域に含まれる画像集合(以下、「画像セット」)における変化後画像の割合によって求められる状態値(以下、「第3の状態値」という。)に大別することができる。以下、第1の状態値と第2の状態値、第3の状態値を求める手順について、それぞれ詳しく説明する。 When all the images read by the image classification means 110 are classified into a post-change image or a pre-change image, the state value calculation means 120 (FIG. 2) calculates a "state value" indicating the state of concrete (FIG. 3). Step120). This state value is a value determined according to the number and ratio of the changed images, and is a state value (hereinafter referred to as "first state value") obtained by the cumulative number of changed images, or a fixed number. A state value (hereinafter referred to as "second state value") obtained by the ratio of changed images in an image set (hereinafter referred to as "image group"), and an image set included in a moving area (hereinafter referred to as "image"). It can be roughly classified into a state value (hereinafter, referred to as a "third state value") obtained by the ratio of the changed image in the "set"). Hereinafter, the procedure for obtaining the first state value, the second state value, and the third state value will be described in detail.

図4は、第1の状態値を算出する手順を説明するためのモデル図である、この図では、個々の画像をそれぞれ線分(縦線)で表しており、撮影を開始した画像(図では最左端の画像)から撮影時刻順(つまり、時間の経過順)に画像を並べている。また、変化前画像と変化後画像を線分の濃淡で区別しており、すなわち変化前画像を淡い(薄い)線分で示し、変化後画像を濃い線分で示している。 FIG. 4 is a model diagram for explaining a procedure for calculating the first state value. In this figure, each image is represented by a line segment (vertical line), and an image in which shooting is started (FIG. 4). Then, the images are arranged in order of shooting time (that is, in order of passage of time) from the leftmost image). Further, the pre-change image and the post-change image are distinguished by the shade of the line segment, that is, the pre-change image is shown by a light (light) line segment, and the post-change image is shown by a dark line segment.

図4に示すように、時間が経過するほど、つまり締固め時間が長くなるほど、変化後画像に分類された数が多くなる。そして、最初に変化後画像が現れたときには変化後画像の出現頻度は低く、後半(図の右側)には変化後画像の出現頻度が高くなっている。したがって、従来技術のように最初に変化後画像が現れたときを「締固め完了状態」と決定するのは、その画像における特徴量の偶然性を排除することができず、その判断の信頼度は低いといえる。一方、変化後画像の出現数が増えてくるとその出現頻度も高くなり、「締固め完了状態」になったことが十分推定できる。つまり、変化後画像の出現数は、コンクリートの締固め状態を示す指標になると考えることができる。そこで「第1の状態値」は、撮影開始から撮影時刻順に数えた変化後画像の累計数として求めることとした。 As shown in FIG. 4, as time elapses, that is, as the compaction time becomes longer, the number classified into the changed image increases. When the changed image first appears, the appearance frequency of the changed image is low, and the appearance frequency of the changed image is high in the latter half (right side of the figure). Therefore, it is not possible to eliminate the contingency of the feature amount in the image to determine the "compacting completed state" when the image after the change first appears as in the prior art, and the reliability of the judgment is high. It can be said that it is low. On the other hand, as the number of appearances of the image after the change increases, the frequency of appearance also increases, and it can be fully estimated that the "compacting completed state" has been reached. That is, the number of appearances of the changed image can be considered as an index showing the compacted state of concrete. Therefore, the "first state value" is determined as the cumulative number of changed images counted in order of shooting time from the start of shooting.

図5は、第2の状態値を算出する手順を説明するためのモデル図である、この図も図4と同様、淡い線分で示す変化前画像と濃い線分で示す変化後画像を撮影時刻順に並べている。第2の状態値を算出にするにあたっては、まず撮影時刻順に並べた画像を複数の画像グループに分割する。例えば図5の場合、第1画像グループから第5画像グループまで5つの画像グループに分割している。そして第2の状態値は、画像グループを構成する画像の数、つまり変化前画像と変化後画像の総数に対する変化後画像の数の割合(百分率)として求められる。例えば、21枚の変化前画像と9枚の変化後画像を含む画像グループにおける第2の状態値は30%であり、3枚の変化前画像と27枚の変化後画像を含む画像グループにおける第2の状態値は90%となる。このように第2の状態値は、画像グループごとに算出される。 FIG. 5 is a model diagram for explaining the procedure for calculating the second state value. Similar to FIG. 4, this figure also captures a pre-change image shown by a light line segment and a post-change image shown by a dark line segment. They are arranged in chronological order. In calculating the second state value, first, the images arranged in order of shooting time are divided into a plurality of image groups. For example, in the case of FIG. 5, the first image group to the fifth image group are divided into five image groups. The second state value is obtained as the number of images constituting the image group, that is, the ratio (percentage) of the number of changed images to the total number of pre-change images and post-change images. For example, the second state value in the image group containing 21 pre-change images and 9 post-change images is 30%, and the second in the image group containing 3 pre-change images and 27 post-change images. The state value of 2 is 90%. In this way, the second state value is calculated for each image group.

画像グループは、あらかじめ定めた画像枚数ごとに分割することができ、例えば30枚の画像が含まれるように画像グループを設定することができる。もちろん30枚単位で分割する場合に限らず、15枚単位や60枚単位など、コンクリートの状態等に応じて適宜設定した画像数で分割することができる。また、画像が所定の撮影時間間隔で取得されことを考えれば、画像グループは一定の時間ごとに分割された画像の集合(グループ)ということもできる。例えば、30fpsで画像が取得されている場合、30枚の画像ごとに画像グループを分割すると、その分割グループは1秒間の長さを有すると考えることができる。すなわち画像グループは、いわばコンクリートの状態を判断するための時間幅であり、第2の状態値はその時間幅ごとに判断されたコンクリートの状態を示す指標である。従来、オペレータは1秒~数秒単位で締固めの程度を判定していることから、時間幅が1秒~数秒となるように画像グループを分割するとよい。 The image group can be divided according to a predetermined number of images, and the image group can be set so as to include, for example, 30 images. Of course, it is not limited to the case of dividing in units of 30 sheets, but it can be divided in units of 15 sheets or 60 sheets, which is appropriately set according to the state of concrete and the like. Further, considering that images are acquired at predetermined shooting time intervals, an image group can be said to be a set (group) of images divided at regular time intervals. For example, when an image is acquired at 30 fps, if an image group is divided into 30 images, the divided group can be considered to have a length of 1 second. That is, the image group is, so to speak, a time width for determining the state of concrete, and the second state value is an index indicating the state of concrete determined for each time width. Conventionally, since the operator determines the degree of compaction in units of 1 second to several seconds, it is preferable to divide the image group so that the time width is 1 second to several seconds.

図6は、第3の状態値を算出する手順を説明するためのモデル図である、この図も図4と同様、淡い線分で示す変化前画像と濃い線分で示す変化後画像を撮影時刻順に並べている。第3の状態値を算出にするにあたっては、まず撮影時刻順に並べた画像に対して画像セットを設定する。この画像セットは、画像グループと同様、複数(例えば30枚)の画像によって構成される。ただし、画像グループが時間方向に移動しないいわば静的な画像集合であるのに対して、画像セットは時間方向に移動するいわば動的な画像集合である。具体的には図6に示すように、所定枚数(例えば30枚)の画像が含まれるように設定された領域であって時間が経過する方向に移動していく領域(以下、「移動領域」という。)に、含まれる画像集合が画像セットである。なお移動領域が1回に移動する単位量は任意に設計することができ、例えば撮影時間間隔の倍数(自然数倍)で設定するとよい。 FIG. 6 is a model diagram for explaining a procedure for calculating a third state value. Similar to FIG. 4, this figure also captures a pre-change image shown by a light line segment and a post-change image shown by a dark line segment. They are arranged in chronological order. In calculating the third state value, first, an image set is set for the images arranged in the order of shooting time. This image set is composed of a plurality of images (for example, 30 images) as in the image group. However, while an image group is a so-called static image set that does not move in the time direction, an image set is a so-called dynamic image set that moves in the time direction. Specifically, as shown in FIG. 6, an area set to include a predetermined number of images (for example, 30 images) and moving in a direction in which time elapses (hereinafter, “moving area””. The image set included in) is an image set. The unit amount for moving the moving area at one time can be arbitrarily designed, and may be set, for example, as a multiple of the shooting time interval (natural number multiple).

第3の状態値は、画像セットに含まれている画像の数、つまり変化前画像と変化後画像の総数に対する変化後画像の数の割合(百分率)として求められる。例えば、15枚の変化前画像と15枚の変化後画像を含む画像セットにおける第3の状態値は50%であり、12枚の変化前画像と18枚の変化後画像を含む画像セットにおける第3の状態値は60%となる。第3の状態値は、画像セットを形成する移動領域が移動するたびに算出される。 The third state value is obtained as the number of images included in the image set, that is, the ratio (percentage) of the number of changed images to the total number of pre-change images and post-change images. For example, the third state value in an image set containing 15 pre-change images and 15 post-change images is 50%, and the third in an image set containing 12 pre-change images and 18 post-change images. The state value of 3 is 60%. The third state value is calculated each time the moving region forming the image set moves.

状態値算出手段120が状態値を算出すると、表示諸元設定手段140(図2)がその状態値に応じた「表示諸元」を設定する(図3のStep130)とともに、表示手段150(図2)がその表示諸元にしたがって画像を表示する(図3のStep140)。ここで表示諸元とは、画像の透過度や、画像を着色するための表示色(以下、「画像表示色」という。)、画像の周囲を表す枠線(以下、「画像枠」という。)の線色や線種など、画像を表示するための要件である。また表示諸元は、コンクリートの状態を示す役割を有しており、したがってその値は状態値に応じて変化する。例えば、状態値が大きな値を示すほど透過度が高くなる(あるいは低くなる)仕様としたり、状態値が所定の値を超えるタイミングで画像表示色を変更する(例えば、赤色→緑色)仕様としたり、状態値が所定の値を超えるタイミングで画像枠の表示色を変更する(例えば、白色→黒色)仕様としたり、あるいは状態値に応じて複数の要件(透過度と画像表示色など)を組み合わせて変化させる仕様するなど、種々の仕様で設計することができる。 When the state value calculating means 120 calculates the state value, the display specification setting means 140 (FIG. 2) sets the "display specifications" according to the state value (Step 130 in FIG. 3), and the display means 150 (FIG. 2). 2) displays the image according to the display specifications (Step 140 in FIG. 3). Here, the display specifications are the transparency of the image, the display color for coloring the image (hereinafter referred to as "image display color"), and the frame line representing the periphery of the image (hereinafter referred to as "image frame". ) Is a requirement for displaying an image, such as the line color and line type. In addition, the display specifications have a role of indicating the state of concrete, and therefore the value changes according to the state value. For example, the specification may be such that the transparency becomes higher (or lower) as the state value indicates a larger value, or the image display color is changed (for example, red → green) when the state value exceeds a predetermined value. , Change the display color of the image frame when the state value exceeds a predetermined value (for example, white → black), or combine multiple requirements (transparency and image display color, etc.) according to the state value. It can be designed with various specifications, such as specifications that can be changed.

ところで本願発明の対象物状態推定システム100は、1つの画像を1つの領域として処理する仕様とすることもできるし、1つの画像を分割した複数の小領域(以下、「分割領域SP」という。)で構成されたものとして処理する仕様とすることもできる。対象物状態推定システム100が複数の分割領域SPからなる画像として処理する場合、この分割領域SPを個々の画像として取り扱う。すなわち、画像分類手段110(図2)は分割領域SPごとに変化前画像か変化後画像に分類し(図3のStep110)、状態値算出手段120(図2)は分割領域SPごとに状態値を算出し(図3のStep120)、表示諸元設定手段140(図2)は分割領域SPごとに表示諸元を設定する(図3のStep130)。そして表示手段150は、図7(b)に示すように複数(図では6×8枚)の分割領域SPで構成された画像を表示する。なお図7(a)は、対象物状態推定システム100が1つの画像を1つの領域として処理する場合に表示される画像を示している。 By the way, the object state estimation system 100 of the present invention may be specified to process one image as one area, or a plurality of small areas obtained by dividing one image (hereinafter referred to as "divided area SP"). It can also be a specification to process as if it is composed of). When the object state estimation system 100 processes as an image composed of a plurality of divided regions SP, the divided region SP is treated as an individual image. That is, the image classification means 110 (FIG. 2) classifies the image before change or the image after change for each division area SP (Step 110 in FIG. 3), and the state value calculation means 120 (FIG. 2) has a state value for each division area SP. (Step 120 in FIG. 3), and the display specification setting means 140 (FIG. 2) sets the display specifications for each division area SP (Step 130 in FIG. 3). Then, as shown in FIG. 7B, the display means 150 displays an image composed of a plurality of (6 × 8 images in the figure) divided regions SP. Note that FIG. 7A shows an image displayed when the object state estimation system 100 processes one image as one area.

図8は、表示諸元設定手段140が表示諸元として「透過度」を分割領域SPごとに設定し、表示手段150がその透過度にしたがって分割領域SPを表示した例を示す図であり、(a)は締固め初期におけるコンクリートの状態を表し、(b)は締固めがある程度進行したコンクリートの状態を表している。この図の場合、状態値が大きな値を示すほど透過度が高くなる仕様としており、図8(a)では締固め初期であることから黒色で着色された(つまり、透過度が低い)分割領域SPが多く見られる。これに対して図8(b)では、締固めがある程度進行したことから四隅を除くほとんどの分割領域SPが透過された状態とされており、すなわち全体的に締固めが進んでいることが分かる。 FIG. 8 is a diagram showing an example in which the display specification setting means 140 sets “transparency” as the display specification for each divided area SP, and the display means 150 displays the divided area SP according to the transparency. (A) represents the state of concrete at the initial stage of compaction, and (b) represents the state of concrete in which compaction has progressed to some extent. In the case of this figure, the specification is such that the larger the state value is, the higher the transmittance is. In FIG. 8A, since it is in the initial stage of compaction, the divided region is colored black (that is, the transmittance is low). Many SPs are seen. On the other hand, in FIG. 8B, since the compaction has progressed to some extent, most of the divided regions SP except the four corners are in a transparent state, that is, it can be seen that the compaction has progressed as a whole. ..

図9は、表示諸元設定手段140が表示諸元として「画像枠の表示色」を分割領域SPごとに設定し、表示手段150がその画像枠の表示色にしたがって分割領域SPを表示した例を示す図であり、(a)は締固め初期におけるコンクリートの状態を表し、(b)は締固めがある程度進行したコンクリートの状態を表している。この図の場合、状態値が所定の値を超えるタイミングで画像枠の表示色を白色から黒色に変更する仕様としており、図9(a)では締固め初期であることから画像枠が白色とされた分割領域SPが多く見られる。これに対して図9(b)では、締固めがある程度進行したことから四隅を除くほとんどの分割領域SPが黒色の画像枠とされており、すなわち全体的に締固めが進んでいることが分かる。 FIG. 9 shows an example in which the display specification setting means 140 sets the “display color of the image frame” as the display specification for each divided area SP, and the display means 150 displays the divided area SP according to the display color of the image frame. (A) shows the state of concrete at the initial stage of compaction, and (b) shows the state of concrete in which compaction has progressed to some extent. In the case of this figure, the specification is to change the display color of the image frame from white to black when the state value exceeds a predetermined value, and in FIG. 9A, the image frame is white because it is in the initial stage of compaction. There are many divided areas SP. On the other hand, in FIG. 9B, since compaction has progressed to some extent, most of the divided region SPs except the four corners are black image frames, that is, it can be seen that compaction has progressed as a whole. ..

なお、取得された画像が所定数だけ増えていくタイミングで、あるいは一定の時間が経過するタイミングで(つまり、定期的に)、画像分類手段110が画像(あるいは分割領域SP)を分類し、状態値算出手段120が画像(あるいは分割領域SP)ごとに状態値を算出し、表示諸元設定手段140が画像(あるいは分割領域SP)ごとに表示諸元を設定することができる。また表示手段150も、表示諸元設定手段140によって表示諸元が設定されたタイミングで、あるいは定期的に、表示する画像を変更する(切り替える)ことができる。 It should be noted that the image classification means 110 classifies the images (or the divided area SP) at the timing when the acquired images increase by a predetermined number or at the timing when a certain time elapses (that is, periodically), and the state. The value calculating means 120 can calculate the state value for each image (or the divided area SP), and the display specification setting means 140 can set the display specifications for each image (or the divided area SP). Further, the display means 150 can also change (switch) the image to be displayed at the timing when the display specifications are set by the display specification setting means 140 or periodically.

状態値算出手段120が状態値を算出すると、変化時刻抽出手段130(図2)がその状態値とあらかじめ定めた閾値(以下、「状態閾値」という。)を照らし合わせる(図3のStep150)。そして状態値が状態閾値を下回るとき(Step150のNo)は、条件を変更して状態値を求める(図3のStep120)。例えば、図4に示す第1の状態値の場合は、時間を進めて変化後画像の累計数を計上し、図5に示す第2の状態値の場合は、画像グループを変更して(第3画像グループ→第4画像グループ)変化後画像数の割合を求め、図6に示す第3の状態値の場合は、画像セットを変更して(移動領域を移動して)変化後画像数の割合を求める。 When the state value calculating means 120 calculates the state value, the change time extracting means 130 (FIG. 2) compares the state value with a predetermined threshold value (hereinafter referred to as “state threshold value”) (Step 150 in FIG. 3). Then, when the state value falls below the state threshold value (No in Step 150), the condition is changed to obtain the state value (Step 120 in FIG. 3). For example, in the case of the first state value shown in FIG. 4, the cumulative number of changed images is recorded by advancing the time, and in the case of the second state value shown in FIG. 5, the image group is changed (the first). 3 Image group → 4th image group) Obtain the ratio of the number of changed images, and in the case of the third state value shown in FIG. 6, change the image set (move the moving area) to determine the number of changed images. Find the ratio.

一方、状態値が状態閾値を超えるとき(Step150のYes)は、「締固め完了状態」となったと推定できる画像や分割領域SP(以下、「注目画像」という)を選出するStep160)。この注目画像は、求める状態値の種類に応じて選出するとよい。例えば第1の状態値を求める場合、変化後画像の累計数が状態閾値を初めて超えたときの画像を注目画像として選出することができる。図4の場合、状態閾値を40枚として設定しており、第1の状態値が40枚となったときの画像を注目画像として選出している。もちろん状態閾値は40枚に限らず、90枚や120枚など、コンクリートの状態等に応じて適宜設定することができる。また本願発明の対象物状態推定システム100が「状態閾値入力手段」を備えることとし、オペレータが所望の状態閾値を入力する仕様とすることもできる。 On the other hand, when the state value exceeds the state threshold value (Yes in Step 150), an image that can be presumed to be in the “compacting completed state” or the divided region SP (hereinafter referred to as “attention image”) is selected (Step 160). This attention image may be selected according to the type of the desired state value. For example, when obtaining the first state value, the image when the cumulative number of changed images exceeds the state threshold value for the first time can be selected as the image of interest. In the case of FIG. 4, the state threshold value is set to 40 images, and the image when the first state value is 40 images is selected as the image of interest. Of course, the state threshold value is not limited to 40 sheets, and can be appropriately set according to the state of concrete such as 90 sheets or 120 sheets. Further, the object state estimation system 100 of the present invention may be provided with the "state threshold value input means", and the specifications may be such that the operator inputs a desired state threshold value.

第2の状態値を求める場合、まずは注目画像を含む画像グループ(以下、「注目画像グループ」という。)を選出するとよい。この注目画像グループは、第2の状態値が状態閾値を超えた画像グループのうち最も早い撮影時刻に係るものとして選出することができる。図5の場合、状態閾値を90%として設定しており、第2の状態値が90%となったときの第5画像グループが注目画像グループとして選出される。もちろん状態閾値は90%に限らず、60%や80%など、コンクリートの状態等に応じて適宜設定することができる。なお図5で状態閾値を60%とした場合、第4画像グループの状態値(60%)と第5画像グループの状態値(90%)がそれぞれ状態閾値以上となっているが、第5画像グループよりも第4画像グループの撮影時刻の方が早いことから、第4画像グループが注目画像グループとして選出される。 When obtaining the second state value, it is advisable to first select an image group (hereinafter, referred to as "attention image group") including the image of interest. This attention image group can be selected as the one related to the earliest shooting time among the image groups whose second state value exceeds the state threshold value. In the case of FIG. 5, the state threshold value is set to 90%, and the fifth image group when the second state value becomes 90% is selected as the attention image group. Of course, the state threshold value is not limited to 90%, but can be appropriately set to 60%, 80%, etc. according to the state of concrete and the like. When the state threshold value is 60% in FIG. 5, the state value (60%) of the 4th image group and the state value (90%) of the 5th image group are each equal to or higher than the state threshold value, but the 5th image. Since the shooting time of the 4th image group is earlier than that of the group, the 4th image group is selected as the image group of interest.

注目画像グループが選出されると、その注目画像グループに含まれる画像(あるいは分割領域SP)のなかから注目画像を選出する。このとき、注目画像グループのうち撮影時刻が早い画像から並べたときの序数(以下、「撮影順位」という)をあらかじめ定めておき、この撮影順位に基づいて注目画像を選出するとよい。例えば図10に示すケースでは、20枚の画像によって画像グループが構成されており、撮影順位が12番目(最後から3番目)の画像を注目画像として選出することとしている。もちろん注目画像として選出する撮影順位は最後から3番目に限らず、注目画像グループのうちの最後の画像としたり、注目画像グループのうちの中間の画像としたり、コンクリートの状態等に応じて適宜設定することができる。 When the attention image group is selected, the attention image is selected from the images (or the divided area SP) included in the attention image group. At this time, it is advisable to determine in advance the order number (hereinafter referred to as “shooting order”) when arranging the images in the attention image group from the earliest shooting time, and select the attention images based on this shooting order. For example, in the case shown in FIG. 10, an image group is composed of 20 images, and the image having the twelfth shooting order (third from the last) is selected as the image of interest. Of course, the shooting order selected as the attention image is not limited to the third from the last, and it may be the last image in the attention image group, the middle image in the attention image group, or set appropriately according to the state of concrete. can do.

第3の状態値を求める場合も、第2の状態値と同様、まずは注目画像を含む画像セット(以下、「注目画像セット」という。)を選出するとよい。この注目画像セットは、第3の状態値が状態閾値を超えた画像セットのうち最も早い撮影時刻に係るものとして選出することができる。そして注目画像セットが選出されると、その注目画像セットに含まれる画像(あるいは分割領域SP)のなかから注目画像を選出する。このとき、第2の状態値と同様、注目画像セットのうちあらかじめ定められた撮影順位に基づいて注目画像を選出するとよい。 When obtaining the third state value, as in the case of the second state value, it is advisable to first select an image set (hereinafter, referred to as “attention image set”) including the image of interest. This attention image set can be selected as the image set having the earliest shooting time among the image sets in which the third state value exceeds the state threshold value. Then, when the attention image set is selected, the attention image is selected from the images (or the divided region SP) included in the attention image set. At this time, as in the case of the second state value, the attention image may be selected based on a predetermined shooting order in the attention image set.

注目画像が選出されると、変化時刻抽出手段130(図2)がその注目画像に係る撮影時刻(以下、「変化時刻」という。)を抽出する(図3のStep170)。既述したとおり画像記憶手段160は、撮影時刻とともに画像を記憶している。したがって、例えば注目画像の識別子をもって画像記憶手段160に照会することで、その注目画像の撮影時刻(つまり、変化時刻)を得ることができるわけである。そしてこの変化時刻において、対象物であるコンクリートが「締固め完了状態」となったと推定する。 When the image of interest is selected, the change time extraction means 130 (FIG. 2) extracts the shooting time (hereinafter referred to as “change time”) related to the image of interest (Step 170 in FIG. 3). As described above, the image storage means 160 stores an image together with the shooting time. Therefore, for example, by inquiring the image storage means 160 with the identifier of the attention image, the shooting time (that is, the change time) of the attention image can be obtained. Then, at this change time, it is estimated that the concrete, which is the object, has reached the "compacting completed state".

3.対象物状態推定方法
続いて本願発明の対象物状態推定方法について図11を参照しながら説明する。なお、本願発明の対象物状態推定方法は、ここまで説明した対象物状態推定システム100を用いて対象物の変化状態を推定するする方法であり、したがって対象物状態推定システム100で説明した内容と重複する説明は避け、本願発明の対象物状態推定方法に特有の内容のみ説明することとする。すなわち、ここに記載されていない内容は、「2.対象物状態推定システム」で説明したものと同様である。
3. 3. Object state estimation method Next, the object state estimation method of the present invention will be described with reference to FIG. The object state estimation method of the present invention is a method of estimating the change state of the object by using the object state estimation system 100 described so far, and therefore, the content described in the object state estimation system 100. Overlapping explanations will be avoided, and only the contents peculiar to the object state estimation method of the present invention will be explained. That is, the contents not described here are the same as those described in "2. Object state estimation system".

図11は、本願発明の対象物状態推定方法の主な工程を示すフロー図である。この図に示すように、まずは締固め作業が行われているフレッシュコンクリートの動画や連続静止画を撮影する(図11のStep10)。コンクリートの画像を取得すると、本願発明の対象物状態推定システム100の画像分類手段110を用いて、画像(あるいは分割領域SP)ごとに変化前画像か変化後画像に分類し(図11のStep20)、対象物状態推定システム100の状態値算出手段120を用いて、画像(あるいは分割領域SP)ごとに状態値を算出する(図11のStep30)。そして対象物状態推定システム100の変化時刻抽出手段130を用いて、注目画像を選出するとともに変化時刻を抽出し(図11のStep40)、この変化時刻において対象物であるコンクリートが「締固め完了状態」となったと推定する。 FIG. 11 is a flow chart showing the main steps of the object state estimation method of the present invention. As shown in this figure, first, a moving image or a continuous still image of fresh concrete being compacted is taken (Step 10 in FIG. 11). When the image of the concrete is acquired, the image classification means 110 of the object state estimation system 100 of the present invention is used to classify each image (or the divided region SP) into a pre-change image or a post-change image (Step 20 in FIG. 11). , The state value is calculated for each image (or the divided region SP) by using the state value calculating means 120 of the object state estimation system 100 (Step 30 in FIG. 11). Then, using the change time extraction means 130 of the object state estimation system 100, the image of interest is selected and the change time is extracted (Step 40 in FIG. 11), and the concrete that is the object at this change time is in the “compacting completed state”. It is estimated that it became.

本願発明の対象物状態推定システム、及び対象物状態推定方法は、コンクリートの締固め判断や、コンクリートの硬化判断、盛土の締固め判断など、その状態が変化する様々な対象物の状態変化を判断する場合に利用できる。本願発明が、例えば、適切に締め固まったいわば高品質のコンクリート構造物を提供することを考えれば、産業上利用できるばかりでなく社会的にも大きな貢献を期待し得る発明といえる。 The object state estimation system and the object state estimation method of the present invention determine the state change of various objects whose state changes, such as concrete compaction judgment, concrete hardening judgment, and embankment compaction judgment. Can be used when Considering that the invention of the present application provides, for example, an appropriately compacted high-quality concrete structure, it can be said that the invention is not only industrially applicable but also can be expected to make a great contribution to society.

100 本願発明の対象物状態推定システム
110 (対象物状態推定システムの)画像分類手段
120 (対象物状態推定システムの)状態値算出手段
130 (対象物状態推定システムの)変化時刻抽出手段
140 (対象物状態推定システムの)表示諸元設定手段
150 (対象物状態推定システムの)表示手段
160 (対象物状態推定システムの)画像記憶手段
170 (対象物状態推定システムの)学習済みモデル記憶手段
SP 分割領域
100 Object state estimation system of the present invention 110 Image classification means (of object state estimation system) 120 State value calculation means 130 (object state estimation system) Change time extraction means 140 (object) Display specification setting means (of object state estimation system) 150 Display means (of object state estimation system) 160 Image storage means (of object state estimation system) 170 (Learned model storage means of object state estimation system) SP division region

Claims (7)

所定の撮影時間間隔で対象物を撮影した複数の画像に基づいて、該対象物の状態の変化を推定するシステムであって、
機械学習によって構築された学習済みモデルを用いた画像認識を行うことによって前記画像ごとに前記対象物の変化の有無を判定するとともに、該対象物に変化が有ると判定された該画像を変化後画像に分類する画像分類手段と、
前記対象物の撮影開始から撮影時刻順に数えた前記変化後画像の累計数である状態値を、算出する状態値算出手段と、
前記状態値があらかじめ定めた閾値を超えたときの前記画像に係る撮影時刻を、前記対象物の変化時刻として抽出する変化時刻抽出手段と、を備え、
前記変化時刻抽出手段によって抽出された前記変化時刻において、前記対象物の状態が変化したと推定する、
ことを特徴とする対象物状態推定システム。
A system that estimates changes in the state of an object based on a plurality of images of the object taken at predetermined shooting time intervals.
By performing image recognition using a trained model constructed by machine learning, it is determined whether or not there is a change in the object for each image, and after the image determined to have a change in the object is changed. Image classification means for classifying images and
A state value calculation means for calculating a state value which is a cumulative number of the changed images counted in order of shooting time from the start of shooting of the object.
A change time extraction means for extracting the shooting time of the image when the state value exceeds a predetermined threshold value as the change time of the object is provided.
It is presumed that the state of the object has changed at the change time extracted by the change time extraction means.
An object state estimation system characterized by this.
所定の撮影時間間隔で対象物を撮影した複数の画像に基づいて、該対象物の状態の変化を推定するシステムであって、
機械学習によって構築された学習済みモデルを用いた画像認識を行うことによって前記画像ごとに前記対象物の変化の有無を判定するとともに、該対象物の変化が有ると判定された該画像を変化後画像に分類する画像分類手段と、
撮影時刻順に並べた前記画像を複数の画像グループに分割するとともに、該画像グループにおける前記変化後画像数の割合である状態値を、算出する状態値算出手段と、
前記状態値があらかじめ定めた閾値を超えた前記画像グループのうち最も早い撮影時刻に係る該画像グループを選出するとともに、選出された該画像グループのうちあらかじめ定めた撮影順位の前記画像に係る撮影時刻を、前記対象物の変化時刻として抽出する変化時刻抽出手段と、を備え、
前記変化時刻抽出手段によって抽出された前記変化時刻において、前記対象物の状態が変化したと推定する、
ことを特徴とする対象物状態推定システム。
A system that estimates changes in the state of an object based on a plurality of images of the object taken at predetermined shooting time intervals.
By performing image recognition using a trained model constructed by machine learning, it is determined whether or not there is a change in the object for each image, and after the image determined to have a change in the object is changed. Image classification means for classifying images and
A state value calculation means for dividing the images arranged in order of shooting time into a plurality of image groups and calculating a state value which is a ratio of the number of changed images in the image group.
The image group related to the earliest shooting time among the image groups whose state value exceeds a predetermined threshold is selected, and the shooting time related to the image having a predetermined shooting order among the selected image groups is selected. Is provided with a change time extraction means for extracting the change time of the object.
It is presumed that the state of the object has changed at the change time extracted by the change time extraction means.
An object state estimation system characterized by this.
所定の撮影時間間隔で対象物を撮影した複数の画像に基づいて、該対象物の状態の変化を推定するシステムであって、
機械学習によって構築された学習済みモデルを用いた画像認識を行うことによって前記画像ごとに前記対象物の変化の有無を判定するとともに、該対象物の変化が有ると判定された該画像を変化後画像に分類する画像分類手段と、
撮影時刻順に並べた前記画像に対して一定数まとめた画像セットを設定するとともに、該画像セットを移動しながら該画像セットにおける前記変化後画像数の割合である状態値を、算出する状態値算出手段と、
前記状態値があらかじめ定めた閾値を超えた前記画像セットのうち最も早い撮影時刻に係る該画像セットを選出するとともに、選出された該画像セットのうちあらかじめ定めた撮影順位の前記画像に係る撮影時刻を、前記対象物の変化時刻として抽出する変化時刻抽出手段と、を備え、
前記変化時刻抽出手段によって抽出された前記変化時刻において、前記対象物の状態が変化したと推定する、
ことを特徴とする対象物状態推定システム。
A system that estimates changes in the state of an object based on a plurality of images of the object taken at predetermined shooting time intervals.
By performing image recognition using a trained model constructed by machine learning, it is determined whether or not there is a change in the object for each image, and after the image determined to have a change in the object is changed. Image classification means for classifying images and
A state value calculation that calculates a state value that is a ratio of the number of changed images in the image set while moving the image set while setting a fixed number of image sets for the images arranged in order of shooting time. Means and
The image set related to the earliest shooting time of the image sets whose state value exceeds a predetermined threshold is selected, and the shooting time of the selected image set having a predetermined shooting order is related to the image. Is provided with a change time extraction means for extracting the change time of the object.
It is presumed that the state of the object has changed at the change time extracted by the change time extraction means.
An object state estimation system characterized by this.
前記対象物は、継続して締め固めが行われているフレッシュコンクリートであり、
前記画像分類手段は、前記フレッシュコンクリートが締め固められたと判定された前記画像を前記変化後画像に分類する、
ことを特徴とする請求項1乃至請求項3のいずれかに記載の対象物状態推定システム。
The object is fresh concrete that has been continuously compacted.
The image classification means classifies the image determined to be compacted with the fresh concrete into the post-change image.
The object state estimation system according to any one of claims 1 to 3, wherein the object state estimation system is characterized in that.
前記画像を複数に分割した分割画像を表示する表示手段と、
前記分割画像ごとに前記状態値に応じた表示諸元を設定する、表示諸元設定手段と、をさらに備え、
前記画像分類手段は、前記分割画像ごとに前記対象物の変化の有無を判定するとともに、該対象物に変化が有ると判定された該分割画像を前記変化後画像に分類し、
前記状態値算出手段は、前記分割画像ごとに前記状態値を算出し、
前記表示手段は、前記表示諸元設定手段によって設定された前記表示諸元に基づいて、前記分割画像を表示する、
ことを特徴とする請求項1乃至請求項4のいずれかに記載の対象物状態推定システム。
A display means for displaying the divided image obtained by dividing the image into a plurality of parts, and
Further provided with a display specification setting means for setting display specifications according to the state value for each divided image.
The image classification means determines whether or not there is a change in the object for each divided image, and classifies the divided image determined to have a change in the object into the post-change image.
The state value calculating means calculates the state value for each of the divided images, and obtains the state value.
The display means displays the divided image based on the display specifications set by the display specification setting means.
The object state estimation system according to any one of claims 1 to 4, wherein the object state estimation system is characterized in that.
前記表示諸元設定手段は、前記分割画像の前記状態値に基づいて、透過度、表示色、又は枠線色を、前記表示諸元として設定する、
ことを特徴とする請求項5記載の対象物状態推定システム。
The display specification setting means sets the transparency, the display color, or the border color as the display specification based on the state value of the divided image.
The object state estimation system according to claim 5.
請求項1乃至請求項6のいずれかに記載の対象物状態推定システムを用いて、前記対象物の状態の変化を推定する方法であって、
前記撮影時間間隔で前記対象物を撮影し、複数の前記画像を取得する画像取得工程と、
前記画像分類手段によって、前記対象物に変化が有ると判定された前記画像を前記変化後画像に分類する画像分類工程と、
前記状態値算出手段によって、前記状態値を算出する状態値算出工程と、
前記変化時刻抽出手段によって、前記対象物の前記変化時刻を抽出する変化時刻抽出工程と、を備え、
前記変化時刻抽出工程によって抽出された前記変化時刻において、前記対象物の状態が変化したと推定する、
ことを特徴とする対象物状態推定方法。
A method of estimating a change in the state of an object by using the object state estimation system according to any one of claims 1 to 6.
An image acquisition step of photographing the object at the photographing time interval and acquiring a plurality of the images, and an image acquisition step.
An image classification step of classifying the image determined to have a change in the object into the post-change image by the image classification means.
The state value calculation step of calculating the state value by the state value calculation means, and
The change time extraction means comprises a change time extraction step of extracting the change time of the object.
It is estimated that the state of the object has changed at the change time extracted by the change time extraction step.
An object state estimation method characterized by this.
JP2020117577A 2020-07-08 2020-07-08 Object state estimation system and object state estimation method Active JP7477839B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020117577A JP7477839B2 (en) 2020-07-08 2020-07-08 Object state estimation system and object state estimation method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020117577A JP7477839B2 (en) 2020-07-08 2020-07-08 Object state estimation system and object state estimation method

Publications (2)

Publication Number Publication Date
JP2022015003A true JP2022015003A (en) 2022-01-21
JP7477839B2 JP7477839B2 (en) 2024-05-02

Family

ID=80120512

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020117577A Active JP7477839B2 (en) 2020-07-08 2020-07-08 Object state estimation system and object state estimation method

Country Status (1)

Country Link
JP (1) JP7477839B2 (en)

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6849500B2 (en) 2017-03-23 2021-03-24 株式会社熊谷組 Concrete placement management method
JP7352912B2 (en) 2020-03-24 2023-09-29 鹿島建設株式会社 Fresh concrete determination method and fresh concrete determination device

Also Published As

Publication number Publication date
JP7477839B2 (en) 2024-05-02

Similar Documents

Publication Publication Date Title
CN104484524B (en) A kind of method and system interacted based on BIM simulation models with site operation
Kim et al. 4D CAD model updating using image processing-based construction progress monitoring
CN109785436B (en) BIM technology-based reinforcing steel bar information full life cycle management method
CN113642088B (en) Method for feeding back construction progress information and displaying deviation of BIM (building information modeling) model in real time
CN109583852B (en) Material and progress informatization management system for bridge cantilever pouring construction
CN111639740A (en) Steel bar counting method based on multi-scale convolution neural network
CN114119877A (en) Building engineering construction progress monitoring method and device, electronic equipment and storage medium
CN108416076A (en) A kind of assembled architecture design method based on BIM technology
CN112365152A (en) Water delivery tunnel full life cycle risk influence assessment method and system
CN116011778B (en) Water conservancy river construction management system based on data analysis
CN109034073A (en) Predict method, system, equipment and the medium of building demolition waste yield
CN105976430A (en) Three-dimensional analysis system and method for building deformation
JP2022015003A (en) Object state estimation system and object state estimation method
CN117093822B (en) Industrial brain data analysis platform based on industrial knowledge graph
CN114462646A (en) Pole number plate identification method and system based on contact network safety inspection
CN117808374A (en) Intelligent acceptance management method and system for building engineering quality
CN112580123A (en) Editing method and device of beam graphics primitives, electronic equipment and readable storage medium
CN112257150A (en) Refined calculation amount method of raft foundation slab band reinforcing ribs based on BIM modeling
CN104954889B (en) Head generation method and generation system
JP7033851B2 (en) Construction volume data acquisition system
CN112699445B (en) Construction parameter analysis method based on arch dam construction knowledge base
CN115937684A (en) Building construction progress identification method and electronic equipment
CN115222372A (en) Construction cooperative management method based on BIM technology
JP7249828B2 (en) Crack extraction system and crack extraction method
JP2023123034A (en) Compaction determination system and method for determining compaction

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230524

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20240321

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240402

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240411

R150 Certificate of patent or registration of utility model

Ref document number: 7477839

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150