JP7477839B2 - Object state estimation system and object state estimation method - Google Patents

Object state estimation system and object state estimation method Download PDF

Info

Publication number
JP7477839B2
JP7477839B2 JP2020117577A JP2020117577A JP7477839B2 JP 7477839 B2 JP7477839 B2 JP 7477839B2 JP 2020117577 A JP2020117577 A JP 2020117577A JP 2020117577 A JP2020117577 A JP 2020117577A JP 7477839 B2 JP7477839 B2 JP 7477839B2
Authority
JP
Japan
Prior art keywords
image
state
images
change
changed
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020117577A
Other languages
Japanese (ja)
Other versions
JP2022015003A (en
Inventor
茂美 長田
俊斉 林
淳 齋藤
亮一 ▲高▼木
裕史 谷口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kanazawa Institute of Technology (KIT)
Hazama Ando Corp
Original Assignee
Kanazawa Institute of Technology (KIT)
Hazama Ando Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kanazawa Institute of Technology (KIT), Hazama Ando Corp filed Critical Kanazawa Institute of Technology (KIT)
Priority to JP2020117577A priority Critical patent/JP7477839B2/en
Publication of JP2022015003A publication Critical patent/JP2022015003A/en
Application granted granted Critical
Publication of JP7477839B2 publication Critical patent/JP7477839B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)

Description

本願発明は、対象物の状態変化の判断に関する技術であり、より具体的には、複数の画像に基づいて対象物の状態が変化した時点を推定する対象物状態推定システムと、これを用いた対象物状態推定方法に関するものである。 This invention relates to technology for determining changes in the state of an object, and more specifically, to an object state estimation system that estimates the time when the state of an object changes based on multiple images, and an object state estimation method using the same.

コンクリートは鋼材とともに最も重要な建設材料のひとつであり、ダム、トンネル、橋梁といった土木構造物や、集合住宅、オフィスビルなどの建築構造物をはじめ、様々な構造物に用いられている。このコンクリート構造物は、あらかじめ工場等で製作されて所定の場所まで運搬されることもあるが、土木構造物や建築構造物の場合、所定の場所(現場)で直接構築されることが多い。いずれにしろ、セメントと水、骨材等を練り混ぜた状態のコンクリート(フレッシュコンクリート)を型枠の中に投入し、コンクリートの硬化を待って型枠を外すことでコンクリート構造物は構築される。 Along with steel, concrete is one of the most important construction materials, and is used in a variety of structures, including civil engineering structures such as dams, tunnels, and bridges, as well as architectural structures such as apartment buildings and office buildings. These concrete structures may be manufactured in advance in a factory and transported to the designated location, but in the case of civil engineering and architectural structures, they are often constructed directly at the designated location (site). In any case, concrete structures are constructed by pouring concrete (fresh concrete), which is a mixture of cement, water, aggregate, etc., into a formwork, waiting for the concrete to harden, and then removing the formwork.

フレッシュコンクリートは、アジテータ車からシュートを介して流し込んだり、コンクリートポンプ車によってホースから落下させたり、場合によっては作業者がスコップではねることによって、型枠内に投入される。そして、型枠内に投入されたフレッシュコンクリートは、振動機(振動バイブレータ)によって締め固められる。振動バイブレータによって振動が与えられるとコンクリートは液状化し、さらに液状化することによってコンクリート内の気泡が上昇して外部に抜けだすとともに、コンクリート内の骨材とモルタルが再配置され、その結果、コンクリートは締め固められる。 Fresh concrete is poured into the formwork by pouring it through a chute from an agitator truck, dropping it from a hose using a concrete pump truck, or in some cases by a worker splashing it with a shovel. The fresh concrete poured into the formwork is then compacted using a vibrator. When the vibrator vibrates the concrete, it liquefies, and as it liquefies further, the air bubbles within the concrete rise and escape to the outside, and the aggregate and mortar within the concrete are rearranged, resulting in the compaction of the concrete.

従来、コンクリートの締固めの程度の適否(つまり、十分に締め固められたか否か)を判断するにあたっては、コンクリート表面の微妙な変化や締固め時間など様々な要因に基づくオペレ―タ(作業者)の判断に委ねられていた。コンクリート標準示方書[施工編]においても、「コンクリートとせき板との接触面にセメントペーストの線が現れること」、「コンクリートの体積が減っていくのが認められず、表面がほぼ水平となり、表面に光沢が現れること」を確認して判断することとしている。つまり、コンクリートの締固め程度の適否判断、ひいてはコンクリート構造物の品質は、振動バイブレータのオペレータの経験や知見に依存していたわけである。しかしながら、締固めの適否判断を正確に行うことができるオペレータは限定的であり、そのうえ近年の慢性的な人手不足の問題もあって、適時にそのようなオペレータを確保することは難しくなっている。 Conventionally, the judgement of the degree of compaction of concrete (i.e., whether it is sufficiently compacted or not) was left to the judgement of the operator (worker) based on various factors such as subtle changes in the concrete surface and compaction time. The Standard Specifications for Concrete [Construction] also states that the judgement should be made when "a line of cement paste appears on the contact surface between the concrete and the sheathing" and "the concrete volume is not reduced, the surface is almost horizontal, and the surface appears glossy." In other words, the judgement of the degree of compaction of concrete, and by extension the quality of the concrete structure, depended on the experience and knowledge of the vibrator operator. However, there are only a limited number of operators who can accurately judge the compaction of concrete, and in addition, due to the chronic labor shortage problem in recent years, it is becoming difficult to secure such operators in a timely manner.

そこで、オペレータのいわば定性的な判断に頼ることなく、客観的にコンクリートの締固めを評価する技術が、これまでにもいくつか提案されてきた。例えば特許文献1では、締固めを行っているコンクリートの画像を連続取得し、機械学習を活用してその画像から締固めの程度を判定する技術について提案している。 Therefore, several techniques have been proposed to objectively evaluate the compaction of concrete without relying on the operator's qualitative judgment. For example, Patent Document 1 proposes a technique that continuously captures images of concrete being compacted and uses machine learning to determine the degree of compaction from the images.

特開2020-41290号公報JP 2020-41290 A

特許文献1が示す技術は、オペレータの定性的な判断に頼ることなく、客観的に判定できるという点において極めて有益な技術である。コンクリートの締固めの程度を適切に判断できるオペレータを必ずしも確保する必要がなく、また判断した結果が残るため事後の検証や説明責任を果たすこともできる。 The technology shown in Patent Document 1 is extremely useful in that it can make objective judgments without relying on the qualitative judgment of the operator. It is not necessary to secure an operator who can properly judge the degree of concrete compaction, and because the judgment results are recorded, it is also possible to carry out post-mortem verification and accountability.

ところで、画像によってコンクリートの締固めの程度を判断する場合、特許文献1を含む従来技術では、取得した画像単位で判断するのが主流であった。すなわち、コンクリートの締固め作業中に連続して取得された個々の画像に対して、それぞれ「十分に締固めが行われたと評価(以下、便宜上「完了評価」という。)」、あるいは「まだ十分に締固めが行われていないと評価(以下、便宜上「未完評価」という。)」のうちいずれかを付与し、画像取得から最初に「完了評価」が付与された画像の取得時刻をもってコンクリートの締固めが完了したと判断していたわけである。 When judging the degree of concrete compaction from images, conventional techniques including Patent Document 1 mainly judge the degree of concrete compaction on an image-by-image basis. In other words, each image captured in succession during concrete compaction work is assessed as either "sufficiently compacted (hereinafter, for convenience, referred to as "completed assessment")" or "not yet sufficiently compacted (hereinafter, for convenience, referred to as "incomplete assessment")," and concrete compaction is judged to be complete based on the time of acquisition of the first image to which a "completed assessment" is assigned.

しかしながら、機械学習を活用するなど自動的に画像認識を行う技術では、いまだ完全に正解を得ることができないのが現状である。あくまで、完了評価か未完評価のうち尤度が高い方を正解として出力しているに過ぎない。特にコンクリートの締固めの場合、締固め完了前後では熟練したオペレータでもその判断が慎重になるように、画像認識技術による判定では完了評価か未完評価のうち一方の尤度が卓越することがなく、つまり不正解を出力しやすい傾向にある。 However, the current situation is that automatic image recognition technology, such as that using machine learning, is still unable to obtain a completely correct answer. It merely outputs the assessment of completion or incomplete, whichever has the higher likelihood, as the correct answer. In particular, when it comes to concrete compaction, even experienced operators will be cautious in their judgments before and after compaction is complete, so that image recognition technology will not give a superior likelihood of either the assessment of completion or incomplete, meaning that it is prone to outputting the incorrect answer.

本願発明の課題は、従来技術が抱える問題を解決することであり、すなわち人(オペレータ)の判断に頼ることなく客観的に対象物(例えば、フレッシュコンクリート)の状態が変化した(例えば、十分な締固めが行われた)と判断することができ、しかも従来に比して適切に判断することができる対象物状態推定システムと、これを用いた対象物状態推定方法を提供することである。 The objective of the present invention is to solve the problems of the conventional technology, that is, to provide an object state estimation system that can objectively determine that the state of an object (e.g., fresh concrete) has changed (e.g., sufficient compaction has been achieved) without relying on the judgment of a person (operator), and that can make a more appropriate judgment than in the past, and an object state estimation method using the same.

本願発明は、その状態が変化する対象物に対して連続して取得された複数の画像のうち、単体の画像によって対象物の状態が変化したと判定するのではなく、複数の画像を用いていわば総合的に対象物の状態変化の判定を行う、という点に着目してなされたものであり、これまでにない発想に基づいて行われた発明である。 The present invention focuses on the point that, rather than determining that the state of an object has changed based on a single image among multiple images captured in succession of an object whose state is changing, the change in the state of the object is determined comprehensively using multiple images, and is an invention based on an unprecedented concept.

本願発明の対象物状態推定システムは、所定の撮影時間間隔で対象物を撮影した複数の画像に基づいて対象物の状態の変化を推定するシステムであり、画像分類手段と状態値算出手段、変化時刻抽出手段を備えたものである。このうち画像分類手段は、機械学習によって構築された「学習済みモデル」を用いた画像認識を行うことによって画像ごとに対象物の変化の有無を判定するとともに、対象物に変化が有ると判定された画像を「変化後画像」に分類する手段である。また状態値算出手段は、対象物の撮影開始から撮影時刻順に数えた変化後画像の累計数である「状態値」を算出する手段であり、変化時刻抽出手段は、状態値があらかじめ定めた閾値を超えたときの画像に係る撮影時刻を対象物の「変化時刻」として抽出する手段である。そして変化時刻抽出手段によって抽出された変化時刻において、対象物の状態が変化したと推定する。 The object state estimation system of the present invention is a system that estimates a change in the state of an object based on a plurality of images of the object captured at a predetermined capture time interval, and includes an image classification means, a state value calculation means, and a change time extraction means. The image classification means performs image recognition using a "trained model" constructed by machine learning to determine whether or not the object has changed for each image, and classifies images determined to have changed in the object as "changed images." The state value calculation means calculates a "state value," which is the cumulative number of changed images counted in order of capture time from the start of capture of the object, and the change time extraction means extracts the capture time of the image when the state value exceeds a predetermined threshold as the "change time" of the object. It is then estimated that the state of the object has changed at the change time extracted by the change time extraction means.

本願発明の対象物状態推定システムは、「画像グループ」における変化後画像数の割合を状態値として、対象物の状態変化を推定するものとすることもできる。ここで画像グループとは、撮影時刻順に並べた画像を複数に分割した結果得られる、複数の画像からなる集合である。この場合、状態値算出手段は、画像グループにおける変化後画像数の割合を状態値として算出する。また変化時刻抽出手段は、状態値が閾値を超えた画像グループのうち最も早い撮影時刻に係る画像グループを選出するとともに、選出された画像グループのうちあらかじめ定めた撮影順位(例えば、画像グループの最後)の画像に係る撮影時刻を変化時刻として抽出する。 The object state estimation system of the present invention can also estimate a state change of an object by using the proportion of the number of changed images in an "image group" as a state value. Here, an image group is a collection of multiple images obtained by dividing images arranged in order of shooting time into multiple groups. In this case, the state value calculation means calculates the proportion of the number of changed images in the image group as the state value. Furthermore, the change time extraction means selects the image group with the earliest shooting time from among the image groups whose state value exceeds the threshold, and extracts the shooting time of the image in the selected image group with a predetermined shooting order (for example, the last image in the image group) as the change time.

本願発明の対象物状態推定システムは、「画像セット」における変化後画像数の割合を状態値として、対象物の状態変化を推定するものとすることもできる。ここで画像セットとは、撮影時刻順に並べた画像に対して一定数まとめた結果得られる、複数の画像からなる集合である。この場合、状態値算出手段は、画像セットを移動しながら、画像セットにおける変化後画像数の割合を状態値として算出する。また変化時刻抽出手段は、状態値が閾値を超えた画像セットのうち最も早い撮影時刻に係る画像セットを選出するとともに、選出された画像セットのうちあらかじめ定めた撮影順位の画像に係る撮影時刻を変化時刻として抽出する。 The object state estimation system of the present invention can also estimate the state change of an object by using the proportion of the number of changed images in an "image set" as a state value. Here, an image set is a collection of multiple images obtained by combining a certain number of images arranged in order of shooting time. In this case, the state value calculation means moves through the image sets and calculates the proportion of the number of changed images in the image set as the state value. Furthermore, the change time extraction means selects the image set with the earliest shooting time from among the image sets whose state value exceeds the threshold, and extracts the shooting time of the image in the selected image set with a predetermined shooting order as the change time.

本願発明の対象物状態推定システムは、継続して締め固めが行われているフレッシュコンクリートを対象として、締固めの程度を推定するものとすることもできる。この場合、画像分類手段は、フレッシュコンクリートが締め固められたと判定された画像を変化後画像に分類する、 The object state estimation system of the present invention can also estimate the degree of compaction for fresh concrete that is being continuously compacted. In this case, the image classification means classifies an image in which it is determined that the fresh concrete has been compacted as a post-change image.

本願発明の対象物状態推定システムは、表示手段と表示諸元設定手段をさらに備えたものとすることもできる。この表示手段は、画像を複数に分割した「分割画像」を表示する手段であり、表示諸元設定手段は、分割画像ごとに状態値に応じた「表示諸元」を設定する手段である。ここで表示諸元とは、分割画像を表示する際の透過度、分割画像をハイライトするための表示色、分割画像の周囲に表示する枠線の表示色など上げることができる。この場合、画像分類手段は、分割画像ごとに対象物の変化の有無を判定するとともに、対象物に変化が有ると判定された分割画像を変化後画像に分類し、また状態値算出手段は、分割画像ごとに状態値を算出する。そして、表示手段は、表示諸元設定手段によって設定された表示諸元に基づいて、分割画像を表示する。 The object state estimation system of the present invention may further include a display means and a display parameter setting means. The display means is a means for displaying "split images" obtained by splitting an image into a plurality of parts, and the display parameter setting means is a means for setting "display parameters" for each split image according to a state value. Examples of the display parameters include the transparency when the split image is displayed, the display color for highlighting the split image, and the display color of the frame line displayed around the split image. In this case, the image classification means determines whether or not there is a change in the object for each split image, and classifies the split image determined to have a change in the object into a changed image, and the state value calculation means calculates a state value for each split image. The display means then displays the split image based on the display parameters set by the display parameter setting means.

本願発明の対象物状態推定方法は、本願発明の対象物状態推定システムを用いて対象物の状態変化を推定する方法であり、画像取得工程と画像分類工程、状態値算出工程、変化時刻抽出工程を備えた方法である。このうち画像取得工程では、撮影時間間隔で対象物を撮影して複数の画像を取得し、画像分類工程では、画像分類手段によって対象物に変化が有ると判定された画像を変化後画像に分類する。また状態値算出工程では、状態値算出手段によって状態値を算出し、変化時刻抽出工程では、変化時刻抽出手段によって対象物の変化時刻を抽出する。そして、変化時刻抽出工程によって抽出された変化時刻において、対象物の状態が変化したと推定する。 The object state estimation method of the present invention is a method for estimating a change in the state of an object using the object state estimation system of the present invention, and is a method including an image acquisition step, an image classification step, a state value calculation step, and a change time extraction step. In the image acquisition step, the object is photographed at a shooting time interval to acquire a plurality of images, and in the image classification step, an image determined by the image classification means to have changed in the object is classified as a changed image. In the state value calculation step, a state value is calculated by the state value calculation means, and in the change time extraction step, the change time of the object is extracted by the change time extraction means. It is then estimated that the state of the object has changed at the change time extracted by the change time extraction step.

本願発明の対象物状態推定システム、及び対象物状態推定方法には、次のような効果がある。
(1)例えば、振動バイブレータを操作するオペレータの判断に頼ることなく、客観的にしかも即時的(リアルタイム)にコンクリート(対象物)の締固め完了(状態変化)を判断することができる。
(2)機械学習による画像認識の誤差を吸収する結果、従来に比して適切にコンクリートの締固め程度を判断することができる。
(3)人によって振動バイブレータを操作する場合に限らず、建設機械等に装着した振動バイブレータを操作する場合など、様々なケースに適用することができる。
The object state estimation system and the object state estimation method of the present invention have the following advantages.
(1) For example, it is possible to objectively and instantly (in real time) determine whether or not compaction of concrete (object) is complete (change in state) without relying on the judgment of an operator who operates the vibration vibrator.
(2) By absorbing errors in image recognition using machine learning, it is possible to more accurately determine the degree of compaction of concrete than was previously possible.
(3) The present invention can be applied to various cases, such as not only cases where a vibration vibrator is operated by a person, but also cases where a vibration vibrator attached to construction machinery or the like is operated.

動画や連続静止画を構成する複数の画像を模式的に示すモデル図。A model diagram showing a schematic diagram of multiple images that make up a video or a series of still images. 本願発明の対象物状態推定システムの主な構成を示すブロック図。FIG. 1 is a block diagram showing a main configuration of an object state estimation system according to the present invention. 本願発明の対象物状態推定システムの主な処理の流れを示すフロー図。FIG. 2 is a flowchart showing a main process flow of the object state estimation system of the present invention. 第1の状態値を算出する手順を説明するためのモデル図。FIG. 11 is a model diagram for explaining a procedure for calculating a first state value. 第2の状態値を算出する手順を説明するためのモデル図。FIG. 11 is a model diagram for explaining a procedure for calculating a second state value. 第3の状態値を算出する手順を説明するためのモデル図。FIG. 11 is a model diagram for explaining a procedure for calculating a third state value. (a)は1つの画像を1つの領域として表示された画像を示す正面図、(b)は複数の分割領域で構成された画像を示す正面図。FIG. 2A is a front view showing an image in which one image is displayed as one region, and FIG. 2B is a front view showing an image made up of a plurality of divided regions. (a)は締固め初期におけるコンクリートの状態を透過度で表した正面図、(b)は締固めがある程度進行したコンクリートの状態を透過度で表した正面図。1A is a front view showing the state of concrete in the early stages of compaction in terms of transparency, and FIG. 1B is a front view showing the state of concrete after compaction has progressed to a certain extent in terms of transparency. (a)は締固め初期におけるコンクリートの状態を画像枠の表示色で表した正面図、(b)は締固めがある程度進行したコンクリートの状態を画像枠の表示色で表した正面図。(a) is a front view in which the state of concrete at the early stage of compaction is shown by the display color of the image frame, and (b) is a front view in which the state of concrete after compaction has progressed to a certain extent is shown by the display color of the image frame. 注目画像グループや注目画像セットのうちあらかじめ定められた撮影順位に基づいて選出された注目画像を模式的に示すモデル図。FIG. 13 is a model diagram showing images of interest selected from an image group or set of images of interest based on a predetermined shooting order. 本願発明の対象物状態方法の主な処理の流れを示すフロー図。FIG. 2 is a flowchart showing the main process flow of the object state method of the present invention.

本願発明の対象物状態推定システム、及び対象物状態推定方法の実施の例を図に基づいて説明する。なお、本願発明の対象物状態推定システム、及び対象物状態推定方法は、その状態が変化していく対象物の特定の変化点(変化状態)を推定する技術であり、したがって状態が変化するあらゆるものを対象とすることができる。例えば、対象物をフレッシュコンクリートとして一定程度硬化した状態を推定したり、対象物を締固め作業が行われている盛土として十分に締固まった状態を推定したり、地すべりや崩壊の危険がある斜面を対象として有害な変動が生じた状態を推定するなど、様々な対象物の状態変化を推定する場合に利用することができる。便宜上ここでは、締固め作業が行われているフレッシュコンクリートを対象として、コンクリートが十分に締固められた状態(以下、「締固め完了状態」という。)を推定する例で説明することとする。 An example of the implementation of the object state estimation system and object state estimation method of the present invention will be described with reference to the drawings. The object state estimation system and object state estimation method of the present invention are techniques for estimating a specific change point (changing state) of an object whose state is changing, and therefore can be used for anything whose state changes. For example, it can be used to estimate the state change of various objects, such as estimating the state of fresh concrete that has hardened to a certain extent, estimating the state of an object that is being compacted as an embankment, or estimating the state of a slope that is at risk of landslide or collapse when harmful changes have occurred. For convenience, an example of estimating the state of fresh concrete that is being compacted (hereinafter referred to as the "compaction completion state") will be described here.

また本願発明の対象物状態推定システム、及び対象物状態推定方法を、コンクリートの締固め完了状態の推定に利用する場合、場所打ちコンクリート作業のほか、工場等でのプレキャストコンクリートの製作や、施工現場でのプレキャストコンクリート(いわゆるサイトPC)の製作などで実施することができる。 When the object state estimation system and object state estimation method of the present invention are used to estimate the completed compaction state of concrete, they can be implemented not only in cast-in-place concrete work, but also in the production of precast concrete in factories and the production of precast concrete (so-called site PC) at construction sites.

1.全体概要
本願発明は、例えば締固め作業が継続して行われているコンクリートを撮影した画像に基づいて、締固め完了状態を推定する技術である。より詳しくは、締固めによって変化するコンクリートを順次撮影していき、その結果得られる複数の画像ごとに締固め完了状態か否かを暫定的に判断するとともに、その判断が行われた複数の画像から総合的に締固め完了状態となった時点を推定する。そのため、目的とする変化状態(締固め完了状態)を逃さないように、対象物(コンクリート)の画像を取得する時間間隔(以下、「撮影時間間隔」という。)は比較的短い方がよく、図1に示すように動画や連続静止画として対象物を撮影するとよい。なお動画、連続静止画ともに極めて短い間隔で取得された画像(フレーム)で構成されるものであるが、一般的に毎秒24~60枚(つまり、24~60fps)の画像によるものを動画とすることから、ここでは特に24fps未満あるいは60fpsを超える画像で構成されるものを連続静止画としている。
1. Overall Overview The present invention is a technology for estimating the compaction completion state based on images of concrete undergoing continuous compaction work, for example. More specifically, concrete that changes due to compaction is photographed in sequence, and a provisional judgment is made for each of the multiple images obtained as a result as to whether or not the compaction is complete, and the time when the compaction completion state is reached is estimated comprehensively from the multiple images for which the judgment was made. Therefore, in order not to miss the target change state (compaction completion state), it is preferable that the time interval (hereinafter referred to as the "photographing time interval") for acquiring images of the target object (concrete) is relatively short, and it is preferable to photograph the target object as a video or continuous still images as shown in FIG. 1. Note that both the video and the continuous still images are composed of images (frames) acquired at extremely short intervals, but since a video is generally composed of images of 24 to 60 frames per second (i.e., 24 to 60 fps), here, continuous still images are particularly composed of images of less than 24 fps or more than 60 fps.

2.対象物状態推定システム
本願発明の対象物状態推定システムについて詳しく説明する。なお、本願発明の対象物状態推定方法は、本願発明の対象物状態推定システムを用いて対象物の変化状態を推定する方法である。したがって、まずは本願発明の対象物状態推定システムについて説明し、その後に本願発明の対象物状態推定方法について説明することとする。
2. Object State Estimation System The object state estimation system of the present invention will be described in detail. Note that the object state estimation method of the present invention is a method for estimating a change in the state of an object using the object state estimation system of the present invention. Therefore, the object state estimation system of the present invention will be described first, and then the object state estimation method of the present invention will be described.

図2は、本願発明の対象物状態推定システム100の主な構成を示すブロック図である。この図に示すように本願発明の対象物状態推定システム100は、画像分類手段110と状態値算出手段120、変化時刻抽出手段130を含んで構成され、さらに表示諸元設定手段140やディスプレイなどの表示手段150、画像記憶手段160、学習済みモデル記憶手段170を含んで構成することもできる。 Figure 2 is a block diagram showing the main components of the object state estimation system 100 of the present invention. As shown in this figure, the object state estimation system 100 of the present invention is configured to include an image classification means 110, a state value calculation means 120, and a change time extraction means 130, and can also be configured to include a display specification setting means 140, a display means 150 such as a display, an image storage means 160, and a trained model storage means 170.

対象物状態推定システム100を構成する主な要素のうち画像分類手段110と状態値算出手段120、変化時刻抽出手段130、表示諸元設定手段140は、専用のものとして製造することもできるし、汎用的なコンピュータ装置を利用することもできる。このコンピュータ装置は、CPU等のプロセッサ、ROMやRAMといったメモリ、マウスやキーボード等の入力手段やディスプレイを具備するもので、パーソナルコンピュータ(PC)やサーバー、iPad(登録商標)といったタブレット型PC、スマートフォンを含む携帯端末などによって構成することができる。ディスプレイを具備したコンピュータ装置を利用する場合は、そのディスプレイを表示手段150として利用するとよい。 Of the main components constituting the object state estimation system 100, the image classification means 110, state value calculation means 120, change time extraction means 130, and display specification setting means 140 can be manufactured as dedicated components, or a general-purpose computer device can be used. This computer device is equipped with a processor such as a CPU, memory such as ROM and RAM, input means such as a mouse and keyboard, and a display, and can be configured from a personal computer (PC), a server, a tablet PC such as an iPad (registered trademark), or a mobile terminal including a smartphone. When using a computer device equipped with a display, it is recommended that the display be used as the display means 150.

また、画像記憶手段160や学習済みモデル記憶手段170は、汎用的コンピュータの記憶装置を利用することもできるし、データベースサーバーに構築することもできる。データベースサーバーに構築する場合、ローカルなネットワーク(LAN:Local Area Network)に置くこともできるし、インターネット経由(つまり無線通信)で保存するクラウドサーバーとすることもできる。 The image storage means 160 and the trained model storage means 170 can be implemented as a general-purpose computer storage device, or as a database server. If implemented as a database server, they can be placed on a local network (LAN: Local Area Network), or can be a cloud server that stores data via the Internet (i.e., wireless communication).

次に、図3を参照しながら本願発明の対象物状態推定システム100を使用したときの主な処理の流れについて説明する。図3は、対象物状態推定システム100の主な処理の流れを示すフロー図であり、中央の列に実施する処理を示し、左列にはその処理に必要な入力情報を、右列にはその処理から生まれる出力情報を示している。 Next, the main process flow when using the object state estimation system 100 of the present invention will be described with reference to Figure 3. Figure 3 is a flow diagram showing the main process flow of the object state estimation system 100, with the central column showing the process to be performed, the left column showing the input information required for that process, and the right column showing the output information resulting from that process.

まずは画像分類手段110(図2)が画像記憶手段160(図2)から画像を読み出し、その画像に収められているコンクリートの状態が「締固め完了状態」か否かを判断する(図3のStep110)。画像記憶手段160には、締固めによって変化するコンクリートを所定の撮影時間間隔で撮影した複数の画像(つまり、動画や連続静止画)が、その撮影時刻と関連付けられた(紐づけられた)うえで記憶されており、すなわちこれら画像には撮影時刻という情報が付与されている。そして画像分類手段110は、読み出した画像ごとにそれぞれ締固め完了状態か否かを判断する。ただし、ここでの判断はあくまで画像単位で行ったいわば暫定的な判断であって、コンクリートの状態を最終的に判断するものではない。便宜上ここでは、対象物に変化が有ると判定された画像、つまり締固め完了状態と判断された画像のことを「変化後画像」ということとし、締固め完了状態と判断されない画像のことを「変化前画像」ということとする。換言すれば画像分類手段110は、画像記憶手段160から読み出した画像ごとに変化後画像、あるいは変化前画像に分類するわけである。 First, the image classification means 110 (Fig. 2) reads an image from the image storage means 160 (Fig. 2) and judges whether the state of the concrete in the image is "compacted" or not (Step 110 in Fig. 3). The image storage means 160 stores a plurality of images (i.e., videos or continuous still images) of concrete that changes due to compaction taken at a predetermined shooting time interval, associated (linked) with the shooting time, that is, these images are given information of the shooting time. The image classification means 110 then judges whether each read image is in a compacted state or not. However, this judgment is only a provisional judgment made on an image-by-image basis, and does not ultimately judge the state of the concrete. For convenience, an image that is judged to have changed in the object, that is, an image that is judged to be in a compacted state, is referred to as a "changed image", and an image that is not judged to be in a compacted state is referred to as a "pre-change image". In other words, the image classification means 110 classifies each image read from the image storage means 160 into a post-transformation image or a pre-transformation image.

画像分類手段110が画像を分類するにあたっては、学習済みモデル記憶手段170(図2)に記憶された「学習済みモデル」が利用される。この学習済みモデルは、機械学習によって構築されたものであり、より詳しくは「変化後画像とされた画像」や「変化前画像とされた画像」を教師データとして学習することによって変化後画像の特徴量を抽出したもので、任意の画像を入力すると変化後画像に該当するか否かを出力するモデルである。なお、学習済みモデルを構築するための機械学習は、画像認識として多用されるCNN(Convolutional Neural Network)や、CNNよりも高精度で画像を認識するとされるNIN(Network In Network)を含む深層学習(deep learning)のほか、従来用いられている種々の機械学習技術を採用することができる。 When the image classification means 110 classifies images, a "trained model" stored in the trained model storage means 170 (FIG. 2) is used. This trained model is constructed by machine learning, and more specifically, it is a model that extracts features of the transformed image by learning from "images determined to be transformed images" and "images determined to be pre-transformation images" as teacher data, and outputs whether or not an arbitrary image corresponds to the transformed image when it is input. Note that the machine learning used to construct the trained model can employ various conventional machine learning techniques, including deep learning including CNN (Convolutional Neural Network), which is often used for image recognition, and NIN (Network In Network), which is said to recognize images with higher accuracy than CNN.

画像分類手段110が読み出したすべての画像に対して変化後画像か変化前画像に分類すると、状態値算出手段120(図2)がコンクリートの状態を示す「状態値」を算出する(図3のStep120)。この状態値は、変化後画像の数や割合に応じて決定される値であり、変化後画像の累計数によって求められる状態値(以下、「第1の状態値」という。)、一定数の画像集合(以下、「画像グループ」)における変化後画像の割合によって求められる状態値(以下、「第2の状態値」という。)、移動していく領域に含まれる画像集合(以下、「画像セット」)における変化後画像の割合によって求められる状態値(以下、「第3の状態値」という。)に大別することができる。以下、第1の状態値と第2の状態値、第3の状態値を求める手順について、それぞれ詳しく説明する。 Once the image classification means 110 classifies all the images read out as either post-change images or pre-change images, the state value calculation means 120 (FIG. 2) calculates a "state value" indicating the state of the concrete (Step 120 in FIG. 3). This state value is determined according to the number and proportion of post-change images, and can be broadly classified into a state value calculated based on the cumulative number of post-change images (hereinafter referred to as the "first state value"), a state value calculated based on the proportion of post-change images in a set of a certain number of images (hereinafter referred to as the "image group") (hereinafter referred to as the "second state value"), and a state value calculated based on the proportion of post-change images in a set of images included in a moving area (hereinafter referred to as the "image set") (hereinafter referred to as the "third state value"). Below, the procedures for calculating the first state value, the second state value, and the third state value will each be described in detail.

図4は、第1の状態値を算出する手順を説明するためのモデル図である、この図では、個々の画像をそれぞれ線分(縦線)で表しており、撮影を開始した画像(図では最左端の画像)から撮影時刻順(つまり、時間の経過順)に画像を並べている。また、変化前画像と変化後画像を線分の濃淡で区別しており、すなわち変化前画像を淡い(薄い)線分で示し、変化後画像を濃い線分で示している。 Figure 4 is a model diagram for explaining the procedure for calculating the first state value. In this diagram, each image is represented by a line segment (vertical line), and the images are arranged in order of shooting time (i.e., in chronological order) starting from the image at which shooting began (the image at the leftmost end in the diagram). In addition, the before-change image and the after-change image are distinguished by the shade of the line segment; that is, the before-change image is represented by a pale (thin) line segment, and the after-change image is represented by a dark line segment.

図4に示すように、時間が経過するほど、つまり締固め時間が長くなるほど、変化後画像に分類された数が多くなる。そして、最初に変化後画像が現れたときには変化後画像の出現頻度は低く、後半(図の右側)には変化後画像の出現頻度が高くなっている。したがって、従来技術のように最初に変化後画像が現れたときを「締固め完了状態」と決定するのは、その画像における特徴量の偶然性を排除することができず、その判断の信頼度は低いといえる。一方、変化後画像の出現数が増えてくるとその出現頻度も高くなり、「締固め完了状態」になったことが十分推定できる。つまり、変化後画像の出現数は、コンクリートの締固め状態を示す指標になると考えることができる。そこで「第1の状態値」は、撮影開始から撮影時刻順に数えた変化後画像の累計数として求めることとした。 As shown in Figure 4, the more time passes, i.e., the longer the compaction time, the more images are classified as changed images. When the first changed image appears, the frequency of changed images is low, but in the latter half (right side of the figure), the frequency of changed images increases. Therefore, if the first changed image is determined to be the "compaction complete state" as in the conventional technology, the chance of the features in the image cannot be eliminated, and the reliability of the judgment is low. On the other hand, as the number of changed images increases, the frequency of their appearance also increases, and it can be sufficiently estimated that the "compaction complete state" has been reached. In other words, the number of changed images can be considered an index of the compaction state of the concrete. Therefore, the "first state value" is calculated as the cumulative number of changed images counted in order of shooting time from the start of shooting.

図5は、第2の状態値を算出する手順を説明するためのモデル図である、この図も図4と同様、淡い線分で示す変化前画像と濃い線分で示す変化後画像を撮影時刻順に並べている。第2の状態値を算出にするにあたっては、まず撮影時刻順に並べた画像を複数の画像グループに分割する。例えば図5の場合、第1画像グループから第5画像グループまで5つの画像グループに分割している。そして第2の状態値は、画像グループを構成する画像の数、つまり変化前画像と変化後画像の総数に対する変化後画像の数の割合(百分率)として求められる。例えば、21枚の変化前画像と9枚の変化後画像を含む画像グループにおける第2の状態値は30%であり、3枚の変化前画像と27枚の変化後画像を含む画像グループにおける第2の状態値は90%となる。このように第2の状態値は、画像グループごとに算出される。 Figure 5 is a model diagram for explaining the procedure for calculating the second state value. As in Figure 4, before-change images are indicated by light lines and after-change images are indicated by dark lines, arranged in order of their shooting time. To calculate the second state value, the images arranged in order of their shooting time are first divided into a number of image groups. For example, in the case of Figure 5, the images are divided into five image groups, from the first image group to the fifth image group. The second state value is calculated as the number of images constituting the image group, that is, the ratio (percentage) of the number of after-change images to the total number of before-change images and after-change images. For example, the second state value for an image group containing 21 before-change images and 9 after-change images is 30%, and the second state value for an image group containing 3 before-change images and 27 after-change images is 90%. In this way, the second state value is calculated for each image group.

画像グループは、あらかじめ定めた画像枚数ごとに分割することができ、例えば30枚の画像が含まれるように画像グループを設定することができる。もちろん30枚単位で分割する場合に限らず、15枚単位や60枚単位など、コンクリートの状態等に応じて適宜設定した画像数で分割することができる。また、画像が所定の撮影時間間隔で取得されことを考えれば、画像グループは一定の時間ごとに分割された画像の集合(グループ)ということもできる。例えば、30fpsで画像が取得されている場合、30枚の画像ごとに画像グループを分割すると、その分割グループは1秒間の長さを有すると考えることができる。すなわち画像グループは、いわばコンクリートの状態を判断するための時間幅であり、第2の状態値はその時間幅ごとに判断されたコンクリートの状態を示す指標である。従来、オペレータは1秒~数秒単位で締固めの程度を判定していることから、時間幅が1秒~数秒となるように画像グループを分割するとよい。 The image group can be divided into a predetermined number of images, and for example, an image group can be set to include 30 images. Of course, the division is not limited to 30 images, and the number of images can be appropriately set according to the state of the concrete, such as 15 images or 60 images. Also, considering that the images are acquired at a predetermined shooting time interval, the image group can be said to be a set (group) of images divided into a certain time interval. For example, if images are acquired at 30 fps, if the image group is divided into 30 images, the divided group can be considered to have a length of 1 second. In other words, the image group is, so to speak, a time width for determining the state of the concrete, and the second state value is an index that indicates the state of the concrete determined for each time width. Conventionally, an operator determines the degree of compaction in units of 1 to several seconds, so it is advisable to divide the image group so that the time width is 1 to several seconds.

図6は、第3の状態値を算出する手順を説明するためのモデル図である、この図も図4と同様、淡い線分で示す変化前画像と濃い線分で示す変化後画像を撮影時刻順に並べている。第3の状態値を算出にするにあたっては、まず撮影時刻順に並べた画像に対して画像セットを設定する。この画像セットは、画像グループと同様、複数(例えば30枚)の画像によって構成される。ただし、画像グループが時間方向に移動しないいわば静的な画像集合であるのに対して、画像セットは時間方向に移動するいわば動的な画像集合である。具体的には図6に示すように、所定枚数(例えば30枚)の画像が含まれるように設定された領域であって時間が経過する方向に移動していく領域(以下、「移動領域」という。)に、含まれる画像集合が画像セットである。なお移動領域が1回に移動する単位量は任意に設計することができ、例えば撮影時間間隔の倍数(自然数倍)で設定するとよい。 Figure 6 is a model diagram for explaining the procedure for calculating the third state value. In this diagram, as in Figure 4, the pre-change images shown by light lines and the post-change images shown by dark lines are arranged in order of shooting time. When calculating the third state value, an image set is first set for the images arranged in order of shooting time. This image set is composed of multiple images (e.g., 30 images) like an image group. However, while an image group is a static collection of images that does not move in the time direction, an image set is a dynamic collection of images that move in the time direction. Specifically, as shown in Figure 6, an image set is a collection of images included in an area that is set to include a predetermined number of images (e.g., 30 images) and that moves in the direction of time (hereinafter referred to as a "moving area"). Note that the unit amount by which the moving area moves at one time can be designed arbitrarily, and it is recommended to set it as a multiple (natural number multiple) of the shooting time interval, for example.

第3の状態値は、画像セットに含まれている画像の数、つまり変化前画像と変化後画像の総数に対する変化後画像の数の割合(百分率)として求められる。例えば、15枚の変化前画像と15枚の変化後画像を含む画像セットにおける第3の状態値は50%であり、12枚の変化前画像と18枚の変化後画像を含む画像セットにおける第3の状態値は60%となる。第3の状態値は、画像セットを形成する移動領域が移動するたびに算出される。 The third state value is calculated as the ratio (percentage) of the number of images included in the image set, that is, the number of post-change images to the total number of before-change images and after-change images. For example, the third state value in an image set containing 15 before-change images and 15 after-change images is 50%, and the third state value in an image set containing 12 before-change images and 18 after-change images is 60%. The third state value is calculated each time the movement area that forms the image set moves.

状態値算出手段120が状態値を算出すると、表示諸元設定手段140(図2)がその状態値に応じた「表示諸元」を設定する(図3のStep130)とともに、表示手段150(図2)がその表示諸元にしたがって画像を表示する(図3のStep140)。ここで表示諸元とは、画像の透過度や、画像を着色するための表示色(以下、「画像表示色」という。)、画像の周囲を表す枠線(以下、「画像枠」という。)の線色や線種など、画像を表示するための要件である。また表示諸元は、コンクリートの状態を示す役割を有しており、したがってその値は状態値に応じて変化する。例えば、状態値が大きな値を示すほど透過度が高くなる(あるいは低くなる)仕様としたり、状態値が所定の値を超えるタイミングで画像表示色を変更する(例えば、赤色→緑色)仕様としたり、状態値が所定の値を超えるタイミングで画像枠の表示色を変更する(例えば、白色→黒色)仕様としたり、あるいは状態値に応じて複数の要件(透過度と画像表示色など)を組み合わせて変化させる仕様するなど、種々の仕様で設計することができる。 When the state value calculation means 120 calculates the state value, the display specification setting means 140 (FIG. 2) sets the "display specification" according to the state value (Step 130 in FIG. 3), and the display means 150 (FIG. 2) displays the image according to the display specification (Step 140 in FIG. 3). The display specification here refers to requirements for displaying an image, such as the transparency of the image, the display color for coloring the image (hereinafter referred to as the "image display color"), and the line color and line type of the frame line representing the periphery of the image (hereinafter referred to as the "image frame"). The display specification also has the role of indicating the state of the concrete, and therefore its value changes according to the state value. For example, it can be designed with various specifications, such as a specification in which the transparency becomes higher (or lower) as the state value indicates a larger value, a specification in which the image display color is changed (e.g., from red to green) when the state value exceeds a predetermined value, a specification in which the display color of the image frame is changed (e.g., from white to black) when the state value exceeds a predetermined value, or a specification in which a combination of multiple requirements (such as transparency and image display color) is changed according to the state value.

ところで本願発明の対象物状態推定システム100は、1つの画像を1つの領域として処理する仕様とすることもできるし、1つの画像を分割した複数の小領域(以下、「分割領域SP」という。)で構成されたものとして処理する仕様とすることもできる。対象物状態推定システム100が複数の分割領域SPからなる画像として処理する場合、この分割領域SPを個々の画像として取り扱う。すなわち、画像分類手段110(図2)は分割領域SPごとに変化前画像か変化後画像に分類し(図3のStep110)、状態値算出手段120(図2)は分割領域SPごとに状態値を算出し(図3のStep120)、表示諸元設定手段140(図2)は分割領域SPごとに表示諸元を設定する(図3のStep130)。そして表示手段150は、図7(b)に示すように複数(図では6×8枚)の分割領域SPで構成された画像を表示する。なお図7(a)は、対象物状態推定システム100が1つの画像を1つの領域として処理する場合に表示される画像を示している。 The object state estimation system 100 of the present invention can be designed to process one image as one region, or to process one image as composed of multiple small regions (hereinafter referred to as "split regions SP") by dividing it. When the object state estimation system 100 processes an image composed of multiple split regions SP, the split regions SP are treated as individual images. That is, the image classification means 110 (FIG. 2) classifies each split region SP into a pre-change image or a post-change image (Step 110 in FIG. 3), the state value calculation means 120 (FIG. 2) calculates a state value for each split region SP (Step 120 in FIG. 3), and the display parameter setting means 140 (FIG. 2) sets display parameters for each split region SP (Step 130 in FIG. 3). The display means 150 displays an image composed of multiple split regions SP (6 x 8 in the figure) as shown in FIG. 7(b). Note that FIG. 7(a) shows the image that is displayed when the object state estimation system 100 processes one image as one region.

図8は、表示諸元設定手段140が表示諸元として「透過度」を分割領域SPごとに設定し、表示手段150がその透過度にしたがって分割領域SPを表示した例を示す図であり、(a)は締固め初期におけるコンクリートの状態を表し、(b)は締固めがある程度進行したコンクリートの状態を表している。この図の場合、状態値が大きな値を示すほど透過度が高くなる仕様としており、図8(a)では締固め初期であることから黒色で着色された(つまり、透過度が低い)分割領域SPが多く見られる。これに対して図8(b)では、締固めがある程度進行したことから四隅を除くほとんどの分割領域SPが透過された状態とされており、すなわち全体的に締固めが進んでいることが分かる。 Figure 8 shows an example in which the display parameter setting means 140 sets "transparency" as a display parameter for each divided area SP, and the display means 150 displays the divided areas SP according to that transparency, where (a) shows the state of concrete in the early stages of compaction, and (b) shows the state of concrete after compaction has progressed to a certain extent. In this figure, the transparency increases as the state value increases, and in Figure 8(a), since compaction is in the early stages, many divided areas SP are colored black (i.e., have low transparency). In contrast, in Figure 8(b), compaction has progressed to a certain extent, so most of the divided areas SP except for the four corners are in a transparent state, which means that compaction is progressing overall.

図9は、表示諸元設定手段140が表示諸元として「画像枠の表示色」を分割領域SPごとに設定し、表示手段150がその画像枠の表示色にしたがって分割領域SPを表示した例を示す図であり、(a)は締固め初期におけるコンクリートの状態を表し、(b)は締固めがある程度進行したコンクリートの状態を表している。この図の場合、状態値が所定の値を超えるタイミングで画像枠の表示色を白色から黒色に変更する仕様としており、図9(a)では締固め初期であることから画像枠が白色とされた分割領域SPが多く見られる。これに対して図9(b)では、締固めがある程度進行したことから四隅を除くほとんどの分割領域SPが黒色の画像枠とされており、すなわち全体的に締固めが進んでいることが分かる。 Figure 9 shows an example in which the display parameter setting means 140 sets the "image frame display color" as a display parameter for each divided area SP, and the display means 150 displays the divided area SP according to the image frame display color, where (a) shows the state of concrete in the early stages of compaction, and (b) shows the state of concrete after compaction has progressed to a certain extent. In this figure, the display color of the image frame is set to change from white to black when the state value exceeds a predetermined value, and since Fig. 9(a) is in the early stages of compaction, there are many divided areas SP with white image frames. In contrast, in Fig. 9(b), compaction has progressed to a certain extent, so most of the divided areas SP except for the four corners have black image frames, which indicates that compaction is progressing overall.

なお、取得された画像が所定数だけ増えていくタイミングで、あるいは一定の時間が経過するタイミングで(つまり、定期的に)、画像分類手段110が画像(あるいは分割領域SP)を分類し、状態値算出手段120が画像(あるいは分割領域SP)ごとに状態値を算出し、表示諸元設定手段140が画像(あるいは分割領域SP)ごとに表示諸元を設定することができる。また表示手段150も、表示諸元設定手段140によって表示諸元が設定されたタイミングで、あるいは定期的に、表示する画像を変更する(切り替える)ことができる。 When the number of acquired images increases by a predetermined number or when a certain amount of time has passed (i.e., periodically), the image classification means 110 classifies the images (or divided areas SP), the state value calculation means 120 calculates a state value for each image (or divided area SP), and the display specification setting means 140 can set display specifications for each image (or divided area SP). The display means 150 can also change (switch) the image to be displayed when the display specifications are set by the display specification setting means 140, or periodically.

状態値算出手段120が状態値を算出すると、変化時刻抽出手段130(図2)がその状態値とあらかじめ定めた閾値(以下、「状態閾値」という。)を照らし合わせる(図3のStep150)。そして状態値が状態閾値を下回るとき(Step150のNo)は、条件を変更して状態値を求める(図3のStep120)。例えば、図4に示す第1の状態値の場合は、時間を進めて変化後画像の累計数を計上し、図5に示す第2の状態値の場合は、画像グループを変更して(第3画像グループ→第4画像グループ)変化後画像数の割合を求め、図6に示す第3の状態値の場合は、画像セットを変更して(移動領域を移動して)変化後画像数の割合を求める。 When the state value calculation means 120 calculates the state value, the change time extraction means 130 (FIG. 2) compares the state value with a predetermined threshold value (hereinafter referred to as the "state threshold value") (Step 150 in FIG. 3). If the state value falls below the state threshold value (No in Step 150), the conditions are changed to obtain the state value (Step 120 in FIG. 3). For example, in the case of the first state value shown in FIG. 4, the time is advanced and the cumulative number of images after the change is calculated, in the case of the second state value shown in FIG. 5, the image group is changed (third image group → fourth image group) to obtain the proportion of the number of images after the change, and in the case of the third state value shown in FIG. 6, the image set is changed (the movement area is moved) to obtain the proportion of the number of images after the change.

一方、状態値が状態閾値を超えるとき(Step150のYes)は、「締固め完了状態」となったと推定できる画像や分割領域SP(以下、「注目画像」という)を選出するStep160)。この注目画像は、求める状態値の種類に応じて選出するとよい。例えば第1の状態値を求める場合、変化後画像の累計数が状態閾値を初めて超えたときの画像を注目画像として選出することができる。図4の場合、状態閾値を40枚として設定しており、第1の状態値が40枚となったときの画像を注目画像として選出している。もちろん状態閾値は40枚に限らず、90枚や120枚など、コンクリートの状態等に応じて適宜設定することができる。また本願発明の対象物状態推定システム100が「状態閾値入力手段」を備えることとし、オペレータが所望の状態閾値を入力する仕様とすることもできる。 On the other hand, when the state value exceeds the state threshold (Yes in Step 150), an image or divided area SP that can be estimated to be in a "compaction completed state" (hereinafter referred to as "image of interest") is selected (Step 160). This image of interest may be selected according to the type of state value to be sought. For example, when the first state value is sought, the image when the cumulative number of images after the change exceeds the state threshold for the first time can be selected as the image of interest. In the case of FIG. 4, the state threshold is set to 40, and the image when the first state value becomes 40 is selected as the image of interest. Of course, the state threshold is not limited to 40, and can be set appropriately according to the state of the concrete, such as 90 or 120. In addition, the object state estimation system 100 of the present invention may be provided with a "state threshold input means" so that the operator can input a desired state threshold.

第2の状態値を求める場合、まずは注目画像を含む画像グループ(以下、「注目画像グループ」という。)を選出するとよい。この注目画像グループは、第2の状態値が状態閾値を超えた画像グループのうち最も早い撮影時刻に係るものとして選出することができる。図5の場合、状態閾値を90%として設定しており、第2の状態値が90%となったときの第5画像グループが注目画像グループとして選出される。もちろん状態閾値は90%に限らず、60%や80%など、コンクリートの状態等に応じて適宜設定することができる。なお図5で状態閾値を60%とした場合、第4画像グループの状態値(60%)と第5画像グループの状態値(90%)がそれぞれ状態閾値以上となっているが、第5画像グループよりも第4画像グループの撮影時刻の方が早いことから、第4画像グループが注目画像グループとして選出される。 When determining the second state value, it is advisable to first select an image group including an image of interest (hereinafter referred to as the "image group of interest"). This image group of interest can be selected as the image group with the earliest shooting time among the image groups whose second state value exceeds the state threshold. In the case of FIG. 5, the state threshold is set to 90%, and the fifth image group when the second state value reaches 90% is selected as the image group of interest. Of course, the state threshold is not limited to 90%, and can be set appropriately according to the state of the concrete, such as 60% or 80%. Note that when the state threshold is set to 60% in FIG. 5, the state value of the fourth image group (60%) and the state value of the fifth image group (90%) are both above the state threshold, but since the shooting time of the fourth image group is earlier than that of the fifth image group, the fourth image group is selected as the image group of interest.

注目画像グループが選出されると、その注目画像グループに含まれる画像(あるいは分割領域SP)のなかから注目画像を選出する。このとき、注目画像グループのうち撮影時刻が早い画像から並べたときの序数(以下、「撮影順位」という)をあらかじめ定めておき、この撮影順位に基づいて注目画像を選出するとよい。例えば図10に示すケースでは、20枚の画像によって画像グループが構成されており、撮影順位が12番目(最後から3番目)の画像を注目画像として選出することとしている。もちろん注目画像として選出する撮影順位は最後から3番目に限らず、注目画像グループのうちの最後の画像としたり、注目画像グループのうちの中間の画像としたり、コンクリートの状態等に応じて適宜設定することができる。 When a target image group is selected, a target image is selected from among the images (or divided area SP) contained in the target image group. At this time, it is advisable to determine in advance the ordinal number (hereinafter referred to as the "shooting order") of the images in the target image group, starting with the image taken earliest, and to select the target image based on this shooting order. For example, in the case shown in FIG. 10, an image group is made up of 20 images, and the image taken 12th (third from the last) is selected as the target image. Of course, the shooting order of the image selected as the target image is not limited to the third from the last, and it can be the last image in the target image group, an intermediate image in the target image group, or any other image appropriate to the condition of the concrete, etc.

第3の状態値を求める場合も、第2の状態値と同様、まずは注目画像を含む画像セット(以下、「注目画像セット」という。)を選出するとよい。この注目画像セットは、第3の状態値が状態閾値を超えた画像セットのうち最も早い撮影時刻に係るものとして選出することができる。そして注目画像セットが選出されると、その注目画像セットに含まれる画像(あるいは分割領域SP)のなかから注目画像を選出する。このとき、第2の状態値と同様、注目画像セットのうちあらかじめ定められた撮影順位に基づいて注目画像を選出するとよい。 When determining the third state value, as with the second state value, it is advisable to first select an image set including an image of interest (hereinafter referred to as an "image set of interest"). This image set of interest can be selected as the image set with the earliest shooting time for which the third state value exceeds the state threshold. Once the image set of interest is selected, an image of interest is selected from among the images (or divided area SP) included in the image set of interest. At this time, as with the second state value, it is advisable to select an image of interest from the image set of interest based on a predetermined shooting order.

注目画像が選出されると、変化時刻抽出手段130(図2)がその注目画像に係る撮影時刻(以下、「変化時刻」という。)を抽出する(図3のStep170)。既述したとおり画像記憶手段160は、撮影時刻とともに画像を記憶している。したがって、例えば注目画像の識別子をもって画像記憶手段160に照会することで、その注目画像の撮影時刻(つまり、変化時刻)を得ることができるわけである。そしてこの変化時刻において、対象物であるコンクリートが「締固め完了状態」となったと推定する。 When an image of interest is selected, the change time extraction means 130 (Figure 2) extracts the shooting time (hereinafter referred to as the "change time") associated with the image of interest (Step 170 in Figure 3). As described above, the image storage means 160 stores images along with their shooting times. Therefore, for example, by querying the image storage means 160 with the identifier of the image of interest, the shooting time (i.e., the change time) of the image of interest can be obtained. Then, it is estimated that the target concrete has reached a "compaction complete state" at this change time.

3.対象物状態推定方法
続いて本願発明の対象物状態推定方法について図11を参照しながら説明する。なお、本願発明の対象物状態推定方法は、ここまで説明した対象物状態推定システム100を用いて対象物の変化状態を推定するする方法であり、したがって対象物状態推定システム100で説明した内容と重複する説明は避け、本願発明の対象物状態推定方法に特有の内容のみ説明することとする。すなわち、ここに記載されていない内容は、「2.対象物状態推定システム」で説明したものと同様である。
3. Object State Estimation Method Next, the object state estimation method of the present invention will be described with reference to Fig. 11. Note that the object state estimation method of the present invention is a method for estimating a change in the state of an object using the object state estimation system 100 described up to this point, and therefore, explanations that overlap with the contents described in the object state estimation system 100 will be avoided, and only the contents unique to the object state estimation method of the present invention will be described. In other words, the contents not described here are the same as those described in "2. Object State Estimation System".

図11は、本願発明の対象物状態推定方法の主な工程を示すフロー図である。この図に示すように、まずは締固め作業が行われているフレッシュコンクリートの動画や連続静止画を撮影する(図11のStep10)。コンクリートの画像を取得すると、本願発明の対象物状態推定システム100の画像分類手段110を用いて、画像(あるいは分割領域SP)ごとに変化前画像か変化後画像に分類し(図11のStep20)、対象物状態推定システム100の状態値算出手段120を用いて、画像(あるいは分割領域SP)ごとに状態値を算出する(図11のStep30)。そして対象物状態推定システム100の変化時刻抽出手段130を用いて、注目画像を選出するとともに変化時刻を抽出し(図11のStep40)、この変化時刻において対象物であるコンクリートが「締固め完了状態」となったと推定する。 Figure 11 is a flow diagram showing the main steps of the object state estimation method of the present invention. As shown in this figure, first, a video or continuous still images of fresh concrete undergoing compaction are taken (Step 10 in Figure 11). When the images of the concrete are acquired, the image classification means 110 of the object state estimation system 100 of the present invention is used to classify each image (or divided area SP) into a pre-change image or a post-change image (Step 20 in Figure 11), and the state value calculation means 120 of the object state estimation system 100 is used to calculate a state value for each image (or divided area SP) (Step 30 in Figure 11). Then, the change time extraction means 130 of the object state estimation system 100 is used to select an image of interest and extract the change time (Step 40 in Figure 11), and it is estimated that the target concrete has reached a "compaction completion state" at this change time.

本願発明の対象物状態推定システム、及び対象物状態推定方法は、コンクリートの締固め判断や、コンクリートの硬化判断、盛土の締固め判断など、その状態が変化する様々な対象物の状態変化を判断する場合に利用できる。本願発明が、例えば、適切に締め固まったいわば高品質のコンクリート構造物を提供することを考えれば、産業上利用できるばかりでなく社会的にも大きな貢献を期待し得る発明といえる。 The object state estimation system and object state estimation method of the present invention can be used to determine changes in the state of various objects whose states change, such as determining the compaction of concrete, the hardening of concrete, and the compaction of embankments. Considering that the present invention can provide, for example, appropriately compacted, high-quality concrete structures, it can be said to be an invention that can be expected to not only be used industrially, but also to make a significant contribution to society.

100 本願発明の対象物状態推定システム
110 (対象物状態推定システムの)画像分類手段
120 (対象物状態推定システムの)状態値算出手段
130 (対象物状態推定システムの)変化時刻抽出手段
140 (対象物状態推定システムの)表示諸元設定手段
150 (対象物状態推定システムの)表示手段
160 (対象物状態推定システムの)画像記憶手段
170 (対象物状態推定システムの)学習済みモデル記憶手段
SP 分割領域
100 Object state estimation system of the present invention 110 Image classification means (of object state estimation system) 120 State value calculation means (of object state estimation system) 130 Change time extraction means (of object state estimation system) 140 Display specification setting means (of object state estimation system) 150 Display means (of object state estimation system) 160 Image storage means (of object state estimation system) 170 Learned model storage means (of object state estimation system) SP Divided area

Claims (7)

所定の撮影時間間隔で対象物を撮影した複数の画像に基づいて、該対象物の状態の変化を推定するシステムであって、
機械学習によって構築された学習済みモデルを用いた画像認識を行うことによって前記画像ごとに前記対象物の変化の有無を判定するとともに、該対象物に変化が有ると判定された該画像を変化後画像に分類する画像分類手段と、
前記対象物の撮影開始から撮影時刻順に数えた前記変化後画像の累計数である状態値を、算出する状態値算出手段と、
前記状態値があらかじめ定めた閾値を超えたときの前記画像に係る撮影時刻を、前記対象物の変化時刻として抽出する変化時刻抽出手段と、を備え、
前記変化時刻抽出手段によって抽出された前記変化時刻において、前記対象物の状態が変化したと推定する、
ことを特徴とする対象物状態推定システム。
A system for estimating a change in a state of an object based on a plurality of images of the object captured at a predetermined capture time interval, comprising:
An image classification means for determining whether or not there is a change in the object for each of the images by performing image recognition using a trained model constructed by machine learning, and classifying the image for which it is determined that there is a change in the object as a changed image;
a state value calculation means for calculating a state value which is a cumulative number of the post-change images counted in order of shooting time from the start of shooting the object;
a change time extraction means for extracting, as a change time of the object, a photographing time of the image when the state value exceeds a predetermined threshold value,
It is estimated that a state of the object has changed at the change time extracted by the change time extraction means.
An object state estimation system comprising:
所定の撮影時間間隔で対象物を撮影した複数の画像に基づいて、該対象物の状態の変化を推定するシステムであって、
機械学習によって構築された学習済みモデルを用いた画像認識を行うことによって前記画像ごとに前記対象物の変化の有無を判定するとともに、該対象物の変化が有ると判定された該画像を変化後画像に分類する画像分類手段と、
撮影時刻順に並べた前記画像を複数の画像グループに分割するとともに、該画像グループにおける前記変化後画像数の割合である状態値を、算出する状態値算出手段と、
前記状態値があらかじめ定めた閾値を超えた前記画像グループのうち最も早い撮影時刻に係る該画像グループを選出するとともに、選出された該画像グループのうちあらかじめ定めた撮影順位の前記画像に係る撮影時刻を、前記対象物の変化時刻として抽出する変化時刻抽出手段と、を備え、
前記変化時刻抽出手段によって抽出された前記変化時刻において、前記対象物の状態が変化したと推定する、
ことを特徴とする対象物状態推定システム。
A system for estimating a change in a state of an object based on a plurality of images of the object captured at a predetermined capture time interval, comprising:
An image classification means for determining whether or not the object has changed for each image by performing image recognition using a trained model constructed by machine learning, and classifying the image for which it is determined that the object has changed as a changed image;
a state value calculation means for dividing the images arranged in order of shooting time into a plurality of image groups and calculating a state value which is a ratio of the number of the changed images in each image group;
a change time extraction means for selecting an image group having the earliest shooting time from among the image groups whose state value has exceeded a predetermined threshold value, and extracting, from the selected image group, the shooting time of an image having a predetermined shooting order as the change time of the object,
It is estimated that a state of the object has changed at the change time extracted by the change time extraction means.
An object state estimation system comprising:
所定の撮影時間間隔で対象物を撮影した複数の画像に基づいて、該対象物の状態の変化を推定するシステムであって、
機械学習によって構築された学習済みモデルを用いた画像認識を行うことによって前記画像ごとに前記対象物の変化の有無を判定するとともに、該対象物の変化が有ると判定された該画像を変化後画像に分類する画像分類手段と、
撮影時刻順に並べた前記画像に対して一定数まとめた画像セットを設定するとともに、該画像セットを移動しながら該画像セットにおける前記変化後画像数の割合である状態値を、算出する状態値算出手段と、
前記状態値があらかじめ定めた閾値を超えた前記画像セットのうち最も早い撮影時刻に係る該画像セットを選出するとともに、選出された該画像セットのうちあらかじめ定めた撮影順位の前記画像に係る撮影時刻を、前記対象物の変化時刻として抽出する変化時刻抽出手段と、を備え、
前記変化時刻抽出手段によって抽出された前記変化時刻において、前記対象物の状態が変化したと推定する、
ことを特徴とする対象物状態推定システム。
A system for estimating a change in a state of an object based on a plurality of images of the object captured at a predetermined capture time interval, comprising:
An image classification means for determining whether or not the object has changed for each image by performing image recognition using a trained model constructed by machine learning, and classifying the image for which it is determined that the object has changed as a changed image;
a state value calculation means for setting an image set of a certain number of the images arranged in order of shooting time, and calculating a state value that is a ratio of the number of the changed images in the image set while moving through the image set;
a change time extraction means for selecting an image set having the earliest photographing time from among the image sets in which the state value exceeds a predetermined threshold value, and extracting, from the selected image set, a photographing time of the image having a predetermined photographing order as a change time of the object,
It is estimated that a state of the object has changed at the change time extracted by the change time extraction means.
An object state estimation system comprising:
前記対象物は、継続して締め固めが行われているフレッシュコンクリートであり、
前記画像分類手段は、前記フレッシュコンクリートが締め固められたと判定された前記画像を前記変化後画像に分類する、
ことを特徴とする請求項1乃至請求項3のいずれかに記載の対象物状態推定システム。
The object is fresh concrete that is being continuously compacted,
The image classification means classifies the image in which it is determined that the fresh concrete has been compacted into the changed image.
4. The object state estimation system according to claim 1, wherein the object state estimation system is a system for estimating an object state based on the state of the object.
前記画像を複数に分割した分割画像を表示する表示手段と、
前記分割画像ごとに前記状態値に応じた表示諸元を設定する、表示諸元設定手段と、をさらに備え、
前記画像分類手段は、前記分割画像ごとに前記対象物の変化の有無を判定するとともに、該対象物に変化が有ると判定された該分割画像を前記変化後画像に分類し、
前記状態値算出手段は、前記分割画像ごとに前記状態値を算出し、
前記表示手段は、前記表示諸元設定手段によって設定された前記表示諸元に基づいて、前記分割画像を表示する、
ことを特徴とする請求項1乃至請求項4のいずれかに記載の対象物状態推定システム。
a display means for displaying a plurality of divided images obtained by dividing the image;
a display parameter setting means for setting display parameters for each of the divided images according to the state value,
the image classification means determines whether or not there is a change in the object for each of the divided images, and classifies the divided images for which it is determined that there is a change in the object into the changed image;
the state value calculation means calculates the state value for each of the divided images;
The display means displays the divided image based on the display specifications set by the display specification setting means.
5. The object state estimation system according to claim 1,
前記表示諸元設定手段は、前記分割画像の前記状態値に基づいて、透過度、表示色、又は枠線色を、前記表示諸元として設定する、
ことを特徴とする請求項5記載の対象物状態推定システム。
the display parameter setting means sets a transparency, a display color, or a frame color as the display parameter based on the state value of the divided image;
6. The object state estimation system according to claim 5.
請求項1乃至請求項6のいずれかに記載の対象物状態推定システムを用いて、前記対象物の状態の変化を推定する方法であって、
前記撮影時間間隔で前記対象物を撮影し、複数の前記画像を取得する画像取得工程と、
前記画像分類手段によって、前記対象物に変化が有ると判定された前記画像を前記変化後画像に分類する画像分類工程と、
前記状態値算出手段によって、前記状態値を算出する状態値算出工程と、
前記変化時刻抽出手段によって、前記対象物の前記変化時刻を抽出する変化時刻抽出工程と、を備え、
前記変化時刻抽出工程によって抽出された前記変化時刻において、前記対象物の状態が変化したと推定する、
ことを特徴とする対象物状態推定方法。
A method for estimating a change in a state of an object using the object state estimation system according to any one of claims 1 to 6, comprising:
an image acquisition step of photographing the object at the photographing time interval and acquiring a plurality of the images;
an image classification step of classifying the image determined to have a change in the object by the image classification means into the changed image;
a state value calculation step of calculating the state value by the state value calculation means;
a change time extraction step of extracting the change time of the object by the change time extraction means,
It is estimated that a state of the object has changed at the change time extracted by the change time extraction step.
4. A method for estimating an object state comprising:
JP2020117577A 2020-07-08 2020-07-08 Object state estimation system and object state estimation method Active JP7477839B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020117577A JP7477839B2 (en) 2020-07-08 2020-07-08 Object state estimation system and object state estimation method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020117577A JP7477839B2 (en) 2020-07-08 2020-07-08 Object state estimation system and object state estimation method

Publications (2)

Publication Number Publication Date
JP2022015003A JP2022015003A (en) 2022-01-21
JP7477839B2 true JP7477839B2 (en) 2024-05-02

Family

ID=80120512

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020117577A Active JP7477839B2 (en) 2020-07-08 2020-07-08 Object state estimation system and object state estimation method

Country Status (1)

Country Link
JP (1) JP7477839B2 (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018159245A (en) 2017-03-23 2018-10-11 株式会社熊谷組 Management method of concrete placement
JP2021152494A (en) 2020-03-24 2021-09-30 鹿島建設株式会社 Fresh concrete determination method and fresh concrete determination device

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018159245A (en) 2017-03-23 2018-10-11 株式会社熊谷組 Management method of concrete placement
JP2021152494A (en) 2020-03-24 2021-09-30 鹿島建設株式会社 Fresh concrete determination method and fresh concrete determination device

Also Published As

Publication number Publication date
JP2022015003A (en) 2022-01-21

Similar Documents

Publication Publication Date Title
Kim et al. 4D CAD model updating using image processing-based construction progress monitoring
CN104484524B (en) A kind of method and system interacted based on BIM simulation models with site operation
KR101696629B1 (en) System and method for warning collapse using monitoring of structure deformation
CN106991668B (en) Evaluation method for pictures shot by skynet camera
CN105335559A (en) Engineering standardized construction process control method and system on basis of BIM (building information modeling)
CN104008272B (en) Concrete vibration visual monitoring method based on computer graphic technology
JP6960168B2 (en) Local information assimilation equipment and methods and programs for real-time flood hazard mapping
JP2020041290A (en) Optimal compaction determination construction system for concrete
CN109583852B (en) Material and progress informatization management system for bridge cantilever pouring construction
CN114119877A (en) Building engineering construction progress monitoring method and device, electronic equipment and storage medium
Arif et al. Smart progress monitoring framework for building construction elements using videography–MATLAB–BIM integration
JP7477839B2 (en) Object state estimation system and object state estimation method
CN115271432A (en) Intelligent engineering information management method, system, storage medium and equipment
CN108416076A (en) A kind of assembled architecture design method based on BIM technology
JP2019073962A (en) Method and device for predicting leveling work enabling period of concrete and method for constructing concrete
CN117093822B (en) Industrial brain data analysis platform based on industrial knowledge graph
CN117610375A (en) Bridge suspension casting construction digital twin method, device and equipment based on machine vision
JP7033851B2 (en) Construction volume data acquisition system
CN115937684A (en) Building construction progress identification method and electronic equipment
CN104954889B (en) Head generation method and generation system
CN116167582A (en) Intelligent construction progress monitoring system based on BIM technology
JP2023123034A (en) Compaction determination system and method for determining compaction
DE102017102361A1 (en) Technology for monitoring the use of an elevator device
CN113070996A (en) Control device and system for production control method of concrete prefabricated part
JP7339185B2 (en) Outdoor structure part identification device, outdoor structure part identification method, and outdoor structure part identification program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230524

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20240321

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240402

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240411

R150 Certificate of patent or registration of utility model

Ref document number: 7477839

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150