JP7390743B2 - 物体測定装置及び物体測定方法 - Google Patents

物体測定装置及び物体測定方法 Download PDF

Info

Publication number
JP7390743B2
JP7390743B2 JP2022000640A JP2022000640A JP7390743B2 JP 7390743 B2 JP7390743 B2 JP 7390743B2 JP 2022000640 A JP2022000640 A JP 2022000640A JP 2022000640 A JP2022000640 A JP 2022000640A JP 7390743 B2 JP7390743 B2 JP 7390743B2
Authority
JP
Japan
Prior art keywords
edge
edge detection
image
data
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022000640A
Other languages
English (en)
Other versions
JP2023100159A (ja
Inventor
徹 伊藤
康文 福間
マオ ザイシン
央 塚田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Individual
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Priority to JP2022000640A priority Critical patent/JP7390743B2/ja
Priority to PCT/JP2022/047602 priority patent/WO2023132275A1/ja
Publication of JP2023100159A publication Critical patent/JP2023100159A/ja
Application granted granted Critical
Publication of JP7390743B2 publication Critical patent/JP7390743B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Description

本発明は、物体測定装置及び物体測定方法に関し、特に、空間内に存在する物体の形状を高精度で測定するための物体測定装置及び物体測定方法に関するものである。
建築途中のビル等の建築物について施工状況を確認するためには、空間内において資材として認識すべき物体の形状を高精度で認識することが求められる。従来においても、カメラやセンサを用いて空間内のデータを取得し、物体の形状を測定することが試みられている。しかしながら、建築途中のビル等の空間内には、パイプや柱、ダクト、窓枠、パネル等の多くの物体が存在するため、取得した画像から抽出した多数の直線や曲線のうち、どの直線を資材として認識すべき物体とすれば良いかの判断は自動化することが難しく、人手により物体の領域を指定することが多く、手間と時間が要するという問題があった。
一方、人手によらず、取得した画像中の物体を自動で認識するシステムを用いて空間中の物体を認識する場合、より高精度が求められる利用目的に対しては、十分な精度を得ることが困難であった。例えば、建築途中の建築物の施工状況を把握するという目的においては、資材が計画通りに設置されているかを把握する必要があり、資材の正確な位置や形状、寸法を測定することが求められる。このような目的に対しても十分に対応可能なシステムが求められる。
例えば、特許文献1では、「既存図面から取得した建築物の既存部分の電子化データを3次元CADデータに変換して、3次元レーザースキャナにより取得された点群データや該点群データから作成された3次元ポリゴンモデルを含む各種現場調査データと共に格納する既存部分調査手段と、前記3次元ポリゴンモデルに対して、予め部材ライブラリに格納された部材オブジェクトの中から選択された新たに施工される部材オブジェクトを配置する施工部材設計手段と、該施工部材設計手段により配置された前記部材オブジェクトに従って部材工場でプレカットされた部材に取り付けられた電子タグをIDリーダで読み取ることにより得られた前記部材オブジェクト固有のIDに対応する部材オブジェクトをその施工位置情報と共に前記施工部材設計手段により設計された3次元CADモデルから検索して出力する部材施工位置出力手段と、して機能するCPUと、該CPUの前記部材施工位置出力手段により出力された前記部材オブジェクトの施工位置情報に基づき、前記既存部分における前記部材の施工位置を指し示す自動位置指示装置と」を備えた建築生産システムが開示されている。
また、特許文献2では、「撮像装置を用いて実空間を撮像することにより生成される入力画像を取得する画像取得部と、前記入力画像に映る1つ以上の特徴点の位置に基づいて、前記実空間と前記撮像装置との間の相対的な位置及び姿勢を認識する認識部と、認識される前記相対的な位置及び姿勢を用いた拡張現実アプリケーションを提供するアプリケーション部と、前記認識部により実行される認識処理が安定化するように、前記特徴点の分布に従って、前記撮像装置を操作するユーザを誘導する誘導オブジェクトを前記入力画像に重畳する表示制御部と、を備える画像処理装置」が開示されている。
3次元空間あるいは3次元空間内の物体を把握するための技術を開示しているが、特に建設途中のビルや工場等、空間内にパイプや柱、ダクト、窓枠、パネル等の多くの物体が複雑に入り組む現場において、空間内の注目すべき資材を効率的に把握し高精度で物体の形状を測定するために適したものではなかった。
特開2013-149119号公報 特開2013-225245号公報
そこで、本発明は、上記課題を解決し、機械学習モデルを用いて物体を認識し、エッジ検出方向の決定とエッジ処理をすべき領域の決定を自動化し、例えばサブピクセル単位等の高精度なエッジ抽出により物体の形状を測定するための物体測定装置を提供するものである。
また、本発明は、機械学習モデルを用いて物体を認識し、エッジ検出方向の決定とエッジ処理をすべき領域の決定を自動化し、例えばサブピクセル単位等の高精度なエッジ抽出により物体の形状を測定するための物体測定装置において用いられる機械学習モデルを生成するための機械学習モデル生成装置を提供する。
また、本発明は、機械学習モデルを用いて物体を認識し、エッジ検出方向の決定とエッジ処理をすべき領域の決定を自動化し、例えばサブピクセル単位等の高精度なエッジ抽出により物体の形状を測定するための物体測定装置を含む物体測定システムを提供する。
また、本発明は、機械学習モデルを用いて物体を認識し、エッジ検出方向の決定とエッジ処理をすべき領域の決定を自動化し、例えばサブピクセル単位等の高精度なエッジ抽出により物体の形状を測定するための物体測定方法を提供する。
また、本発明は、上記物体測定方法の各ステップをコンピュータに実行させるためのプログラムを提供する。
上記課題を解決するため、本発明では、物体測定装置であって、取得した画像を入力データとして学習済モデルに入力することにより画像中の物体領域を認識し、物体領域を認識結果として出力する、物体認識部と、物体認識部で認識した物体領域についてエッジ検出方向を決定する、エッジ検出方向決定部と、物体認識部で認識した物体の領域についてエッジ処理領域を決定する、エッジ処理領域決定部と、エッジ処理領域決定部で決定したエッジ処理領域に対して、エッジ検出方向決定部で決定したエッジ検出方向にてエッジ検出を行うエッジ検出部とを備えることを特徴とする、物体測定装置を提供する。
本発明の物体測定装置において、物体認識部が物体領域の認識に用いる学習済モデルは、BIM(Building Information Modeling)データから生成された正解画像を正解データとし、BIMデータをレンダリングすることにより生成された仮想観測画像を観測データとして機械学習を行うことにより生成されることを特徴とする。
本発明の物体測定装置において、エッジ検出方向決定部は、物体認識部で認識した物体領域の境界を示す境界線を直線で近似した線である近似線を生成し、近似線には第1の方向の近似線と第1の方向に直交する第2の方向の近似線が含まれ、第1の方向の近似線と第2の方向の近似線とを比較し、長さがより長い方を測定対象の物体を構成するエッジとして決定することを特徴とする。
本発明の物体測定装置において、エッジ処理領域決定部は、エッジ処理領域決定部は、エッジ検出方向決定部で決定したエッジから、エッジに直交する方向への距離が閾値以下の範囲をエッジ処理領域として決定することを特徴とする。
また、本発明では、物体測定方法であって、取得した画像を入力データとして学習済モデルに入力することにより画像中の物体を認識し、物体の領域を認識結果として出力するステップと、認識結果として出力された物体の領域についてエッジ検出方向を決定するエッジ検出方向を決定するステップと、認識結果として出力された物体の領域についてエッジ処理領域を決定するエッジ処理領域を決定するステップと、エッジ処理領域に対してエッジ検出を行うステップとを備えることを特徴とする、物体測定方法を提供する。
また、本発明では、コンピュータに、上記物体測定方法の各ステップを実行させることを特徴とするプログラムを提供する。
本発明において、「BIM(Building Information Modeling)データ」とは、コンピュータ上に再現された建物の3次元モデルのデータをいう。
本発明において、「現実の画像」とは、現実の世界をカメラで撮影した写真等の画像をいう。
本発明によれば、サブピクセル単位の精度で空間内の物体の形状を測定することができ、画像の分解能により向上できる精度、機械学習を用いた物体認識による向上できる精度、カメラ等による物体のスキャニングの工夫により向上できる精度を超えて、さらに高精度の物体測定を可能にすることができるという効果を奏する。
また、本発明は、建築現場等において建築途中の建築物の施工状況を把握するという目的に用いる場合にも十分な精度で物体の形状を測定することができる。
本発明の他の目的、特徴および利点は添付図面に関する以下の本発明の実施例の記載から明らかになるであろう。
図1は、本発明による物体測定装置の全体を示す概略図である。 図2は、本発明の機械学習モデル生成装置の概要を示す図である。 図3は、本発明の物体認識部での処理の概要を示す図である。 図4は、本発明のエッジ検出方向決定部での処理の概要を示す図である。 図5は、本発明のエッジ処理領域決定部での処理の概要を示す図である。 図6は、本発明のエッジ検出部での処理の概要を示す図である。 図7は、本発明の物体測定装置の処理の流れを示す図である。
図1は、本発明による物体測定装置10の全体を示す概略図である。
本発明による物体測定装置10は、取得した画像を入力データとして学習済モデルMに入力することにより画像中の物体を認識し、物体の領域を認識結果として出力する、物体認識部103と、物体認識部103で認識した物体の領域についてエッジ検出方向を決定する、エッジ検出方向決定部104と、物体認識部103で認識した物体の領域についてエッジ処理領域を決定する、エッジ処理領域決定部105と、エッジ処理領域決定部105で決定したエッジ処理領域に対してエッジ検出を行うエッジ検出部106とを備える。
物体測定装置10は、物体測定システム1の一部を構成するようにしてもよい。物体測定システム1は、機械学習モデルを用いて空間内の物体を認識し、物体の位置、形状、寸法等を測定するために用いられる。例えば、建築途中の施工現場において、作業の進捗を確認するために、施工現場をカメラで撮影し、撮影された画像内に含まれるパイプやダクト、柱、壁、窓枠、ケーブル、パネル等の構造物を認識して、位置、形状、寸法等を測定するために用いることができる。
物体測定システム1は、撮像装置20を含むようにしてもよい。撮像装置20は、任意のカメラであってよく、例えば、静止画用のカメラ、動画用のカメラ、携帯端末に搭載されたモバイル・カメラ、CCDカメラ等であってもよい。物体測定システム1で認識の対象となる入力画像は、例えば、建設途中の施工現場を撮影した現場写真等の現実の画像である。現実の画像は、撮像装置20から取得した画像である。物体測定システム1が撮像装置20を含まない場合には、外部の撮像手段により撮像されて予めデータベース又はメモリ等(図示せず)に記憶されたものであってもよい。
物体測定システム1は、機械学習モデル生成装置40を含む。物体測定装置10は、機械学習モデル生成装置40により生成された機械学習済モデルを用いて空間内の物体の認識を行うが、機械学習モデル生成装置40により新たな機械学習済モデルが生成された場合には、物体測定システム1は、物体測定装置10の機械学習済モデルを新たな機械学習済モデルに更新するようにしてもよい。
機械学習モデル生成装置40が有する機能は、クラウド・サービス上に構築されるようにしてもよい。また、機械学習モデル生成装置40と物体測定装置10は、物理的に離れた場所にある場合には、ネットワークを介して互いにデータ等のやり取りを行うようにしてもよい。
物体認識部103は、取得した画像を入力データとして学習済モデルに入力することにより画像中の物体を認識し、物体の領域を認識結果として出力する。ここで、入力データとしての画像は、撮像装置20から取得した画像であるが、予めデータベース又はメモリ等(図示せず)に記憶された画像であってもよい。
エッジ検出方向決定部104は、物体認識部103で認識した物体の領域についてエッジ検出方向を決定する。
エッジ処理領域決定部105は、物体認識部103で認識した物体の領域についてエッジ処理領域を決定する。
エッジ検出部106は、エッジ処理領域決定部105で決定したエッジ処理領域に対してエッジ検出を行う。
図2は、本発明の機械学習モデル生成装置40の概要を示す図である。
機械学習モデル生成装置40は、空間内の物体を認識するための学習済モデルMを生成する。機械学習モデル生成装置40は、BIM(Building Information Modeling)データから生成された正解画像を正解データとし、BIMデータをレンダリングすることにより生成された仮想観測画像を観測データとして機械学習を行うことにより学習済モデルMを生成する。機械学習は好ましくはニューラルネットワークによる深層学習により行われるが、他の機械学習手法を用いることも可能である。学習済モデルMは、物体測定装置10による測定の前に予め機械学習モデル生成装置40により生成される。
機械学習モデル生成装置40は、BIMデータから正解データを生成する正解データ生成部401と、BIMデータをレンダリングし、仮想観測画像を生成する仮想観測データ生成部402と、正解データ生成部401で生成された正解画像を正解データとし、仮想観測画像を観測データとして機械学習を行い、学習済モデルMを生成する学習モデル生成部403とを備える。
正解データ生成部401は、BIMデータから正解画像を生成する。正解画像は、学習モデル生成部403において機械学習モデルを生成する際に、正解データとして利用される。正解画像は、構造物を示すマスク領域を有するマスク画像であってよい。正解画像は、例えば、図2で示すように、BIMデータから生成された2値化画像であってよい。正解画像は、図2の例に限られず、認識すべき構造物に応じて他の形式の画像としてもよい。
ここで、「BIMデータ」とは、コンピュータ上に再現された建物の3次元モデルのデータをいう。BIMデータは、一般に、建物の3次元の構造の情報を含む他、建材をパーツごとにオブジェクトとして捉え、パーツごとに、幅、奥行き、高さ、素材、組み立ての工程や組み立てにかかる時間等の図面以外の情報を含むことができる。BIMデータをレンダリングすることにより、その3次元空間の画像を得ることができる。レンダリングされた画像は、実際の現場の見た目を再現するように立体的に表現することもでき、一部を2次元の画像として切り出すこともできる。レンダリングされた画像に対しては、2値化、細線化、スケルトン化等の画像処理を施すことができる。図2の例では、BIMデータは、BIMデータを格納するためのデータベースに格納されているが、BIMデータが格納されるデータベースは、機械学習モデル生成装置40の外部に存在するようにしてもよい。
仮想観測データ生成部402は、BIMデータをレンダリングし、仮想観測画像を生成する。BIMデータをレンダリングすることにより生成された仮想観測画像は、例えば、図2に示すような現実の画像を再現したような見た目の画像となる。
学習モデル生成部403は、正解画像生成部で生成された正解画像を正解データとし、仮想観測画像を観測データとして機械学習を行い、学習済モデルMを生成する。このように、現場写真等の現実の画像に代えて、BIMデータから生成された正解画像及び仮想観測画像を用いることにより、機械学習のために膨大な数の現場写真等の現実の画像を収集する手間と困難性の問題が解消される。
図3は、本発明の物体認識部103での処理の概要を示す図である。
物体認識部103は、取得した画像を入力データとして学習済モデルMに入力することにより画像中の物体領域を認識し、物体領域を認識結果として出力する。物体認識部103が物体領域Aの認識に用いる学習済モデルMは、好ましくは、BIM(Building Information Modeling)データから生成された正解画像を正解データとし、BIMデータをレンダリングすることにより生成された仮想観測画像を観測データとして機械学習を行うことにより生成される。学習済モデルMは、機械学習モデル生成装置40により予め生成されたものである。学習済モデルMはこの例に限られず、画像中から物体領域を認識できるものである限り、他の手法により生成されたものであってもよい。
図3の(a)は、学習済モデルMに対する入力データと学習モデルMからの出力データの関係を示している。学習モデルMに対する入力データは、撮像装置20等から取得した画像であり、学習モデルMからの出力データは、認識結果としての物体領域を含む認識結果画像である。
図3の(b)は、認識結果画像を拡大したものである。図4の(b)の例では、物体Оが測定対象の物体(この例では、パイプ)として認識された結果が示されている。測定対象の物体の領域が物体領域Aとして認識されている。
図3の(c)は、認識結果画像のうち、物体認識部103で認識された物体領域Aの部分を拡大したものである。図4の(c)において、物体Oは実際の物体のエッジを模式的に示したものであり、物体領域Aは認識された物体領域である。図4の(c)のように、物体認識部103で認識された物体領域Aのエッジは実際の物体Oのエッジとの間で僅かにずれが生じる。このずれを補正してより高精度のエッジ検出を行うために、後述のエッジ検出方向決定部104、エッジ処理領域決定部105及びエッジ検出部106での処理が行われる。
図4は、本発明のエッジ検出方向決定部104での処理の概要を示す図である。
エッジ検出方向決定部104は、物体認識部103で認識した物体の物体領域Aについてエッジ検出方向を決定する。図5の境界線Bは、物体認識部103で認識した物体領域Aの境界を示している。図4の近似線Lは、境界線Bを直線で近似した線である。近似線Lには第1の方向(図4のX方向)の近似線Lxと第1の方向(図4のX方向)に直交する第2の方向(図4のY方向)の近似線Lyが含まれる。エッジ検出方向決定部104は、第1の方向(図4のX方向)の近似線Lxと第1の方向に直交する第2の方向(図4のY方向)の近似線Lyとを比較し、長さがより長い方を測定対象の物体を構成するエッジEとして決定する。長さがより短い近似線の方が、影やノイズ、オクルージョン等の影響を受けやすいため、近似線Lx及び近似線Lyのうち、長さがより長い方を測定対象の物体を構成するエッジEと決定する。図4の例では、X方向の近似線LxよりもY方向の近似線Lyの方が長いため、近似線Lyが物体ОのエッジEとして決定される。エッジEが決定すると、エッジ検出方向決定部104は、後にエッジ検出部106にてエッジ検出を行う際のエッジ検出の方向として、エッジEに直交する方向Pをエッジ検出方向として決定する。
図5は、本発明のエッジ処理領域決定部105での処理の概要を示す図である。
エッジ処理領域決定部105は、エッジ処理をすべき領域として、エッジ検出方向決定部104で決定したエッジEについて、エッジ処理領域Rを決定する。エッジ処理領域決定部105は、エッジ検出方向決定部104で決定したエッジEから、エッジEに直交する方向への距離が閾値S以下の範囲をエッジ処理領域Rとして決定する。閾値Sは、物体認識部103において認識される物体領域Aのエッジと物体Оの実際のエッジとのずれ幅の振幅の量に応じて決定する。閾値Sの値は、実際の認識処理又は事前の検証において得られた物体認識部103での誤認識の精度に応じて調整できるようにしてもよい。言い換えれば、エッジ処理領域Rは、エッジEからそれぞれX方向のプラス方向及びマイナス方向に所定の距離Dだけ離間したエッジEの2本の平行線の間の領域となる。距離Dは、物体認識部103において認識される物体領域Aのエッジと物体Оの実際のエッジとのずれ幅の振幅の量に応じて決定する。距離Dの値は、実際の認識処理又は事前の検証において得られた物体認識部103での誤認識の精度に応じて調整できるようにしてもよい。
図6は、本発明のエッジ検出部106での処理の概要を示す図である。
エッジ検出部106は、エッジ処理領域決定部105で決定したエッジ処理領域Rに対して、エッジ検出方向決定部104で決定したエッジ検出方向Pにてエッジ検出を行う。エッジ検出部106では、例えば、ソーベル(Sobel)フィルタ、ラプラシアン(Laplacian)フィルタ等の任意の既存のエッジ検出手法を用いてエッジ検出を行うことができる。例えば、エッジ検出手法としてキャニー(Canny)を用いる場合、ガウシアン(Gaussian)フィルタによる平滑化によりノイズを除去し、ソーベルフィルタによる微分処理によりエッジを検出し、極大値を検出してエッジ以外の部分を取り除き、2段階の閾値処理を行うようにしてもよい。
エッジ検出部106は、エッジ検出を行う際に、処理対象の画像に対してサブピクセル処理を行うようにしてもよい。サブピクセル処理は、好ましくは、エッジ処理領域決定部105で決定したエッジ処理領域Rに対してのみ、又はエッジ処理領域Rを含むエッジ処理領域Rの周辺領域に対してのみ行うが、サブピクセル処理を処理対象の画像全体に対して行うようにしてもよい。ここで、「サブピクセル処理」とは、1画素未満の精度で画像処理を行うために、1画素未満のサブピクセルの濃度を周辺の画素の濃度等から補間して求める処理をいう。サブピクセル処理における濃度補間は、例えば線形補間法等の既存の手法を用いてもよい。例えば、近傍の3画素に注目してサブピクセル単位で濃度補間を行うようにしてもよい。
図7は、本発明の物体測定装置の処理の流れを示す図である。
まず、ステップS701おいて、物体を認識する。次に、ステップS702において、エッジ検出方向を決定する。次に、ステップS703において、エッジ処理を行う領域を決定する。次に、ステップS704において、エッジを検出する。
ステップS701では、取得した画像を入力データとして学習済モデルに入力することにより画像中の物体を認識し、物体の領域を認識結果として出力する。ステップS701は上述の物体認識部103により実行される。
ステップS702では、認識結果として出力された物体の領域についてエッジ検出方向を決定するエッジ検出方向を決定する。ステップS702は上述のエッジ検出方向決定部104により実行される。
ステップS703では、認識結果として出力された物体の領域についてエッジ処理領域を決定するエッジ処理領域を決定する。ステップS703は上述のエッジ処理領域決定部105により実行される。
ステップS704では、決定したエッジ処理領域に対してエッジ検出を行う。ステップS704は上述のエッジ検出部106により実行される。
上記実施例において、図2を参照し、機械学習モデル生成装置40は、BIMデータから生成された正解画像を正解データとし、BIMデータをレンダリングすることにより生成された仮想観測画像を観測データとして機械学習を行うことにより学習済モデルMを生成する例を説明したが、この例に限られず、本発明の物体測定装置10は、他の方法により生成された学習済モデルを用いることも可能である。例えば、BIMデータから生成された正解画像に代えて大量に収集された現実の画像から正解画像を生成し、機械学習に用いる正解データとするようにしてもよい。また、BIMデータから生成された仮想観測画像に代えて大量に収集された現実の画像を機械学習に用いる観測データとするようにしてもよい。
また、機械学習モデル生成装置40の構成に関する他の変形例として、学習モデル生成部403での学習済モデルMの生成に用いる正解データとして、BIMデータから生成された正解画像の他に、正解画像に対して画像処理を施した強化画像を追加するようにしてもよい。例えば、正解画像に細線化等の画像処理を施すことにより中心線または特徴線を抽出した強化画像を用いるようにしてもよい。
また、機械学習モデル生成装置40の構成に関するさらに他の変形例として、学習モデル生成部403での学習済モデルMの生成に用いる仮想観測データとして、BIMデータから生成された仮想観測画像に対して画像処理を施した強化仮想観測画像を用いるようにしてもよい。例えば、仮想観測画像において着目する物体に対してテクスチャを追加した強化仮想観測画像を用いるようにしてもよい。
上記2つの変形例は、上記実施例で説明した本発明の物体測定装置10に対して、任意に組み合わせて実施することができる。また、これらの任意に組み合わせた態様を含む物体測定システム1を実施することができる。
以上により説明した本発明による物体測定システム、物体測定装置及び物体測定方法によれば、機械学習モデルを用いて物体を認識し、エッジ検出方向の決定とエッジ処理をすべき領域の決定を自動化し、必要に応じてサブピクセル処理を行うことでサブピクセル単位等の高精度で空間内の物体の形状を測定することができる。そのため、画像の分解能により向上できる精度、機械学習を用いた物体認識による向上できる精度、カメラ等による物体のスキャニングの工夫により向上できる精度を超えて、さらに高精度の物体測定を可能にすることができる。また、本発明は、建築現場等において建築途中の建築物の施工状況を把握するという目的に用いる場合にも十分な精度で物体の形状を測定することができる。また、建築現場以外においても、例えば、製品の検品や寸法測定等、高精度に物体の形状を測定することが要求される場面にも応用することができる。
上記記載は実施例についてなされたが、本発明はそれに限らず、本発明の原理と添付の請求の範囲の範囲内で種々の変更および修正をすることができることは当業者に明らかである。
1 物体測定システム
10 物体測定装置
20 撮像装置
40 機械学習モデル生成装置
103 物体認識部
104 エッジ検出方向決定部
105 エッジ処理領域決定部
106 エッジ検出部

Claims (6)

  1. 物体測定装置であって、
    取得した画像を入力データとして学習済モデルに入力することにより前記画像中の物体領域を認識し、前記物体領域を認識結果として出力する、物体認識部と、
    前記物体認識部で認識した前記物体領域についてエッジ検出方向を決定する、エッジ検出方向決定部と、
    前記物体認識部で認識した前記物体領域についてエッジ処理領域を決定する、エッジ処理領域決定部と、
    前記エッジ処理領域決定部で決定した前記エッジ処理領域に対して、前記エッジ検出方向決定部で決定した前記エッジ検出方向にてエッジ検出を行うエッジ検出部と
    を備えることを特徴とする、物体測定装置。
  2. 前記物体認識部が前記物体領域の認識に用いる前記学習済モデルは、BIM(Building Information Modeling)データから生成された正解画像を正解データとし、前記BIMデータをレンダリングすることにより生成された仮想観測画像を観測データとして機械学習を行うことにより生成されることを特徴とする、請求項1に記載の物体測定装置。
  3. 前記エッジ検出方向決定部は、前記物体認識部で認識した前記物体領域の境界を示す境界線を直線で近似した線である近似線を生成し、前記近似線には第1の方向の近似線と前記第1の方向に直交する第2の方向の近似線が含まれ、前記第1の方向の近似線と前記第2の方向の近似線とを比較し、長さがより長い方を測定対象の物体を構成するエッジとして決定することを特徴とする、請求項1に記載の物体測定装置。
  4. 前記エッジ処理領域決定部は、前記エッジ検出方向決定部で決定した前記エッジから、前記エッジに直交する方向への距離が閾値以下の範囲をエッジ処理領域として決定することを特徴とする、請求項1に記載の物体測定装置。
  5. 物体測定方法であって、
    取得した画像を入力データとして学習済モデルに入力することにより前記画像中の物体を認識し、前記物体の領域を認識結果として出力するステップと、
    前記認識結果として出力された前記物体の領域についてエッジ検出方向を決定するエッジ検出方向を決定するステップと、
    前記認識結果として出力された前記物体の領域についてエッジ処理領域を決定するエッジ処理領域を決定するステップと、
    前記エッジ処理領域に対してエッジ検出を行うステップと
    を備えることを特徴とする、物体測定方法。
  6. コンピュータに、請求項5に記載の方法の各ステップを実行させることを特徴とするプログラム。
JP2022000640A 2022-01-05 2022-01-05 物体測定装置及び物体測定方法 Active JP7390743B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2022000640A JP7390743B2 (ja) 2022-01-05 2022-01-05 物体測定装置及び物体測定方法
PCT/JP2022/047602 WO2023132275A1 (ja) 2022-01-05 2022-12-23 物体測定装置及び物体測定方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022000640A JP7390743B2 (ja) 2022-01-05 2022-01-05 物体測定装置及び物体測定方法

Publications (2)

Publication Number Publication Date
JP2023100159A JP2023100159A (ja) 2023-07-18
JP7390743B2 true JP7390743B2 (ja) 2023-12-04

Family

ID=87073601

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022000640A Active JP7390743B2 (ja) 2022-01-05 2022-01-05 物体測定装置及び物体測定方法

Country Status (2)

Country Link
JP (1) JP7390743B2 (ja)
WO (1) WO2023132275A1 (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011237279A (ja) 2010-05-11 2011-11-24 Mitsutoyo Corp 画像測定機、プログラム、及び画像測定機のティーチング方法
JP2014153914A (ja) 2013-02-08 2014-08-25 Mega Chips Corp 物体検出装置、プログラムおよび集積回路
JP2016070683A (ja) 2014-09-26 2016-05-09 株式会社ニコン 画像処理装置、画像測定装置、画像処理方法、画像処理プログラムおよび構造物の製造方法

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6295859B2 (ja) * 2014-07-08 2018-03-20 株式会社デンソー 車載システム、情報処理装置、及びプログラム
JP7393128B2 (ja) * 2019-03-20 2023-12-06 フォルシアクラリオン・エレクトロニクス株式会社 車載処理装置、移動支援システム
JP7375405B2 (ja) * 2019-09-19 2023-11-08 株式会社大林組 学習支援システム、学習支援方法及び学習支援プログラム
JP7383470B2 (ja) * 2019-12-20 2023-11-20 エヌ・ティ・ティ・コミュニケーションズ株式会社 情報処理装置、情報処理方法およびプログラム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011237279A (ja) 2010-05-11 2011-11-24 Mitsutoyo Corp 画像測定機、プログラム、及び画像測定機のティーチング方法
JP2014153914A (ja) 2013-02-08 2014-08-25 Mega Chips Corp 物体検出装置、プログラムおよび集積回路
JP2016070683A (ja) 2014-09-26 2016-05-09 株式会社ニコン 画像処理装置、画像測定装置、画像処理方法、画像処理プログラムおよび構造物の製造方法

Also Published As

Publication number Publication date
WO2023132275A1 (ja) 2023-07-13
JP2023100159A (ja) 2023-07-18

Similar Documents

Publication Publication Date Title
Brilakis et al. Progressive 3D reconstruction of infrastructure with videogrammetry
Fathi et al. Automated as-built 3D reconstruction of civil infrastructure using computer vision: Achievements, opportunities, and challenges
Han et al. Appearance-based material classification for monitoring of operation-level construction progress using 4D BIM and site photologs
Brilakis et al. Toward automated generation of parametric BIMs based on hybrid video and laser scanning data
EP2609570B1 (en) Method for generating a model of a flat object from views of the object
JP5018721B2 (ja) 立体模型の作製装置
KR102113068B1 (ko) 수치지도 및 도로정밀지도 구축 자동화를 위한 방법
CN114119864A (zh) 一种基于三维重建与点云匹配的定位方法和装置
JP4427052B2 (ja) 画像処理装置および領域追跡プログラム
Pacheco et al. Reconstruction of high resolution 3D objects from incomplete images and 3D information
Saovana et al. Development of an unwanted-feature removal system for Structure from Motion of repetitive infrastructure piers using deep learning
Vincke et al. Vision based metric for quality control by comparing built reality to BIM
KR101538014B1 (ko) 3d 모델링을 통해 사진 이미지로부터 입체영상을 생성하는 방법
JP7298687B2 (ja) 物体認識装置及び物体認識方法
Hernandez et al. Three-dimensional image-based approach for imperfect structures surface modeling
Verykokou et al. A Comparative analysis of different software packages for 3D Modelling of complex geometries
JP7390743B2 (ja) 物体測定装置及び物体測定方法
KR101673144B1 (ko) 부분 선형화 기반의 3차원 영상 정합 방법
Verhoeven et al. From 2D (to 3D) to 2.5 D: not all gridded digital surfaces are created equally
Zetu et al. Data input model for virtual reality-aided facility layout
Nanya et al. Reconstruction of complete 3D models by voxel integration
Lari et al. A new approach for segmentation-based texturing of laser scanning data
JP7403108B2 (ja) 建屋内構造物認識システム及び建屋内構造物認識方法
JP7344620B1 (ja) 建屋内構造物認識システム及び建屋内構造物認識方法
JP7019118B1 (ja) 情報処理装置及び情報処理方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221208

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231031

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231114

R150 Certificate of patent or registration of utility model

Ref document number: 7390743

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313114

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350