JP7400950B2 - 検出装置、ラベル付与方法、及びプログラム - Google Patents

検出装置、ラベル付与方法、及びプログラム Download PDF

Info

Publication number
JP7400950B2
JP7400950B2 JP2022512984A JP2022512984A JP7400950B2 JP 7400950 B2 JP7400950 B2 JP 7400950B2 JP 2022512984 A JP2022512984 A JP 2022512984A JP 2022512984 A JP2022512984 A JP 2022512984A JP 7400950 B2 JP7400950 B2 JP 7400950B2
Authority
JP
Japan
Prior art keywords
crack
group
points
candidates
detection device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022512984A
Other languages
English (en)
Other versions
JPWO2021199264A1 (ja
JPWO2021199264A5 (ja
Inventor
聡 辻
淳一 安部
泰祐 田邉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Publication of JPWO2021199264A1 publication Critical patent/JPWO2021199264A1/ja
Publication of JPWO2021199264A5 publication Critical patent/JPWO2021199264A5/ja
Application granted granted Critical
Publication of JP7400950B2 publication Critical patent/JP7400950B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • G01N21/8803Visual inspection
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • G01N21/8851Scan or image signal processing specially adapted therefor, e.g. for scan signal adjustment, for detecting different kinds of defects, for compensating for structures, markings, edges
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • G01N21/95Investigating the presence of flaws or contamination characterised by the material or shape of the object to be examined
    • G01N21/9515Objects of complex shape, e.g. examined with use of a surface follower device
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/60Extraction of image or video features relating to illumination properties, e.g. using a reflectance or lighting model
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/94Hardware or software architectures specially adapted for image or video understanding
    • G06V10/945User interactive design; Environments; Toolboxes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/70Labelling scene content, e.g. deriving syntactic or semantic representations
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • G01N21/8851Scan or image signal processing specially adapted therefor, e.g. for scan signal adjustment, for detecting different kinds of defects, for compensating for structures, markings, edges
    • G01N2021/8854Grading and classifying of flaws
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • G01N21/8851Scan or image signal processing specially adapted therefor, e.g. for scan signal adjustment, for detecting different kinds of defects, for compensating for structures, markings, edges
    • G01N2021/8883Scan or image signal processing specially adapted therefor, e.g. for scan signal adjustment, for detecting different kinds of defects, for compensating for structures, markings, edges involving the calculation of gauges, generating models

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Immunology (AREA)
  • Computing Systems (AREA)
  • Analytical Chemistry (AREA)
  • Chemical & Material Sciences (AREA)
  • Pathology (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biochemistry (AREA)
  • Databases & Information Systems (AREA)
  • Evolutionary Computation (AREA)
  • Medical Informatics (AREA)
  • Computational Linguistics (AREA)
  • Quality & Reliability (AREA)
  • Signal Processing (AREA)
  • Image Analysis (AREA)

Description

本開示は、検出装置、ラベル付与方法、及びプログラムに関する。
カメラを用いて撮影された画像に対して画像処理を行うことによって、コンクリートにできたひびを検知する技術が検討されている。例えば、特許文献1には、画像データから欠陥の特徴量を演算し、画像データ上の欠陥の特徴量の集合領域を特定する表面欠陥評価装置の構成が開示されている。画像データ上の欠陥は、コンクリートにできたひびに相当する。
特開2016-217940号公報
カメラを用いて撮影される画像の品質は、カメラの周辺環境の明るさに影響を受ける。そのため、特許文献1に開示されている表面欠陥評価装置を用いる場合、画像処理が有効に動作する画像の画像データを取得するために、撮影時の明るさを一定レベルに保つ必要がある。しかし、鉄道のトンネル、道路上のトンネル等は、トンネル内の全領域にわたって十分な明るさの照明を備えていないことが多い。そのため、トンネル内のコンクリートの点検を行う場合には、大規模な照明機材を用いる必要があるという問題がある。
本開示の目的は、画像処理が有効に動作する画像の画像データを取得するために十分な明るさを確保できない場合であっても、ひびを検知することができる検出装置、ラベル付与方法、及びプログラムを提供することにある。
第1の態様にかかる検出装置は、対象物までの距離を示す点群データと、前記点群データを測定する際に照射するビームの反射光から得られる輝度情報とを取得する取得部と、前記輝度情報に基づいてエッジ検出を行うエッジ検出部と、エッジとして検出された点の集合であるひびの候補に含まれる点の分布に基づいて、複数の前記ひびの候補をいずれかのグループに分類する分類部と、前記グループに属する前記ひびの候補の形状を視認したユーザから前記グループに関するラベルの入力を受け付けるラベル付与部と、を備える。
第2の態様にかかるラベル付与方法は、対象物までの距離を示す点群データと、前記点群データを測定する際に照射するビームの反射光から得られる輝度情報とを取得し、前記輝度情報に基づいてエッジ検出を行い、エッジとして検出された点の集合であるひびの候補に含まれる点の分布に基づいて、複数の前記ひびの候補をいずれかのグループに分類し、前記グループに属する前記ひびの候補の形状を視認したユーザから前記グループに関するラベルの入力を受け付ける。
第3の態様にかかるプログラムは、対象物までの距離を示す点群データと、前記点群データを測定する際に照射するビームの反射光から得られる輝度情報とを取得し、前記輝度情報に基づいてエッジ検出を行い、エッジとして検出された点の集合であるひびの候補に含まれる点の分布に基づいて、複数の前記ひびの候補をいずれかのグループに分類し、前記グループに属する前記ひびの候補の形状を視認したユーザから前記グループに関するラベルの入力を受け付けることをコンピュータに実行させる。
本開示により、画像処理が有効に動作する画像の画像データを取得するために十分な明るさを確保できない場合であっても、ひびを検知することができる検出装置、ラベル付与方法、及びプログラムを提供することができる。
実施の形態1にかかる検出装置の構成図である。 実施の形態2にかかる点の集合の解析処理を説明するである。 実施の形態2にかかる点の集合の解析処理を説明するである。 実施の形態2にかかる検出装置におけるひび判定処理の流れを示す図である。 実施の形態2にかかる検出装置におけるひび判定処理の流れを示す図である。 実施の形態3にかかるひびの形状を示す図である。 実施の形態3にかかる空間の分割を示す図である。 実施の形態4にかかる点密度を説明する図である。 実施の形態4にかかる検出装置におけるひび判定処理の流れを示す図である。 実施の形態5にかかる検出装置の構成図である。 実施の形態5にかかるビームの入射角度及び反射光を説明する図である。 実施の形態5にかかるラベル付与に関する処理の流れを示す図である。 それぞれの実施の形態にかかる検出装置の構成図を示す図である。
(実施の形態1)
以下、図面を参照して本開示の実施の形態について説明する。図1を用いて実施の形態1にかかる検出装置10の構成例について説明する。検出装置10は、プロセッサがメモリに格納されたプログラムを実行することによって動作するコンピュータ装置であってもよい。検出装置10は、例えば、サーバ装置であってもよい。検出装置10において実行される処理は、複数のコンピュータ装置において分散処理されてもよい。
検出装置10は、取得部11、エッジ検出部12、及びひび判定部13を有している。取得部11、エッジ検出部12、及びひび判定部13は、プロセッサがメモリに格納されたプログラムを実行することによって処理が実行されるソフトウェアもしくはモジュールであってもよい。または、取得部11、エッジ検出部12、及びひび判定部13は、回路もしくはチップ等のハードウェアであってもよい。
取得部11は、測定装置から対象物までの距離を示す点群データと、点群データを測定する際に照射するビームの反射光から得られる輝度情報とを取得する。測定装置は、対象物までの距離を示す点群データを測定する装置である。測定装置は、例えば、3次元センサであってもよい。3次元センサは、具体的には、3D-LiDAR装置であってもよい。3D-LiDAR装置は、例えば、ToF(Time of Flight)方式を用いて、物体までの距離を測定し、物体の形状を特定する。3D-LiDAR装置は、レーザースキャナーと称されてもよい。対象物は、ひびが発生する可能性のある物体であり、例えば、トンネルもしくはビル等の壁面であってもよい。
検出装置10が測定装置を含む場合、取得部11が、測定装置であってもよい。つまり、測定装置として動作する取得部11は、測定結果として直接点群データ及び輝度情報を取得する。検出装置10が測定装置を含む場合とは、検出装置10と測定装置とが一体として動作する場合も含む。または、取得部11は、ネットワークを介して測定装置と接続してもよい。この場合、取得部11は、測定装置から送信された点群データ及び輝度情報を、ネットワークを介して受信してもよい。取得部11は、測定装置において測定された点群データ及び輝度情報を、持ち運び可能な記録媒体等を介して取得してもよい。
エッジ検出部12は、輝度情報に基づいてエッジ検出を行う。エッジ検出は、例えば、点群データに含まれるそれぞれの点について、隣接する点の輝度との差が、予め定められた閾値を超える点をエッジとして検出する。具体的には、エッジ検出部12は、隣接する点の輝度よりも予め定められた閾値以上低下した輝度の点をエッジとして検出してもよい。さらに、エッジ検出部12は、エッジとして検出された点と、実質的に同一の輝度を有する点もエッジとして検出してもよい。実質的に同一の輝度とは、隣接する点の輝度との差が予め定められた閾値を超えるとして検出されたエッジの点の輝度との差が所定の範囲内の輝度であってもよい。実質的に同一の輝度とみなされる輝度の所定の範囲の値は、隣接する点の輝度との差に基づいてエッジを検出する際に用いられる閾値の値よりも十分に小さい値とする。つまり、エッジ検出部12は、輝度が予め定められた閾値以上低下している点の集合をエッジとして検出する。輝度が予め定められた閾値以上低下している点の集合は、ひびの候補となる。
ひび判定部13は、点群データが示す複数の点のうち、エッジとして検出された点の輝度との差が所定範囲内の輝度を示す点が分布する領域の形状を用いて、エッジと検出された領域がひびを示すか否かを判定する。言い換えると、ひび判定部13は、エッジとして検出された点の集合の形状を用いて、その形状がひびを示すか否かを判定する。ひび判定部13は、例えば、ひびとみなされるエッジの長さ及び幅の少なくとも一方の基準を定めて置き、エッジと検出された点の集合が、予め定められた基準を満たす場合、ひびと判定し、予め定められた基準を満たさない場合、ひびではないと判定してもよい。予め定められた基準は、例えば、エッジの長さが所定の値以上であり、エッジの幅が所定の幅以下である、等であってもよい。
もしくは、ひび判定部13は、機械学習等によりひびの形状を予め学習した学習モデルを用いて、エッジと検出された点の集合の形状が、ひびを示すか否かを判定してもよい。
以上説明したように、検出装置10は、点群データと関連付けられた輝度情報を用いて、ひびの候補となる領域を検出する。輝度情報は、ビームを対象物へ照射した際の反射光から得られる情報である。そのため、測定装置は、輝度情報を得るために、周辺環境の明るさを一定のレベル以上に保つ必要はない。その結果、検出装置10は、トンネル内等の十分な明るさの照明を備えていない場所において、コンクリート等の点検を行う場合であっても、大規模な照明機材を用いる必要がない。
(実施の形態2)
続いて、図2を用いてエッジ検出部12において実行される、エッジと検出された点の集合の解析処理について説明する。エッジ検出部12は、点群データに含まれる複数の点のうち、輝度情報に基づいてエッジとなる点を検出する。さらに、エッジ検出部12は、エッジとして検出された点の輝度と所定範囲内の輝度を示す点についても、エッジとして検出する。
図2は、エッジ検出部12において、エッジとして検出された点のX-Y平面上における分布を示している。それぞれの点は、3次元データであるため、X軸、Y軸、及びZ軸上の位置を示す値を有している。X軸、Y軸、及びZ軸は、例えば、3D-LiDAR装置が定める座標軸であってもよい。図2に示される点は、それぞれ他の点の輝度と同等の輝度を有する。ここで、点の輝度とは、その点においてビームが反射された際の反射光の輝度を示す。
また、図2は、理解を容易とするために、X-Y平面上における、エッジとして検出された点の分布を示しているが、実際には、X-Y平面と垂直なZ軸方向にも、エッジとして検出された点は分布している。
エッジ検出部12は、図2に示される、エッジとして検出された点の分布に対して、主成分分析(PCA: Principle Component Analysis)を行う。主成分分析は、主に、点の分散を特定するために行われる分析である。分散は、ばらつきと言い換えられてもよい。
具体的には、主成分分析は、図2に示されるように、点の分散が最大となる方向の分散の大きさもしくは長さを算出する。図2の点の分布の中に示される実線は、点の分散の大きさもしくは長さを示している。分散の大きさもしくは長さは、固有値と言い換えられてもよい。図2に示されるD_1は、エッジとして検出された点の分布において、点の分散が最も大きい方向の分散の長さを示している。D_1を第1主成分とする。例えば、エッジ検出部12は、エッジとして検出された点の分布における重心を算出し、重心から分散が最大となる方向を算出することによって、第1主成分となるD_1を算出してもよい。
次に、第1主成分と直交する方向において、点の分散が最大となる方向の分散の長さを算出する。図3の点の分布の中に示される実線は、点の分散の大きさもしくは長さを示している。図3に示されるD_2は、D_1と直交する方向において、点の分散が最大となる方向の分散の長さを示している。D_2を第2主成分とする。次に、第1主成分及び第2主成分と直交する方向において、点の分散が最大となる方向の分散の長さを算出する。図2には図示されていないが、図2においてX-Y平面と垂直なZ軸方向において、点の分散が最大となる方向の分散の長さをD_3とする。D_3を第3主成分とする。
3次元データである点群データの分布に対して主成分分析を行うことによって、第1主成分から第3主成分を得ることができる。
ひび判定部13は、エッジ検出部12において算出された第1主成分乃至第3主成分を用いて、エッジとして検出された点の集合が示す形状が、ひびに該当するか否かを判定する。ひびを示す点の集合は、第1主成分が、ひびが走る方向となり、第2主成分もしくは第3主成分が、ひびの幅方向となることが想定される。ひびが走る方向とは、ひびが伸びる方向、ひびの亀裂が走る方向、もしくはひびの亀裂が伸びる方向等と言い換えられてもよい。ひびの形状として、ひびが走る方向の長さが最も長くなることから、第1主成分がひびが走る方向となる。第2主成分及び第3主成分は、一方が、ひびの幅方向となり、もう一方が、ひびの深さ方向となる。
ひび判定部13は、例えば、第2主成分をひびの幅方向とし、第3主成分をひびの深さ方向と定めてもよい。もしくは、ひび判定部13は、ひびの形状を機械学習した学習モデルを用いて、第2主成分及び第3主成分のいずれがひびの幅方向に該当するかを定めてもよい。
ここで、ひびの深さ方向は、測定装置である3D-LiDAR装置の測定誤差を含む主成分である。測定誤差は、測定装置から対象物までの距離を測定した際に生じる誤差である。ひび判定部13は、3D-LiDAR装置において予め定められている測定誤差の諸元もしくはカタログ値に基づいて、第2主成分及び第3主成分のどちらがひびの幅方向に該当するかを決定してもよい。例えば、ひび判定部13は、分散の長さが3D-LiDAR装置において予め定められている測定誤差の諸元の範囲内である主成分をひびの深さ方向と決定し、分散の長さが測定誤差の諸元の範囲を超えている主成分をひびの幅方向と決定してもよい。
ひび判定部13は、例えば、ひびの幅方向に該当する主成分の長さに基づいて、エッジとして検出された点の集合が、ひびを示しているか否かを判定してもよい。例えば、ひび判定部13は、第2主成分がひびの幅方向に該当すると決定したとする。この場合、ひび判定部13は、第2主成分の長さが、予め定められた長さの閾値を超えているか否かに応じてエッジとして検出された点の分布が、ひびを示しているか否かを判定してもよい。例えば、ひび判定部13は、第2主成分の長さが、予め定められた長さの閾値を超えている場合、エッジとして検出された点の集合は、ひびではないと判定してもよい。さらに、ひび判定部13は、第2主成分の長さが、予め定められた長さの閾値を超えていない場合、エッジとして検出された点の集合は、ひびであると判定してもよい。第2主成分の長さと比較される長さの閾値は、例えば、検出装置10の管理者等において入力された値であってもよく、ひびの形状を機械学習した学習モデルを用いて算出される値であってもよい。
続いて、図4を用いて実施の形態2にかかる検出装置10におけるひび判定処理の流れについて説明する。はじめに、取得部11は、点群データ及び点群データに含まれるそれぞれの点に関連付けられた輝度情報を取得する(S11)。点に関連付けられた輝度情報とは、その点において反射された反射光の輝度情報であることを示す。
次に、エッジ検出部12は、輝度情報を用いてエッジ検出を行う(S12)。エッジ検出部12は、隣接する点の輝度との差が、予め定められた閾値を超える点をエッジとして検出する。
次に、エッジ検出部12は、エッジ検出された点の輝度と同等の輝度を有する点を抽出する(S13)。言い換えると、エッジ検出部12は、エッジ検出された点の輝度との差が予め定められた範囲内である輝度を有する複数の点を抽出する。エッジ検出部12において抽出された複数の点は、3次元空間上に分布する。
次に、エッジ検出部12は、抽出された点の分布に対して主成分分析を行う(S14)。エッジ検出部12は、主成分分析を行うことによって、エッジとして検出された点の分布の分散もしくはばらつきを示す第1主成分乃至第3主成分を算出する。
次に、ひび判定部13は、主成分分析の結果を用いてエッジとして検出された点の集合が、ひびか否かを判定する(S15)。
ここで、図5を用いて図4のステップS15におけるひびの判定処理の詳細な流れについて説明する。
ひび判定部13は、ひびの判定処理においてはじめに、エッジ検出部12からエッジとして検出された点の分布における第1主成分乃至第3主成分の長さを取得する(S21)。第1主成分乃至第3主成分の長さは、分散の長さを示している。第1主成分の長さが最も長く、第3主成分の長さが最も短い。
次に、ひび判定部13は、第1主成分乃至第3主成分のうち、ひびの幅方向となりえる主成分を決定する(S22)。例えば、ひび判定部13は、第1主成分乃至第3主成分のうち、2番目の長さを有する第2主成分をひびの幅方向の主成分と決定してもよい。もしくは、ひび判定部13は、ひびの形状を機械学習した学習モデルを用いて、第2主成分及び第3主成分のいずれがひびの幅方向に該当するかを定めてもよい。もしくは、ひび判定部13は、3D-LiDAR装置において予め定められている測定誤差の諸元もしくはカタログ値に基づいて、第2主成分及び第3主成分のどちらがひびの幅方向に該当するかを決定してもよい。
次に、ひび判定部13は、ひびの幅方向に該当する主成分の長さが、予め定められた長さの閾値以下であるか否かを判定する(S23)。ひび判定部13は、ひびの幅方向に該当する主成分の長さが、予め定められた長さの閾値以下であると判定した場合、エッジとして検出された点の集合は、ひびと判定する(S24)。ひび判定部13は、ひびの幅方向に該当する主成分の長さが、予め定められた長さの閾値以下ではないと判定した場合、エッジとして検出された点の集合は、ひびではないと判定する(S25)。
以上説明したように、実施の形態2においては、検出装置10は、エッジ検出を行い、ひびの候補となる形状もしくは領域を特定する。さらに、検出装置10は、ひびの候補となる形状を形成する点もしくはひびの候補となる領域に含まれる点に対して、主成分分析を行う。検出装置10は、主成分分析を行った結果得られる第1主成分乃至第3主成分の長さに基づいて、ひびの候補となる形状もしくは領域が、ひびであるか否かを判定する。このようにして、検出装置10は、カメラ等を用いて撮影する際に十分な明るさを確保することができない場合であっても、輝度情報を用いてひびの候補となる形状もしくは領域を抽出することができる。また、検出装置10は、ひびの候補となる形状を構成する点もしくはひびの候補となる領域に含まれる点に対して主成分分析を行い、分析結果を用いることによってひびの候補がひびであるか否かを判定することができる。その結果、検出装置10は、明るさを十分に確保することができない場所においても、ひびの場所を特定することができる。
(実施の形態3)
続いて、実施の形態3にかかるひびの判定処理の概要について説明する。例えば、ひびは、直線の形状だけではなく、図6に示すように、ジグザグの形状を示す場合もある。図6の実線は、エッジとして検出された点の集合であり、ひびの形状を示している。図6の太線の点線のうち、長い点線は、長さD_1を有する第1主成分を示している。図6の太線の点線のうち、短い点線は、長さD_2を有する第2主成分を示している。また、説明を容易にするために図6には示されていないが、図6の垂直方向の主成分を第3主成分とする。
ジグザグの形状のひびは、図6に示されるように、D_2が、第2主成分となることがある。この場合、第2主成分の長さは、ひびが直線の形状である場合と比較して、長くなる。その結果、実施の形態2と同様に、ひび判定部13は、第2主成分の長さが予め定められた長さの閾値を超えているか否かを判定した場合、実際にはひびであっても、第2主成分の長さが閾値を超えてしまい、ひびではないと判定することがある。
そのため、実施の形態3においては、図7に示すように、ジグザグの形状が、エッジとして検出された点の集合を示す場合、エッジ検出部12は、エッジとして検出された点が存在する空間を複数の空間に分割する。さらに、エッジ検出部12は、分割された空間に含まれる点の集合に対して主成分分析を行う。図7の点線で囲まれた空間は、分割された空間の一つを示している。
例えば、ひび判定部13は、それぞれの空間毎に算出された第1主成分乃至第3主成分のうち、第2主成分の長さが、予め定められた長さの閾値以下であるか否かを判定し、それぞれの空間毎に、ひびであるか否かを判定してもよい。
例えば、ひび判定部13は、図7のArea_1及びArea_2のように、点の集合が直線に近い形状を示す場合、第2主成分の長さに基づいて、ひびであると判定することが多い。一方、ひび判定部13は、Area_3のように、点の集合がジグザグの形状を示す場合、第2主成分の長さが長くなり、ひびではないと判定する可能性がある。そのため、ひび判定部13は、例えば、点の集合に対して主成分分析を行った結果を用いて、ひびであるか否かを判定した複数の空間のうち、ひびであると判定された空間の数に基づいて、点の集合の全体がひびであるか否かを判定してもよい。例えば、ひび判定部13は、ひびであると判定された空間の数が、ひびではないと判定された空間よりも多い場合、点の集合の全体は、ひびであると判定してもよい。もしくは、ひび判定部13は、ひびであると判定された空間の数が、予め定められた閾値を超えている場合、ひびであると判定してもよい。
エッジとして検出された点が存在する空間を分割する数が多くなるほどひび判定部13におけるひび判定処理の精度は向上する。
以上説明したように、実施の形態3にかかるひび判定部13は、エッジとして検出された点の集合を含む空間を分割し、分割後の空間の点の集合に対して主成分分析を行う。ひび判定部13は、分割後の空間毎に主成分分析を行い、分割後の空間毎にひびであるか否かを判定する。さらに、ひび判定部13は、分割後の空間毎の判定結果を用いて、エッジとして検出された点の集合全体がひびであるか否かを判定する。このように、ひび判定部13は、分割された空間毎の判定結果を用いることによって、図6及び図7に示すように、点の集合が第2主成分の長さが長くなるジグザグの形状であっても、点の集合全体がひびか否かを判定することができる。
(実施の形態4)
続いて、実施の形態4にかかるひびの判定処理について説明する。実施の形態4においては、点密度を用いたひびの判定処理を実行する。点密度は、ある領域内に存在する、エッジとして検出された点の数に基づいて定められる。具体的に、点密度について図8を用いて説明する。図8の実線は、エッジとして検出された点の集合を示している。点線で囲まれた領域は、エッジとして検出された点の集合を含む領域である。図8においては、エッジとして検出された点の集合を含む領域が矩形にて示されているが、円形等、他の形であってもよい。
点密度は、単位面積当たりの点の数であり、例えば、図8における点線で囲まれた領域における点の密集の程度を示す。
エッジとして検出される点の集合がひびを示す場合、点はひびに沿った領域に存在することになる。一方、エッジとして検出される点の集合がひびを示さない場合、点は、ある領域内に一様に分布していることが想定される。そのため、実施の形態4にかかるひびの判定処理においては、エッジとして検出された点の集合がひびを示す場合の点密度は、ひびを示さない場合の点密度よりも十分に小さいことを前提とする。
また、図8の点線にて示されるエッジとして検出された点の集合を含む領域は、例えば、点の集合を示す画像を解析する際に行われるオブジェクト認識処理を実行することによって定められてもよい。オブジェクト認識処理は、画像内に含まれる対象物を特定し、その対象物を矩形等の形状にて囲み、特定された対象物を強調して示す処理である。オブジェクト認識は、物体認識、画像認識等と言い換えられてもよい。
もしくは、図8の点線にて示されるエッジとして検出された点の集合を含む領域は、エッジとして検出された点の集合を画像にて視認したユーザから入力されてもよい。エッジとして検出された点の集合を含む領域は、ユーザによって指定された領域であってもよい。
続いて、図9を用いて実施の形態4にかかるひびの判定処理の流れについて説明する。はじめに、ひび判定部13は、所定領域内におけるエッジとして検出された点の点密度を算出する(S31)。次に、ひび判定部13は、点密度が予め定められた閾値以下であるか否かを判定する(S32)。ひび判定部13は、点密度が予め定められた閾値以下である場合、所定領域内におけるエッジとして検出された点の集合は、ひびと判定する(S33)。ひび判定部13は、点密度が予め定められた閾値以下ではない場合、所定領域内におけるエッジとして検出された点の集合は、ひびではないと判定する(S34)。
以上説明したように、実施の形態4にかかるひびの判定処理においては、点密度を用いたひびの判定処理を行う。これにより、輝度に基づいて抽出された点の集合が、ひびであるか否かを判定することができる。
(実施の形態5)
続いて、図10を用いて実施の形態5にかかる検出装置20の構成例について説明する。検出装置20は、図1の検出装置10に、分類部21、表示部22、ラベル付与部23、入力受付部24、及びデータ保持部25が追加された構成である。分類部21等の、検出装置20を構成する構成要素は、プロセッサがメモリに格納されたプログラムを実行することによって処理が実行されるソフトウェアもしくはモジュールであってもよい。または、検出装置20を構成する構成要素は、回路もしくはチップ等のハードウェアであってもよい。
分類部21は、ひび判定部13においてひびであると判定された複数の点の集合を、所定の基準に従って複数のグループのうちのいずれかのグループに分類する。もしくは、分類部21は、エッジ検出部12において検出された輝度が予め定められた閾値以上低下している点の集合を、所定の基準に従って複数のグループのうちのいずれかのグループに分類してもよい。ここで、実施の形態4までにおいては、ひび判定部13においてひびであると判定された点の集合を、実施の形態5においては、ひびの候補として扱う。例えば、分類部21は、ひびの候補に含まれるそれぞれの点に関連付けられた輝度情報の分布に従って、ひびの候補をいずれかのグループに分類してもよい。例えば、一つのひびの候補に含まれる点の集合を、横軸を輝度とし、縦軸を点の数とした平面における分布図として示し、輝度の平均値の値が所定の範囲内にある複数のひびの候補を、同じ分類としてもよい。分類部21は、例えば、輝度の平均値がA1からA2の範囲のグループである分類_1と、輝度の平均値がA3からA4の範囲のグループである分類_2のように、いくつかの範囲を定義して、複数のグループを定義してもよい。
分類部21は、輝度の平均値の代わりに、分散、標準偏差、中央値、最頻値等に基づいてひびの候補をいずれかのグループに分類してもよい。
もしくは、分類部21は、ひびの候補の形状に基づいてひびの候補をいずれかのグループに分類してもよい。例えば、分類部21は、ひびの候補に含まれる点の分布に対して行われた主成分分析から得られる第1主成分乃至第3主成分に基づいてひびの候補をいずれかのグループに分類してもよい。具体的には、分類部21は、第1主成分の長さが所定の範囲内にある複数のひびの候補を同じ分類としてもよい。分類部21は、第1主成分の代わりに第2主成分もしくは第3主成分を用いてもよい。
分類部21は、一つのグループに含まれる複数のひびの候補のうち、少なくとも一つのひびの候補を表示部22に表示させる。表示部22は、例えば、ディスプレイであってもよい。分類部21は、一つのグループに含まれる複数のひびの候補のうち、任意に選択したひびの候補を表示部22に表示させてもよい。もしくは、分類部21は、一つのグループに含まれる複数のひびの候補のうち、グループの境界付近に存在するひびの候補を表示部22に表示させてもよい。もしくは、分類部21は、信頼度の高いひびの候補もしくは信頼度の低いひびの候補を表示部22に表示させてもよい。
ここで、ひびの候補に付与される信頼度について説明する。例えば、測定装置として用いられる3D-LiDAR装置から照射されるビームの対象物に対する入射角度に応じた信頼度が、ひびの候補に付与されてもよい。
図11は、3D-LiDAR装置11_Aが壁面に対してビームを照射している様子を示している。図11の白抜きの矢印は、3D-LiDAR装置11_Aが照射するビームを示している。図11の点線の矢印は、ビームが壁面に反射した際の反射光を示している。入射角度は、壁面に対するビームの入射角度を示している。
3D-LiDAR装置11_Aから照射されるビームが、対象物に垂直に入射すると反射光の強度が強すぎることとなり、入射角度が浅い場合には、反射光の強度が安定しない、という特徴がある。反射光の強度が強すぎる、もしくは、安定しない等の場合、正確な輝度を得ることができない。そのため、反射光の強度が強すぎる入射角度の範囲及び反射光の強度が安定しない入射角度の範囲を定義し、その範囲の入射角度のビームの反射光から得られる輝度情報に基づいて生成されたひびの候補の信頼度を低く設定してもよい。反射光の強度が強すぎる入射角度の範囲及び反射光の強度が安定しない入射角度の範囲以外の範囲の入射角度のビームの反射光から得られる輝度情報に基づいて生成されたひびの候補の信頼度を高く設定してもよい。
ユーザは、表示部22に表示されたひびの候補を視認した後に、そのひびの候補がひびであるか否かを判断する。入力受付部24は、ユーザから入力される判断結果を受け付ける。例えば、ユーザは、表示部22に表示されたひびの候補がひびであると判断した場合、入力受付部24に、ひびであることを示す情報を入力する。また、ユーザは、表示部22に表示されたひびの候補がひびではないと判断した場合、入力受付部24に、ひびではないことを示す情報を入力する。ひびであることを示す情報及びひびではないことを示す情報は、例えば、ラベルと称されてもよい。つまり、ユーザは、表示部22に表示されたひびの候補に対して、ひびであるか否かを示すラベルを入力する。
ラベル付与部23は、分類部21が表示部22に表示させたひびの候補を含むグループと、入力受付部24に入力されたラベルとを関連付けて、データ保持部25へ格納する。
続いて、図12を用いて実施の形態5にかかるラベル付与処理の流れについて説明する。図12の処理においては、図4のステップS11乃至S15の処理が実施され、ひび判定部13が、エッジとして検出された点の集合に対するひびの判定処理が完了していることを前提とする。
はじめに、分類部21は、ひびと判定された点の集合を予め定められた基準に従って複数のグループのうちいずれかのグループに分類する(S41)。例えば、分類部21は、点の集合に含まれるそれぞれの点の輝度の平均値等に応じて、点の集合をいずれかのグループに分類してもよい。ひびと判定された点の集合が、複数存在する場合、分類部21は、それぞれの点の集合を、複数のグループのうちいずれかのグループに分類する。
次に、分類部21は、それぞれのグループに含まれる点の集合の中から、代表となる点の集合を選択する(S42)。分類部21は、代表となる点の集合を、任意に選択してもよく、他の基準に従って選択してもよい。
次に、分類部21は、選択した点の集合を表示部22へ表示する(S43)。言い換えると、分類部21は、選択した点の集合が示す形状を、ひびの候補として表示部22へ表示する。
次に、ラベル付与部23は、ユーザから入力された点の集合に対するラベルを、その点の集合が含まれるグループと関連付けてデータ保持部25へ格納する(S44)。
以上説明したように、検出装置20は、ひび判定部13においてひびと判定された複数のひびの候補をいずれかのグループに分類する。さらに、検出装置20は、グループに含まれる少なくとも1つのひびの候補を視認したユーザから入力されるラベルを、そのグループに関連付ける。つまり、ユーザは、ひび判定部13においてひびと判定されたすべてのひびの候補を視認して、それぞれのひびの候補にラベルを付与する必要はない。ユーザは、グループに含まれる少なくとも1つのひびの候補を視認し、そのひびの候補が含まれるグループに対してラベルを付与する。つまり、ユーザは、視認したひびの候補が含まれる同じグループの他のひびの候補にもまとめてラベルを付与することができる。その結果、ユーザがラベルを付与するために視認するひびの候補を減少させることができる。
ひび判定部13において抽出されたひびの候補をユーザが視認して、ひびか否かを示すラベルを付与することによって、ひびの判定に関する精度を向上させることができる。
図13は、検出装置10及び検出装置20(以下、検出装置10等と称する)の構成例を示すブロック図である。図13を参照すると、検出装置10等は、ネットワークインタフェース1201、プロセッサ1202、及びメモリ1203を含む。ネットワークインタフェース1201は、ネットワークノード(e.g., eNB、MME、P-GW、)と通信するために使用される。ネットワークインタフェース1201は、例えば、IEEE 802.3 seriesに準拠したネットワークインタフェースカード(NIC)を含んでもよい。ここで、eNBはevolved Node B、MMEはMobility Management Entity、P-GWはPacket Data Network Gatewayを表す。IEEEは、Institute of Electrical and Electronics Engineersを表す。
プロセッサ1202は、メモリ1203からソフトウェア(コンピュータプログラム)を読み出して実行することで、上述の実施形態においてフローチャートを用いて説明された検出装置10等の処理を行う。プロセッサ1202は、例えば、マイクロプロセッサ、MPU、又はCPUであってもよい。プロセッサ1202は、複数のプロセッサを含んでもよい。
メモリ1203は、揮発性メモリ及び不揮発性メモリの組み合わせによって構成される。メモリ1203は、プロセッサ1202から離れて配置されたストレージを含んでもよい。この場合、プロセッサ1202は、図示されていないI/O(Input/Output)インタフェースを介してメモリ1203にアクセスしてもよい。
図13の例では、メモリ1203は、ソフトウェアモジュール群を格納するために使用される。プロセッサ1202は、これらのソフトウェアモジュール群をメモリ1203から読み出して実行することで、上述の実施形態において説明された検出装置10等の処理を行うことができる。
図13を用いて説明したように、上述の実施形態における検出装置10等が有するプロセッサの各々は、図面を用いて説明されたアルゴリズムをコンピュータに行わせるための命令群を含む1又は複数のプログラムを実行する。
上述の例において、プログラムは、様々なタイプの非一時的なコンピュータ可読媒体(non-transitory computer readable medium)を用いて格納され、コンピュータに供給することができる。非一時的なコンピュータ可読媒体は、様々なタイプの実体のある記録媒体(tangible storage medium)を含む。非一時的なコンピュータ可読媒体の例は、磁気記録媒体(例えばフレキシブルディスク、磁気テープ、ハードディスクドライブ)、光磁気記録媒体(例えば光磁気ディスク)、CD-ROM(Read Only Memory)、CD-R、CD-R/W、半導体メモリ(例えば、マスクROM、PROM(Programmable ROM)、EPROM(Erasable PROM)、フラッシュROM、RAM(Random Access Memory))を含む。また、プログラムは、様々なタイプの一時的なコンピュータ可読媒体(transitory computer readable medium)によってコンピュータに供給されてもよい。一時的なコンピュータ可読媒体の例は、電気信号、光信号、及び電磁波を含む。一時的なコンピュータ可読媒体は、電線及び光ファイバ等の有線通信路、又は無線通信路を介して、プログラムをコンピュータに供給できる。
なお、本開示は上記実施の形態に限られたものではなく、趣旨を逸脱しない範囲で適宜変更することが可能である。
上記の実施形態の一部又は全部は、以下の付記のようにも記載されうるが、以下には限られない。
(付記1)
対象物までの距離を示す点群データと、前記点群データを測定する際に照射するビームの反射光から得られる輝度情報とを取得する取得部と、
前記輝度情報に基づいてエッジ検出を行うエッジ検出部と、
エッジとして検出された点の集合であるひびの候補に含まれる点の分布に基づいて、複数の前記ひびの候補をいずれかのグループに分類する分類部と、
前記グループに属する前記ひびの候補の形状を視認したユーザから前記グループに関するラベルの入力を受け付けるラベル付与部と、を備える検出装置。
(付記2)
前記ラベル付与部は、
前記ユーザから入力された前記ひびの候補が示すラベルを、前記点の集合を含む前記グループと関連付ける、付記1に記載の検出装置。
(付記3)
前記ラベル付与部は、
前記ユーザから、前記ひびの候補の形状が、ひびであるか否かを示すラベルの入力を受け付ける、付記1または2に記載の検出装置。
(付記4)
前記分類部は、
前記点の集合に対して行われた主成分分析から得られた第1主成分乃至第3主成分に基づいて前記ひびの候補をいずれかのグループに分類する、付記1乃至3のいずれか1項に記載の検出装置。
(付記5)
前記分類部は、
前記グループに属する複数のひびの候補のなかから少なくとも一つのひびの候補を選択し、表示部へ表示させる、付記1乃至4のいずれか1項に記載の検出装置。
(付記6)
前記分類部は、
前記ひびの候補に付与された信頼度に基づいて、前記グループに属する複数のひびの候補のなかから少なくとも一つのひびの候補を選択する、付記5に記載の検出装置。
(付記7)
対象物までの距離を示す点群データと、前記点群データを測定する際に照射するビームの反射光から得られる輝度情報とを取得し、
前記輝度情報に基づいてエッジ検出を行い、
エッジとして検出された点の集合であるひびの候補に含まれる点の分布に基づいて、複数の前記ひびの候補をいずれかのグループに分類し、
前記グループに属する前記ひびの候補の形状を視認したユーザから前記グループに関するラベルの入力を受け付けるラベル付与方法。
(付記8)
対象物までの距離を示す点群データと、前記点群データを測定する際に照射するビームの反射光から得られる輝度情報とを取得し、
前記輝度情報に基づいてエッジ検出を行い、
エッジとして検出された点の集合であるひびの候補に含まれる点の分布に基づいて、複数の前記ひびの候補をいずれかのグループに分類し、
前記グループに属する前記ひびの候補の形状を視認したユーザから前記グループに関するラベルの入力を受け付けることをコンピュータに実行させるプログラムが格納された非一時的なコンピュータ可読媒体。
10 検出装置
11 取得部
12 エッジ検出部
13 ひび判定部
20 検出装置
21 分類部
22 表示部
23 ラベル付与部
24 入力受付部
25 データ保持部

Claims (6)

  1. 対象物までの距離を示す点群データと、前記点群データを測定する際に照射するビームの反射光から得られる輝度情報とを取得する取得部と、
    前記輝度情報に基づいてエッジ検出を行うエッジ検出部と、
    エッジとして検出された点の集合であるひびの候補に含まれる点の分布に基づいて、複数の前記ひびの候補をいずれかのグループに分類する分類部と、
    前記グループに属する前記ひびの候補の形状を視認したユーザから前記グループに関するラベルの入力を受け付けるラベル付与部と、を備え
    前記分類部は、
    前記グループに属する複数のひびの候補に付与された信頼度に基づいて、前記グループに属する複数のひびの候補のなかから少なくとも一つのひびの候補を選択し、表示部へ表示させ、
    前記信頼度は、前記対象物に対する前記ビームの入射角度に応じて定まる、検出装置。
  2. 前記ラベル付与部は、
    前記ユーザから入力された前記ひびの候補が示すラベルを、前記点の集合を含む前記グループと関連付ける、請求項1に記載の検出装置。
  3. 前記ラベル付与部は、
    前記ユーザから、前記ひびの候補の形状が、ひびであるか否かを示すラベルの入力を受け付ける、請求項1または2に記載の検出装置。
  4. 前記分類部は、
    前記点の集合に対して行われた主成分分析から得られた第1主成分から第3主成分のいずれか一つに基づいて前記ひびの候補をいずれかのグループに分類する、請求項1乃至3のいずれか1項に記載の検出装置。
  5. 対象物までの距離を示す点群データと、前記点群データを測定する際に照射するビームの反射光から得られる輝度情報とを取得し、
    前記輝度情報に基づいてエッジ検出を行い、
    エッジとして検出された点の集合であるひびの候補に含まれる点の分布に基づいて、複数の前記ひびの候補をいずれかのグループに分類し、
    前記グループに属する複数のひびの候補に付与された信頼度に基づいて、前記グループに属する複数のひびの候補のなかから少なくとも一つのひびの候補を選択し、
    選択された前記ひびの候補を表示部へ表示させ、
    前記グループに属する前記ひびの候補の形状を視認したユーザから前記グループに関するラベルの入力を受け付け
    前記信頼度は、前記対象物に対する前記ビームの入射角度に応じて定まる、ラベル付与方法。
  6. 対象物までの距離を示す点群データと、前記点群データを測定する際に照射するビームの反射光から得られる輝度情報とを取得し、
    前記輝度情報に基づいてエッジ検出を行い、
    エッジとして検出された点の集合であるひびの候補に含まれる点の分布に基づいて、複数の前記ひびの候補をいずれかのグループに分類し、
    前記グループに属する複数のひびの候補に付与された信頼度に基づいて、前記グループに属する複数のひびの候補のなかから少なくとも一つのひびの候補を選択し、
    選択された前記ひびの候補を表示部へ表示させ、
    前記グループに属する前記ひびの候補の形状を視認したユーザから前記グループに関するラベルの入力を受け付けることをコンピュータに実行させ
    前記信頼度は、前記対象物に対する前記ビームの入射角度に応じて定まる、プログラム。
JP2022512984A 2020-03-31 2020-03-31 検出装置、ラベル付与方法、及びプログラム Active JP7400950B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2020/014786 WO2021199264A1 (ja) 2020-03-31 2020-03-31 検出装置、ラベル付与方法、及び非一時的なコンピュータ可読媒体

Publications (3)

Publication Number Publication Date
JPWO2021199264A1 JPWO2021199264A1 (ja) 2021-10-07
JPWO2021199264A5 JPWO2021199264A5 (ja) 2022-11-25
JP7400950B2 true JP7400950B2 (ja) 2023-12-19

Family

ID=77928173

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022512984A Active JP7400950B2 (ja) 2020-03-31 2020-03-31 検出装置、ラベル付与方法、及びプログラム

Country Status (3)

Country Link
US (1) US20230136554A1 (ja)
JP (1) JP7400950B2 (ja)
WO (1) WO2021199264A1 (ja)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106127771A (zh) 2016-06-28 2016-11-16 上海数联空间科技有限公司 基于激光雷达lidar点云数据获取隧道正射影像系统及方法
JP2018025919A (ja) 2016-08-09 2018-02-15 株式会社東芝 情報処理装置、情報処理方法、および移動体
CN108537221A (zh) 2018-03-29 2018-09-14 陕西师范大学 基于兴趣区域的桥梁或路面裂缝检测方法和评价方法
JP2018198053A (ja) 2017-05-22 2018-12-13 キヤノン株式会社 情報処理装置、情報処理方法、及びプログラム
CN110390683A (zh) 2018-04-17 2019-10-29 河海大学 一种基于密集点云的古城墙三维裂缝检测方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3273266A1 (en) * 2016-07-21 2018-01-24 Grupo Empresarial Copisa, S.L. A system and a method for surface aerial inspection

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106127771A (zh) 2016-06-28 2016-11-16 上海数联空间科技有限公司 基于激光雷达lidar点云数据获取隧道正射影像系统及方法
JP2018025919A (ja) 2016-08-09 2018-02-15 株式会社東芝 情報処理装置、情報処理方法、および移動体
JP2018198053A (ja) 2017-05-22 2018-12-13 キヤノン株式会社 情報処理装置、情報処理方法、及びプログラム
CN108537221A (zh) 2018-03-29 2018-09-14 陕西师范大学 基于兴趣区域的桥梁或路面裂缝检测方法和评价方法
CN110390683A (zh) 2018-04-17 2019-10-29 河海大学 一种基于密集点云的古城墙三维裂缝检测方法

Also Published As

Publication number Publication date
US20230136554A1 (en) 2023-05-04
WO2021199264A1 (ja) 2021-10-07
JPWO2021199264A1 (ja) 2021-10-07

Similar Documents

Publication Publication Date Title
US6954550B2 (en) Image processing method and apparatus
CN111412842B (zh) 墙面的截面尺寸的测量方法及装置、系统
KR101993881B1 (ko) 딥 러닝 기반 구조물 표면 열화 진단 방법 및 장치
JP2016524334A (ja) 自由形態の保護領域を使用するウエハ検査
KR102346676B1 (ko) 딥러닝 기반의 시설물 손상영상 분류를 활용한 손상도 생성방법
JP6781432B2 (ja) 電波伝搬シミュレーションモデルの作成方法、作成システム、作成装置および作成プログラム
JP6844235B2 (ja) 距離測定装置および距離測定方法
US11145089B2 (en) Method for measuring antenna downtilt based on multi-scale detection algorithm
CN108074232B (zh) 一种基于体元分割的机载lidar建筑物检测方法
CN113506327A (zh) 一种断裂伸长率计算方法、装置及电子设备
US10096451B2 (en) Pattern measurement device and computer program
US20220076021A1 (en) System and method for automatic visual inspection with deep learning
JP7338788B2 (ja) 検出装置、判定方法、及びプログラム
JP7400950B2 (ja) 検出装置、ラベル付与方法、及びプログラム
TW202001615A (zh) 一種利用點雲判斷岩石不連續面位態的方法
JP2006292615A (ja) 外観検査装置、外観検査方法、コンピュータを外観検査装置として機能させるためのプログラムおよび記録媒体
JP2019102031A (ja) コンクリート表面上のひび割れ方向特定方法、ひび割れ方向特定装置、ひび割れ方向特定システム及びプログラム
KR101255022B1 (ko) 점군자료를 활용한 구조물 균열 검출방법
CN113706508B (zh) 光束质量分析方法、设备、光束分析系统及存储介质
US11748876B2 (en) Joint surface safety evaluation apparatus
KR102347854B1 (ko) 마커를 이용한 영상 인식 기반의 용접 상태 분류 장치 및 방법
JP4796535B2 (ja) 画像処理による多導体電線の追跡方法、装置及びプログラム並びにこれを用いた多導体電線の異常検出方法、装置及びプログラム
CN114565596A (zh) 基于深度学习和视频理解的钢表面裂缝检测和预测方法
US20230332887A1 (en) Abnormality detection system, abnormality detection method, and computer readable medium
KR20230003730A (ko) 드론을 이용하여 구조물의 외부 균열을 검사하는 방법, 시스템 및 비일시성 판독 가능 기록 매체

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220922

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220922

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230711

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230905

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231107

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231120

R151 Written notification of patent or utility model registration

Ref document number: 7400950

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151