JP2020006788A - 建築限界判定装置 - Google Patents
建築限界判定装置 Download PDFInfo
- Publication number
- JP2020006788A JP2020006788A JP2018129170A JP2018129170A JP2020006788A JP 2020006788 A JP2020006788 A JP 2020006788A JP 2018129170 A JP2018129170 A JP 2018129170A JP 2018129170 A JP2018129170 A JP 2018129170A JP 2020006788 A JP2020006788 A JP 2020006788A
- Authority
- JP
- Japan
- Prior art keywords
- label
- data
- unit
- pixel
- image data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Landscapes
- Train Traffic Observation, Control, And Security (AREA)
- Image Analysis (AREA)
Abstract
Description
レールを走行する車両に設けられ、前記車両の前方又は後方を撮像する複数のカメラと、
前記複数のカメラで撮像された画像データの画像処理を行う処理部とを有し、
前記処理部は、
前記画像データと類似した複数の画像からなる教師画像データと、前記教師画像データの前記複数の画像の各画素にラベルを予め与えた教師ラベルデータとを保管するラベル教師データ部と、
機械学習による学習により、前記教師画像データの前記複数の画像の各画素と前記教師ラベルデータの前記ラベルとを対応付ける学習モデルを予め作成するラベル学習部と、
同時に撮像された複数の前記画像データを用い、当該複数の画像データの各画素の画素値の情報から当該複数の画像データ間で対応する画素を計測点として探索し、各々の前記計測点までの距離を第1の距離データとしてステレオ計測により算出する距離データ算出部と、
予め用意された前記レールのマッチングデータにより前記画像データから前記レールの位置を認識し、当該位置をレール位置として算出するレール認識部と、
前記画像データの各画素に対する前記ラベルの推定を前記学習モデルにより行い、推定した前記ラベルをラベルデータとして求めるラベル推定部と、
前記画像データの各画素に対する前記ラベルデータに基づいて、前記第1の距離データのノイズ除去を行い、ノイズ除去した前記第1の距離データを第2の距離データとして求めるノイズ除去部と、
複数の地点で撮像された前記画像データについての前記第2の距離データを統合して3次元環境地図を求めると共に車両傾きを求める距離データ統合部と、
複数の地点での前記レール位置と複数の地点での前記車両傾きと固定値として与えられた静的な建築限界領域とに基づいて、前記車両に対する動的な建築限界領域を算出する建築限界領域算出部と、
前記動的な建築限界領域と前記3次元環境地図とに基づいて、前記動的な建築限界領域から最寄りの対象物までの離隔距離を算出し、離隔判定を行う離隔算出部と
を有する
ことを特徴とする。
上記第1の発明に記載の建築限界判定装置において、
前記ノイズ除去部は、前記第1の距離データのノイズ除去の際に、更に、メディアンフィルタ、ノンローカルミーンフィルタ又はジオメトリックフィルタのいずれかを用いて、ノイズ除去を行って、前記第2の距離データを求める
ことを特徴とする。
レールを走行する車両に設けられ、前記車両の前方又は後方を撮像する複数のカメラと、
前記複数のカメラで撮像された画像データの画像処理を行う処理部とを有し、
前記処理部は、
前記画像データと類似した複数の画像からなる教師画像データと、前記教師画像データの前記複数の画像の各画素にラベルを予め与えた教師ラベルデータとを保管するラベル教師データ部と、
機械学習による学習により、前記教師画像データの前記複数の画像の各画素と前記教師ラベルデータの前記ラベルとを対応付ける学習モデルを予め作成するラベル学習部と、
前記画像データの各画素に対する前記ラベルの推定を前記学習モデルにより行い、推定した前記ラベルをラベルデータとして求めるラベル推定部と、
同時に撮像された複数の前記画像データと当該複数の画像データの各画素に対する前記ラベルデータとを用い、当該複数の画像データの各画素の画素値の情報と前記ラベルデータから当該複数の画像データ間で対応する画素を計測点として探索し、各々の前記計測点までの距離を第1の距離データとしてステレオ計測により算出する距離データ算出部と、
前記画像データと当該画像データの各画素に対する前記ラベルデータとを用い、予め用意された前記レールのマッチングデータと前記ラベルデータにより前記画像データから前記レールの位置を認識し、当該位置をレール位置として算出するレール認識部と、
複数の地点で撮像された前記画像データについての前記第1の距離データを統合して3次元環境地図を求めると共に車両傾きを求める距離データ統合部と、
複数の地点での前記レール位置と複数の地点での前記車両傾きと固定値として与えられた静的な建築限界領域とに基づいて、前記車両に対する動的な建築限界領域を算出する建築限界領域算出部と、
前記動的な建築限界領域と前記3次元環境地図とに基づいて、前記動的な建築限界領域から最寄りの対象物までの離隔距離を算出し、離隔判定を行う離隔算出部と
を有する
ことを特徴とする。
上記第3の発明に記載の建築限界判定装置において、
前記処理部は、メディアンフィルタ、ノンローカルミーンフィルタ又はジオメトリックフィルタのいずれかを用いて、前記第1の距離データのノイズ除去を行い、ノイズ除去した前記第1の距離データを第2の距離データとして求めるノイズ除去部を更に有し、
前記距離データ統合部は、複数の地点で撮像された前記画像データについての前記第2の距離データを統合して前記3次元環境地図を求めると共に前記車両傾きを求める
ことを特徴とする。
上記第1から第4のいずれか1つの発明に記載の建築限界判定装置において、
前記ラベル学習部は、SVM(Support Vector Machine)、Random Forest又は深層学習のいずれかを用いた前記機械学習とSemantic Segmentationとにより、前記教師画像データの前記複数の画像から各画素を中心とした局所範囲の画像を切り出し、当該局所範囲の画像から特徴量を抽出し、当該特徴量に基づいて、当該局所範囲の画像の中心の画素と前記教師ラベルデータの前記ラベルとの対応を学習して前記学習モデルを作成し、
前記ラベル推定部は、前記Semantic Segmentationと前記学習モデルとにより、前記画像データから各画素を中心とした局所範囲の画像を切り出し、当該局所範囲の画像から特徴量を抽出し、当該特徴量に基づいて、当該局所範囲の画像の中心の画素に対する前記ラベルの推定を行って、前記画像データの各画素に対する前記ラベルの推定を行う
ことを特徴とする。
上記第5の発明に記載の建築限界判定装置において、
前記ラベル学習部及び前記ラベル推定部は、前記特徴量の抽出の際に、色特徴量、HOG(Histograms of Oriented Gradients)特徴量、SIFT(Scale-Invariant Feature Transform)特徴量、BoVW(Bag of Visual Words)特徴量又はTexton特徴量のいずれか、もしくは、これらの組合せを用いる
ことを特徴とする。
上記第1から第4のいずれか1つの発明に記載の建築限界判定装置において、
前記ラベル学習部は、FCN(Fully Convolutional Networks)を用いた前記機械学習とSemantic Segmentationとにより、前記教師画像データの前記複数の画像の各画素から特徴量を抽出し、当該特徴量に基づいて、前記教師画像データの前記複数の画像の各画素と前記教師ラベルデータの前記ラベルとの対応を学習して前記学習モデルを作成し、
前記ラベル推定部は、前記Semantic Segmentationと前記学習モデルとにより、前記画像データの各画素から特徴量を抽出し、当該特徴量に基づいて、前記画像データの各画素に対する前記ラベルの推定を行う
ことを特徴とする。
上記第1から第7のいずれか1つの発明に記載の建築限界判定装置において、
前記ラベル推定部は、前記ラベルの推定を行う際に、MRF(Markov Random Field)又はCRF(Conditional Random Field)を用いる
ことを特徴とする。
図1は、本実施例の建築限界判定装置の一例を示す概略構成の上面図である。また、図2は、図1に示した建築限界判定装置を構成する処理部の一例を説明するブロック図である。また、図3(a)は、ある画素を中心とした局所パッチ画像単位のラベル推定を説明する説明図、図3(b)は、図3(a)でのラベル推定の結果を説明する説明図、図3(c)は、図3(a)での画素の次の画素を中心とした局所パッチ画像単位のラベル推定を説明する説明図、図3(d)は、図3(c)でのラベル推定の結果を説明する説明図、図3(e)は、図3(c)での画素の次の画素を中心とした局所パッチ画像単位のラベル推定を説明する説明図、図3(f)は、図3(e)でのラベル推定の結果を説明する説明図である。また、図4(a)は、図1に示した建築限界判定装置で撮像された監視画像を示す図、図4(b)は、図4(a)に示した監視画像に対するラベルの一例を説明する説明図である。
監視画像入力部41は、前方の複数のカメラ22a、22b(又は後方の複数のカメラ23a、23b)で撮像された前方の(又は後方の)監視画像データD11を入力する。
距離データ算出部42Aは、入力された監視画像データD11を使用し、ステレオ計測と共に上述したブロックマッチングとグラフカットの手法により、対象物の距離データD12Aを算出する。
レール認識部43Aは、入力された監視画像データD11を使用し、上述したマッチングデータを用いたマッチングにより、レール認識を行って、レール位置D13を算出する。
ラベル推定部44Aは、入力された監視画像データD11と学習モデルD3Aを使用し、上述したSemantic Segmentationによるラベル推定により、各画素のラベルデータD14を取得する。
ノイズ除去部45Aは、監視画像データD11の各画素のラベルデータD14に基づいて、距離データD12Aのノイズ除去を行い、距離データD15として取得する。
処理部30Aは、前方の複数のカメラ22a、22b(又は後方の複数のカメラ23a、23b)による撮像が終了した場合にはステップS8へ進み、撮像が終了していない場合には、ステップS7へ進む。
撮像が終了していない場合には、前方の複数のカメラ22a、22b(又は後方の複数のカメラ23a、23b)で新しく撮像された前方の(又は後方の)監視画像データD11を入力し(監視画像入力部41)、ステップS2へ戻る。つまり、撮像が終了するまで、ステップS2〜S7が繰り返し実施され、各々異なる地点から撮像された監視画像データD11について、距離データD12A、レール位置D13、ラベルデータD14、距離データD15が求められる。
距離データ統合部46は、各々の監視画像データD11から算出した全距離データD15を、上述したICPアルゴリズムを用いて統合して、3次元環境地図データD16を求めると共に、車両位置姿勢データD17を求める。
建築限界領域算出部47は、レール位置D13と車両位置姿勢データD17(車両傾き)と静的な建築限界領域とに基づき、建築限界領域データD18を算出する。
離隔算出部48は、各地点における建築限界領域データD18から最寄りの障害物(例えば、電柱12)までの離隔距離を離隔データD19として算出する。そして、算出した離隔データD19に基づいて、建築限界領域と障害物との離隔判定を行う。
本実施例の建築限界判定装置について、図6及び図7を参照して説明を行う。ここで、図6は、図1に示した建築限界判定装置を構成する処理部の他の一例を説明するブロック図である。また、図7は、図6に示した処理部における建築限界判定方法の一例を説明するフローチャートである。
本実施例における建築限界判定方法において、ステップS1〜S3は、実施例1におけるステップS1〜S3と同じである。
ラベル推定部44Bは、入力された監視画像データD11と学習モデルD3Bを使用し、上述したSemantic Segmentationによるラベル推定により、各画素のラベルデータD14を取得する。
本実施例における建築限界判定方法において、ステップS5〜S10は、実施例1におけるステップS5〜S10と同じである。
本実施例の建築限界判定装置について、図8及び図9を参照して説明を行う。ここで、図8は、図1に示した建築限界判定装置を構成する処理部の他の一例を説明するブロック図である。また、図9は、図8に示した処理部における建築限界判定方法の一例を説明するフローチャートである。
本実施例における建築限界判定方法において、ステップS11は、実施例1におけるステップS1と同じである。
ラベル推定部44Aは、入力された監視画像データD11と学習モデルD3Aを使用し、上述したSemantic Segmentationによるラベル推定により、各画素のラベルデータD14を取得する。
距離データ算出部42Bは、入力された監視画像データD11と当該監視画像データD11の各画素のラベルデータD14を使用し、ステレオ計測と共にラベル情報を用いて、対象物の距離データD12Bを算出する。
レール認識部43Bは、入力された監視画像データD11と当該監視画像データD11の各画素のラベルデータD14を使用し、上述したマッチングデータを用いたマッチングとラベル情報とにより、レール認識を行って、レール位置D13を算出する。
ノイズ除去部45Bは、画像処理における一般的なノイズ除去手法により、距離データD12Bのノイズ除去を行い、距離データD15として取得する。但し、上述したように、ノイズ除去部45BによるステップS15の手順は無くても良い。
処理部30Cは、前方の複数のカメラ22a、22b(又は後方の複数のカメラ23a、23b)による撮像が終了した場合にはステップS18へ進み、撮像が終了していない場合には、ステップS17へ進む。
撮像が終了していない場合には、前方の複数のカメラ22a、22b(又は後方の複数のカメラ23a、23b)で新しく撮像された前方の(又は後方の)監視画像データD11を入力し(監視画像入力部41)、ステップS12Aへ戻る。つまり、撮像が終了するまで、ステップS12A〜S17が繰り返し実施され、各々異なる地点から撮像された監視画像データD11について、距離データD12B、レール位置D13、ラベルデータD14、距離データD15が求められる。
本実施例における建築限界判定方法において、ステップS18〜S20は、実施例1におけるステップS8〜S10と同じである。
本実施例の建築限界判定装置について、図10及び図11を参照して説明を行う。ここで、図10は、図1に示した建築限界判定装置を構成する処理部の他の一例を説明するブロック図である。また、図11は、図10に示した処理部における建築限界判定方法の一例を説明するフローチャートである。
本実施例における建築限界判定方法において、ステップS11は、実施例3におけるステップS11と同じである。
ラベル推定部44Bは、入力された監視画像データD11と学習モデルD3Bを使用し、上述したSemantic Segmentationによるラベル推定により、各画素のラベルデータD14を取得する。
本実施例における建築限界判定方法において、ステップS13〜S20は、実施例3におけるステップS13〜S20と同じである。
12 電柱
13 地面
14 空
21 列車
22a、22b、23a、23b カメラ
30A、30B、30C、30D 処理部
31 ラベル教師データ部
32A、32B ラベル学習部
41 監視画像入力部
42A、42B 距離データ算出部
43A、43B レール認識部
44A、44B ラベル推定部
45A、45B ノイズ除去部
46 距離データ統合部
47 建築限界領域算出部
48 離隔算出部
49 記憶部
Claims (8)
- レールを走行する車両に設けられ、前記車両の前方又は後方を撮像する複数のカメラと、
前記複数のカメラで撮像された画像データの画像処理を行う処理部とを有し、
前記処理部は、
前記画像データと類似した複数の画像からなる教師画像データと、前記教師画像データの前記複数の画像の各画素にラベルを予め与えた教師ラベルデータとを保管するラベル教師データ部と、
機械学習による学習により、前記教師画像データの前記複数の画像の各画素と前記教師ラベルデータの前記ラベルとを対応付ける学習モデルを予め作成するラベル学習部と、
同時に撮像された複数の前記画像データを用い、当該複数の画像データの各画素の画素値の情報から当該複数の画像データ間で対応する画素を計測点として探索し、各々の前記計測点までの距離を第1の距離データとしてステレオ計測により算出する距離データ算出部と、
予め用意された前記レールのマッチングデータにより前記画像データから前記レールの位置を認識し、当該位置をレール位置として算出するレール認識部と、
前記画像データの各画素に対する前記ラベルの推定を前記学習モデルにより行い、推定した前記ラベルをラベルデータとして求めるラベル推定部と、
前記画像データの各画素に対する前記ラベルデータに基づいて、前記第1の距離データのノイズ除去を行い、ノイズ除去した前記第1の距離データを第2の距離データとして求めるノイズ除去部と、
複数の地点で撮像された前記画像データについての前記第2の距離データを統合して3次元環境地図を求めると共に車両傾きを求める距離データ統合部と、
複数の地点での前記レール位置と複数の地点での前記車両傾きと固定値として与えられた静的な建築限界領域とに基づいて、前記車両に対する動的な建築限界領域を算出する建築限界領域算出部と、
前記動的な建築限界領域と前記3次元環境地図とに基づいて、前記動的な建築限界領域から最寄りの対象物までの離隔距離を算出し、離隔判定を行う離隔算出部と
を有する
ことを特徴とする建築限界判定装置。 - 請求項1に記載の建築限界判定装置において、
前記ノイズ除去部は、前記第1の距離データのノイズ除去の際に、更に、メディアンフィルタ、ノンローカルミーンフィルタ又はジオメトリックフィルタのいずれかを用いて、ノイズ除去を行って、前記第2の距離データを求める
ことを特徴とする建築限界判定装置。 - レールを走行する車両に設けられ、前記車両の前方又は後方を撮像する複数のカメラと、
前記複数のカメラで撮像された画像データの画像処理を行う処理部とを有し、
前記処理部は、
前記画像データと類似した複数の画像からなる教師画像データと、前記教師画像データの前記複数の画像の各画素にラベルを予め与えた教師ラベルデータとを保管するラベル教師データ部と、
機械学習による学習により、前記教師画像データの前記複数の画像の各画素と前記教師ラベルデータの前記ラベルとを対応付ける学習モデルを予め作成するラベル学習部と、
前記画像データの各画素に対する前記ラベルの推定を前記学習モデルにより行い、推定した前記ラベルをラベルデータとして求めるラベル推定部と、
同時に撮像された複数の前記画像データと当該複数の画像データの各画素に対する前記ラベルデータとを用い、当該複数の画像データの各画素の画素値の情報と前記ラベルデータから当該複数の画像データ間で対応する画素を計測点として探索し、各々の前記計測点までの距離を第1の距離データとしてステレオ計測により算出する距離データ算出部と、
前記画像データと当該画像データの各画素に対する前記ラベルデータとを用い、予め用意された前記レールのマッチングデータと前記ラベルデータにより前記画像データから前記レールの位置を認識し、当該位置をレール位置として算出するレール認識部と、
複数の地点で撮像された前記画像データについての前記第1の距離データを統合して3次元環境地図を求めると共に車両傾きを求める距離データ統合部と、
複数の地点での前記レール位置と複数の地点での前記車両傾きと固定値として与えられた静的な建築限界領域とに基づいて、前記車両に対する動的な建築限界領域を算出する建築限界領域算出部と、
前記動的な建築限界領域と前記3次元環境地図とに基づいて、前記動的な建築限界領域から最寄りの対象物までの離隔距離を算出し、離隔判定を行う離隔算出部と
を有する
ことを特徴とする建築限界判定装置。 - 請求項3に記載の建築限界判定装置において、
前記処理部は、メディアンフィルタ、ノンローカルミーンフィルタ又はジオメトリックフィルタのいずれかを用いて、前記第1の距離データのノイズ除去を行い、ノイズ除去した前記第1の距離データを第2の距離データとして求めるノイズ除去部を更に有し、
前記距離データ統合部は、複数の地点で撮像された前記画像データについての前記第2の距離データを統合して前記3次元環境地図を求めると共に前記車両傾きを求める
ことを特徴とする建築限界判定装置。 - 請求項1から請求項4のいずれか1つに記載の建築限界判定装置において、
前記ラベル学習部は、SVM(Support Vector Machine)、Random Forest又は深層学習のいずれかを用いた前記機械学習とSemantic Segmentationとにより、前記教師画像データの前記複数の画像から各画素を中心とした局所範囲の画像を切り出し、当該局所範囲の画像から特徴量を抽出し、当該特徴量に基づいて、当該局所範囲の画像の中心の画素と前記教師ラベルデータの前記ラベルとの対応を学習して前記学習モデルを作成し、
前記ラベル推定部は、前記Semantic Segmentationと前記学習モデルとにより、前記画像データから各画素を中心とした局所範囲の画像を切り出し、当該局所範囲の画像から特徴量を抽出し、当該特徴量に基づいて、当該局所範囲の画像の中心の画素に対する前記ラベルの推定を行って、前記画像データの各画素に対する前記ラベルの推定を行う
ことを特徴とする建築限界判定装置。 - 請求項5に記載の建築限界判定装置において、
前記ラベル学習部及び前記ラベル推定部は、前記特徴量の抽出の際に、色特徴量、HOG(Histograms of Oriented Gradients)特徴量、SIFT(Scale-Invariant Feature Transform)特徴量、BoVW(Bag of Visual Words)特徴量又はTexton特徴量のいずれか、もしくは、これらの組合せを用いる
ことを特徴とする建築限界判定装置。 - 請求項1から請求項4のいずれか1つに記載の建築限界判定装置において、
前記ラベル学習部は、FCN(Fully Convolutional Networks)を用いた前記機械学習とSemantic Segmentationとにより、前記教師画像データの前記複数の画像の各画素から特徴量を抽出し、当該特徴量に基づいて、前記教師画像データの前記複数の画像の各画素と前記教師ラベルデータの前記ラベルとの対応を学習して前記学習モデルを作成し、
前記ラベル推定部は、前記Semantic Segmentationと前記学習モデルとにより、前記画像データの各画素から特徴量を抽出し、当該特徴量に基づいて、前記画像データの各画素に対する前記ラベルの推定を行う
ことを特徴とする建築限界判定装置。 - 請求項1から請求項7のいずれか1つに記載の建築限界判定装置において、
前記ラベル推定部は、前記ラベルの推定を行う際に、MRF(Markov Random Field)又はCRF(Conditional Random Field)を用いる
ことを特徴とする建築限界判定装置。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018129170A JP7020322B2 (ja) | 2018-07-06 | 2018-07-06 | 建築限界判定装置 |
JP2021145973A JP7207479B2 (ja) | 2018-07-06 | 2021-09-08 | 建築限界判定方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018129170A JP7020322B2 (ja) | 2018-07-06 | 2018-07-06 | 建築限界判定装置 |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021145973A Division JP7207479B2 (ja) | 2018-07-06 | 2021-09-08 | 建築限界判定方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020006788A true JP2020006788A (ja) | 2020-01-16 |
JP7020322B2 JP7020322B2 (ja) | 2022-02-16 |
Family
ID=69150176
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018129170A Active JP7020322B2 (ja) | 2018-07-06 | 2018-07-06 | 建築限界判定装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7020322B2 (ja) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113838075A (zh) * | 2020-06-23 | 2021-12-24 | 南宁富桂精密工业有限公司 | 单目测距方法、装置及计算机可读存储介质 |
JP2022029746A (ja) * | 2020-08-05 | 2022-02-18 | 株式会社パスコ | 支障物特定装置、支障物特定方法及びプログラム |
US11409951B1 (en) | 2021-09-24 | 2022-08-09 | International Business Machines Corporation | Facilitating annotation of document elements |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012015697A (ja) * | 2010-06-30 | 2012-01-19 | Meidensha Corp | パンタグラフ検出装置及びその方法 |
JP2015088833A (ja) * | 2013-10-29 | 2015-05-07 | キヤノン株式会社 | 画像処理装置、撮像装置及び画像処理方法 |
JP2017083245A (ja) * | 2015-10-27 | 2017-05-18 | 株式会社明電舎 | 建築限界判定装置 |
JP2018073308A (ja) * | 2016-11-04 | 2018-05-10 | 株式会社Soken | 認識装置、プログラム |
-
2018
- 2018-07-06 JP JP2018129170A patent/JP7020322B2/ja active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012015697A (ja) * | 2010-06-30 | 2012-01-19 | Meidensha Corp | パンタグラフ検出装置及びその方法 |
JP2015088833A (ja) * | 2013-10-29 | 2015-05-07 | キヤノン株式会社 | 画像処理装置、撮像装置及び画像処理方法 |
JP2017083245A (ja) * | 2015-10-27 | 2017-05-18 | 株式会社明電舎 | 建築限界判定装置 |
JP2018073308A (ja) * | 2016-11-04 | 2018-05-10 | 株式会社Soken | 認識装置、プログラム |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113838075A (zh) * | 2020-06-23 | 2021-12-24 | 南宁富桂精密工业有限公司 | 单目测距方法、装置及计算机可读存储介质 |
CN113838075B (zh) * | 2020-06-23 | 2024-01-09 | 南宁富联富桂精密工业有限公司 | 单目测距方法、装置及计算机可读存储介质 |
JP2022029746A (ja) * | 2020-08-05 | 2022-02-18 | 株式会社パスコ | 支障物特定装置、支障物特定方法及びプログラム |
JP7041723B2 (ja) | 2020-08-05 | 2022-03-24 | 株式会社パスコ | 支障物特定装置、支障物特定方法及びプログラム |
US11409951B1 (en) | 2021-09-24 | 2022-08-09 | International Business Machines Corporation | Facilitating annotation of document elements |
Also Published As
Publication number | Publication date |
---|---|
JP7020322B2 (ja) | 2022-02-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Börcs et al. | Instant object detection in lidar point clouds | |
CN110148196B (zh) | 一种图像处理方法、装置以及相关设备 | |
JP7472235B2 (ja) | 同時に位置特定およびマッピングを実行するためのデバイスおよび方法 | |
Zhou et al. | Seamless fusion of LiDAR and aerial imagery for building extraction | |
CN109598794B (zh) | 三维gis动态模型的构建方法 | |
WO2017041396A1 (zh) | 一种车道线数据的处理方法、装置、存储介质及设备 | |
WO2020048285A1 (en) | Estimating two-dimensional object bounding box information based on bird's-eye view point cloud | |
CN111222395A (zh) | 目标检测方法、装置与电子设备 | |
Lin et al. | Planar-based adaptive down-sampling of point clouds | |
JP6997057B2 (ja) | 不動物体情報から端末位置を推定する装置、プログラム及び方法 | |
JP7020322B2 (ja) | 建築限界判定装置 | |
CN106803262A (zh) | 利用双目视觉自主解算汽车速度的方法 | |
CN106228570A (zh) | 一种真值数据确定方法和装置 | |
CN110619299A (zh) | 基于网格的对象识别slam方法和装置 | |
Ferguson et al. | A 2d-3d object detection system for updating building information models with mobile robots | |
CN110443228B (zh) | 一种行人匹配方法、装置、电子设备及存储介质 | |
Li et al. | 3D map system for tree monitoring in hong kong using google street view imagery and deep learning | |
CN110458177B (zh) | 图像深度信息的获取方法、图像处理装置以及存储介质 | |
Zhang et al. | Multi-FEAT: Multi-feature edge alignment for targetless camera-LiDAR calibration | |
KR102270009B1 (ko) | 다채널 영상 인공지능 알고리즘 기반 이동 물체 탐지 및 거리 추정 방법 | |
CN116862832A (zh) | 一种基于三维实景模型的作业人员定位方法 | |
CN116912763A (zh) | 一种融合步态人脸模态的多行人重识别方法 | |
CN116188417A (zh) | 基于slam和图像处理的裂缝检测及其三维定位方法 | |
JP7207479B2 (ja) | 建築限界判定方法 | |
Khoshelham et al. | A comparison of Bayesian and evidence-based fusion methods for automated building detection in aerial data |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20190529 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20190529 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210203 |
|
TRDD | Decision of grant or rejection written | ||
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20211222 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220104 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220117 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7020322 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |