JP2018077837A - 位置認識方法およびシステム、ならびに異常判定方法およびシステム - Google Patents

位置認識方法およびシステム、ならびに異常判定方法およびシステム Download PDF

Info

Publication number
JP2018077837A
JP2018077837A JP2017203197A JP2017203197A JP2018077837A JP 2018077837 A JP2018077837 A JP 2018077837A JP 2017203197 A JP2017203197 A JP 2017203197A JP 2017203197 A JP2017203197 A JP 2017203197A JP 2018077837 A JP2018077837 A JP 2018077837A
Authority
JP
Japan
Prior art keywords
image
point cloud
cloud data
extracted
acquired
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017203197A
Other languages
English (en)
Other versions
JP6610640B2 (ja
Inventor
典子 小澤
Noriko Ozawa
典子 小澤
石田 匡平
Tadahira Ishida
匡平 石田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
JFE Steel Corp
Original Assignee
JFE Steel Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by JFE Steel Corp filed Critical JFE Steel Corp
Publication of JP2018077837A publication Critical patent/JP2018077837A/ja
Application granted granted Critical
Publication of JP6610640B2 publication Critical patent/JP6610640B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

【課題】屋外の対象物に限定されることなく、かつ、RFID等のセンサ機器を用いることなく対象物の位置を認識する。【解決手段】対象物の画像から対象物の位置を認識する方法は、位置認識する複数の対象物を含む領域の全体を網羅する三次元スキャナ点群データを取得し、該三次元スキャナ点群データから、視点と視線方向ベクトルを付帯した二次元画像を複数抽出した抽出画像データベースを作成し、対象物を撮影して画像を取得し、取得した画像と、抽出画像データベースの抽出画像とのマッチングを行い、抽出画像の視点および視線方向ベクトルの情報を用いて、取得された画像に対応する対象物の三次元スキャナ点群データ上での位置を特定する。【選択図】 図1

Description

本発明は、画像から対象位置を認識する方法およびシステム、ならびに設備の異常を判定する方法およびシステムに関する。
多数の設備を有する工場では、設備点検は重要であるものの、作業負荷との兼ね合いから、全数の充分な点検が実施されているとは言い難い。最重要設備部位についてはセンサ等を取り付け常時監視されている。その他の主要部位は重要度別に定期点検が実施されている。
このように、最重要部位や主要部位については未然に異常を防止することが可能であるが、その他の非主要部位の中には異常が発生してから状況を確認するようなスポット点検部位も存在する。したがって、このような非主要部位についても未然点検を行う方法が望まれている。
設備が主要か否かに関わらず点検を網羅するには、点検を自動化して作業負荷を低減することが望ましい。点検の自動化を実現するには点検対象設備を自動的に特定することが必要となる。
対象設備を自動的に特定する技術としては、特許文献1、2に記載されたものが知られている。
特許文献1の技術では、点検作業員が携帯端末を所持し、携帯端末によって設備の画像、位置情報、画像を撮影した方角を取得し、これらの情報をサーバーに送信する。サーバーでは複数の設備の位置情報を管理しており、携帯端末から送信された情報に基づき、対象物を自動的に特定する。位置情報にはGPS(Global Positioning system)が利用される。
特許文献2の技術では、屋内設備点検の際、プラント内にある管理対象の設備機器にRFIDなどの電波を発信するセンサ機器を取り付け、点検作業員が携帯端末を所持し、点検結果(チェック結果,画像,音声など)を携帯端末に入力し、設備から発信される電波を受信し、設備機器の位置情報を取得する。次に、携帯端末の位置、向いている方向、角度を携帯端末に備わっている機能により取得し、これらの情報をサーバーに送信する。サーバーではデータベースで管理している位置情報に基づいて携帯端末がどの設備の点検を行ったか特定する。
特開2013−222335号公報 特開2014−146217号公報
特許文献1の技術で提案されている方法はGPSにより位置情報を取得するため、屋内では利用できない。屋内GPSの設置、利用も考えられるが、広域工場においては設置費用が膨大になって現実的ではない。一方、特許文献2の技術は屋内で適用可能であるが、設備機器の位置情報をRFIDから取得するため、RFIDが取り付けられた主要設備にのみ適用可能な技術である。
したがって、本発明は、屋外の対象物に限定されることなく、かつ、RFID等のセンサ機器を用いることなく対象物の位置を認識することができる位置認識方法およびシステムを提供することを目的とする。
また、本発明は、屋外の設備に限定されることなく、かつ、RFID等のセンサ機器を用いることなく設備点検した位置を認識し、設備の異常を判定することができる異常判定方法およびシステムを提供することを目的とする。
上記課題を解決するため、本発明は、以下の(1)〜(30)を提供する。
(1)対象物の画像から対象物の位置を認識する方法であって、
位置認識する複数の対象物を含む領域の全体を網羅する三次元スキャナ点群データを取得し、
該三次元スキャナ点群データから、視点と視線方向ベクトルを付帯した二次元画像を複数抽出した抽出画像データベースを作成し、
前記対象物を撮影して画像を取得し、
前記取得した画像と、前記抽出画像データベースの抽出画像とのマッチングを行い、
前記抽出画像の視点および視線方向ベクトルの情報を用いて、前記取得された画像に対応する前記対象物の三次元スキャナ点群データ上での位置を特定することを特徴とする位置認識方法。
(2)前記マッチングは、特徴ベースマッチングであることを特徴とする(1)に記載の位置認識方法。
(3)前記対象物を撮影して取得した画像は、可視画像を含むことを特徴とする(1)または(2)に記載の位置認識方法。
(4)前記三次元スキャナ点群データに、別途もしくは同時に撮影した画像を重合することで、前記点群データの座標位置と対応する画像の座標位置の色を取得し、前記点群データの色付けを行うことを特徴とする(1)から(3)のいずれかに記載の位置認識方法。
(5)対象物の画像から対象物の位置を認識する位置認識システムであって、
位置認識する複数の対象物を含む領域の全体を網羅する三次元スキャナ点群データと、前記三次元スキャナ点群データから、視点と視線方向ベクトルを付帯した二次元画像を多数抽出して作成した抽出画像データベースとを有する記憶部と、
前記対象物を撮影して画像を取得する画像撮影機器と、
前記画像撮影機器により取得した画像と、前記抽出画像データベースの抽出画像とのマッチングを行い、前記抽出画像の視点および視線方向ベクトルの情報を用いて、前記取得された画像に対応する前記対象物の三次元点群データ上での位置を特定する演算装置と、
前記特定した対象物の位置を表示する表示装置と
を有することを特徴とする位置認識システム。
(6)前記マッチングは、特徴ベースマッチングであることを特徴とする(5)に記載の位置認識システム。
(7)前記画像撮影機器により取得した画像は、可視画像を含むことを特徴とする(5)または(6)に記載の位置認識システム。
(8)前記三次元スキャナ点群データは、別途もしくは同時に撮影した画像が重合されて、前記点群データの座標位置と対応する画像の座標位置の色が取得され、色付けが行われていることを特徴とする(5)から(7)のいずれかに記載の位置認識システム。
(9)設備を撮影した画像から設備の異常を判定する異常判定方法であって、
点検対象である複数の設備を含む工場全体を網羅する三次元スキャナ点群データを取得し、
該三次元スキャナ点群データから、視点と視線方向ベクトルを付帯した二次元画像を複数抽出した抽出画像データベースを作成し、
前記設備を撮影して画像を取得し、
前記取得した画像と、前記抽出画像データベースの抽出画像とのマッチングを行い、
前記抽出画像の視点および視線方向ベクトルの情報を用いて、前記取得された画像に対応する前記設備の三次元スキャナ点群データ上での位置を特定し、
前記取得した画像と、標準データとを比較し、異常の有無を判定することを特徴とする異常判定方法。
(10)前記取得した画像は、可視画像のみ、または可視画像と検出しようとする異常に対応する物理パラメータを可視化した画像であり、前記標準データは、前記取得した画像に対応する画像であることを特徴とする(9)に記載の異常判定方法。
(11)前記物理パラメータを可視化した画像は、熱画像、ガスを可視化した画像、音場を可視化した画像のいずれかであることを特徴とする(10)に記載の異常判定方法。
(12)前記マッチングは、特徴ベースマッチングであることを特徴とする(9)から(11)のいずれかに記載の異常判定方法。
(13)前記三次元スキャナ点群データに、別途もしくは同時に撮影した画像を重合することで、前記点群データの座標位置と対応する画像の座標位置の色を取得し、前記点群データの色付けを行うことを特徴とする(9)から(12)のいずれかに記載の異常判定方法。
(14)設備を撮影した画像から設備の異常を判定する異常判定システムであって、
点検対象である複数の設備を含む工場全体を網羅する三次元スキャナ点群データと、前記三次元スキャナ点群データから、視点と視線方向ベクトルを付帯した二次元画像を多数抽出して作成した抽出画像データベースと、標準データとを有する記憶部と、
前記対象物を撮影して画像を取得する画像撮影機器と、
前記画像撮影機器により取得した画像と、前記抽出画像データベースの抽出画像とのマッチングを行い、前記抽出画像の視点および視線方向ベクトルの情報を用いて、前記取得された画像に対応する前記設備の三次元点群データ上での位置を特定するとともに、前記取得した画像と、前記標準データとを比較し、異常の有無を判定するする演算装置と、
前記特定した対象物の位置、および異常の有無を表示する表示装置と
を有することを特徴とする異常判定システム。
(15)前記画像撮影機器は、可視画像のみ、または可視画像と検出しようとする異常に対応する物理パラメータを可視化した画像を撮影し、前記標準データは、前記画像撮影機器により撮影した画像に対応する画像であることを特徴とする(14)に記載の異常判定システム。
(16)前記物理パラメータを可視化した画像は、熱画像、ガスを可視化した画像、音場を可視化した画像のいずれかであることを特徴とする(15)に記載の異常判定システム。
(17)前記マッチングは、特徴ベースマッチングであることを特徴とする(14)から(16)のいずれかに記載の異常判定システム。
(18)前記三次元スキャナ点群データは、別途もしくは同時に撮影した画像が重合されて、前記点群データの座標位置と対応する画像の座標位置の色が取得され、色付けが行われていることを特徴とする(14)から(17)のいずれかに記載の異常判定システム。
(19)対象物の画像から対象物の位置を認識する方法であって、
位置認識する複数の対象物を含む領域の全体を網羅する三次元スキャナ点群データを取得し、
該三次元スキャナ点群データから、視点と視線方向ベクトルを付帯した二次元画像を複数抽出した抽出画像データベースを作成し、
前記対象物を撮影して画像を取得し、
前記取得した画像と、前記抽出画像データベースの抽出画像との特徴ベースマッチングを行い、
前記抽出画像の視点および視線方向ベクトルの情報を用いて、前記取得された画像に対応する前記対象物の三次元スキャナ点群データ上での位置を特定し、
前記三次元スキャナ点群データから抽出画像データベースを作成するに際し、前記三次元スキャナ点群データにおいて、視点と視線方向ベクトルを付帯した二次元画像を離散的に2枚以上指定し、分割長さ、視線方向変化量、分割数の少なくとも1つを指定して、離散的な二次元画像間を補完する画像群を得て抽出画像データベースにし、
前記三次元スキャナ点群データに、別途もしくは同時に撮影した画像を重合することで、前記三次元スキャナ点群データの座標位置と対応する画像の座標位置の色を取得し、前記三次元スキャナ点群データの色付けを行うことを特徴とする位置認識方法。
(20)前記対象物が工場内設備であることを特徴とする(19)に記載の位置認識方法。
(21)対象物の画像から対象物の位置を認識する位置認識システムであって、
位置認識する複数の対象物を含む領域の全体を網羅する三次元スキャナ点群データと、前記三次元スキャナ点群データから、視点と視線方向ベクトルを付帯した二次元画像を多数抽出して作成した抽出画像データベースとを有する記憶部と、
前記対象物を撮影して画像を取得する画像撮影機器と、
前記画像撮影機器により取得した画像と、前記抽出画像データベースの抽出画像との特徴ベースマッチングを行い、前記抽出画像の視点および視線方向ベクトルの情報を用いて、前記取得された画像に対応する前記対象物の三次元点群データ上での位置を特定する演算装置と、
前記特定した対象物の位置を表示する表示装置と
を有し、
前記抽出画像データベースは、前記三次元スキャナ点群データにおいて、視点と視線方向ベクトルを付帯した二次元画像を離散的に2枚以上指定し、分割長さ、視線方向変化量、分割数の少なくとも1つを指定して、離散的な二次元画像間を補完する画像群を得て作成され、
前記三次元スキャナ点群データは、別途もしくは同時に撮影した画像が重合されて、前記三次元スキャナ点群データの座標位置と対応する画像の座標位置の色が取得され、色付けが行われていることを特徴とする位置認識システム。
(22)前記対象物が工場内設備であることを特徴とする(21)に記載の位置認識システム。
(23)工場内設備を撮影した画像から設備の異常を判定する異常判定方法であって、
点検対象である複数の設備を含む工場全体を網羅する三次元スキャナ点群データを取得し、
該三次元スキャナ点群データから、視点と視線方向ベクトルを付帯した二次元画像を複数抽出した抽出画像データベースを作成し、
前記設備を撮影して画像を取得し、
前記取得した画像と、前記抽出画像データベースの抽出画像との特徴ベースマッチングを行い、
前記抽出画像の視点および視線方向ベクトルの情報を用いて、前記取得された画像に対応する前記設備の三次元スキャナ点群データ上での位置を特定し、
前記取得した画像と、標準データとを比較し、異常の有無を判定し、
前記三次元スキャナ点群データから抽出画像データベースを作成するに際し、前記三次元スキャナ点群データにおいて、視点と視線方向ベクトルを付帯した二次元画像を離散的に2枚以上指定し、分割長さ、視線方向変化量、分割数の少なくとも1つを指定して、離散的な二次元画像間を補完する画像群を得て抽出画像データベースにし、
前記三次元スキャナ点群データに、別途もしくは同時に撮影した画像を重合することで、前記三次元スキャナ点群データの座標位置と対応する画像の座標位置の色を取得し、前記三次元スキャナ点群データの色付けを行うことを特徴とする異常判定方法。
(24)前記取得した画像は、可視画像のみ、または可視画像と検出しようとする異常に対応する物理パラメータを可視化した画像であり、前記標準データは、前記取得した画像に対応する画像であることを特徴とする(23)に記載の異常判定方法。
(25)前記物理パラメータを可視化した画像は、熱画像、ガスを可視化した画像、音場を可視化した画像のいずれかであることを特徴とする(24)に記載の異常判定方法。
(26)前記三次元スキャナ点群データに行う色付けが、温度、ガス濃度、音場強度に対応することを特徴とする(25)に記載の異常判定方法。
(27)工場内設備を撮影した画像から設備の異常を判定する異常判定システムであって、
点検対象である複数の設備を含む工場全体を網羅する三次元スキャナ点群データと、前記三次元スキャナ点群データから、視点と視線方向ベクトルを付帯した二次元画像を多数抽出して作成した抽出画像データベースと、標準データとを有する記憶部と、
前記対象物を撮影して画像を取得する画像撮影機器と、
前記画像撮影機器により取得した画像と、前記抽出画像データベースの抽出画像とのマッチングを行い、前記抽出画像の視点および視線方向ベクトルの情報を用いて、前記取得された画像に対応する前記設備の三次元点群データ上での位置を特定するとともに、前記取得した画像と、前記標準データとを比較し、異常の有無を判定するする演算装置と、
前記特定した対象物の位置、および異常の有無を表示する表示装置と
を有し、
前記抽出画像データベースは、前記三次元スキャナ点群データにおいて、視点と視線方向ベクトルを付帯した二次元画像を離散的に2枚以上指定し、分割長さ、視線方向変化量、分割数の少なくとも1つを指定して、離散的な二次元画像間を補完する画像群を得て作成され、
前記三次元スキャナ点群データは、別途もしくは同時に撮影した画像が重合されて、前記三次元スキャナ点群データの座標位置と対応する画像の座標位置の色が取得され、色付けが行われていることを特徴とする異常判定システム。
(28)前記画像撮影機器は、可視画像のみ、または可視画像と検出しようとする異常に対応する物理パラメータを可視化した画像を撮影し、前記標準データは、前記画像撮影機器により撮影した画像に対応する画像であることを特徴とする(27)に記載の異常判定システム。
(29)前記物理パラメータを可視化した画像は、熱画像、ガスを可視化した画像、音場を可視化した画像のいずれかであることを特徴とする(28)に記載の異常判定システム。
(30)前記三次元スキャナ点群データに行う色付けが、温度、ガス濃度、音場強度に対応することを特徴とする(29)に記載の異常判定システム。
本発明によれば、屋外の対象物に限定されることなく、かつ、RFID等のセンサ機器を用いることなく対象物の位置を自動的に認識することができる。また、屋外の設備に限定されることなく、かつ、RFID等のセンサ機器を用いることなく自動的に設備点検した位置を認識し、設備の異常を判定することができる。
本発明における位置認識の原理を説明するための概念図である。 図1の位置認識原理を用いた位置認識システムの基本構成を示すブロック図である。 位置認識システムの処理フローを示すフローチャートである。 異常判定システムの一例を示すブロック図である。 異常判定システムの処理フローを示すフローチャートである。 異常検判定具体例として、熱画像から温度異常を判別する際の画像間のマッチングを説明するための図である。
以下、添付図面を参照して本発明の実施の形態について説明する。
<位置認識の原理>
最初に、本発明における位置認識の原理について説明する。
図1は、本発明における位置認識の原理を説明するための概念図である。本発明では、位置認識する複数の対象物、例えば複数の点検設備を含む領域(例えば工場等)の全体を網羅する三次元(3D)スキャナ点群データ100を、対象物を特定するための情報データベースとして取得してサーバーに格納し、その3Dスキャナ点群データ100から、視点と視線方向ベクトルを付帯した二次元(2D)画像を多数抽出した抽出画像データベース110を作成する。そして、位置認識する対象物を携帯端末やデジタルカメラ等の画像撮影機器で作業者やロボットが撮影して複数の画像(画像A、画像B、画像C、画像D・・・)からなる画像群120を取得する。
取得した画像群120の個々の画像と、抽出画像データベース110の個々の抽出画像とのマッチングを行う。これらはいずれも2D画像であるため、マッチングが可能である。マッチングは特徴ベースマッチングが好適である。例えば取得された画像Aと抽出画像A′とがマッチングしたとすると、抽出画像A′の視点および視線方向ベクトルの情報を用いて、取得された画像Aの3D点群データ座標上での位置を特定することができる。
これにより、屋外の対象物に限定されることなく、かつ、RFID等のセンサ機器を用いることなく自動的に対象物の位置を認識することができる。対象物としては、特に工場内設備が好適である。
<位置認識システム>
次に、以上のような位置認識原理を用いた位置認識システムの基本構成について説明する。
図2は、位置認識システムの基本構成を示すブロック図である。位置認識システム10は、サーバー1と、画像撮影機器2とを有している。
サーバー1は、データベース(記憶部)3と、演算装置4と、表示装置5を有している。
画像撮影機器2は、携帯端末やデジタルカメラ等の可視画像を撮影するものであり、有線または無線でサーバー1に接続されている。画像撮影機器2により、位置認識する対象である複数の対象物の撮影が行われ複数の画像が取得される。画像撮影機器2による撮影は、作業者またはロボットにより行われる。画像撮影機器2で取得された画像は、サーバー1に入力される。
データベース3は、位置認識する複数の対象物を含む領域の全体を網羅する3Dスキャナ点群データ6と、3Dスキャナ点群データ6から、視点と視線方向ベクトルを付帯した2D画像を多数抽出して作成した抽出画像データベース7とを有する。
3Dスキャナ点群データ6を用いるのは、CADのような図面情報では、長年の操業の間に設備更新等により変更している場合があり、3Dスキャナによる実測ではそのようなおそれがないからである。3Dスキャナ点群データに、別途もしくは同時に撮影した画像を重合することで、点群データの座標位置と対応する画像の座標位置の色を取得し、点群データの色付けを行うことができ、3Dモデルとして出力される。このため、実物を忠実に再現することが可能である。重合される画像としては、一般的にはデジタルカメラ等で撮影した可視画像が用いられる。熱画像、ガスを可視化した画像、音場を可視化した画像やその他の物理量を可視化した画像を用いることもできる。
抽出画像データベース7は、3Dの点群データから自由な角度で多数の画像を取得し、データベースとしたものである。例えば、3D点群データの3Dモデル上で位置と向きを複数設定し、設定をつなぎ合わせることで軌跡を作成することができ、軌跡に沿った動画もしくは連続した静止画を作成可能であり、これらを画像データベースとすることができる。3Dスキャナから取得した画像には、点群データ上の座標系において、画像を見ている視点座標と視線方向ベクトルが付帯される。
対象物を撮影した取得画像とのマッチングを精度よく行うためには、三次元スキャナ点群データからの抽出画像データベース7は充分な枚数が必要である。しかしながら、手動で一枚一枚視点と視線を変更して保存するには労力が必要である。一方、ある規則に沿って機械的に抽出すると無駄に多くの画像を得るため、マッチング時の負荷が高くなる。設備の点検を考えた場合、設備に視線を向けた画像であれば良い。したがって、抽出画像の効率的な作成方法として、例えば、工場における作業通路、物流フロー、長尺設備等に沿った画像を離散的に複数枚指定する。分割長さ、視線方向変化量、分割数の少なくとも1つを指定して、離散的な画像間を補完する画像を得る。このような抽出画像の生成により、無駄なく必要な枚数の抽出画像を得ることができる。このような方法は、対象物が工場内設備のような、人が歩いて見て回る程度の大きさの場合に有効であると考えられる。
具体的な抽出画像データベース7の作成方法は、例えば、三次元点群データをコンピュータの表示画面閲覧し、自由に拡大縮小、移動、回転の操作を行い、所望の設備部位が確認できる画像を決める。このとき三次元スキャナ点群データの座標系から見た視点と視線ベクトルは一意に決定される。所望する設備部位が確認できる画像を複数指定し、指定画像をつなぎ合わせることで軌跡を作成することができ、指定した分割長さ、視線方向変化量、分割数に従って連続した静止画が作成可能であり、これらを画像データベースとすることができる。
演算装置4では、画像撮影機器2により取得した取得画像と、抽出画像データベース7の3D点群データから抽出した多数の抽出画像とのマッチングを行う。マッチングの手法としては、事前にテンプレートを準備しておく領域ベースマッチングは、画像の変形に弱く、かつ主要設備か否かに関わらずテンプレートを準備しておくことは難しいため、特徴ベースマッチングを用いることが好ましい。特徴ベースマッチングは、画像からエッジやコーナー等の特徴点を抽出し、その周囲の領域から特徴量を計算することで画像間のマッチングを行うものであり、例えばKAZEといったアルゴリズムが利用可能である。画像間のマッチング後、マッチングした抽出画像の視点および視線方向ベクトルの情報を用いて、取得された画像の3D点群データ座標上での位置が特定される。表示装置5では、その取得された画像に対応する対象物の3D点群データ座標上での位置が表示される。
<位置認識システムの処理フロー>
次に、以上のような位置認識システムの処理フローについて説明する。
図3は位置認識システムの処理フローを示すフローチャートである。
最初に作業員またはロボットが画像撮影機器2により位置認識する対象物を撮影して複数の画像を取得する(ステップ1)。
次いで、ステップ1で取得した取得画像を有線または無線によりサーバー1に入力する(ステップ2)。
サーバー1に入力された複数の取得画像と、抽出画像データベース7の3Dスキャナ点群データ6から抽出された複数の抽出画像間のマッチングを行う(ステップ3)。
画像間のマッチング後、マッチングした抽出画像の視点および視線方向ベクトルの情報を用いて、取得画像に対応する対象物の3D点群データ座標上での位置を特定する(ステップ4)。そして、特定した対象物の位置を表示し、必要に応じて記録する(ステップ5)。
これにより、屋外の対象物に限定されることなく、かつ、RFID等のセンサ機器を用いることなく対象物の位置を自動的に認識することができる。
<異常判定方法>
次に、以上のような位置認識の原理を用いた異常判定方法およびシステムについて説明する。
多数の設備を有する工場では、主要設備か否かに関わらず点検をする必要がある。この場合に、すべてにセンサ等を取り付け常時監視することは非現実的である。一方、全ての設備を定期点検として点検作業員がチェックすることも作業負荷を考えると難しい。したがって、広域を網羅できる画像を活用する手法により点検し、異常を検出する。
設備を網羅するよう多数の画像を取得するために、点検作業員が巡回しながら、流し撮りしたり、動画として記録したりして画像を取得する。あるいは点検ロボットが巡回して画像を取得する。
このとき、画像を取得した対象設備がどの設備かを自動的に特定する必要があり、そのため、対象設備の位置認識が必要である。
そこで、上述した位置認識手法を用いて対象設備の位置認識を行った上で、その対象設備を点検して異常判定を行う。
対象設備の取得画像は、異常を検出するためのものであり、検出しようとする異常に対応するパラメータを含む画像を用いる。水漏れや亀裂など外観に変化がある異常を検出する場合は、上記位置認識の場合と同様、携帯端末やデジタルカメラで撮影される可視画像のみであってよい。この場合は、上述のような手法により画像間のマッチングを行って、取得画像の位置を特定し、取得画像から異常の有無を判定すればよい。このとき3Dスキャナ点群データは点検したい工場全体を網羅するようにする。
実際の設備点検では、温度異常、異臭、異音等で判断することも多い。この場合は、点検設備の取得画像としては、検出しようとする異常に応じて、可視画像の他に、熱画像、ガスを可視化した画像、音場を可視化した画像等、温度、ガス濃度、音場強度等の物理量を可視化した画像を取得する。
可視画像以外では、特徴ベースマッチングを直接行うことが困難であるので、熱画像、ガスを可視化した画像、音場を可視化した画像等と同時に取得した可視画像により特徴ベースマッチングを行い、対象設備を特定し、異常の有無に関しては、対応する熱画像、ガスを可視化した画像、音場を可視化した画像等と別途サーバーに記憶された標準画像とを比較し判別することが好ましい。または熱画像、ガスを可視化した画像、音場を可視化した画像等と可視画像を重ね合わせた画像を取得することが可能であり、重ね合わせた画像で特徴ベースマッチングを行うことも可能である。熱画像、ガスを可視化した画像、音場を可視化した画像等の画像データベースは、3Dスキャナの点群データ(可視画像データ)と関連付けた状態で、別個のデータベースとして保有してもよいし、3Dスキャナ点群データ上に熱画像、ガスを可視化した画像、音場を可視化した画像等により、温度、ガス濃度、音場強度等に対応して色付けを行った状態で保有しても構わない。
<異常判定システム>
次に、異常判定システムについて説明する。
図4は、異常判定システムの一例を示すブロック図である。異常判定システム20は、基本的に図2の位置認識システムと同様の構成を有し、サーバー11と、画像撮影機器12とを有している。
サーバー11は、データベース13と、演算装置14と、表示装置15を有している。
画像撮影機器12は、検出しようとする異常に対応するパラメータを含む画像を撮影できるものを用いる。水漏れや亀裂など外観に変化がある異常を検出する場合は可視画像を用いればよいので、画像撮影機器12としては、携帯端末やデジタルカメラ等の可視画像を撮影するものを用いる。実際の設備点検では、温度異常、異臭、異音等で異常の有無を判断することが多いが、その場合は、画像撮影機器12として、熱画像を撮影する赤外線サーモグラフィや、音源を可視化する音源可視化装置等を用いる。これらは、熱画像等と同時に可視画像を撮影することができる。
データベース13は、位置認識する複数の対象物を含む領域の全体を網羅する3Dスキャナ点群データ16と、3Dスキャナ点群データ16から、視点と視線方向ベクトルを付帯した画像を多数抽出して作成した抽出画像データベース17と、抽出画像データベース17に関連付けられた可視画像データベース19と、温度等の物理量画像データベース18を有する。画像撮影機器12で熱画像等と可視画像を重ね合わせた画像として撮影した場合には、可視画像データベース19と温度等の物理量画像データベース18はひとつに集約することができる。3Dスキャナ点群データ上に熱画像等による色付けを行った状態で熱画像等を保有する場合は、可視画像データベース19および温度等の物理量画像データベース18は不要である。
演算装置14では、画像撮影機器12により取得した取得画像と、可視画像データベース19の画像とのマッチングを行う。上述したようにマッチングの手法としては、特徴ベースマッチングを用いることが好ましい。可視画像以外では、特徴ベースマッチングを直接行うことが困難であるので、熱画像等と同時に取得した可視画像により特徴ベースマッチングを行い、対象設備を特定し、異常の有無に関しては対応する熱画像等と標準画像(温度等の物理量画像データベース18に格納された画像)とを比較し判別することが好ましい。可視画像データベース19の画像と抽出画像のデータベース17の画像は事前に特徴ベースマッチングで関連付けを実施しておくことで、画像撮影機器12により取得した取得可視画像と、可視画像データベース19の画像間のマッチング後、可視画像データベース19の画像に関連付けられた抽出画像の視点および視線方向ベクトルの情報を用いて、取得された画像の3D点群データ座標上での位置が特定される。また、演算装置14では、取得画像に異常があるか否かを判定する。表示装置15では、取得された画像の3D点群データ座標上での位置が表示され、かつその画像の設備の異常の有無を表示する。
<異常判定システムの処理フロー>
次に、以上のような異常判定システムの処理フローについて説明する。
図5は異常判定システムの処理フローを示すフローチャートである。
最初に作業員またはロボットが画像撮影機器12により検査対象設備を撮影して複数の画像を取得する(ステップ11)。このとき、検出しようとする異常に対応して、可視画像、または、熱画像、ガスを可視化した画像、音場を可視化した画像等の物理量を可視化した画像を可視画像とともに取得する。
次いで、ステップ11で取得した取得画像を有線または無線によりサーバー11に入力する(ステップ12)。
サーバー11に入力された複数の取得画像と、可視画像データベース19の画像間のマッチングを行う(ステップ13)。
マッチングした可視画像から事前にマッチングの手法により関連付けられた抽出画像データベース17の3Dスキャナ点群データ16から抽出された抽出画像を得る(ステップ14)。
マッチングした抽出画像の視点および視線方向ベクトルの情報を用いて、取得された画像の3D点群データ座標上での位置を特定する(ステップ15)。
点検した画像(熱画像等他の物理量の画像を含む)とデータベース上に保有する標準データとを比較し、異常の有無を判別する(ステップ16)。
そして、点検した画像の対象設備位置と異常の有無を表示し、必要に応じて記録する(ステップ17)。
これにより、屋外の設備に限定されることなく、かつ、RFID等のセンサ機器を用いることなく自動的に設備点検した位置を認識し、設備の異常を判定することができる。
<具体例>
次に、本実施形態の異常判定の具体例として、熱画像から温度異常を判別する場合について説明する。
図6はその際の画像間のマッチングを説明するための図である。図6に示すように、本例では、点検画像として、作業員またはロボットが工場を巡回して、赤外線サーモグラフィにより、熱画像および同時に取得した可視画像のセットである複数の画像(画像A、画像B、画像C、画像D・・・)からなる画像群230を取得する。一方、温度異常を判定する際の基準となる標準画像データベースとして熱画像と可視画像のセットである複数の画像(画像A″・・・、画像Y″、画像Z″)からなる画像群220をサーバーに格納する。そして3Dスキャナ点群データ200を、対象物を特定するための情報データベースとしてサーバーに格納し、その3Dスキャナ点群データ200から、視点と視線方向ベクトルを付帯した多数の2D点群画像(画像A′・・・、画像Y′、画像Z′)を抽出した抽出画像データベース210を作成する。この2D点群画像データベースは可視画像に対応するものとする。
最初に、点検画像(画像A、画像B、画像C、画像D・・・)の可視画像と標準画像データベース(画像群220の画像A″・・・、画像Y″、画像Z″)の可視画像間の特徴ベースマッチングを行う。
このとき、点検画像を標準画像に重ね合せ可能にするため、ホモグラフィ変換行列を求める。ホモグラフィ変換は、画像の回転、平行移動、拡大縮小、台形状の変換が可能である。特徴ベースマッチングの妥当性とホモグラフィ変換の妥当性から適切と思われる点検画像と標準画像の対を決定し、点検画像(可視画像および熱画像)に対してホモグラフィ変換を適用する。なお、ホモグラフィ変換は、点検画像の代わりに標準画像に対して適用しても構わない。
特徴ベースマッチングの妥当性は、例えば比較画像間で特徴量のユークリッド距離を算出し、その距離により判定する。すなわち、ユークリッド距離が短いほど対応関係が良く、特徴ベースマッチングの妥当性が高いと判定される。ホモグラフィ変換は、例えば画像四隅を変換し、その両対角線が交差しない(凸の四角形にならない)場合は無効であり、画像四隅の移動量が最小の物が高い妥当性を有すると考えられる。
ホモグラフィ変換した点検熱画像と標準熱画像の差分を取るが、その前に環境温度の影響を排除しておく必要がある。例えば冬場に撮影した熱画像と夏場に撮影した熱画像をそのまま比較することはできない。例えば、画像中の温度の最小値を環境温度として0℃に規格化するとか、画像中の温度の50%刈込平均を求め、環境温度として0℃に規格化する方法がある。環境温度の影響を排除して規格化した温度に調整した後、点検熱画像と標準熱画像の差分計算を行う。
差分を取る際に、点検熱画像と標準熱画像の重ね合せが少しでもずれると温度差分が過剰に評価されてしまう問題がある。そこで、差分値をタイリング(例えば9近傍、自身と周りのピクセル3×3ピクセルで平均化)して評価したり、差分を取る前にタイリング(例えば9近傍平均)して評価したりする方法がある。あるいは、高温部の検出が目的であれば、ある閾値より高温の領域を判定して、領域毎の最高温度同士を点検熱画像と標準熱画像で比較してもよい。また、標準熱画像について9近傍の最大値で置き換えてから点検熱画像と差分を取ってもよい。差分がある規定値以上であれば、異常として警報を出しても良いし、差分を経時的に記録して傾向管理を行うこともできる。
標準画像(画像群220)の可視画像と3Dスキャナ点群データから抽出した2D点群画像(抽出画像データベース210)と特徴ベースマッチングを事前に行う(例えば可視画像である画像A′と画像A″の可視画像がマッチング)。そして、次に点検画像と標準画像の特徴ベースマッチングを行い、点検画像と基準画像とがマッチングすれば(例えば、画像Aと画像A″がマッチング)、自動的に2D点群画像(抽出画像データベース210)と点検画像(画像群230)との対応付けが行われ、視点、視線から3Dスキャナ点群データ上で点検位置が確認可能となる。
<他の適用>
以上、本発明の実施形態について説明してきたが、これらはあくまで例示に過ぎず、本発明の思想の範囲内で種々変更可能で種々変更可能であることは、いうまでもない。
例えば、上記実施形態では、工場内で設備点検を行って異常検出する際の設備位置を確認する方法およびシステムに本発明を適用した場合について示したが、本発明はこれに限定されるものではなく、点検記録として利用したり、行動把握に利用する等、画像から対象位置を認識するものであれば適用可能である。
1,11 サーバー
2,12 画像撮影機器
3,13 データベース
4,14 演算装置
5,15 表示装置
6,16 3Dスキャナ点群データ
7,17 点群から抽出した画像データベース
10 位置認識システム
18 温度等の物理量画像データベース
19 可視画像データベース
20 異常判定システム
100,200 3Dスキャナ点群データ
110,210 抽出画像データベース
220 標準画像データベースとなる画像群
230 撮影した画像の画像群

Claims (30)

  1. 対象物の画像から対象物の位置を認識する方法であって、
    位置認識する複数の対象物を含む領域の全体を網羅する三次元スキャナ点群データを取得し、
    該三次元スキャナ点群データから、視点と視線方向ベクトルを付帯した二次元画像を複数抽出した抽出画像データベースを作成し、
    前記対象物を撮影して画像を取得し、
    前記取得した画像と、前記抽出画像データベースの抽出画像とのマッチングを行い、
    前記抽出画像の視点および視線方向ベクトルの情報を用いて、前記取得された画像に対応する前記対象物の三次元スキャナ点群データ上での位置を特定することを特徴とする位置認識方法。
  2. 前記マッチングは、特徴ベースマッチングであることを特徴とする請求項1に記載の位置認識方法。
  3. 前記対象物を撮影して取得した画像は、可視画像を含むことを特徴とする請求項1または請求項2に記載の位置認識方法。
  4. 前記三次元スキャナ点群データに、別途もしくは同時に撮影した画像を重合することで、前記点群データの座標位置と対応する画像の座標位置の色を取得し、前記点群データの色付けを行うことを特徴とする請求項1から請求項3のいずれか1項に記載の位置認識方法。
  5. 対象物の画像から対象物の位置を認識する位置認識システムであって、
    位置認識する複数の対象物を含む領域の全体を網羅する三次元スキャナ点群データと、前記三次元スキャナ点群データから、視点と視線方向ベクトルを付帯した二次元画像を多数抽出して作成した抽出画像データベースとを有する記憶部と、
    前記対象物を撮影して画像を取得する画像撮影機器と、
    前記画像撮影機器により取得した画像と、前記抽出画像データベースの抽出画像とのマッチングを行い、前記抽出画像の視点および視線方向ベクトルの情報を用いて、前記取得された画像に対応する前記対象物の三次元点群データ上での位置を特定する演算装置と、
    前記特定した対象物の位置を表示する表示装置と
    を有することを特徴とする位置認識システム。
  6. 前記マッチングは、特徴ベースマッチングであることを特徴とする請求項5に記載の位置認識システム。
  7. 前記画像撮影機器により取得した画像は、可視画像を含むことを特徴とする請求項5または請求項6に記載の位置認識システム。
  8. 前記三次元スキャナ点群データは、別途もしくは同時に撮影した画像が重合されて、前記点群データの座標位置と対応する画像の座標位置の色が取得され、色付けが行われていることを特徴とする請求項5から請求項7のいずれか1項に記載の位置認識システム。
  9. 設備を撮影した画像から設備の異常を判定する異常判定方法であって、
    点検対象である複数の設備を含む工場全体を網羅する三次元スキャナ点群データを取得し、
    該三次元スキャナ点群データから、視点と視線方向ベクトルを付帯した二次元画像を複数抽出した抽出画像データベースを作成し、
    前記設備を撮影して画像を取得し、
    前記取得した画像と、前記抽出画像データベースの抽出画像とのマッチングを行い、
    前記抽出画像の視点および視線方向ベクトルの情報を用いて、前記取得された画像に対応する前記設備の三次元スキャナ点群データ上での位置を特定し、
    前記取得した画像と、標準データとを比較し、異常の有無を判定することを特徴とする異常判定方法。
  10. 前記取得した画像は、可視画像のみ、または可視画像と検出しようとする異常に対応する物理パラメータを可視化した画像であり、前記標準データは、前記取得した画像に対応する画像であることを特徴とする請求項9に記載の異常判定方法。
  11. 前記物理パラメータを可視化した画像は、熱画像、ガスを可視化した画像、音場を可視化した画像のいずれかであることを特徴とする請求項10に記載の異常判定方法。
  12. 前記マッチングは、特徴ベースマッチングであることを特徴とする請求項9から請求項11のいずれか1項に記載の異常判定方法。
  13. 前記三次元スキャナ点群データに、別途もしくは同時に撮影した画像を重合することで、前記点群データの座標位置と対応する画像の座標位置の色を取得し、前記点群データの色付けを行うことを特徴とする請求項9から請求項12のいずれか1項に記載の異常判定方法。
  14. 設備を撮影した画像から設備の異常を判定する異常判定システムであって、
    点検対象である複数の設備を含む工場全体を網羅する三次元スキャナ点群データと、前記三次元スキャナ点群データから、視点と視線方向ベクトルを付帯した二次元画像を多数抽出して作成した抽出画像データベースと、標準データとを有する記憶部と、
    前記対象物を撮影して画像を取得する画像撮影機器と、
    前記画像撮影機器により取得した画像と、前記抽出画像データベースの抽出画像とのマッチングを行い、前記抽出画像の視点および視線方向ベクトルの情報を用いて、前記取得された画像に対応する前記設備の三次元点群データ上での位置を特定するとともに、前記取得した画像と、前記標準データとを比較し、異常の有無を判定するする演算装置と、
    前記特定した対象物の位置、および異常の有無を表示する表示装置と
    を有することを特徴とする異常判定システム。
  15. 前記画像撮影機器は、可視画像のみ、または可視画像と検出しようとする異常に対応する物理パラメータを可視化した画像を撮影し、前記標準データは、前記画像撮影機器により撮影した画像に対応する画像であることを特徴とする請求項14に記載の異常判定システム。
  16. 前記物理パラメータを可視化した画像は、熱画像、ガスを可視化した画像、音場を可視化した画像のいずれかであることを特徴とする請求項15に記載の異常判定システム。
  17. 前記マッチングは、特徴ベースマッチングであることを特徴とする請求項14から請求項16のいずれか1項に記載の異常判定システム。
  18. 前記三次元スキャナ点群データは、別途もしくは同時に撮影した画像が重合されて、前記点群データの座標位置と対応する画像の座標位置の色が取得され、色付けが行われていることを特徴とする請求項14から請求項17のいずれか1項に記載の異常判定システム。
  19. 対象物の画像から対象物の位置を認識する方法であって、
    位置認識する複数の対象物を含む領域の全体を網羅する三次元スキャナ点群データを取得し、
    該三次元スキャナ点群データから、視点と視線方向ベクトルを付帯した二次元画像を複数抽出した抽出画像データベースを作成し、
    前記対象物を撮影して画像を取得し、
    前記取得した画像と、前記抽出画像データベースの抽出画像との特徴ベースマッチングを行い、
    前記抽出画像の視点および視線方向ベクトルの情報を用いて、前記取得された画像に対応する前記対象物の三次元スキャナ点群データ上での位置を特定し、
    前記三次元スキャナ点群データから抽出画像データベースを作成するに際し、前記三次元スキャナ点群データにおいて、視点と視線方向ベクトルを付帯した二次元画像を離散的に2枚以上指定し、分割長さ、視線方向変化量、分割数の少なくとも1つを指定して、離散的な二次元画像間を補完する画像群を得て抽出画像データベースにし、
    前記三次元スキャナ点群データに、別途もしくは同時に撮影した画像を重合することで、前記三次元スキャナ点群データの座標位置と対応する画像の座標位置の色を取得し、前記三次元スキャナ点群データの色付けを行うことを特徴とする位置認識方法。
  20. 前記対象物が工場内設備であることを特徴とする請求項19に記載の位置認識方法。
  21. 対象物の画像から対象物の位置を認識する位置認識システムであって、
    位置認識する複数の対象物を含む領域の全体を網羅する三次元スキャナ点群データと、前記三次元スキャナ点群データから、視点と視線方向ベクトルを付帯した二次元画像を多数抽出して作成した抽出画像データベースとを有する記憶部と、
    前記対象物を撮影して画像を取得する画像撮影機器と、
    前記画像撮影機器により取得した画像と、前記抽出画像データベースの抽出画像との特徴ベースマッチングを行い、前記抽出画像の視点および視線方向ベクトルの情報を用いて、前記取得された画像に対応する前記対象物の三次元点群データ上での位置を特定する演算装置と、
    前記特定した対象物の位置を表示する表示装置と
    を有し、
    前記抽出画像データベースは、前記三次元スキャナ点群データにおいて、視点と視線方向ベクトルを付帯した二次元画像を離散的に2枚以上指定し、分割長さ、視線方向変化量、分割数の少なくとも1つを指定して、離散的な二次元画像間を補完する画像群を得て作成され、
    前記三次元スキャナ点群データは、別途もしくは同時に撮影した画像が重合されて、前記三次元スキャナ点群データの座標位置と対応する画像の座標位置の色が取得され、色付けが行われていることを特徴とする位置認識システム。
  22. 前記対象物が工場内設備であることを特徴とする請求項21に記載の位置認識システム。
  23. 工場内設備を撮影した画像から設備の異常を判定する異常判定方法であって、
    点検対象である複数の設備を含む工場全体を網羅する三次元スキャナ点群データを取得し、
    該三次元スキャナ点群データから、視点と視線方向ベクトルを付帯した二次元画像を複数抽出した抽出画像データベースを作成し、
    前記設備を撮影して画像を取得し、
    前記取得した画像と、前記抽出画像データベースの抽出画像との特徴ベースマッチングを行い、
    前記抽出画像の視点および視線方向ベクトルの情報を用いて、前記取得された画像に対応する前記設備の三次元スキャナ点群データ上での位置を特定し、
    前記取得した画像と、標準データとを比較し、異常の有無を判定し、
    前記三次元スキャナ点群データから抽出画像データベースを作成するに際し、前記三次元スキャナ点群データにおいて、視点と視線方向ベクトルを付帯した二次元画像を離散的に2枚以上指定し、分割長さ、視線方向変化量、分割数の少なくとも1つを指定して、離散的な二次元画像間を補完する画像群を得て抽出画像データベースにし、
    前記三次元スキャナ点群データに、別途もしくは同時に撮影した画像を重合することで、前記三次元スキャナ点群データの座標位置と対応する画像の座標位置の色を取得し、前記三次元スキャナ点群データの色付けを行うことを特徴とする異常判定方法。
  24. 前記取得した画像は、可視画像のみ、または可視画像と検出しようとする異常に対応する物理パラメータを可視化した画像であり、前記標準データは、前記取得した画像に対応する画像であることを特徴とする請求項23に記載の異常判定方法。
  25. 前記物理パラメータを可視化した画像は、熱画像、ガスを可視化した画像、音場を可視化した画像のいずれかであることを特徴とする請求項24に記載の異常判定方法。
  26. 前記三次元スキャナ点群データに行う色付けが、温度、ガス濃度、音場強度に対応することを特徴とする請求項25に記載の異常判定方法。
  27. 工場内設備を撮影した画像から設備の異常を判定する異常判定システムであって、
    点検対象である複数の設備を含む工場全体を網羅する三次元スキャナ点群データと、前記三次元スキャナ点群データから、視点と視線方向ベクトルを付帯した二次元画像を多数抽出して作成した抽出画像データベースと、標準データとを有する記憶部と、
    前記対象物を撮影して画像を取得する画像撮影機器と、
    前記画像撮影機器により取得した画像と、前記抽出画像データベースの抽出画像とのマッチングを行い、前記抽出画像の視点および視線方向ベクトルの情報を用いて、前記取得された画像に対応する前記設備の三次元点群データ上での位置を特定するとともに、前記取得した画像と、前記標準データとを比較し、異常の有無を判定するする演算装置と、
    前記特定した対象物の位置、および異常の有無を表示する表示装置と
    を有し、
    前記抽出画像データベースは、前記三次元スキャナ点群データにおいて、視点と視線方向ベクトルを付帯した二次元画像を離散的に2枚以上指定し、分割長さ、視線方向変化量、分割数の少なくとも1つを指定して、離散的な二次元画像間を補完する画像群を得て作成され、
    前記三次元スキャナ点群データは、別途もしくは同時に撮影した画像が重合されて、前記三次元スキャナ点群データの座標位置と対応する画像の座標位置の色が取得され、色付けが行われていることを特徴とする異常判定システム。
  28. 前記画像撮影機器は、可視画像のみ、または可視画像と検出しようとする異常に対応する物理パラメータを可視化した画像を撮影し、前記標準データは、前記画像撮影機器により撮影した画像に対応する画像であることを特徴とする請求項27に記載の異常判定システム。
  29. 前記物理パラメータを可視化した画像は、熱画像、ガスを可視化した画像、音場を可視化した画像のいずれかであることを特徴とする請求項28に記載の異常判定システム。
  30. 前記三次元スキャナ点群データに行う色付けが、温度、ガス濃度、音場強度に対応することを特徴とする請求項29に記載の異常判定システム。
JP2017203197A 2016-10-28 2017-10-20 位置認識方法およびシステム、ならびに異常判定方法およびシステム Active JP6610640B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2016211504 2016-10-28
JP2016211504 2016-10-28

Publications (2)

Publication Number Publication Date
JP2018077837A true JP2018077837A (ja) 2018-05-17
JP6610640B2 JP6610640B2 (ja) 2019-11-27

Family

ID=62150649

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017203197A Active JP6610640B2 (ja) 2016-10-28 2017-10-20 位置認識方法およびシステム、ならびに異常判定方法およびシステム

Country Status (1)

Country Link
JP (1) JP6610640B2 (ja)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020165778A (ja) * 2019-03-29 2020-10-08 田中 成典 地物管理システム
CN111753860A (zh) * 2019-03-27 2020-10-09 杭州海康威视数字技术股份有限公司 一种分析异常检测方法及装置
JP2021532356A (ja) * 2018-07-24 2021-11-25 フルークコーポレイションFluke Corporation 音響データを投射および表示するためのシステム及び方法
KR102518014B1 (ko) * 2022-09-16 2023-04-06 흥일기업주식회사 부품 스캔 장치 및 방법
US11913829B2 (en) 2017-11-02 2024-02-27 Fluke Corporation Portable acoustic imaging tool with scanning and analysis capability
WO2024105855A1 (ja) * 2022-11-17 2024-05-23 日本電気株式会社 移動対象特定システム、移動対象特定装置、対象特定方法及びコンピュータ可読媒体

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009076096A (ja) * 2008-11-27 2009-04-09 Mitsubishi Electric Corp 対象特定装置
JP2010127819A (ja) * 2008-11-28 2010-06-10 Fuji Electric Holdings Co Ltd 多面体位置検出装置及び検出方法
JP2011174891A (ja) * 2010-02-25 2011-09-08 Canon Inc 位置姿勢計測装置、位置姿勢計測方法、及びプログラム
JP2016170050A (ja) * 2015-03-12 2016-09-23 キヤノン株式会社 位置姿勢計測装置、位置姿勢計測方法及びコンピュータプログラム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009076096A (ja) * 2008-11-27 2009-04-09 Mitsubishi Electric Corp 対象特定装置
JP2010127819A (ja) * 2008-11-28 2010-06-10 Fuji Electric Holdings Co Ltd 多面体位置検出装置及び検出方法
JP2011174891A (ja) * 2010-02-25 2011-09-08 Canon Inc 位置姿勢計測装置、位置姿勢計測方法、及びプログラム
JP2016170050A (ja) * 2015-03-12 2016-09-23 キヤノン株式会社 位置姿勢計測装置、位置姿勢計測方法及びコンピュータプログラム

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11913829B2 (en) 2017-11-02 2024-02-27 Fluke Corporation Portable acoustic imaging tool with scanning and analysis capability
JP2021532356A (ja) * 2018-07-24 2021-11-25 フルークコーポレイションFluke Corporation 音響データを投射および表示するためのシステム及び方法
JP7488250B2 (ja) 2018-07-24 2024-05-21 フルークコーポレイション 音響データを投射および表示するためのシステム及び方法
US11965958B2 (en) 2018-07-24 2024-04-23 Fluke Corporation Systems and methods for detachable and attachable acoustic imaging sensors
US11960002B2 (en) 2018-07-24 2024-04-16 Fluke Corporation Systems and methods for analyzing and displaying acoustic data
US11762089B2 (en) 2018-07-24 2023-09-19 Fluke Corporation Systems and methods for representing acoustic signatures from a target scene
CN111753860A (zh) * 2019-03-27 2020-10-09 杭州海康威视数字技术股份有限公司 一种分析异常检测方法及装置
CN111753860B (zh) * 2019-03-27 2024-02-02 杭州海康威视数字技术股份有限公司 一种分析异常检测方法及装置
JP7467722B2 (ja) 2019-03-29 2024-04-15 成典 田中 地物管理システム
JP2020165778A (ja) * 2019-03-29 2020-10-08 田中 成典 地物管理システム
JP7307908B2 (ja) 2019-03-29 2023-07-13 成典 田中 地物管理システム
JP2023083310A (ja) * 2019-03-29 2023-06-15 成典 田中 地物管理システム
KR102518014B1 (ko) * 2022-09-16 2023-04-06 흥일기업주식회사 부품 스캔 장치 및 방법
WO2024105855A1 (ja) * 2022-11-17 2024-05-23 日本電気株式会社 移動対象特定システム、移動対象特定装置、対象特定方法及びコンピュータ可読媒体

Also Published As

Publication number Publication date
JP6610640B2 (ja) 2019-11-27

Similar Documents

Publication Publication Date Title
JP6610640B2 (ja) 位置認識方法およびシステム、ならびに異常判定方法およびシステム
EP2959459B1 (en) 3d imaging method and system
US11145130B2 (en) Method for automatically capturing data from non-networked production equipment
CN110850723B (zh) 一种基于变电站巡检机器人系统的故障诊断及定位方法
US10311593B2 (en) Object instance identification using three-dimensional spatial configuration
JP5586765B2 (ja) カメラキャリブレーション結果検証装置および方法
CN111192321B (zh) 目标物三维定位方法与装置
CN111047568A (zh) 一种漏汽缺陷检测识别方法及系统
WO2013186160A1 (en) Closed loop 3d video scanner for generation of textured 3d point cloud
EP3161412B1 (en) Indexing method and system
CN111562016A (zh) 人体温度检测方法、系统、装置及热红外图像处理器
JP5079547B2 (ja) カメラキャリブレーション装置およびカメラキャリブレーション方法
US20240029372A1 (en) Method for automatically capturing data from non-networked production equipment
CN110067274A (zh) 设备控制方法及挖掘机
CN111289110A (zh) 人体温度检测方法、系统、装置及热红外图像处理器
US20210201542A1 (en) Building maintaining method and system
CN117853295A (zh) 一种基于工业互联和数字全景的安全环保应急系统
JP2007200364A (ja) ステレオキャリブレーション装置とそれを用いたステレオ画像監視装置
JP5960471B2 (ja) 画像監視装置
US20180204081A1 (en) Image analyzing device and method for instrumentation, instrumentation image analyzing system, and non-transitory computer readable record medium
CN115708133A (zh) 用于读取测量装置的系统、方法和装置、存储介质
CN113989335A (zh) 一种对厂房内工人自动定位的方法
ES2966109T3 (es) Dispositivo y programa de estimación de entorno de instalación
CN114175601A (zh) 用于显示技术对象的方法和装置
KR101802918B1 (ko) 3차원 영상 획득 장치 및 그 동작방법

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180524

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190521

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190618

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190716

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20191001

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20191014

R150 Certificate of patent or registration of utility model

Ref document number: 6610640

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250