JP2018077836A - 2d対象点の3dマッピングのための方法 - Google Patents

2d対象点の3dマッピングのための方法 Download PDF

Info

Publication number
JP2018077836A
JP2018077836A JP2017196096A JP2017196096A JP2018077836A JP 2018077836 A JP2018077836 A JP 2018077836A JP 2017196096 A JP2017196096 A JP 2017196096A JP 2017196096 A JP2017196096 A JP 2017196096A JP 2018077836 A JP2018077836 A JP 2018077836A
Authority
JP
Japan
Prior art keywords
image
data set
point
augmented reality
dimensional
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017196096A
Other languages
English (en)
Other versions
JP7086559B2 (ja
Inventor
ティエリー、シーシェ
Thierry Chiche
ロマン、ガション
Romain Gassion
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Schneider Electric Industries SAS
Original Assignee
Schneider Electric Industries SAS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Schneider Electric Industries SAS filed Critical Schneider Electric Industries SAS
Publication of JP2018077836A publication Critical patent/JP2018077836A/ja
Application granted granted Critical
Publication of JP7086559B2 publication Critical patent/JP7086559B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/111Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/58Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/583Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/20Scenes; Scene-specific elements in augmented reality scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • G06V20/647Three-dimensional objects by matching two-dimensional images to three-dimensional objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/139Format conversion, e.g. of frame-rate or size
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/172Processing image signals image signals comprising non-image signal components, e.g. headers or format information
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/04Indexing scheme for image data processing or generation, in general involving 3D image data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20092Interactive image processing based on input by user
    • G06T2207/20104Interactive definition of region of interest [ROI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20092Interactive image processing based on input by user
    • G06T2207/20108Interactive selection of 2D slice in a 3D data set

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • Multimedia (AREA)
  • Software Systems (AREA)
  • Library & Information Science (AREA)
  • Signal Processing (AREA)
  • Architecture (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Processing Or Creating Images (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

【課題】2次元対象点を3次元ビューにマッピングするための方法を提供する。【解決手段】開示される方法は、拡張現実デバイスを用いて3次元(3D)画像を取り込むステップを含む。方法は、2D画像データベースの画像を、取り込まれた3D画像に一致させるステップを含み、2D画像データベースは、2次元(2D)データ・セットを有する対象点に関連付けられた2次元(2D)画像を保有する。また方法は、2D画像が3D画像に一致するときに、一致した2D画像についての3Dデータを取り込むステップと、対象点の2Dデータ・セットを3Dデータ・セットに変換するステップとを含む。開示される方法は、拡張現実デバイスなどの3Dアプリケーションのために、対象点の構成を単純化する。【選択図】図2

Description

本発明は、2D対象点(point of interest:poi)の3Dマッピングのための方法、および拡張現実デバイスに関する。とりわけ、本方法は、2次元画像用に定義された対象点を、拡張現実デバイスによって取り込まれる3次元画像においてマッピングすることに関する。
マッピングおよびナビゲーション・アプリケーションにおいて、対象点は、通例、特定のオブジェクトがどこで発見され得るかを示すために適用される。そのようなオブジェクトは、ガソリンスタンド、レストランなど、リソースであることも、部品またはコンポーネントであることもある。そのようなオブジェクトが発見されることになる場所の大まかに示すことは、通常十分であるものの、ある一定の条件においては、これでは足りないことがある。とりわけ、工場用地または他の種類の製造プラントにおいては、不注意の損害、またはさらには危険な事態を防ぐために、機械、制御キャビネット、または他の工業機器に存在するコンポーネントの正確な場所が要求される。そのような状況では、どこで正確に部品を発見し、認識すべきかの知識が極めて重要である。先行技術の解決策は、特定の機械の配置または構造を指し示す配置図および機械図を含む。その強化されたバージョンは、特定の機械または電気制御ボックスの実際の写真、すなわちフォト画像を含む。しかしながら、構成は、経時的に改変されることがある。たとえば、部品が取り替えられる、またはコンポーネントが更新されるときである。
上で言及されたニーズに対処するために、特定の機械、制御キャビネット、または機器が点検される、または少なくとも互いに影響しあう度に、オペレータおよび保守要員が画像を再撮影するように指示されることがある。あるいは、新たな機器が取り付けられる、または機器が更新されるときに、新たに取り付けられた構成の写真を撮影するように指示されることがある。
これらの画像では、対象点は、取り込まれた画像内に座標を割り当てることによって関連付けられてよい。オペレータは、写真を撮影する時点で画像における対象点を識別してもよいし、識別はまた、後の段階で実施されてもよい。あるいは、識別は、対象となる事前に定義されたコンポーネント、機器、または他の該当する部品を識別することが可能な画像認識ソフトウェアによって実施されてもよい。いずれにしても、これらの対象点は、ある一定の該当する部品または情報に関係した2D画像において定義される。これにより、2次元(2D)空間において定義された、関連付けられた対象点を有する画像のデータベースを作成することが可能になる。したがって、取り込まれた画像は、2Dキャンバス、すなわち、デカルト座標によって測られ得る、または任意の他の好適な座標系によって定義され得る表面空間として扱われる。
本発明の目的は、3次元アプリケーションのために、対象点の定義をさらに緩和することである。
一態様によれば、2次元対象点を3次元画像にマッピングするための方法が提供される。方法は、拡張現実デバイスを用いて3次元(3D)画像を取り込むステップを含む。方法は、2D画像データベースの画像を3D画像に一致させるステップを含み、2D画像データベースは、2次元(2D)データ・セットを有する対象点に関連付けられた2次元(2D)画像を保有する。また方法は、2D画像が3D画像に一致するときに、一致した2D画像についての3Dデータを取り込むステップと、対象点の2Dデータ・セットを3Dデータ・セットに変換するステップとを含む。
開示される方法は、たとえば、X、Y座標のみが2D画像に関連付けられることを必要とするので、拡張現実デバイスなどの3Dアプリケーションのために、対象点の構成を単純化する。
本発明は、対象点を定義することがなおも2D画像において行われ得るので、対象点を定義する手間をさらに削減する。あるいは、これはあらかじめ行われていてもよく、したがって、対象点を保有する2D画像で先行して作成されたデータベースの再利用を可能にする。
本発明は、2D画像および関連付けられた3D絶対位置座標のみが記憶されることになり、全3D画像および関連付けられたコンテンツは記憶されないので、記憶されるために要求されるデータの量をさらに削減する。
このアプリケーションでは、任意の3D画像は、2Dフレーム内のいくつかの点またはすべての点について、2D画像からなる3D表現、すなわち、関連付けられた奥行き情報を伴う2Dフレームを有する。
例のみとして、本開示の実施形態が、添付の図面を参照して説明される。
工業用制御システムにおける拡張現実システムの例を模式的に示す図である。 本発明に従った拡張現実システムの例を模式的に示す図である。 本発明に従った方法の例を示す図である。 本発明に従った方法の別の例を示す図である。 2D画像データベースを作成するための方法の例を示す図である。 3次元座標系における2次元画像の一致を模式的に示す図である。 本発明に従った方法を示す流れ図である。
図1を参照すると、工業用制御システム1を典型的に構成するさまざまなコンポーネントが示されている。オートメーション・サーバ2、SCADAステーション3、プログラマブル・ロジック・コントローラを持つキャビネット4、5、および他の機器が存在している。拡張現実画像サーバ6および拡張現実デバイス7もまた示されており、これらは、工業用制御環境において拡張現実システムを構成する。オペレータは、点検を受けるオブジェクトの前にデバイス7を設置することによって、キャビネット4、5における機器を点検するときの補助に、デバイス7を使用することができる。デバイス7は、機器の画像を取り込み、画像において機器を認識し、画像サーバ6と通信し、認識された機器に関する追加的な情報を示すように意図されている。このようにして、機器に関係した任意の情報が取り出され、デバイス7の表示装置上に示される画像においてオーバーレイとして示され得るとき、拡張現実が取得されてよい。
図2において、拡張現実システムの拡張現実デバイス7および拡張現実画像サーバ6が、より詳細に模式的に示されている。拡張現実画像サーバ6は、2次元(2D)データ・セットを有する対象点を伴う2次元画像を保有する2Dデータベース8と、3次元(3D)データ・セットを有する対象点を伴う3次元画像を保有する3Dデータベース9とを有する。
拡張現実、すなわち3Dデバイス7は、画像センサ10、調整可能なレンズ11、および3Dセンサ12を有し、3Dセンサ12は、奥行き、すなわち3Dデバイスと可視オブジェクトとの間の距離を決定することができる。3Dデバイスは、この例ではGPSセンサである絶対測位センサ13、および表示装置14をさらに有する。図2では、2D画像認識モジュール15、3Dデータ取り込みモジュール16、および2D to 3D変換モジュール17をさらに示している。この例において、これらは、3Dデバイス7の一部である別個のハードウェア・モジュールとして示されている。別の例において、これらのモジュールは、汎用処理ユニットによって実行されるソフトウェア・モジュールとして実装されてもよい。さらに別の例において、これらのモジュールは、拡張現実画像サーバ6の一部であってもよいし、または拡張現実システムの一部として別個のサーバ上に場所決めされてもよい。
この例では、絶対位置センサはGPSセンサであるが、基準点に対するデバイスの位置を決定することが可能な他のナビゲーション・センサ、たとえば、EUガリレオ測位システムまたは中国のBeiDouナビゲーション衛星システムなどもまた適している。固定された既知の基準点を定義し、その定義された基準位置に対するデバイス位置を決定することを可能にする位置センサおよびシステムなどの、地理的空間内での絶対位置を取得することを可能にする他の位置センサもまた適している。
図3を参照すると、2次元対象点を3次元ビューにおいてマッピングするための方法が示されている。方法は、図2を参照して説明された拡張現実システムの例によって実装されてよい。方法は、拡張現実デバイスを用いて3次元(3D)画像を取り込むこと(102)から始まる。2D画像データベースの画像を、取り込まれた3D画像に一致させること(103)が後に続く。この2D画像データベースは、2次元(2D)データ・セットを有する対象点に関連付けられた2次元(2D)画像を保有する。2D画像が3D画像に一致するときに、方法は、一致した2D画像についての3Dデータを取り込むこと(104)、および対象点の2Dデータ・セットを3Dデータ・セットに変換すること(105)によって続行する。取得された3Dデータ・セットは、対象点を、たとえばGPS座標などのグローバル位置座標で記憶することになり、それにより、拡張現実デバイスのグローバル位置に基づいて、対象点を容易に取り出すことを可能にすることになる。
上の工程は、学習フェーズとみなされてよく、ここで、ARサーバ上の3Dデータベースは、後の取り出しのために利用可能な対象点の3Dデータ・セットでポピュレートされる。このようにして、各対象点の3Dデータ・セットがグローバル位置座標で記憶されることになるので、1つの画像の2D画像認識は、一度しか要求されない。
図4に移ると、2次元対象点を3次元ビューにおいて表示するための方法の例が示されている。方法はまた、図2を参照して説明された拡張現実システムの例によって実装されてよい。この方法は、図3を参照して説明された方法と同様に、3D画像を取り込むこと(202)を含み、2D画像データベースの画像を、取り込まれた3D画像に一致させること(203)が後に続き、2D画像が3D画像に一致するとき、3Dデータを取り込むこと(204)、および対象点の2Dデータ・セットを3Dデータ・セットに変換すること(205)によって続行する。上記に加えて、方法は、2次元(2D)データ・セットを有する対象点に関連付けられた2次元(2D)画像を保有する2D画像データベースを提供すること(201)、および対象点を3Dビューにおいて拡張現実として表示すること(206)を含む。たとえば、オペレータが点検または保守作業を実施しているとき、3Dビューは、拡張現実デバイスの表示装置上に示されてよい。3Dビューはまた、遠隔制御室のワーク・ステーションの表示装置上に示されてもよい。
上で説明された方法の1つの利点は、これにより、非常に単純なやり方で2D画像において対象点が定義されることを可能にし、一方で学習フェーズにおいて、すべての対象点が、2D認識を用いて、アプリケーションのための3D画像においてインスタンス化され得ることである。
図5を参照すると、対象点に関連付けられた2次元(2D)画像を記憶する2D画像データベースを作成するための方法が示されている。そのような2D画像データベースを作成するためには、たとえばオペレータによってあらかじめ撮影された、または別のやり方で提供される(301)画像を処理するために、2D設計ツールが使用される。2D画像において、対象点が定義されることになり、対象点は、たとえば、ある一定のスイッチ、回路遮断機、I/O接続部、または他のコンポーネントを指していてよい。
それに加えて、各画像は、画像を参照するための一意の手段としての画像識別子ID−imを割り当てられる(302)。画像の長さLおよび幅Wのようなさらなる特性が決定され(303)、基準点もまた同様に決定される。基準点は、画像の隅のうちの1つであってもよいし、画像の中心であってもよいし、またはデカルト系の原点などの座標系の原点として取られるのに好適な任意の他の基準点であってもよい。後者の場合、原点が1つの隅にあると、XおよびYの最大値は、LおよびWと等しくなることになる。
2D画像が処理されるのに伴い、それぞれのpoi識別子ID−poiを有する対象点が、画像内で定義されてよい(304)。対象点の定義およびそのpoi識別子と共に、基準点すなわち画像の原点に対する対象点の第1の座標、たとえば、X−poiおよびY−poiが決定され(305)、その目的のために、2D画像は、デカルト座標空間Rとみなされてよい。1つの2D画像が多数の対象点を示すことがあるので、上記は、多数の点について繰り返されてよい。このようにして、各対象点は、2D画像におけるpoiの座標を少なくとも保有する2次元(2D)データ・セットを有する。そのようなデータ・セットは、たとえば、P.o.I.ごとに(ID−poi,X−poi,Y−poi,ID−im)としての形を取ることができる。
2D画像データベースを作成することは、各定義された対象点を画像識別子に関連付けること(306)をさらに要求する。これは、画像識別子ごとにレコードを作成し、画像およびその画像識別子に関連付けられたそれぞれの対象点のすべてのpoi識別子を記憶することによって行われてよい。それはまた、poi識別子ごとにレコードを作成し、レコードに関連付けられた画像識別子を記憶することによって行われてもよい。
上記のすべて、つまり、画像識別子、画像の長さおよび幅、画像における基準点、poi識別子、少なくとも1つの対象点の座標、ならびに各定義された対象点との関連付けが、2D画像データベースに記憶される(307)。それに応じて、2次元(2D)データ・セットを有する対象点に関連付けられた2次元(2D)画像を保有する2D画像データベースが提供される。
図2および図3に戻って、方法はさらに詳細に説明される。3D画像を取り込むために、拡張現実デバイスの3Dセンサおよび画像センサを介して、取り込まれる3D画像の3D表現が取得される。この3D表現は、2Dフレームを含み、2Dフレームは、この例では、デカルト座標系におけるXおよびYの値などの、2次元フレーム座標によって定義された点からなる、画像センサによって取り込まれた2D画像である。2Dフレームにおける各点は、デカルト座標Zに類似した奥行きに関連付けられ、奥行きは、3Dセンサによって取得される。2Dフレームはまた、各点(X、Y)について定義されたベクトルZを持つベクトル・フィールドとして構築され得る。2Dフレームは、必ずしも連続的である必要はなく、たとえば、それはまた離散形式であってもよい。
たとえば、3Dデバイスは、行列射影(matrix projection)を適用するためのレーザを使用して、3Dデバイスの前にあるオブジェクトによって引き起こされた歪みを決定することができる。そのような射影は、行列射影のメッシュサイズまたはピッチに応じて限定された数の点についてのZの値、すなわち、奥行きのみを取得することになる。さらに別のやり方で、2Dフレームは、X−Y平面上のZ軸に沿った3D画像の射影として解釈されてもよい。
2D画像データベースの画像を3D画像に一致させることは、2Dフレーム上で2D画像を変倍し、並進させることによって、2D画像データベースの各2D画像を、3D表現の2Dフレームと比較することを含む。要求される処理動作の例が、単純化されたやり方で図6に示されている。
2D画像が、3D画像に、つまり上の例では3D表現の2Dフレームに一致するとき、対応する一致についての3Dデータが取り込まれる必要がある。一致した2D画像についての3Dデータのこの取り込みは、3D表現の2Dフレームにおける2D画像の基準点のフレーム座標を決定することを含む。取り込むことは、変倍情報を決定すること、および拡張現実デバイスと2D画像との間の距離Dを取得することをさらに含み、その両方は、3Dデバイスのレンズから取得されてよい。変倍を実施する1つのよくあるやり方が、相似拡大射影(homothetic projection)であり、これは、その比率アスペクトを維持しながら、最小限の歪みで、形状のサイズ変更を可能にする。
一致した画像の、フレーム座標、変倍情報、距離D、および画像識別子は、一致した画像オブジェクトに中間結果として記憶されてよい。
取り込まれた3Dデータにより、対象点の2Dデータ・セットは、3Dデータ・セットに変換され得る。2Dデータ・セットの3Dデータ・セットへのこの変換は、対象点の第1の座標に変倍情報を適用することを含む。変換することは、対象点のフレーム座標を取得するために、対象点の座標に基準点のフレーム座標を適用することをさらに含む。そして最後に、対象点についての奥行き座標を取得するために、対象点のフレーム座標に関連付けられた奥行きおよび変倍情報が処理されて、奥行き座標を計算する。このようにして、対象点の一組の3次元座標が取得され、拡張現実デバイスR’の座標系において定義される。
これらのフレーム座標は、たとえば、GPSなどとして知られるグローバル位置座標に変換されてよい。それに加えて、拡張現実デバイスのグローバル位置が取得される。ここから、対象点のフレーム座標および奥行き座標に、拡張現実デバイスのグローバル位置を適用することによって、対象点のグローバル位置が取得される。これらの3Dデータは次いで、対象点のグローバル位置として3Dデータ・セットに記憶されてよい。
図6は、2D画像18の座標空間Rと、拡張現実デバイスの考え得る座標空間R’との関係を示す。別の例において、デカルト座標の代わりに、デバイス座標空間はまた、球面座標によっても定義され得る。
図7を参照すると、本発明に従った方法のさらなる例を示す流れ図が示されている。2D設計ツール19が、2D画像用に対象点を定義するために使用される。2D設計ツール19は、これらの2D画像を2D画像データベース8に送り出し、2D画像データベース8には、2D画像が、画像識別子ID−im、長さL、幅Wと一緒に記憶される。加えて、対象点は、対象点ごとに、poi識別子ID−poi、2D画像におけるp.o.i.のX座標X−poi、2D画像におけるp.o.i.のY座標Y−poi、および画像識別子ID−imと一緒に記憶され、これらについて対象点は定義されており、したがって関連付けられている。3D画像は、画像の各点についてのX、Y、Z座標を伴って取り込まれる(405)。
2D画像は、取り込まれた3D画像に一致させる(401)ように、2D認識ツールによって1つずつ処理される。一致したとき、画像識別子ID−imを保有する一致画像オブジェクトが作成され、更新された座標X’およびY’が、取り込まれた3D画像における原点の座標を定義し、変倍情報が、取り込まれた3D画像における2D画像の変倍を定義する。取り込まれた3D画像は多数の対象点を示すことがあるので、3D画像は、2D画像データベースのさらなる2D画像と比較され、さらなる一致が取得された場合、これらもまた一致画像オブジェクトに記憶される。したがって、一致の場合は、これが新たな一致であるか否かがチェックされる(402)。3Dデバイスの場所は既知であり得るので、比較されるために該当する2D画像の数は、その場所に基づいて限定されてよい。
2D画像が3D画像に一致したとき、2DデータのX−poi、Y−poiは、2D to 3Dモジュールによって、1つの3Dデータ・セットに変換され(403)、その3Dデータ・セットは、3Dデータベース9に記憶される。変換は、3D画像に関連付けられた2D画像ごとに、一致画像オブジェクトを処理することによって実施される。2D画像の一致はそれ自体でもまた、多数の対象点を保有することがあり、その場合、2Dデータ・セットの変換は、その画像について定義されたすべての対象点に適用される。すべての変換された3Dデータ・セットは、3Dデータベース9に記憶される。
2D画像があらかじめ3D画像に一致していたとき、先行して変換された3Dデータ・セットが利用可能になるので、変換はスキップされてよい。したがって、新たに一致した画像が取得されるときにのみ、2Dの3Dデータ・セットへの変換が実施されることになる。
3Dデータ・セットが取得されると、3D画像は、すべての識別された対象点と一緒に、3Dデバイスの表示装置上に示されることになる。
本発明が特定の実施形態を参照して上で説明されてきたが、本発明は、本明細書に記述された特定の形態に限定されることを意図されていない。むしろ、本発明は、添付する請求項によってのみ限定され、上の特定の実施形態以外の実施形態は、これらの付属の請求項の範囲内で等しく可能である。
さらに、上では例示的な実施形態が、コンポーネントおよび/または機能のいくつかの例示的な組合せにおいて説明されてきたが、本開示の範囲から逸脱することなく、代替実施形態が、部材および/または機能の異なる組合せによって提供されてよいことが認識されるべきである。加えて、個々に説明された、または実施形態の一部として説明された特定の特徴は、他の個々に説明された特徴、または他の実施形態の一部と組み合わされてもよいことが明確に企図される。
1 工業用制御システム
2 オートメーション・サーバ
3 SCADAステーション
4 キャビネット
5 キャビネット
6 拡張現実画像サーバ
7 拡張現実デバイス/3Dデバイス
8 2D画像データベース/2Dデータベース
9 3Dデータベース
10 画像センサ
11 調整可能なレンズ
12 3Dセンサ
13 絶対測位センサ
14 表示装置
15 2D画像認識モジュール
16 3Dデータ取り込みモジュール
17 2D to 3D変換モジュール
18 2D画像
19 2D設計ツール

Claims (12)

  1. 2次元対象点を3次元ビューにおいてマッピングするための方法であって、
    拡張現実デバイス(7)を用いて3次元(3D)画像を取り込むステップ(102)と、
    2次元(2D)画像データベース(8)の画像を、取り込まれた3D画像に一致させるステップ(103)であって、前記2D画像データベース(8)が2次元(2D)データ・セットを有する対象点に関連付けられた2次元(2D)画像を備える、一致させるステップ(103)と、
    前記2D画像が前記3D画像に一致するときに、
    一致した2D画像についての3Dデータを取り込むステップ(104)と、
    前記対象点の前記2Dデータ・セットを3Dデータ・セットに変換するステップ(105)と
    を備える方法。
  2. 2D画像を提供するステップ(301)と、
    画像ごとに、
    画像識別子を割り当てるステップ(302)と、
    前記画像の長さおよび幅を決定するステップ(303)と、
    それぞれのpoi識別子を有する少なくとも1つの対象点を定義するステップ(304)と、
    前記画像の基準点に対する前記少なくとも1つの対象点の第1の座標を決定するステップ(305)と、
    各定義された対象点を前記画像識別子に関連付けるステップ(306)と、
    前記画像識別子、前記長さおよび前記幅、前記基準点、前記poi識別子、前記少なくとも1つの対象点の前記座標、ならびに各定義された対象点との関連付けを記憶するステップ(307)と
    によって、前記2D画像データベースが作成される、
    請求項1に記載の方法。
  3. 前記3D画像を取り込むステップが、
    前記拡張現実デバイスの3Dセンサ(12)を介して、前記3D画像の3D表現を取得するステップを備え、
    前記3D表現が、2次元フレーム座標によって定義された点からなる2Dフレームを備え、各点が奥行きに関連付けられている、
    請求項1または2に記載の方法。
  4. 前記2D画像データベースの画像を前記3D画像に一致させるステップが、
    前記2Dフレーム上で前記2D画像を変倍し、並進させることによって、前記2D画像データベースの各2D画像を、前記3D表現の前記2Dフレームと比較するステップ
    を備える、請求項1から3のいずれか一項に記載の方法。
  5. 前記一致した2D画像についての3Dデータを取り込むステップが、
    前記2Dフレームにおいて前記2D画像の前記基準点のフレーム座標を決定するステップと、
    前記2D画像のサイズおよび前記2Dフレームのサイズから変倍情報を決定するステップと、
    前記拡張現実デバイスと前記2D画像との間の距離を取得するステップと
    を備える、請求項1から4のいずれか一項に記載の方法。
  6. 前記対象点の前記2Dデータ・セットを3Dデータ・セットに変換するステップが、
    前記対象点の前記第1の座標に前記変倍情報を適用するステップと、
    前記対象点のフレーム座標を取得するために、前記対象点の前記第1の座標に前記基準点の前記フレーム座標を適用するステップと
    を備える、請求項1から5のいずれか一項に記載の方法。
  7. 前記対象点の前記2Dデータ・セットを3Dデータ・セットに変換するステップが、
    前記対象点の前記フレーム座標に関連付けられた奥行き、および
    前記変倍情報
    から、前記対象点についての奥行き座標を決定するステップと
    をさらに備える、請求項6に記載の方法。
  8. 前記対象点の前記2Dデータ・セットを3Dデータ・セットに変換するステップが、
    前記拡張現実デバイスの絶対位置を取得するステップと、
    前記対象点の前記フレーム座標および前記奥行き座標に前記拡張現実デバイスのグローバル位置を適用することによって、前記対象点の絶対位置を決定するステップと、
    前記対象点の前記絶対位置を前記3Dデータ・セットに記憶するステップと
    をさらに備える、請求項7に記載の方法。
  9. 2次元対象点を3次元ビューにおいて表示するための方法であって、
    請求項1から8のいずれかに記載の方法によって取得された3次元(3D)データ・セットを有する対象点を備える3D画像データベースを提供するステップと、
    前記対象点を前記3Dビューにおいて拡張現実として表示するステップと
    を備える方法。
  10. 調整可能なレンズ(11)と、
    画像センサ(10)と、
    3Dセンサ(12)と、
    絶対測位センサ(13)と、
    表示装置(14)と、
    処理ユニット(15、16、17)と
    を備える、3D画像を取り込むための拡張現実デバイスであって、前記処理ユニット(15、16、17)が、
    2Dデータベースからの画像を、前記画像センサ(10)によって取り込まれた3D画像に一致させ、
    2D画像が前記3D画像に一致するときに、前記3Dセンサ(12)および前記レンズ(11)から前記3D画像の3Dデータを取り込み、
    対象点の2Dデータ・セットを3Dデータ・セットに変換し、
    前記対象点を3Dビューにおいて拡張現実として前記表示装置(14)上に表示するために
    配置されている、拡張現実デバイス。
  11. 拡張現実を提供するためのシステムであって、
    請求項10に記載の拡張現実デバイス(7)と、
    2次元(2D)データ・セットを有する対象点を伴う画像を備える2Dデータベース(8)、および
    3次元(3D)データ・セットを有する対象点を伴う画像を備える3Dデータベース(9)
    を備える拡張現実画像サーバ(6)と
    を備えるシステム。
  12. 調整可能なレンズ(11)と、
    画像センサ(10)と、
    3Dセンサ(12)と、
    絶対測位センサ(13)と、
    表示装置(14)と、
    2次元(2D)データ・セットを有する対象点を伴う画像を備える2Dデータベース(8)と、
    3次元(3D)データ・セットを有する対象点を伴う画像を記憶するための3Dデータベース(9)と、
    処理ユニット(15、16、17)と
    を備える、3D画像を取り込むための拡張現実デバイスであって、前記処理ユニット(15、16、17)が、
    前記2Dデータベース(8)からの画像を、前記画像センサ(10)によって取り込まれた3D画像に一致させ、
    2D画像が前記3D画像に一致するときに、前記3Dセンサ(12)および前記レンズ(11)から前記3D画像の3Dデータを取り込み、
    前記対象点の前記2Dデータ・セットを3Dデータ・セットに変換し、
    前記対象点を3Dビューにおいて拡張現実として前記表示装置(14)上に表示するために
    配置されている、拡張現実デバイス。
JP2017196096A 2016-10-07 2017-10-06 2d対象点の3dマッピングのための方法 Active JP7086559B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
EP16192817.1 2016-10-07
EP16192817 2016-10-07

Publications (2)

Publication Number Publication Date
JP2018077836A true JP2018077836A (ja) 2018-05-17
JP7086559B2 JP7086559B2 (ja) 2022-06-20

Family

ID=57226747

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017196096A Active JP7086559B2 (ja) 2016-10-07 2017-10-06 2d対象点の3dマッピングのための方法

Country Status (5)

Country Link
US (1) US11074448B2 (ja)
EP (1) EP3306572A1 (ja)
JP (1) JP7086559B2 (ja)
KR (1) KR102373910B1 (ja)
CN (1) CN107918954B (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7484929B2 (ja) * 2019-10-28 2024-05-16 ソニーグループ株式会社 情報処理装置、情報処理方法およびプログラム
US11043038B1 (en) 2020-03-16 2021-06-22 Hong Kong Applied Science and Technology Research Institute Company Limited Apparatus and method of three-dimensional interaction for augmented reality remote assistance
CN113538572A (zh) * 2020-04-17 2021-10-22 杭州三坛医疗科技有限公司 一种目标对象的坐标确定方法、装置和设备
CN112183657B (zh) * 2020-10-14 2022-03-01 北京字跳网络技术有限公司 获取标注信息的方法、装置、电子设备和计算机可读介质
CN113436253B (zh) * 2021-06-28 2023-05-16 华科融资租赁有限公司 地图的定位显示方法、装置、计算机设备和存储介质

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004348575A (ja) * 2003-05-23 2004-12-09 Foundation For The Promotion Of Industrial Science 3次元モデル構築システム及び3次元モデル構築プログラム
JP2007226580A (ja) * 2006-02-24 2007-09-06 Advanced Telecommunication Research Institute International 画像出力装置、及び画像出力方法
JP2012123781A (ja) * 2010-11-19 2012-06-28 Canon Inc 情報処理装置、情報処理システム及び情報処理方法
JP2013029350A (ja) * 2011-07-27 2013-02-07 Hitachi Ltd 外観検査方法及びその装置
JP2015228050A (ja) * 2014-05-30 2015-12-17 ソニー株式会社 情報処理装置および情報処理方法

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2533679B1 (en) * 2010-02-12 2017-01-11 Koninklijke Philips N.V. Laser enhanced reconstruction of 3d surface
KR101685980B1 (ko) * 2010-07-30 2016-12-13 엘지전자 주식회사 이동 단말기 및 그 제어방법
US20130328926A1 (en) * 2012-06-08 2013-12-12 Samsung Electronics Co., Ltd Augmented reality arrangement of nearby location information
US9576183B2 (en) * 2012-11-02 2017-02-21 Qualcomm Incorporated Fast initialization for monocular visual SLAM
US9646384B2 (en) * 2013-09-11 2017-05-09 Google Technology Holdings LLC 3D feature descriptors with camera pose information
EP3742405A3 (en) * 2013-09-24 2021-01-13 Apple Inc. Method for representing points of interest in a view of a real environment on a mobile device and mobile device therefor
US9286718B2 (en) * 2013-09-27 2016-03-15 Ortery Technologies, Inc. Method using 3D geometry data for virtual reality image presentation and control in 3D space
TWI605795B (zh) * 2014-08-19 2017-11-21 鈦隼生物科技股份有限公司 判定手術部位中探針位置之方法與系統
US9996936B2 (en) * 2016-05-20 2018-06-12 Qualcomm Incorporated Predictor-corrector based pose detection

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004348575A (ja) * 2003-05-23 2004-12-09 Foundation For The Promotion Of Industrial Science 3次元モデル構築システム及び3次元モデル構築プログラム
JP2007226580A (ja) * 2006-02-24 2007-09-06 Advanced Telecommunication Research Institute International 画像出力装置、及び画像出力方法
JP2012123781A (ja) * 2010-11-19 2012-06-28 Canon Inc 情報処理装置、情報処理システム及び情報処理方法
JP2013029350A (ja) * 2011-07-27 2013-02-07 Hitachi Ltd 外観検査方法及びその装置
JP2015228050A (ja) * 2014-05-30 2015-12-17 ソニー株式会社 情報処理装置および情報処理方法

Also Published As

Publication number Publication date
US11074448B2 (en) 2021-07-27
JP7086559B2 (ja) 2022-06-20
US20180101729A1 (en) 2018-04-12
CN107918954A (zh) 2018-04-17
KR102373910B1 (ko) 2022-03-11
EP3306572A1 (en) 2018-04-11
CN107918954B (zh) 2023-08-04
KR20180038981A (ko) 2018-04-17

Similar Documents

Publication Publication Date Title
JP7086559B2 (ja) 2d対象点の3dマッピングのための方法
US11051000B2 (en) Method for calibrating cameras with non-overlapping views
JP6465789B2 (ja) デプスカメラの内部パラメータを算出するプログラム、装置及び方法
JP6902926B2 (ja) 航空機構築プロセスの改善されたステレオ投影ビデオを生成するためのシステムおよび方法
CN111735439B (zh) 地图构建方法、装置和计算机可读存储介质
Mikhelson et al. Automatic, fast, online calibration between depth and color cameras
US20020094134A1 (en) Method and system for placing three-dimensional models
Tran et al. A Structured Light RGB‐D Camera System for Accurate Depth Measurement
JP7300930B2 (ja) 測量データ処理装置、測量データ処理方法および測量データ処理用プログラム
KR20140062647A (ko) 실내 공간 지도 작성 방법 및 그 장치
JP2017037460A (ja) 加工システム及び加工方法
CN112669392B (zh) 一种应用于室内视频监控系统的地图定位方法及系统
CN114726978A (zh) 信息处理装置、信息处理方法以及程序
KR20140091866A (ko) 증강현실기법을 이용한 시공관리 방법과 이를 실행하기 위한 프로그램이 기록된 기록매체
JP2022027111A (ja) 測定処理装置、方法及びプログラム
Tian et al. A study on three-dimensional vision system for machining setup verification
Ayaz et al. Multiview registration-based handheld 3D profiling system using visual navigation and structured light
Dubreuil et al. Calibration based on part set-up measurement for on-machine inspection using vision
Straube et al. Modelling and calibration of multi-camera-systems for 3D industrial supervision applications
JP2016170495A (ja) 点検支援装置、点検支援装置の制御方法、プログラム及び点検支援システム
CN117173240B (zh) 伺服控制驱动器的ar辅助装配方法、装置、设备及介质
Sánchez et al. Dimensional inspection of manufactured parts with web-based 3D visualization
Becker et al. 3D building reconstruction in a remote sensing workflow
Badshah et al. Vision based tunnel inspection using non-rigid registration
CN112215977A (zh) 过程工业设备巡检数据处理方法、巡检系统、装置和介质

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200817

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210518

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210608

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210908

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220121

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220420

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220510

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220608

R150 Certificate of patent or registration of utility model

Ref document number: 7086559

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150