JP2017062748A - 位置合わせ装置、位置合わせ方法および位置合わせプログラム - Google Patents

位置合わせ装置、位置合わせ方法および位置合わせプログラム Download PDF

Info

Publication number
JP2017062748A
JP2017062748A JP2015188898A JP2015188898A JP2017062748A JP 2017062748 A JP2017062748 A JP 2017062748A JP 2015188898 A JP2015188898 A JP 2015188898A JP 2015188898 A JP2015188898 A JP 2015188898A JP 2017062748 A JP2017062748 A JP 2017062748A
Authority
JP
Japan
Prior art keywords
information
dimensional
alignment
dimensional model
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2015188898A
Other languages
English (en)
Inventor
あゆ 烏谷
Ayu Karasuya
あゆ 烏谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2015188898A priority Critical patent/JP2017062748A/ja
Priority to US15/190,850 priority patent/US20170094244A1/en
Publication of JP2017062748A publication Critical patent/JP2017062748A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/122Improving the 3D impression of stereoscopic images by modifying image signal contents, e.g. by filtering or adding monoscopic depth cues
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/75Determining position or orientation of objects or cameras using feature-based methods involving models
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Hardware Design (AREA)
  • Computer Graphics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Length Measuring Devices With Unspecified Measuring Means (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

【課題】少ない演算量で正確な位置合わせを行うこと。【解決手段】画像処理装置100は、予め指定された作業空間に含まれる物体の形状をモデリングした3次元モデルと、前フレームにおいて距離センサから取得した3次元情報を示す第1情報との重なりを判定する。画像処理装置100は、前フレームから現フレームまでの間に移動したカメラの移動量を判定する。画像処理装置100は、3次元モデルと、第1情報と、現フレームにおいて距離センサから取得した3次元情報を示す第2情報との重なりを判定する。画像処理装置100は、各判定結果を基にして、3次元モデルと位置合わせを行う3次元情報の部分集合を選択する。【選択図】図4

Description

本発明は、位置合わせ装置等に関する。
近年、作業者が作業現場で用いる端末装置の画面に、コンピュータグラフィックス(CG)等で付加情報を重畳表示させて、作業支援を行うAR(Augmented Reality)技術が存在する。
図11は、AR技術の一例を示す図である。図11に示すように、例えば、利用者が端末装置10に内蔵されたカメラを用いて、マーカ11および点検対象12を撮影すると、端末装置10の表示画面10aに、マーカ11に対するオブジェクト情報13が表示される。
このAR技術を応用して、作業者がカメラで撮影した撮影画像をその場にいない遠隔支援者に送信し、遠隔支援者は送信された撮影画像を見ながら作業者に作業の指示をする非特許文献1がある。例えば、非特許文献1では、遠隔支援者が、撮影画像に含まれる作業対象にマーカを付与し、マーカが重畳された撮影画像を、作業現場の作業者の端末装置に表示させることで、作業者の作業支援を行う。
例えば、AR技術では、作業空間の3次元モデルと、端末装置の距離センサから取得する3次元情報とを比較して、位置合わせを行うことで、端末装置の位置姿勢等を推定し、付加情報を重畳表示する位置を調整している。位置合わせを行う技術として、非特許文献2、特許文献1等がある。非特許文献2では、3次元モデルの全領域と、3次元情報とを直接比較して、位置合わせを行う。
特許文献1では、初回の位置合わせでは、非特許文献2と同様にして、位置合わせを行い、2回目以降の位置合わせにおいては、前回の3次元情報と今回の3次元情報との重なりから、間接的に、3次元モデルとの位置合わせを行う。
特開2010−279023号公報 特開2004−234349号公報 特開2008−046750号公報
東日本電信電話株式会社、日本電信電話株式会社、"ARサポート機能」に関する実証実験の開始について"[平成27年9月18日検索]、インターネット<URL:https://www.ntt-east.co.jp/release/detail/20131024_01.html> 畠山龍、金井理、伊達宏昭、「レーザースキャン環境モデル内でのデプスカメラによるモンテカルロ自己位置推定」、精密工学会学術講演会講演論文集 2013A(0)、633-634、2013
しかしながら、上述した従来技術では、少ない演算量で正確な位置合わせを行うことができないという問題がある。
例えば、非特許文献2では、3次元モデルの全領域と、距離センサから取得した3次元情報とを直接比較する処理を毎回実行するため、演算量が大きくなる。一方、特許文献1では、非特許文献2と比較して、演算量を削減することができるものの、端末装置の動きが大きくなると、前回の3次元情報と今回の3次元情報との重なりが小さくなり、位置合わせの精度が低下する。
また、非特許文献2、特許文献1では、距離センサから取得する3次元情報に、3次元モデルに存在しない作業者の手の情報等が含まれていると、位置合わせを精度良く実行することができない場合があった。
1つの側面では、本発明は、少ない演算量で正確な位置合わせを行うことができる位置合わせ装置、位置合わせ方法および位置合わせプログラムを提供することを目的とする。
第1の案では、位置合わせ装置は、第1判定部と、第2判定部と、第3判定部と、選択部とを有する。第1判定部は、予め指定された作業空間に含まれる物体の形状をモデリングした3次元モデルと、前フレームにおいて距離センサから取得した3次元情報を示す第1情報との重なりを判定する。第2判定部は、前フレームから現フレームまでの間に移動したカメラの移動量を判定する。第3判定部は、3次元モデルと、第1情報と、現フレームにおいて距離センサから取得した3次元情報を示す第2情報との重なりを判定する。選択部は、第1判定部の判定結果と、第2判定部の判定結果と、第3判定部の判定結果とを基にして、3次元モデルと位置合わせを行う3次元情報の部分集合を選択する。
少ない演算量で正確な位置合わせを行うことができる。
図1は、本実施例に係る遠隔作業支援システムの構成を示す図である。 図2は、重なり部分を説明するための図(1)である。 図3は、重なり部分を説明するための図(2)である。 図4は、本実施例に係る画像処理装置の構成を示す機能ブロック図である。 図5は、3次元モデル情報の一例を示す図である。 図6は、位置合わせ部の処理を説明するための図である。 図7は、表示画面の一例を示す図である。 図8は、本実施例に係る画像処理装置の処理手順を示すフローチャート(1)である。 図9は、本実施例に係る画像処理装置の処理手順を示すフローチャート(2)である。 図10は、位置合わせプログラムを実行するコンピュータの一例を示す図である。 図11は、AR技術の一例を示す図である。
以下に、本願の開示する位置合わせ装置、位置合わせ方法および位置合わせプログラムの実施例を図面に基づいて詳細に説明する。なお、この実施例によりこの発明が限定されるものではない。
図1は、本実施例に係る遠隔作業支援システムの構成を示す図である。図1に示すように、このシステムは、画像処理装置100と、遠隔支援者端末200とを有する。例えば、画像処理装置100および遠隔支援者端末200は、ネットワーク50を介して相互に接続される。画像処理装置100は、位置合わせ装置の一例である。
画像処理装置100は、作業者が作業現場で利用する装置である。画像処理装置100は、カメラで撮影した撮影画像の情報を、遠隔支援者端末200に通知する。また、画像処理装置100は、撮影画像を表示する場合に、作業空間の3次元モデルと、距離センサから取得する3次元情報との位置合わせを行うことで、距離センサ120の位置姿勢を推定し、位置姿勢に応じた付加情報を表示させる。
遠隔支援者端末200は、作業者の作業を支援する支援者が利用する装置である。例えば、遠隔支援者端末200は、画像処理装置100から通知される表示画面を表示することで、支援者は、作業者の作業状況を把握し、各種の支援を実行する。
続いて、画像処理装置100が実行する作業空間の3次元モデルと、距離センサから取得する3次元情報との位置合わせを実行する処理の一例について説明する。以下の説明では、適宜、作業空間の3次元モデルを3次元モデル情報と表記する。
画像処理装置100は、位置合わせを実行する場合に、3次元モデル情報と、3次元情報との重なりの大小を基にして、第1位置合わせ処理、第2位置合わせ処理、第3位置合わせ処理のうち、何れかの位置合わせ処理を選択する。
画像処理装置100は、3次元モデル情報と、前フレームの3次元情報との重なり部分を判定し、重なり部分が第1閾値未満である場合に、第1位置合わせ処理を実行すると判定する。
画像処理装置100は、上記判定において、第1位置合わせ処理を実行しないと判定した場合には、前フレームから現フレームまでのカメラの移動量が、所定移動量以上であるか否かを判定する。画像処理装置100は、前フレームから現フレームまでのカメラの移動量が、所定移動量以上である場合には、第2位置合わせ処理を実行すると判定する。
画像処理装置100は、カメラの移動量が、所定移動量未満であると判定した場合には、3次元モデル情報と、前フレームの3次元情報と、現フレームの3次元情報との重なり部分を判定する。画像処理装置100は、前フレームの3次元情報と、現フレームの3次元情報との重なり部分が、第2閾値未満である場合に、第2位置合わせ処理を実行すると判定する。一方、画像処理装置100は、前フレームの3次元情報と、現フレームの3次元情報との重なり部分が、第2閾値以上である場合には、第3位置合わせ処理を実行すると判定する。
続いて、第1位置合わせ処理、第2位置合わせ処理、第3位置合わせ処理について説明する。第1位置合わせ処理について説明する。画像処理装置100は、現フレームの3次元情報と、3次元モデルとを直接的に比較することで、3次元モデルと3次元情報との位置合わせを実行する。
第2位置合わせ処理について説明する。画像処理装置100は、前フレームの3次元情報および3次元モデルの位置合わせ結果と、カメラの移動量から、現フレームの3次元情報に対応する3次元モデル上の位置を間接的に特定する。そして、画像処理装置100は、間接的に特定した位置を基準として、3次元モデルと、現フレームの3次元情報とを直接的に比較することで、3次元モデルと3次元情報との位置合わせを実行する。
第3位置合わせ処理について説明する。画像処理装置100は、前フレームの3次元情報および3次元モデルの位置合わせ結果と、カメラの移動量から、重なり部分を3次元モデルに投影する。この重なり部分は、3次元モデルと、前フレームの3次元情報と、現フレームの3次元情報とに共通する部分である。画像処理装置100は、重なり部分と、3次元モデルとを比較して、位置合わせを実行する。
画像処理装置100は、上記のように、位置合わせを実行する場合に、3次元モデル情報と、3次元情報との重なりの大小を基にして、第1位置合わせ処理、第2位置合わせ処理、第3位置合わせ処理のうち、何れかの位置合わせ処理を選択する。このため、少ない演算量で、位置合わせを精度良く実行することができる。
ここで、3次元モデルと、前フレームの3次元情報と、現フレームの3次元情報との重なり部分について定義する。図2、3は、重なり部分を説明するための図である。図2に示す例では、3次元モデルを3次元モデルMとし、前フレームの3次元情報を3次元情報Ciとし、現フレームの3次元情報を3次元情報Cjとする。
図3に示すように、本実施例では、各重なり部分を、重なり部分P2,P3,P4,P5,P6,P7に分類する。重なり部分P2は、3次元モデルMおよび3次元情報Ciに含まれ、かつ、3次元情報Cjに含まれない部分を示す。重なり部分P3は、3次元モデルM、3次元情報Ci、3次元情報Cjに共通して含まれる部分を示す。重なり部分P4は、3次元モデルMおよび3次元情報Cjに含まれ、かつ、3次元情報Ciに含まれない部分を示す。
重なり部分P5は、3次元モデルM、3次元情報Cjに含まれず、3次元情報Ciに含まれる部分を示す。重なり部分P6は、3次元モデルMに含まれず、かつ、3次元情報Ciおよび3次元情報Cjに共通して含まれる部分を示す。重なり部分P7は、3次元モデルMおよび3次元情報Ciに含まれず、かつ、3次元情報Cjに含まれる部分を示す。
例えば、3次元情報Ciは、重なり部分P2,P3,P5,P6を組み合わせた領域に対応する。3次元情報Cjは、重なり部分P3,P4,P6,P7を組み合わせた領域に対応する。
次に、本実施例に係る画像処理装置100の構成について説明する。図4は、本実施例に係る画像処理装置の構成を示す機能ブロック図である。図4に示すように、この画像処理装置100は、通信部110と、距離センサ120と、カメラ130と、入力部140と、表示部150と、記憶部160と、制御部170とを有する。例えば、距離センサ120およびカメラ130は、作業者が作業時に着用するヘルメット等に設置されていても良い。
通信部110は、ネットワーク50を介して、遠隔支援者端末200とデータ通信を実行する通信装置である。後述する制御部170は、通信部110を介して、データを送受信する。
距離センサ120は、距離センサ120から、計測範囲に含まれる物体までの3次元距離を計測するセンサである。例えば、距離センサ120は、三角測距方式、タイム・オブ・フライト等に基づいて、3次元距離を計測することで、3次元情報を生成する。距離センサ120は、3次元情報を、制御部170に出力する。
カメラ130は、撮影範囲の画像を撮影する装置である。カメラ130が撮影した撮影画像を、制御部170に出力する。カメラ130は、撮影画像の情報を制御部170に出力する。カメラ130は距離センサ120との相対距離が変化しないように配置されているものとする。例えば、カメラ130および距離センサ120は、作業者が頭部に装着するHMD(Head Mounted Display)に搭載されていても良い。
入力部140は、画像処理装置100に各種の情報を入力する入力装置である。入力部140は、タッチパネルや入力ボタン等の入力装置に対応する。
表示部150は、制御部170から出力される情報を表示する表示装置である。表示部150は、液晶ディスプレイやタッチパネル等に対応する。
記憶部160は、3次元モデル情報161と、3次元取得情報162と、重なり部分情報163とを有する。記憶部160は、例えば、RAM(Random Access Memory)、ROM(Read Only Memory)、フラッシュメモリ(Flash Memory)などの半導体メモリ素子などの記憶装置に対応する。
3次元モデル情報161は、作業空間に含まれる複数の物体の形状をモデリングした情報である。例えば、3次元モデル情報161は、予め設定される世界座標系の原点を基準として、複数の物体を配置し、物体を配置した3次元座標や物体の形状を定義する。図5は、3次元モデル情報の一例を示す図である。図5では、3次元モデル情報161を正面から見たものを示す。
3次元取得情報162は、距離センサ120によって計測された3次元情報をフレーム毎に保持している。
重なり部分情報163は、3次元モデル情報161と、現フレームの3次元情報との重なり部分の情報を有する。ここで、重なり部分を判定した時点における現フレームの3次元情報を3次元情報Cjとし、前フレームの3次元情報を3次元情報Ciとすると、重なり部分情報163には、重なり部分P3および重なり部分P4の情報が含まれる。
図4の説明に戻る。制御部170は、取得部171、第1判定部172、第2判定部173、第3判定部174、選択部175、位置合わせ部176、画面生成部177を有する。制御部170は、例えば、ASIC(Application Specific Integrated Circuit)や、FPGA(Field Programmable Gate Array)などの集積装置に対応する。また、制御部170は、例えば、CPUやMPU(Micro Processing Unit)等の電子回路に対応する。
取得部171は、通信部110または入力部140から3次元モデル情報161を取得する。また、取得部171は、距離センサ120から、3次元情報を取得する。取得部171は、3次元モデル情報161を、記憶部160に格納する。取得部171は、3次元情報を、3次元取得情報162に格納する。
第1判定部172は、3次元モデル情報161と、前フレームの3次元情報との重なり部分を特定し、特定した重なり部分の大きさが第1閾値以上であるか否かを判定する処理部である。第1判定部172は、判定結果を、選択部175に出力する。
例えば、第1判定部172は、重なり部分情報163を読み出して、3次元モデル情報161と、前フレームの3次元情報との重なり部分を特定する。ここで、第1判定部172が判定する時点における現フレームの3次元情報を3次元情報Cjとし、前フレームの3次元情報を3次元情報Ciとすると、重なり部分情報163から読み出される重なり部分は、重なり部分P2および重なり部分P3を組み合わせた重なり部分となる。
なお、第1判定部172は、前フレームの3次元情報の全領域に対する重なり部分(P2+P3)の割合が、例えば、8割以上である場合に、重なり部分(P2+P3)の大きさが第1閾値以上であると判定しても良い。
第2判定部173は、カメラ130の移動量が、所定移動量以上であるか否かを判定する処理部である。第2判定部173は、判定結果を、選択部175に出力する。第2判定部173は、どのようにカメラ130の移動量を算出しても良いが、例えば、前フレームの3次元情報と、現フレームの3次元情報との間で、オプティカルフローを用いて、カメラ130の移動量を算出する。また、第2判定部173は、各3次元情報から特徴点抽出を行い、ホモグラフィを用いて、カメラ130の移動量を推定しても良い。また、第2判定部173は、加速度センサや慣性センサなどを用いて、カメラ130の移動量を推定しても良い。
なお、第2判定部173は、前フレームの3次元情報と、現フレームの3次元情報の重なり部分(P3+P6)を簡易的に算出し、この重なり部分が閾値以上の場合に、カメラの移動量が所定移動量未満であると判定しても良い。
第3判定部174は、3次元モデル情報161と、前フレームの3次元情報と、現フレームの3次元情報との重なり部分を特定する。3次元モデル情報161と、前フレームの3次元情報と、現フレームの3次元情報との重なり部分は、重なり部分P3に対応する。第3判定部174は、重なり部分P3の大きさが第2閾値以上であるか否かを判定し、判定結果を、選択部175に出力する。
選択部175は、第1判定部172の判定結果、第2判定部173の判定結果、第3判定部174の判定結果を取得し、各判定結果を基にして、3次元モデル情報161と位置合わせを行う3次元情報の部分集合を選択する処理部である。選択部175は、選択した結果の情報を、位置合わせ部176に出力する。以下において、選択部175の具体的な処理について説明する。
まず、選択部175は、第1判定部172の判定結果を参照し、3次元モデル情報161と前フレームの3次元情報との重なり部分を判定し、重なり部分が第1閾値未満である場合に、第1位置合わせ処理を実行すると判定する。第1位置合わせ処理では、重なり部分P3およびP4を組み合わせた3次元情報を用いて、位置合わせ処理を実行することになる。
選択部175は、上記判定において、第1位置合わせ処理を実行しないと判定した場合には、第2判定部173の判定結果を参照して判定を行う。具体的に、選択部175は、前フレームから現フレームまでのカメラの移動量が、所定移動量以上であるか否かを判定する。選択部175は、前フレームから現フレームまでのカメラの移動量が、所定移動量以上である場合には、第2位置合わせ処理を実行すると判定する。第2位置合わせ処理では、重なり部分P3およびP4を組み合わせた3次元情報を用いて、位置合わせ処理を実行することになる。
選択部175は、前フレームから現フレームまでのカメラの移動量が、所定移動量未満である場合には、選択部175は、更に、第3判定部174の判定結果を参照して判定を行う。選択部175は、3次元モデル情報161と、前フレームの3次元情報と、現フレームの3次元情報との重なり部分が、第2閾値未満である場合に、第2位置合わせ処理を実行すると判定する。一方、選択部175は、3次元モデル情報と、前フレームの3次元情報と、現フレームの3次元情報との重なり部分が、第2閾値以上である場合には、第3位置合わせを実行すると判定する。第3位置合わせ処理では、重なり部分P3の3次元情報を用いて、位置合わせを実行する。
位置合わせ部176は、選択部175の判定結果を基にして、第1位置合わせ処理、第2位置合わせ処理、第3位置合わせ処理を実行する処理部である。位置合わせ部176は、現フレームの3次元情報の位置合わせ結果を、画面生成部177に出力する。なお、位置合わせ部176は、前フレームの3次元情報が存在しない、最初の位置合わせ処理については、第1位置合わせ処理を実行する。
第1位置合わせ処理について説明する。位置合わせ部176は、3次元モデル情報161と、現フレームの3次元情報とを直接比較して、3次元モデル情報161と3次元情報との位置合わせを簡易的に実行する。例えば、位置合わせ部176は、現フレームの3次元情報と、3次元モデル情報161との位置合わせを、ICP(Iterative Closest Point)を用いて位置合わせする。
位置合わせ部176は、簡易的に位置合わせをした結果を基に、3次元モデル情報161と、現フレームの3次元情報と、前フレームの3次元情報との重なり部分を比較して、重なり部分P3およびP4を特定する。位置合わせ部176は、前フレームの3次元情報の位置合わせ結果を保持しているものとする。
位置合わせ部176は、重なり部分P3およびP4を組み合わせた3次元情報と、3次元モデル情報161とを比較して、重なり部分P3およびP4の位置合わせを実行する。位置合わせ部176は、重なり部分P3およびP4の3次元情報と一致する3次元モデル情報161の領域を特定し、一致した際の位置姿勢を、現フレームの3次元情報の位置であると判定する。
図6は、位置合わせ部の処理を説明するための図である。図6に示す例では、3次元モデル情報161と、前フレームの3次元情報Ciと、現フレームの3次元情報Cjとを示す。位置合わせ部176は、3次元モデル情報161、3次元情報Ci、3次元情報Cjを比較して、重なり部分P3およびP4を特定する。例えば、3次元情報Ciは、3次元モデル情報161の3次元情報161Ci部分に対応させる。3次元情報Cjは、3次元モデル情報161の3次元情報161Cj部分に対応させる。
第2位置合わせ処理について説明する。位置合わせ部176は、前フレームの3次元情報の位置合わせ結果と、カメラの移動量を手がかりに、現フレームの3次元情報の3次元モデル情報161上の位置を、間接的に求めることで、現フレームの3次元情報の位置合わせを行う。
位置合わせ部176は、間接的に求めた位置合わせ結果を基にして、3次元モデル情報161と、現フレームの3次元情報と、前フレームの3次元情報との重なり部分を比較して、重なり部分P3およびP4を特定する。
位置合わせ部176は、重なり部分P3およびP4を組み合わせた3次元情報と、3次元モデル情報161とを比較して、重なり部分P3およびP4の位置合わせを実行する。位置合わせ部176は、重なり部分P3およびP4の3次元情報と一致する3次元モデル情報161の領域を特定し、一致した位置姿勢を、現フレームの3次元情報の位置であると判定する。
第3位置合わせ処理について説明する。位置合わせ部176は、前フレームの3次元情報の位置合わせ結果と、カメラの移動量を手がかりに、現フレームの3次元情報の3次元モデル情報161上の位置を間接的に求めることで、現フレームの3次元情報の位置合わせを行う。
位置合わせ部176は、間接的に求めた位置合わせ結果を基にして、現フレームの3次元情報と、前フレームの位置合わせで求めた3次元モデル情報161と前フレームの3次元情報との重なり部分と、を比較して、重なり部分P3を特定する。
位置合わせ部176は、重なり部分P3の3次元情報と、3次元モデル情報161とを比較して、重なり部分P3の位置合わせを実行する。位置合わせ部176は、重なり部分P3の3次元情報と一致する3次元モデル情報161の領域を特定し、一致した位置姿勢を、現フレームの3次元情報の位置であると判定する。
位置合わせ部176は、上記の第1位置合わせ処理、第2位置合わせ処理、または、第3位置合わせ処理を実行した後に、重なり部分P3および重なり部分P4を再抽出し、抽出した重なり部分P3,P4の情報を、重なり部分情報163に登録する。
図4の説明に戻る。画面生成部177は、位置合わせ部176から取得した現フレームの位置合わせ結果を基にして、表示画面を生成する処理部である。例えば、画面生成部177は、位置合わせ結果から、画像処理装置100の位置姿勢を推定し、撮影画像に付加情報を重畳することで、表示画面を生成する。
図7は、表示画面の一例を示す図である。図7に示す例では、表示画面60には、撮影画像60aと、3次元モデル情報161を正面から見た画面60bとが配置されている。また、撮影画像60aには、付加情報61,62が重畳されている。画面生成部177は、生成した表示画面60の情報を、遠隔支援者端末200に通知する。
次に、本実施例に係る画像処理装置100の処理手順について説明する。図8および図9は、本実施例に係る画像処理装置の処理手順を示すフローチャートである。図8に示すように、画像処理装置100の取得部171は、3次元モデル情報161を取得し(ステップS101)、3次元情報を取得する(ステップS102)。
画像処理装置100の位置合わせ部176は、最初の処理であるか否かを判定する(ステップS103)。位置合わせ部176は、最初の処理である場合には(ステップS103,Yes)、図9のステップS114に移行する。一方、位置合わせ部176は、最初の処理でない場合には(ステップS103,No)、ステップS104に移行する。
画像処理装置100の第1判定部172は、前フレームの3次元情報と、3次元モデル情報161との重なり部分(P2+P3)を重なり部分情報163から読み込む(ステップS104)。第1判定部172は、重なり部分(P2+P3)の大きさが第1閾値以上であるか否かを判定する(ステップS105)。重なり部分(P2+P3)の大きさが第1閾値以上でない場合には(ステップS105,No)、図9のステップS114に移行する。一方、重なり部分(P2+P3)の大きさが第1閾値以上である場合には(ステップS105,Yes)、ステップS106に移行する。
画像処理装置100の第2判定部173は、前フレームの3次元情報と、現フレームの3次元情報とを基にして、カメラの移動量を簡易的に算出する(ステップS106)。第2判定部173は、カメラの移動量が所定移動量未満であるか否かを判定する(ステップS107)。カメラの移動量が所定移動量未満でない場合には(ステップS107,No)、図9のステップS115に移行する。一方、カメラの移動量が所定移動量未満である場合には(ステップS107,Yes)、ステップS108に移行する。
画像処理装置100の第3判定部174は、現フレームの3次元情報を3次元モデル情報161に投影し、重なり部分(P2+P3)と、現フレームの3次元情報との重なり部分(P3)を算出する(ステップS108)。
第3判定部174は、重なり部分(P3)の大きさが第2閾値以上であるか否かを判定する(ステップS109)。重なり部分(P3)の大きさが第2閾値以上でない場合には(ステップS109,No)、図9のステップS115に移行する。一方、重なり部分(P3)の大きさが第2閾値以上である場合には(ステップS109,Yes)、ステップS110に移行する。
画像処理装置100の位置合わせ部176は、前フレームの3次元情報と3次元モデル情報161との位置関係、カメラの移動量に基づいて、重なり部分(P3)を、3次元モデル情報161に位置合わせする(ステップS110)。
位置合わせ部176は、重なり部分(P3+P4)を再度抽出し(ステップS111)、重なり部分(P3+P4)の情報を、重なり部分情報163に格納する(ステップS112)。画像処理装置100の画面生成部177は、表示画面を生成し(ステップS113)、ステップS102に移行する。
図9のステップS114について説明する。位置合わせ部176は、3次元モデル情報161と現フレームの3次元情報とを比較して、3次元情報の位置合わせを行い(ステップS114)、ステップS116に移行する。
図9のステップS115について説明する。位置合わせ部176は、前フレームの3次元情報の位置合わせ結果と、カメラの移動量を手がかりにして、現フレームの3次元情報の3次元モデル情報161上の位置を間接的に求め(ステップS115)、ステップS116に移行する。
位置合わせ部176は、現フレームの3次元情報と3次元モデル情報161との重なり部分(P3+P4)を算出する(ステップS116)。ステップS116において、位置合わせ部176は、重なり部分(P3+P4)と、それ以外の部分(P6+P7)とを分割する。位置合わせ部176は、重なり部分(P3+P4)を、3次元モデル情報161に精密に位置合わせし(ステップS117)、図8のステップS111に移行する。
次に、本実施例に係る画像処理装置100の効果について説明する。画像処理装置100は、3次元モデル情報161と、前フレームの3次元情報と、現フレームの3次元情報との重なり部分の大小を判定し、判定結果を基にして、3次元モデル情報161と位置合わせを行う3次元情報の部分集合を取捨選択する。このため、画像処理装置100によれば、少ない演算量で、正確な位置合わせを行うことができる。
画像処理装置100は、重なり部分(P2+P3)が、第1閾値以上であり、かつ、カメラの移動量が所定移動量未満であり、かつ、重なり部分(P3)が第2閾値以上である場合には、重なり部分(P3)を用いて、位置合わせを行う。このため、3次元情報の全てを用いる場合と比較して、演算量を少なくすることができる。また、前フレームと現フレームとが余り移動しておらず、演算対象の3次元情報量をP3に限定しても、精度を保つことができる。
画像処理装置100は、カメラの移動量が所定移動量以上である場合、または、重なり部分(P3)が第2閾値未満である場合には、重なり部分(P3+P4)を用いて、位置合わせを行う。このため、カメラ移動量が大きめの場合や、重なり部分が少ない場合には、位置合わせを行う重なり部分を大きめに設定することで、精度が低下することを防止できる。また、全ての3次元情報よりも小さい重なり領域(P3+P4)により位置合わせを行うので、演算量を削減することができる。
次に、上記実施例に示した画像処理装置100と同様の機能を実現する位置合わせプログラムを実行するコンピュータの一例について説明する。図10は、位置合わせプログラムを実行するコンピュータの一例を示す図である。
図10に示すように、コンピュータ300は、各種演算処理を実行するCPU301と、ユーザからのデータの入力を受け付ける入力装置302と、ディスプレイ303とを有する。また、コンピュータ300は、記憶媒体からプログラム等を読み取る読み取り装置304と、ネットワークを介して他のコンピュータとの間でデータの授受を行うインターフェース装置305と、カメラ306と、距離センサ307とを有する。また、コンピュータ300は、各種情報を一時記憶するRAM308と、ハードディスク装置309とを有する。そして、各装置301〜309は、バス310に接続される。
ハードディスク装置309は、判定プログラム309a、選択プログラム309bを有する。CPU301は、判定プログラム309a、選択プログラム309bを読み出してRAM308に展開する。
判定プログラム309aは、判定プロセス308aとして機能する。選択プログラム309bは、選択プロセス308bとして機能する。判定プロセス308aの処理は、第1判定部172、第2判定部173、第3判定部174の処理に対応する。選択プロセス308bの処理は、選択部175の処理に対応する。
なお、判定プログラム309a、選択プログラム309bについては、必ずしも最初からハードディスク装置309に記憶させておかなくても良い。例えば、コンピュータ300に挿入されるフレキシブルディスク(FD)、CD−ROM、DVDディスク、光磁気ディスク、ICカードなどの「可搬用の物理媒体」に各プログラムを記憶させておく。そして、コンピュータ300が各プログラム309a,309bを読み出して実行するようにしてもよい。
以上の各実施例を含む実施形態に関し、さらに以下の付記を開示する。
(付記1)予め指定された作業空間に含まれる物体の形状をモデリングした3次元モデルと、前フレームにおいて距離センサから取得した3次元情報を示す第1情報との重なりを判定する第1判定部と、
前フレームから現フレームまでの間に移動したカメラの移動量を判定する第2判定部と、
前記3次元モデルと、前記第1情報と、現フレームにおいて前記距離センサから取得した3次元情報を示す第2情報との重なりを判定する第3判定部と、
前記第1判定部の判定結果と、前記第2判定部の判定結果と、前記第3判定部の判定結果とを基にして、前記3次元モデルと位置合わせを行う3次元情報の部分集合を選択する選択部と
を有することを特徴とする位置合わせ装置。
(付記2)前記選択部は、前記3次元モデルと前記第1情報との重なりが、第1閾値以上であり、かつ、前記カメラの移動量が所定移動量未満であり、かつ、前記3次元モデルと前記第1情報と前記第2情報との重なりが第2閾値以上である場合には、前記3次元モデルと前記第1情報と前記第2情報とが共通して含まれる3次元情報を、前記3次元モデルと位置合わせを行う部分集合として選択することを特徴とする付記1に記載の位置合わせ装置。
(付記3)前記選択部は、前記カメラの移動量が所定移動量以上である場合、または、前記3次元モデルと前記第1情報と前記第2情報との重なりが第2閾値未満である場合には、前記3次元モデルと前記第1情報と前記第2情報とに共通して含まれる3次元情報と、前記3次元モデルおよび前記第2情報に共通して含まれる3次元情報とを、前記3次元モデルと位置合わせを行う部分集合として選択することを特徴とする付記1または2に記載の位置合わせ装置。
(付記4)コンピュータが実行する位置合わせ方法であって、
予め指定された作業空間に含まれる物体の形状をモデリングした3次元モデルと、前フレームにおいて距離センサから取得した3次元情報を示す第1情報との重なりを判定し、
前フレームから現フレームまでの間に移動したカメラの移動量を判定し、
前記3次元モデルと、前記第1情報と、現フレームにおいて前記距離センサから取得した3次元情報を示す第2情報との重なりを判定し、
判定結果を基にして、前記3次元モデルと位置合わせを行う3次元情報の部分集合を選択する
処理を実行することを特徴とする位置合わせ方法。
(付記5)前記選択する処理は、前記3次元モデルと前記第1情報との重なりが、第1閾値以上であり、かつ、前記カメラの移動量が所定移動量未満であり、かつ、前記3次元モデルと前記第1情報と前記第2情報との重なりが第2閾値以上である場合には、前記3次元モデルと前記第1情報と前記第2情報とに共通して含まれる3次元情報を、前記3次元モデルと位置合わせを行う部分集合として選択することを特徴とする付記4に記載の位置合わせ方法。
(付記6)前記選択する処理は、前記カメラの移動量が所定移動量以上である場合、または、前記3次元モデルと前記第1情報と前記第2情報との重なりが第2閾値未満である場合には、前記3次元モデルと前記第1情報と前記第2情報とに共通して含まれる3次元情報と、前記3次元モデルおよび前記第2情報に共通して含まれる3次元情報とを、前記3次元モデルと位置合わせを行う部分集合として選択することを特徴とする付記4または5に記載の位置合わせ方法。
(付記7)コンピュータに、
予め指定された作業空間に含まれる物体の形状をモデリングした3次元モデルと、前フレームにおいて距離センサから取得した3次元情報を示す第1情報との重なりを判定し、
前フレームから現フレームまでの間に移動したカメラの移動量を判定し、
前記3次元モデルと、前記第1情報と、現フレームにおいて前記距離センサから取得した3次元情報を示す第2情報との重なりを判定し、
判定結果を基にして、前記3次元モデルと位置合わせを行う3次元情報の部分集合を選択する
処理を実行させることを特徴とする位置合わせプログラム。
(付記8)前記選択する処理は、前記3次元モデルと前記第1情報との重なりが、第1閾値以上であり、かつ、前記カメラの移動量が所定移動量未満であり、かつ、前記3次元モデルと前記第1情報と前記第2情報との重なりが第2閾値以上である場合には、前記3次元モデルと前記第1情報と前記第2情報とに共通して含まれる3次元情報を、前記3次元モデルと位置合わせを行う部分集合として選択することを特徴とする付記7に記載の位置合わせプログラム。
(付記9)前記選択する処理は、前記カメラの移動量が所定移動量以上である場合、または、前記3次元モデルと前記第1情報と前記第2情報との重なりが第2閾値未満である場合には、前記3次元モデルと前記第1情報と前記第2情報とに共通して含まれる3次元情報と、前記3次元モデルおよび前記第2情報に共通して含まれる3次元情報とを、前記3次元モデルと位置合わせを行う部分集合として選択することを特徴とする付記7または8に記載の位置合わせプログラム。
100 画像処理装置
170 制御部
171 取得部
172 第1判定部
173 第2判定部
174 第3判定部
175 選択部
176 位置合わせ部
177 画面生成部
200 遠隔支援者端末

Claims (5)

  1. 予め指定された作業空間に含まれる物体の形状をモデリングした3次元モデルと、前フレームにおいて距離センサから取得した3次元情報を示す第1情報との重なりを判定する第1判定部と、
    前フレームから現フレームまでの間に移動したカメラの移動量を判定する第2判定部と、
    前記3次元モデルと、前記第1情報と、現フレームにおいて前記距離センサから取得した3次元情報を示す第2情報との重なりを判定する第3判定部と、
    前記第1判定部の判定結果と、前記第2判定部の判定結果と、前記第3判定部の判定結果とを基にして、前記3次元モデルと位置合わせを行う3次元情報の部分集合を選択する選択部と
    を有することを特徴とする位置合わせ装置。
  2. 前記選択部は、前記3次元モデルと前記第1情報との重なりが、第1閾値以上であり、かつ、前記カメラの移動量が所定移動量未満であり、かつ、前記3次元モデルと前記第1情報と前記第2情報との重なりが第2閾値以上である場合には、前記3次元モデルと前記第1情報と前記第2情報とに共通して含まれる3次元情報を、前記3次元モデルと位置合わせを行う部分集合として選択することを特徴とする請求項1に記載の位置合わせ装置。
  3. 前記選択部は、前記カメラの移動量が所定移動量以上である場合、または、前記3次元モデルと前記第1情報と前記第2情報との重なりが第2閾値未満である場合には、前記3次元モデルと前記第1情報と前記第2情報とに共通して含まれる3次元情報と、前記3次元モデルおよび前記第2情報に共通して含まれる3次元情報とを、前記3次元モデルと位置合わせを行う部分集合として選択することを特徴とする請求項1または2に記載の位置合わせ装置。
  4. コンピュータが実行する位置合わせ方法であって、
    予め指定された作業空間に含まれる物体の形状をモデリングした3次元モデルと、前フレームにおいて距離センサから取得した3次元情報を示す第1情報との重なりを判定し、
    前フレームから現フレームまでの間に移動したカメラの移動量を判定し、
    前記3次元モデルと、前記第1情報と、現フレームにおいて前記距離センサから取得した3次元情報を示す第2情報との重なりを判定し、
    判定結果を基にして、前記3次元モデルと位置合わせを行う3次元情報の部分集合を選択する
    処理を実行することを特徴とする位置合わせ方法。
  5. コンピュータに、
    予め指定された作業空間に含まれる物体の形状をモデリングした3次元モデルと、前フレームにおいて距離センサから取得した3次元情報を示す第1情報との重なりを判定し、
    前フレームから現フレームまでの間に移動したカメラの移動量を判定し、
    前記3次元モデルと、前記第1情報と、現フレームにおいて前記距離センサから取得した3次元情報を示す第2情報との重なりを判定し、
    判定結果を基にして、前記3次元モデルと位置合わせを行う3次元情報の部分集合を選択する
    処理を実行させることを特徴とする位置合わせプログラム。
JP2015188898A 2015-09-25 2015-09-25 位置合わせ装置、位置合わせ方法および位置合わせプログラム Pending JP2017062748A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2015188898A JP2017062748A (ja) 2015-09-25 2015-09-25 位置合わせ装置、位置合わせ方法および位置合わせプログラム
US15/190,850 US20170094244A1 (en) 2015-09-25 2016-06-23 Image processing device and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015188898A JP2017062748A (ja) 2015-09-25 2015-09-25 位置合わせ装置、位置合わせ方法および位置合わせプログラム

Publications (1)

Publication Number Publication Date
JP2017062748A true JP2017062748A (ja) 2017-03-30

Family

ID=58407598

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015188898A Pending JP2017062748A (ja) 2015-09-25 2015-09-25 位置合わせ装置、位置合わせ方法および位置合わせプログラム

Country Status (2)

Country Link
US (1) US20170094244A1 (ja)
JP (1) JP2017062748A (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180198983A1 (en) * 2017-01-06 2018-07-12 Olympus Corporation Image pickup apparatus, image pickup system, image pickup method, image pickup program, and display apparatus for image pickup
JP6837893B2 (ja) * 2017-03-31 2021-03-03 住友重機械工業株式会社 故障診断システム
JP7457971B2 (ja) * 2019-03-04 2024-03-29 パナソニックIpマネジメント株式会社 物量算出装置、および、物量算出方法
US10832485B1 (en) * 2019-06-24 2020-11-10 Verizon Patent And Licensing Inc. CAPTCHA authentication via augmented reality

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7126558B1 (en) * 2001-10-19 2006-10-24 Accenture Global Services Gmbh Industrial augmented reality
NO327279B1 (no) * 2007-05-22 2009-06-02 Metaio Gmbh Kamerapositurestimeringsanordning og- fremgangsmate for foroket virkelighetsavbildning
EP2751777B1 (en) * 2011-08-31 2019-08-07 Apple Inc. Method for estimating a camera motion and for determining a three-dimensional model of a real environment

Also Published As

Publication number Publication date
US20170094244A1 (en) 2017-03-30

Similar Documents

Publication Publication Date Title
JP5762892B2 (ja) 情報表示システム、情報表示方法、及び情報表示用プログラム
US20210112181A1 (en) Image processing device, image processing method, and recording medium
JP6586824B2 (ja) 画像処理装置、画像処理方法および画像処理プログラム
US10839544B2 (en) Information processing apparatus, information processing method, and non-transitory computer readable storage medium
JP6338021B2 (ja) 画像処理装置、画像処理方法および画像処理プログラム
CN106020436A (zh) 图像分析装置及图像分析方法
KR101816041B1 (ko) 시스루 스마트 안경 및 그 투시 방법
JP6503906B2 (ja) 画像処理装置、画像処理方法および画像処理プログラム
JP6146094B2 (ja) 情報操作表示システム、表示プログラム、および、表示方法
JP6464938B2 (ja) 画像処理装置、画像処理方法および画像処理プログラム
US9361731B2 (en) Method and apparatus for displaying video on 3D map
JP2017059062A (ja) 情報処理装置、情報処理方法およびプログラム
US10438412B2 (en) Techniques to facilitate accurate real and virtual object positioning in displayed scenes
US10671173B2 (en) Gesture position correctiing method and augmented reality display device
JP2017062748A (ja) 位置合わせ装置、位置合わせ方法および位置合わせプログラム
CN107562189B (zh) 一种基于双目摄像头的空间定位方法及服务设备
JP2018010599A (ja) 情報処理装置、パノラマ画像表示方法、パノラマ画像表示プログラム
JP6062599B1 (ja) 携帯情報装置、寸法測定方法、および寸法測定プログラム
TW201617787A (zh) 手勢創建系統及方法
JP6719945B2 (ja) 情報処理装置、情報処理方法、情報処理システム及びプログラム
TWI664576B (zh) 頭戴式裝置及控制方法
JP2013092888A (ja) データ処理装置
JP2019185475A (ja) 特定プログラム、特定方法及び情報処理装置
KR101837269B1 (ko) 다중 마커 기반의 정합 가이드 방법 및 시스템
JP2017075961A (ja) 携帯情報装置、寸法測定方法、および寸法測定プログラム