JP2017058752A - 作業支援方法、作業支援プログラム、及び作業支援システム - Google Patents

作業支援方法、作業支援プログラム、及び作業支援システム Download PDF

Info

Publication number
JP2017058752A
JP2017058752A JP2015180828A JP2015180828A JP2017058752A JP 2017058752 A JP2017058752 A JP 2017058752A JP 2015180828 A JP2015180828 A JP 2015180828A JP 2015180828 A JP2015180828 A JP 2015180828A JP 2017058752 A JP2017058752 A JP 2017058752A
Authority
JP
Japan
Prior art keywords
image
camera
feature point
information
worker
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015180828A
Other languages
English (en)
Other versions
JP6586834B2 (ja
Inventor
山 姜
Sang Jiang
山 姜
桂樹 岡林
Keiju Okabayashi
桂樹 岡林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2015180828A priority Critical patent/JP6586834B2/ja
Priority to US15/262,688 priority patent/US10013795B2/en
Publication of JP2017058752A publication Critical patent/JP2017058752A/ja
Application granted granted Critical
Publication of JP6586834B2 publication Critical patent/JP6586834B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • G06T15/205Image-based rendering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/04Texture mapping
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/003Navigation within 3D models or images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/61Scene description
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2215/00Indexing scheme for image rendering
    • G06T2215/06Curved planar reformation of 3D line structures

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Graphics (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Hardware Design (AREA)
  • Geometry (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Studio Devices (AREA)
  • User Interface Of Digital Computer (AREA)
  • Image Analysis (AREA)

Abstract

【課題】 本発明の課題は、指示者が、撮影された現在の画像の範囲外に位置する対象物を、作業員に指示可能とすることを目的とする。【解決手段】 上記課題は、カメラが撮影した複数の画像から得られる、該カメラの姿勢情報及び該画像の特徴点マップに基づいて、該複数の画像を用いて3次元パノラマ画像を生成して第1の表示部に表示させ、前記3次元パノラマ画像上でなされた対象物の指定に応じて、前記カメラの現在の姿勢情報に基づいて、指定された該対象物の位置情報を第2の表示部に出力させる処理をコンピュータが行う作業支援方法により達成される。【選択図】 図1

Description

本発明は、作業支援方法、作業支援プログラム、及び作業支援システムに関する。
様々な作業現場(例えば、工場やプラントの保守、点検等)において、労働力不足や現場技術者の育成などの課題となる場合がある。このような課題を解決するために、作業員が頭部に装着したHMD(Head Mounted Display)に、遠隔の指示者からの指示を視覚アノテーションで表示する様々な技術が提案されている。
特開2011−159162号公報 特開2012−156930号公報 特開2008−304268号公報 特開2008−124795号公報 特開2010−257123号公報
しかしながら、作業員側から送られてくる画像は、視野範囲が狭く、また、作業員の頭部の動きによって画像が上下左右に揺れる場合がある。そのため、指示を送る側の指示者にとって、作業現場の全貌を把握することが難しいといった問題がある。
したがって、1つの側面では、本発明は、指示者が、撮影された現在の画像の範囲外に位置する対象物を、作業員に指示可能とすることを目的とする。
一態様によれば、カメラが撮影した複数の画像から得られる、該カメラの姿勢情報及び該画像の特徴点マップに基づいて、該複数の画像を重ね合わせて3次元パノラマ画像を生成して第1の表示部に表示させ、前記3次元パノラマ画像上でなされた対象物の指定に応じて、前記カメラの現在の姿勢情報に基づいて、指定された該対象物の位置情報を第2の表示部に出力させる処理をコンピュータが行う作業支援方法が提供される。
また、上記課題を解決するための手段として、上記方法を行う装置、コンピュータに上記処理を実行させるためのプログラム、及び、そのプログラムを記憶した記憶媒体とすることもできる。
指示者が、撮影された現在の画像の範囲外に位置する対象物を、作業員に指示可能とすることができる。
遠隔作業支援の一例を説明するための図である。 遠隔作業支援システムのハードウェア構成を示す図である。 画像フレームに含まれる情報例を示す図である。 カメラ内部パラメータに基づく画像描画オブジェクトの作成について説明するための図である。 3Dパノラマ画像の生成方法について説明するための図である。 頭部の横回転による3Dパノラマ画像の表示例を示す図である。 3Dパノラマ画像上で視野内の対象物が指定された場合を説明するための図である。 3Dパノラマ画像上で視野外の対象物が指定された場合を説明するための図である。 角度差分θdを説明するための図である。 作業員2の移動に追随した指示内容の表示例について説明する図である。 マップ座標系における距離の取得例を示す図である。 誘導表示例を示す図である。 遠隔作業支援システムの機能構成例を示す図である。 3Dパノラマ画像生成処理を説明するための図である。 指示情報作成処理を説明するための図である。 誘導表示制御処理を説明するためのフローチャート図である。
以下、本発明の実施の形態を図面に基づいて説明する。図1は、遠隔作業支援の一例を説明するための図である。図1に示す遠隔作業支援システム1000では、作業現場の新人等の未熟な作業員2が、作業に熟達した熟練者である指示者1からの指示に基づき作業を行う場合を示している。
作業現場に居る作業員2は、作業員端末201と、表示デバイス21dと、カメラ21cとを装着している。作業員端末201は、表示デバイス21dと、カメラ21cの各々とBluetooth(登録商標)等の短距離無線通信により接続可能である。
作業員2のカメラ21cが捕えた2次元(2D)画像を含む画像フレーム2cは、作業員端末201の無線ネットワーク通信機能により、現場の状況として遠隔に居る指示者1の遠隔支援装置101に送信される。
画像フレーム2cと共に、作業員2の音声が送信されてもよい。画像フレーム2cの画像で表される範囲は、視野7dで示される。以下、視野7dとして説明される場合は、最も新しい画像フレーム2cの画像が映し出す範囲を示すものとする。
指示者装置101は、指示者1によって操作される。指示者装置101では、遠隔地の作業員端末201から送信される画像フレーム2cから3D(3次元)パノラマ画像4を生成して表示する。指示者1は、指示者装置101に表示された3Dパノラマ画像4から遠隔地の作業現場の状況を把握する。3Dパノラマ画像4は、画像フレーム2cを受信する毎に更新される。
指示者1が、例えば、3Dパノラマ画像4内において指示したい箇所をクリックする。指示者1がクリックした画像フレーム2c内の位置情報、指示内容2g等を含む指示情報2fが、遠隔支援装置101から作業員2の作業員端末201へと送信される。
作業員2では、作業員端末201が受信した指示情報2fに基づいて、表示デバイス21dに視覚アノテーションで指示内容2gが表示される。
作業員端末201は、スマートデバイス等の情報処理端末であり、種々の通信機能等を有する。表示デバイス21dは、例えば、HMDであり、ウェアラブルな音声の入出力可能な表示装置である。
カメラ21cは、例えば、HMCであり、ウェアラブルなCCD(Charge Coupled Device)等の小型カメラである。
表示デバイス21d及びカメラ21cとは、作業員2の頭部に装着され、短距離無線通信等により作業員端末201と通信可能な装置である。表示デバイス21dとカメラ21cとが一体化したデバイスであってもよい。一方で、表示デバイス21dは、頭部装着可能なデバイスに限定されない。作業員2は、カメラ21cを頭部に装着し、表示デバイス21dは、モバイル端末等であり、作業員2から見える位置で保持されてもよい。
作業現場にて、作業員2のカメラ21cが撮像した現場の環境を示す画像フレーム2cが、作業員端末201から遠隔支援装置101へと送信される。画像フレーム2cは、遠隔支援装置101に表示される。
指示者1は、表示された画像フレーム2c上で指示内容2gを入力すると、指示情報2fが作業員端末201へ送信される。作業員端末201は、指示情報2fを受信すると、指示内容2gを指示情報2fで示される指示位置で表示デバイス21dに表示する。本実施例では、指示位置は、指示情報2fにおいて、後述される角度差分θdで示される。
一方、作業員2と指示者1とは、音声通話が可能であり、作業員端末201と遠隔支援装置101との間で音声ストリーム配信が行われる。
本実施の形態では、カメラ21cで撮像された複数の画像フレーム2cに基づいて、2次元ではなく、3Dパノラマ画像4を作成する。3Dパノラマ画像4を生成することで、作業員2の視線方向のシーンとして描画することができる。
作業員2の視線方向のシーンとして3Dパノラマ画像4が遠隔支援装置101に表示されることで、指示者1は、直感的に作業員2の頭部位置及び視線方向を認識できる。即ち、指示者1は、作業員2の頭部位置から見えるシーンを体感し得るため、より精度良く、対象物7tと作業員2との現実的な距離感を得やすくなる。
また、指示者1が3Dパノラマ画像4内の対象物7tを指定した場合、作業員2の現在の頭部位置及び視線方向に対して、精度良く対象物7tの位置を特定できる。従って、より精度良く、作業員2の表示デバイス21dに指示内容2gを表示させることができる。
図2は、遠隔作業支援システムのハードウェア構成を示す図である。図2に示す遠隔作業支援システム1000において、遠隔支援装置101は、CPU(Central Processing Unit)111と、メモリ112と、HDD(Hard Disk Drive)113と、入力装置114と、表示装置115と、音声入出力装置116と、ネットワーク通信部117と、ドライブ装置118と、を有する。メモリ112及び/又はHDD(Hard Disk Drive)113が記憶部130に相当する。
CPU111は、メモリ112に格納されたプログラムに従って遠隔支援装置101を制御する。メモリ112には、RAM(Random Access Memory)、ROM(Read Only Memory)等が用いられ、CPU111にて実行されるプログラム、CPU111での処理に必要なデータ、CPU111での処理にて得られたデータ等を記憶又は一時保存する。
HDD113は、補助記憶装置として利用され、各種処理を実行するためのプログラム等のデータを格納する。HDD113に格納されているプログラムの一部がメモリ112にロードされ、CPU111に実行されることによって、各種処理が実現される。
入力装置114は、マウス等のポインティングデバイス、キーボード等を有し、指示者1が遠隔支援装置101による処理に必要な各種情報を入力するために用いられる。表示装置115は、CPU111の制御のもとに必要な各種情報を表示する。入力装置114と表示装置115とは、一体化したタッチパネル等によるユーザインタフェースであってもよい。
音声入出力装置116は、音声を入力するマイクロフォン及び音声を出力するスピーカを有する。ネットワーク通信部117は、有線又は無線などのネットワークを通じて通信を行う。ネットワーク通信部117による通信は無線又は有線に限定されるものではない。
遠隔支援装置101によって行われる処理を実現するプログラムは、例えば、CD−ROM(Compact Disc Read-Only Memory)等の記憶媒体119によって遠隔支援装置101に提供される。
ドライブ装置118は、ドライブ装置118にセットされた記憶媒体119(例えば、CD−ROM等)と遠隔支援装置101とのインターフェースを行う。
また、記憶媒体119に、後述される本実施の形態に係る種々の処理を実現するプログラムを格納し、この記憶媒体119に格納されたプログラムは、ドライブ装置118を介して遠隔支援装置101にインストールされる。インストールされたプログラムは、遠隔支援装置101により実行可能となる。
尚、プログラムを格納する記憶媒体119はCD−ROMに限定されず、コンピュータが読み取り可能な、構造(structure)を有する1つ以上の非一時的(non-transitory)な、有形(tangible)な媒体であればよい。コンピュータ読取可能な記憶媒体として、CD−ROMの他に、DVDディスク、USBメモリ等の可搬型記録媒体、フラッシュメモリ等の半導体メモリであっても良い。
作業員2は、作業員端末201と、表示デバイス21dと、カメラ21cとを装備する。作業員端末201は、CPU211と、メモリ212と、RTC(Real Time Clock)213と、IMU(Inertial Measurement Unit)215と、短距離無線通信部216と、ネットワーク通信部217とを有する。
CPU211は、メモリ212に格納されたプログラムに従って作業員端末201を制御する。メモリ212には、RAM(Random Access Memory)、ROM(Read Only Memory)等が用いられ、CPU211にて実行されるプログラム、CPU211での処理に必要なデータ、CPU211での処理にて得られたデータ等を記憶又は一時保存する。メモリ212に格納されているプログラムが、CPU211に実行されることによって、各種処理が実現される。
RTC213は、現在時刻を計測するデバイスである。IMU215は、慣性センサを有し、加速度計測及びジャイロ機能し、作業員2の動きを計測するデバイスであり、作業員2の動きを示す動き情報を出力する。
短距離無線通信部216は、表示デバイス21d及びカメラ21cの各々と短距離無線通信を行う。短距離無線通信は、Bluetooth(登録商標)等であればよい。ネットワーク通信部217は、ネットワークを介して無線通信によって、姿勢情報が付加された画像フレーム2cを遠隔支援装置101へ送信し、また、遠隔支援装置101から指示情報2fを受信する。
表示デバイス21dは、短距離無線通信機能と、音声入出力部とを有する、例えば、メガネ形状の頭部の視線方向に装着可能なウェアラブルタイプの表示装置である。表示デバイス21dは、透過性の表示部を有し、作業員2は肉眼で視線方向の現実の光景を目視できることが望ましい。表示デバイス21dは、作業員端末201から短距離無線通信によって受信した指示情報2fに含まれる指示内容2gを表示する。
カメラ21cは、短距離無線通信機能等を有する。カメラ21cは、作業員2の頭部に装着されることで、作業員2の視線方向の映像を捕えて、短距離無線通信により作業員端末201へ画像を送信する。
作業員端末201では、CPU211が、対応するプログラムを実行することで単眼SLAM(Simultaneous Localization And Mapping)機能を実現する。単眼SLAM機能により、カメラ21cが撮像した画像から、カメラ21cの位置及び姿勢の情報(以下、位置姿勢情報3c(図3)という)と、画像内の特徴点3pの3次元の位置を示す特徴点マップ3m(図3)とが同時に推定される。特徴点マップ3mは、3次元(3D)特徴点マップであり、3次元の実環境を表している。
複数の画像から位置姿勢情報及び特徴点マップ3mとを得ることで、実環境を3次元で表す環境マップの生成が可能となる。単眼SLAM機能によって、世界座標系に基づいて自己の位置を推定する自己位置推定を行う。
図3は、画像フレームに含まれる情報例を示す図である。図3では、カメラ21cが画像2dgを撮像した例を示している。画像2dgは2次元画像であり、単眼SLAM機能により解析することで、複数の特徴点3pが抽出され、複数の特徴点3pによって形成される特徴点マップ3mを得る。各特徴点3pは、3次元座標で示される。また、画像2dg内の座標系からカメラ21cの位置姿勢情報3cを得る。
画像フレーム2cには、画像2dg、特徴点マップ3m、位置姿勢情報3c等が含まれ、遠隔支援装置101に送信される。
次に、遠隔支援装置101で保持される、カメラ21cの内部パラメータ(カメラ内部パラメータという)、及び、フラスタム生成モデルについて説明する。
図4は、カメラ内部パラメータに基づく画像描画オブジェクトの作成について説明するための図である。図4を参照して、カメラ内部パラメータKと、フラスタム生成モデルとについて説明する。
カメラ21cのフラスタム4uは、予め遠隔支援装置101に与えられているものとする。フラスタム4uは、カメラ21cの焦点距離fに基づいて得られる前方面4aと、後方面4bとで定められる。前方面4aは、カメラ21cのスクリーンに相当する。
また、後方面4bまでの距離が予め与えられることにより、前方面4aに対する与えられた距離に応じた後方面4bの範囲を得る。後方面4bに、3次元CG(Computer Graphics)空間で3次元(3D)画像3dg−1が描画される。
カメラ内部パラメータKは、
によって表される行列である。数1において、fは焦点距離を示し、sはスキューを示し、aはアスペクト比を示し、c及びcは光学中心を示す。カメラ内部パラメータKは、キャリブレーションチャートを用いて推定することが一般的であるが、スキューs=0及びアスペクト比a=1とし、c及びcを夫々画像中心としてもよい。
フラスタム4uは、下記数2及び数3によるフラスタム生成モデルによって生成できる。
数2により、カメラ21cの焦点距離fで、アスペクト比aspectratioが算出される。
数3により、カメラ21cの光学中心c及びcと、焦点距離fとで、画角fovyが算出される。
これら求めたアスペクト比aspectratioと、画角fovyとを用いて、カメラ21の3次元グラフィックス用のフラスタム4uを生成し、生成したフラスタム4uに基づいて2次元画像のテクスチャマッピングを行うことによって画像2dgを3D画像3dg−1に変換し、位置姿勢情報3cに基づく3次元空間内の位置及び向きで、3D画像3dg−1を配置して描画する。
図5は、3Dパノラマ画像の生成方法について説明するための図である。図5において、遠隔支援装置101では、作業員端末201から連続して受信した複数の画像フレーム2cの各々で示される、位置姿勢情報3cと複数の3次元の特徴点3pとに基づいて、3D画像3dg−1を時系列に繋ぎ合わせることで、3Dパノラマ画像4を生成する。
3Dパノラマ画像4を生成する際には、各3D画像3dg−1をキーフレームとしてもよいし、連続して受信した複数の3D画像3dg−1を所定間隔でサンプリングしてキーフレームとしてもよい。
図6は、頭部の横回転による3Dパノラマ画像の表示例を示す図である。作業員2が作業現場で頭部を右から左へと横回転させた場合に、図6に示すような3Dパノラマ画像4が、遠隔支援装置101に表示される。
図6中、作業員2を便宜的に示しているが、3Dパノラマ画像4は、遠近感を指示者1に与えるため、指示者1は、あたかも作業員2の位置から周辺を眺めたように距離感を持って、確認することができる。
カメラ21cの焦点距離fを固定とした場合、3Dパノラマ画像4は、ほぼ3次元円柱への投影になる。
本実施例では、指示者1が遠隔支援装置101の表示装置115に表示された3Dパノラマ画像4上で入力装置114を操作して、対象物7tをポインティングすることで、作業員2の表示デバイス21dに精度良く対象物7tに対する位置で指示内容2gを表示する。指示内容2gの表示位置を取得する方法について、対象物7tが視野7d内にある場合と、視野7d外にある場合とで説明する。
図7は、3Dパノラマ画像上で視野内の対象物が指定された場合を説明するための図である。図7(a)では、指示者1が、遠隔支援装置101の表示装置115に表示された3Dパノラマ画像4内の対象物7t−2を指示位置7p−2で、入力装置114によって指定した状態を示している。この例では、現在の作業員2の視野7d−2内に対象物7t−2がある。
対象物7t−2の指定に応じて、3Dグラフィックスの当たり判定で対象物7t−2を特定し、その対象物7t−2を含むキーフレーム7kf−2(3D画像3dg−2)を取得する。図7(b)では、対象物7t−2の特徴点3pを含むキーフレーム7kf−2(3D画像3dg−2)の例を示している。この例では、対象物7t−2が視野7d−2内にあるため、視野7d−2に相当する最新のキーフレーム7kf−2が選択される。
図7(c)及び図7(d)では、取得したキーフレーム7kf−2で得られる3D画像3dg−2で説明する。先ず、3次元空間におけるカメラ21cの位置8p−2から、3D画像3dg−2への視点方向を表すベクトルを基準ベクトル7r−2(図7(c))とする。
そして、カメラ21cの位置8p−2から指示位置7p−2へのターゲットベクトル7v−2と、基準ベクトル7r−2との角度差分θdを計算する。角度差分θdは、作業員2の頭部の回転量を示す。
図7(d)では、視野7d−2(3D画像3dg−2)内に指示位置7p−2がある場合の角度差分θdを示している。この角度差分θdは、指示情報2fに含まれて、作業員端末201へと送信される。
図8は、3Dパノラマ画像上で視野外の対象物が指定された場合を説明するための図である。図8では、作業員2の頭部の位置に変化はなく、頭部の向きに変化があった場合で説明する。
図8(a)では、指示者1が、遠隔支援装置101の表示装置115に表示された3Dパノラマ画像4内の対象物7t−3を指示位置7p−3で、入力装置114によって指定した状態を示している。この例では、現在の作業員2の視野7d−2外に対象物7t−3がある。
対象物7t−3の指定に応じて、3Dグラフィックスの当たり判定で対象物7t−3を特定し、その対象物7t−3を含むキーフレーム7kf−3(3D画像3dg−3)を取得する。図8(b)では、対象物7t−3の特徴点3pを含むキーフレーム7kf−3の例を示している。この例では、視野7d−2に相当するキーフレームとは異なるキーフレーム7kf−3(3D画像3dg−3)が選択される。
図8(c)及び図8(d)では、視野7d−2に相当する3D画像3dg−2と、取得したキーフレーム7kf−3で得られる3D画像3dg−3とで説明する。先ず、3次元空間におけるカメラ21cの位置8p−2から、3D画像3dg−2への視点方向を表すベクトルを基準ベクトル7r−2(図8(c))とする。
そして、カメラ21cの位置8p−2から指示位置7p−3へのベクトル7v−3と、基準ベクトル7r−3との角度差分θdを計算する。
図8(d)では、視野7d−2(3D画像3dg−2)外に指示位置7p−3がある場合の角度差分θdを示している。この角度差分θdは、指示情報2fに含まれて、作業員端末201へと送信される。角度差分θdについて説明する。以下、指示位置7p−2、7p−3等を、単に、指示位置7pとする。
図9は、角度差分θdを説明するための図である。図9において、各画像2dgの特徴点マップ3mをまとめて一つの特徴点マップ3mとして示す。
遠隔支援装置101は、位置姿勢情報3cから得られるカメラ21c(作業員2の頭部)の位置8pとを用いて、ターゲットベクトル7vを算出する。算出したターゲットベクトル7vにより、ターゲットベクトル7vの方向の視点9pを取得する。特徴点マップ3mのマップ座標系3sにおいて、遠隔支援装置101の3Dパノラマ画像4の指示位置7pに相当する視点9pの座標を取得する。
特徴点マップ3mのマップ座標系3sにおいて、ターゲットベクトル7vの角度情報と、位置8pと各特徴点3pへのベクトルの角度情報とを照合する。そして、ターゲットベクトル7vに対して角度情報が類似する複数の特徴点3pのうち、ターゲットベクトル7vの方向の視点9pとの距離が一番近い特徴点3pをアンカー特徴点3paとする。
遠隔支援装置101は、アンカーアンカー特徴点3paと位置8pとを結ぶ直線の、位置8pから画像2dgの中心座標へのベクトル7cに対する角度を角度差分θdとする。指示位置7pは、アンカー特徴点3paと一致する場合もある。そのときの角度差分θdは、ベクトル7vとベクトル7cの角度差で表される。
角度差分θdが作業員端末201に送信されることで、作業員端末201では、特徴点3pの座標及び方向ベクトルに基づいて、比較的容易に対象物7tを特定できる。対象物7tを特定した後は、作業員2の頭部の位置姿勢と連動して、表示デバイス21dに表示するために、スクリーン座標系21s(図10)において指示内容2gの位置を自動的に調整する。即ち、視野7dにおいて対象物7tの位置が変更した場合には、対象物7tの位置の変更に応じて、指示内容2gの位置が調整される。
次に、作業員端末201での、作業員2の移動に応じた指示内容2gの位置調整について説明する。
図10は、作業員2の移動に追随した指示内容の表示例について説明する図である。図10(A)において、作業員2が位置8p−5から位置8p−6へと移動した例を示している。位置8p−5での作業員2の視野7d−5において、対象物7tは、右下にある。
この視野7d−5内で、指示者1により対象物7tが指定されると、上述したように、作業員端末201は、アンカー特徴点3paが特定され、アンカー特徴点3paを含む複数の特徴点3pにより対象物7tを認識する。
作業員端末201は、マップ座標系3sからスクリーン座標系21sの座標変換を行って、対象物7tに対して、指示内容2gを表示する表示位置2h−5を算出する。この例では、対象物7tと対象物7tの周辺の障害物(例えば、視野7d−5の縁)までの距離と、指示内容2gのサイズとを比較することで、対象物7tの周辺で表示余裕のある領域から表示位置2h−5を特定する。図10(B)に示すように、対象物7tの左上方向に指示内容2gが表示される。
図10(C)では、作業員2が移動後の視野7d−6(図10(A))における指示内容2gの表示例を示している。この場合、対象物7tが視野7d−6の中心付近の左寄りに位置する。対象物7tに対して右側に表示余裕があると判断し、指示内容2gが位置2h−6に表示される。
このように、作業員端末201では、指示情報2fの受信時に、アンカー特徴点3paを定め対象物7tを特定することにより、作業員2の頭部の位置の変化に応じて、指示内容2gの位置を更新することができる。従って、精度良く、対象物7tに対して指示内容2gを表示できる。
特徴点マップ3mのマップ座標系3sは、実環境の座標系(即ち、3次元実空間の座標系)を表している。作業員端末201の単眼SLAM機能によりトラッキングされる作業員2の位置と、アンカー特徴点3paとの距離は、図11に示すように表される。
図11は、マップ座標系における距離の取得例を示す図である。図11では、図10(A)の作業員2の移動例で説明する。特徴点マップmのマップ座標系3sを、世界座標系として、各特徴点3pの座標を表すことにより、単眼SLAM機能のトラッキングで特定した位置8p−5及び8p−6は、夫々、マップ座標系3sにおいても、(p5、R5)及び(p6、R6)で示される。
位置8p−5で取得したフレームは、キーフレームkf−5であり、位置8p−6で取得したフレームは、キーフレームkf−6であるとする。位置8p−5のときのキーフレームkf−5でアンカー特徴点3paの座標(pt、Rt)が特定されると、移動後の位置8p−6ときのキーフレームkf−6においても、マップ座標系3sでは、アンカー特徴点3paの座標は変化することがなく、同じ座標(pt、Rt)である。
従って、移動後のフレーム7kf−6に関して、位置8p−5から位置8p−6への移動量と、スクリーン座標系21sとを用いて、表示デバイス21dの視野7d−6におけるアンカー特徴点3paの座標を特定できる。
また、アンカー特徴点3paまでの距離は、マップ座標系3sにおいては、位置8p−5及び8p−6の夫々でD1及びD2を得ることもできる
対象物7tは視野7d−5及び視野7d−6内のいずれかにあるが、次に、現在の視野7d−6から外れた位置の対象物7t−7が指定された場合について説明する。
図9で説明したように、位置姿勢情報3cから位置8p−6の座標(p6、R6)を取得して、位置8p−6から指示位置へのベクトルの角度差分θdに近い角度差分を示す特徴点3pのうち、指示位置との距離が最も短い特徴点3pをアンカー特徴点3pa−7とする。アンカー特徴点3pa−7の座標(pt−7、Rt−7)を得る。
視野7d−6外にアンカー特徴点3pa−7が位置する場合、視野7d−6内の中心点c6からアンカー特徴点3pa−7までの距離d6を算出する。視野7d−6外に位置する対象物7t−7へと誘導する誘導表示9a−6(図12)が、距離d6に応じて行われる。
作業員2は、誘導表示9a−6に誘導され、頭部を角度(θpitch、θyaw)回転する、又は、座標(p7、R7)の位置8p−7へと移動する。回転又は移動により新たなキーフレーム7kf−7が生成される。キーフレーム7kf−7は、視野7d−7に相当する。視野7d−7の中心点c7からアンカー特徴点3pa−7までの距離d7を算出する。距離d7に応じた誘導表示9a−7(図12)が行われる。
図12は、誘導表示例を示す図である。図12(A)では、対象物7t−7まで距離d6の場合の誘導表示例を示している。図12(A)では、対象物7t−7へと作業員2を誘導する誘導アイコン9iが、視野7d−6内において、対象物7t−7に近い右下の領域で、軌跡7q−6を距離D3に応じた速度で動く誘導表示9a−6が行われる。
対象物7t−7に近い領域が、対象物7t−7への方向を示し、速く動くことで表される振動が、対象物7t−7への距離が長いことを表す。作業員2は、対象物7t−7の方向と、対象物7t−7への距離の長さを感覚的に捉えることができる。
作業員2が対象物7t−7の方向へと、頭部を回転、又は、移動の動作を開始する。動作中に、図12(B)のように、誘導表示9a−7が行われる。例えば、頭部の角度(θpitch、θyaw)で、又は、移動した座標(p7、R7)の位置8p−7で、誘導表示9a−7が表示デバイス21dに表示される。
図12(B)に示す誘導表示9a−7では、誘導アイコン9iが、作業員2の位置8p−7からの視野7d−7内において、対象物7t−7に近い右下の領域で、軌跡7q−7を距離d7に応じた速度で動く。
作業員2は対象物7t−7に接近して動くため、距離d7は距離d6より短い。従って、誘導アイコン9iの動く速度は遅くなる。作業員2は、誘導アイコン9iの動きが遅くなることで、対象物7t−7へ接近する方向へと動作していることを確認できる。
図12(A)及び図12(B)において、誘導表示9a−6及び9a−7(以下、単に、誘導表示9aと言う場合がある)を行う位置は、角度差分θdに基づいて決定すればよい。
次に、本実施例における遠隔作業支援システム1000の機能構成例について説明する。図13は、遠隔作業支援システムの機能構成例を示す図である。図13において、遠隔支援装置101は、主に、遠隔支援処理部142を有する。また、作業員端末201は、主に、作業支援処理部270を有する。
遠隔支援装置101の遠隔支援処理部142は、作業員2から見た現場環境を示す3Dパノラマ画像4を生成して表示装置115に表示させ、指示者1が操作する入力装置114から受信した指示位置7pに応じて指示情報2fを作成してネットワーク通信部117により作業員端末201へと送信する。
遠隔支援処理部142は、3Dパノラマ画像生成部143と、指示情報作成部146とを有する。3Dパノラマ画像生成部143と、指示情報作成部146とは、CPU111が対応するプログラムを実行することで実現される。
3Dパノラマ画像生成部143は、ネットワーク通信部117が受信した画像フレーム2cを用いて、フラスタム生成モデルを用いて画像2dgを3次元画像3dg−1に変換し(図4)、特徴点3pに基づいて、複数の3次元画像3dg−1を重ね合わせて、3Dパノラマ画像4を生成する(図4、図5、図6)。生成された3Dパノラマ画像4は、表示装置115に表示される。
指示情報作成部146は、表示装置115に表示された3Dパノラマ画像4上で指示者1が指定した指示位置7pの角度差分θdを取得する。角度差分θdは、(θpitch、θyaw)で示される。θpitchは、作業員2の頭部の上下の角度を示し、θyawは、左右の角度を示す。指示情報作成部146は、角度差分θdと、指示者1が入力した指示内容2gとを含む指示情報2fを作成して、ネットワーク通信部117により、作業員端末201へと送信する(図7、図8)。
作業員端末201の作業支援処理部270は、指示情報解析部271と、誘導表示制御部280と、指示描画部276と、頭部姿勢推定部277と、現場シーン提供部278とを有する。指示情報解析部271と、誘導表示制御部280と、指示描画部276と、頭部姿勢推定部277と、現場シーン提供部278とは、CPU211が対応するプログラムを実行することで実現される。
指示情報解析部271は、ネットワーク通信部217が遠隔支援装置101から受信した指示情報2fを解析する。指示情報2fを解析することによって得られた指示内容2fと、角度差分θdとが誘導表示制御部280に通知される。
誘導表示制御部280は、対象物7tが現在の視野7d内にあるか否かに応じて、指示内容2gの表示又は誘導表示9a−6等(以下、総称して、誘導表示9aとうい)を選択し、表示位置を決定して、指示描画部276に表示させる誘導表示制御を行う(図9、図11、図12)。誘導表示制御部280は、ターゲット姿勢取得部283と、頭部姿勢取得部285と、表示位置決定部287とを有する。
ターゲット姿勢取得部283は、指示情報解析部271から通知される情報の中から対象物7tの角度差分θdを取得して、表示位置決定部287に提供する。また、頭部姿勢取得部285は、頭部姿勢推定部277から通知される情報の中から作業員2の頭部姿勢情報を取得して、表示位置決定部287に提供する。頭部姿勢情報によって、3次元実環境における作業員2の位置座標と、(θpitch、θyaw)で示される姿勢情報とが含まれる。
表示位置決定部287は、対象物7tの角度差分θdと、位置姿勢情報3cとから、3次元実環境における対象物7tの位置座標を算出し(図9)、指示描画部276を制御して、指示内容2gの表示又は誘導表示9aを表示デバイス21dに行わせる。
表示位置決定部287は、算出した3次元実環境における対象物7tの位置座標に基づいて、視野7d内に対象物7tがあるか否かを判断する。対象物7tの位置座標は、位置姿勢情報3cと角度差分θdとを用いて算出される(図11)。また、位置姿勢情報3cに基づいて定められる視野7dの範囲を用いて、対象物7tの位置座標が、視野7d内にあるのか、視野7d外にあるのかを判断する。
視野7d内に対象物7tがある場合(図10)、表示位置決定部287は、対象物7tの位置座標に基づいて指示内容2gを表示する表示位置が表示デバイスの座標系で決定する。そして、指示内容2gと表示位置とが指示描画部276に通知される。
視野7d外に対象物7tがある場合(図12)、表示位置決定部287は、対象物7tの位置座標に基づいて誘導表示9aの表示位置が表示デバイスの座標系で決定する。また、表示位置決定部287は、作業員2の視点位置と対象物7tの位置との距離に応じて、誘導表示9aの誘導アイコン9iの動く速度を決定する。誘導表示9aの表示位置と、誘導アイコン9iの速度とが指示描画部276に通知される。
指示描画部276は、誘導表示制御部280の表示位置決定部287から受信する情報に基づいて、表示デバイス21dへの指示者1からの指示に係る情報を表示する。表示デバイス21dには、指示内容2g、又は、誘導表示9aが表示される。
頭部姿勢推定部277は、単眼SLAM機能を有し、カメラ21cから受信する画像2dgを解析して、カメラ21cの位置姿勢情報3cと、画像2dg内の特徴点3pの3次元の位置を示す特徴点マップ3m(図3)とを同時に推定する。位置姿勢情報3c、特徴点マップ3m等は、メモリ212に記憶される。特徴点マップ3mには、随時、推定した特徴点3pが蓄積される。
カメラ21cによって連続的に撮像される画像2dgから位置姿勢情報3cを取得することにより、作業員2の頭部位置をトラッキングする。頭部姿勢推定部277は、頭部姿勢取得部285へ位置姿勢情報3cを逐次提供する。頭部姿勢取得部285は位置姿勢情報3cを表示位置決定部287に提供する。表示位置決定部287は、作業員2の頭部の位置及び/又は姿勢の変化に応じて、指示内容2gの表示位置又は支援表示9aの位置を更新する。
現場シーン提供部278は、カメラ21cから画像2dgを受信し、頭部姿勢推定部277から位置姿勢情報3c及び特徴点3pを受信して、画像フレーム2cを作成し、ネットワーク通信部217により遠隔支援装置101へと送信する。
次に、遠隔支援装置101における、3Dパノラマ画像生成部143が行う3Dパノラマ画像生成処理と、指示情報作成部146が行う指示情報作成処理とをフローチャートで説明する。
図14は、3Dパノラマ画像生成処理を説明するための図である。図14(A)は、3Dパノラマ画像生成処理を説明するためのフローチャートを示し、図14(B)は、3D画像のオーバレイの一例を示す図である。図14(B)を参照しつつ、図14(A)において、3Dパノラマ画像生成部143による3Dパノラマ画像生成処理について説明する。回転運動を検出する毎に、以下に説明するステップS11〜S15の処理が行われる。
3Dパノラマ画像生成部143は、作業員端末201から画像フレーム2cを受信すると(ステップS21)、画像2dgから特徴点3pを取得し(ステップS22)。前画像2dg(i−1)と、現2dg(i)との夫々で探索エリアを予測し、前2dg(i−1)と、現2dg(i)との間で特徴点3pをマッチングする特徴点マッチング処理を行う(ステップS23)。変数iは自然数(1、2、3、・・・)である。
3Dパノラマ画像生成部143は、ステップS23による画像マッチング結果に基づいて、前画像フレームと現画像フレーム間の姿勢差分を推定して(ステップS24)、特徴点マップ7mを更新する(ステップS25)。
3Dパノラマ画像生成部143は、フラスタム生成モデル(数2及び数3)を用いて、現画像2dg(i)を現3D画像3dg(i)に変換して(ステップS26)、求めた姿勢差分を用いて、前画像2dg(i−1)の前3D画像3dg(i−1)にオーバレイする(ステップS27)。前3D画像3dg(i−1)と重なる現3D画像3dg(i)の全部又は一部が、前3D画像3dg(i−1)上に上書きされ、前画像2dg(i−1)と現3D画像3dg(i)とが合成される。
次に、現場シーン描画部145が、オーバレイした3D画像3dgを表示中の3Dパノラマ画像4上に描画して、3Dパノラマ画像4を更新する(ステップS15)。3Dパノラマ画像生成部143は、次の画像2dg(i)を次の画像フレーム2cから取得するためにステップS21へ戻り、上述した同様の処理を繰り返す。
図14(B)において、時間tの経過の順に、画像2dg−1、2dg−2、2dg−3等の各々が、作業員2の頭部の回転に応じて連続的に撮像された場合を示している。画像2dg−1、2dg−2、2dg−3等の各々は、3D画像3dg−1、3dg−2、3dg−3等に変換される。
そして、3D画像3dg−1の一部が3D画像3dg−2によって上書きされ、3D画像3dg−2の一部が3D画像3dg−3によって上書きされることによって、3Dパノラマ画像4が生成される。
3Dパノラマ画像4の生成時に、3D画像3dg−1、3dg−2、3dg−3等は、対応する画像2dg−1、2dg−2、2dg−3等の画像フレーム2cと関連付けを持たせて、表示装置115に表示させる。そうすることで、指示者1が3Dパノラマ画像4上で指定した指示位置7pに対応する画像フレーム2cを特定できる(図7(b)及び図8(b))。
指示情報作成部146は、図7及び図8で説明したような指示情報作成処理を行う。図15は、指示情報作成処理を説明するための図である。図15において、指示情報作成部146は、入力装置114から指示位置7p及び指示内容2gを受信すると(ステップS51)、指示位置7pから画像フレーム2cを特定する(ステップS52)。
次に、指示情報作成部146は、特徴点マップ3mを参照して、特定した画像フレーム2cの特徴点3pからアンカー特徴点3aを特定して、角度差分θdを算出する(ステップS53:図9)。
指示情報作成部146は、角度差分θdと指示内容2gとを含む指示情報2fを作成して(ステップS54)、作業員端末201へと送信する(ステップS55)。その後、指示情報作成部146は、指示情報作成処理を終了する。
次に、作業員端末201の誘導表示制御部280による誘導表示制御処理(図10、図11、及び図12)について説明する。図16は、誘導表示制御処理を説明するためのフローチャート図である。図16において、誘導表示制御部280において、ターゲット姿勢取得部283は、対象物への角度差分θdを取得し(ステップS71)、頭部姿勢取得部285は、位置姿勢情報3cを取得し(ステップS72)、表示位置決定部287は、角度差分θdと位置姿勢情報3cとから、対象物7tが視野7d内か否かを判断する(ステップS73)。
判断結果が対象物7tが視野7d内の場合(ステップS74のYES)、表示位置決定部287は、対象物7tの周辺の領域で指示内容2gの表示位置を決定し(ステップS75)、指示内容2gと表示位置とを指示描画部276へと通知して、指示内容2gを視野内に描画させる(ステップS76)。指示内容2gの描画後、誘導表示制御部280による誘導表示制御処理は終了する。
一方、判断結果が対象物7tが視野7d外の場合(ステップS74のNO)、表示位置決定部287は、対象物7tの方向に応じた誘導表示9aの位置を決定し(ステップS77)、また、対象物7tまでの距離を算出する(ステップS78)。
表示位置決定部287は、算出した対象物7tまでの距離に応じて、誘導アイコン9iの動く速度を決定する(ステップS79)。そして、表示位置決定部287は、誘導表示9aの位置と誘導アイコン9iの動く速度とを指示描画部276へ通知して、表示デバイス21dに動く誘導アイコン9iを表示させる(ステップS80)。誘導アイコン9iの表示後、誘導表示制御部280による誘導表示制御処理は終了する。
上述したように、本実施例によれば、作業員2の視線方向を直感的に把握可能な作業現場の画像をリアルタイムで提供することができる。また、指示者1は、作業員2の表示デバイス21dが現在撮影している画像の範囲の外に位置する対象物を指示することができる。
指示者1が3Dパノラマ画像3dg上で指定した対象物7tの位置は、作業員2の現在の視線方向に対する角度差分θdで表すため、視野7d内の誘導表示9aの表示位置の決定を容易に、かつ、適切に行なえる。
複数の2次元の画像2dgを特徴点3pに基づいて重ね合わせた2次元のパノラマ画像では、本実施例における角度差分θdを得るのは困難である。角度差分θdを得られる本実施例では、2次元のパノラマ画像上で対象物7pを指定した場合に比べ、作業員2の表示デバイス21dに精度良く、対象物7tの指定、又は、誘導表示9aを行うことができる。
本発明は、具体的に開示された実施例に限定されるものではなく、特許請求の範囲から逸脱することなく、主々の変形や変更が可能である。
以上の実施形態に関し、更に以下の付記を開示する。
(付記1)
カメラが撮影した複数の画像から得られる、該カメラの姿勢情報及び該画像の特徴点マップに基づいて、該複数の画像を重ね合わせて3次元パノラマ画像を生成して第1の表示部に表示させ、
前記3次元パノラマ画像上での対象物の指定に応じて、前記カメラの現在の姿勢情報に基づいて、指定された該対象物の位置情報を第2の表示部に出力させる
処理をコンピュータが行う作業支援方法。
(付記2)
前記姿勢情報は、上下の角度及び左右の角度を示し、
前記コンピュータは、
前記カメラの焦点距離からアスペクト比を算出し、
前記カメラの前記焦点距離と光学中心とで、画角を算出し、
算出した前記アスペクト比と前記画角とを用いて、前記カメラのフラスタムを生成し、
生成した前記フラスタムに基づいて前記画像のテクスチャマッピングを行うことによって、該画像を3次元画像に変換し、
前記姿勢情報で示される向きで前記3次元画像を配置し、前記特徴点マップに基づいて複数の3次元画像を時系列に重ね合わせることで、前記3次元パノラマ画像を生成する
ことを特徴とする付記1記載の作業支援方法。
(付記3)
前記コンピュータは、
前記特徴点マップを参照して、前記3次元パノラマ画像上の前記指定された位置に最も近い特徴点を特定し、
前記カメラの位置から、前記最も近い特徴点へのベクトルと、前記画像の中心へのベクトルとの角度差分を求め、
求めた前記角度差分に基づいて、前記対象物の位置情報の出力を、前記第2の表示部に行わせる
ことを特徴とする付記2記載の作業支援方法。
(付記4)
前記対象物が前記画像の範囲外にある場合、前記第2の表示部に、前記対象物の位置情報に基づいて該対象物までの方向と距離を表す情報を表示させる
ことを特徴とする付記3記載の作業支援方法。
(付記5)
カメラが撮影した複数の画像から得られる、該カメラの姿勢情報および該画像の特徴点マップに基づいて、該複数の画像を重ね合わせて3次元パノラマ画像を生成して第1の表示部に表示させ、
前記3次元パノラマ画像上でなされた対象物の指定に応じて、前記カメラの現在の姿勢情報に基づいて、指示された該対象物の位置に係る情報を第2の表示部に出力させる
処理をコンピュータに実行させる作業支援プログラム。
(付記6)
カメラが撮影した複数の画像から得られる、該カメラの姿勢情報および該画像の特徴点マップに基づいて、該複数の画像を重ね合わせて3次元パノラマ画像を生成して第1の表示部に表示させ、
前記3次元パノラマ画像上でなされた対象物の指定に応じて、前記カメラの現在の姿勢情報に基づいて、指示された該対象物の位置に係る情報を第2の表示部に出力させる
処理をコンピュータに実行させる作業支援システム。
(付記7)
カメラが撮影した画像を含むフレームを受信する通信部と、
前記通信部が受信した前記フレームに含まれる前記カメラの姿勢情報および該画像の特徴点マップに基づいて、前記通信部が受信した複数の画像を重ね合わせて3次元パノラマ画像を生成し、第1の表示部に表示させるパノラマ画像生成部と、
前記第1の表示部に表示させた前記3次元パノラマ画像上でなされた対象物の指定に応じて、前記カメラの現在の姿勢情報に基づいて、指示された該対象物の位置に係る情報を作成し、前記画像の送信元へ送信する情報作成部と、
を有することを特徴とする遠隔支援装置。
(付記8)
カメラが撮影した画像から該カメラの姿勢を推定した姿勢情報と該画像の特徴点マップとを取得する推定部と、
前記画像と、前記姿勢情報と、前記特徴点マップとを含む画像フレームを遠隔装置に送信する画像提供部と、
前記遠隔装置から前記画像提供部が送信したいずれかの画像上で指定された対象物に係る位置情報を受信すると、受信した該位置情報と、前記推定部が取得した前記姿勢情報と、前記特徴点マップとに基づいて該対象物の位置を算出し、算出した該位置へと誘導する誘導情報を表示部に表示させる誘導表示制御部と、
を有することを特徴とする作業員端末。
1 指示者
2 作業員
2c 画像フレーム
2f 指示情報、 2g 指示内容
2dg 画像
3c 位置姿勢情報、 3p 特徴点
3dg 3D画像
21c カメラ、 21d 表示デバイス
101 遠隔支援装置
111 CPU、 112 メモリ
113 HDD、 114 入力装置
115 表示装置、 116 音声入出力装置
117 ネットワーク通信部
118 ドライブ装置、 119 記憶媒体
142 遠隔支援処理部
143 3Dパノラマ画像生成部
146 指示情報作成部
201 作業員端末
211 CPU、 212 メモリ
213 RTC、 215 IMU
216 短距離無線通信部
217 ネットワーク通信部
270 作業支援処理部
271 指示情報解析部、 276 指示描画部
277 頭部姿勢推定部、 278 現場シーン提供部
1000 遠隔作業支援システム

Claims (5)

  1. カメラが撮影した複数の画像から得られる、該カメラの姿勢情報及び該画像の特徴点マップに基づいて、該複数の画像を用いて3次元パノラマ画像を生成して第1の表示部に表示させ、
    前記3次元パノラマ画像上でなされた対象物の指定に応じて、前記カメラの現在の姿勢情報に基づいて、指定された該対象物の位置情報を第2の表示部に出力させる
    処理をコンピュータが行う作業支援方法。
  2. 前記姿勢情報は、上下の角度及び左右の角度を示し、
    前記コンピュータは、
    前記カメラの焦点距離からアスペクト比を算出し、
    前記カメラの前記焦点距離と光学中心とで、画角を算出し、
    算出した前記アスペクト比と前記画角とを用いて、前記カメラのフラスタムを生成し、
    生成した前記フラスタムに基づいて前記画像のテクスチャマッピングを行うことによって、該画像を3次元画像に変換し、
    前記姿勢情報で示される向きで前記3次元画像を配置し、前記特徴点マップに基づいて複数の3次元画像を時系列に重ね合わせることで、前記3次元パノラマ画像を生成する
    ことを特徴とする請求項1記載の作業支援方法。
  3. 前記コンピュータは、
    前記特徴点マップを参照して、前記3次元パノラマ画像上の前記指定された位置に最も近い特徴点を特定し、
    前記カメラの位置から、前記最も近い特徴点へのベクトルと、前記画像の中心へのベクトルとの角度差分を求め、
    求めた前記角度差分に基づいて、前記対象物の位置情報の出力を、前記第2の表示部に行わせる
    ことを特徴とする請求項2記載の作業支援方法。
  4. カメラが撮影した複数の画像から得られる、該カメラの姿勢情報および該画像の特徴点マップに基づいて、該複数の画像を用いて3次元パノラマ画像を生成して第1の表示部に表示させ、
    前記3次元パノラマ画像上でなされた対象物の指定に応じて、前記カメラの現在の姿勢情報に基づいて、指示された該対象物の位置に係る情報を第2の表示部に出力させる
    処理をコンピュータに実行させる作業支援プログラム。
  5. カメラが撮影した複数の画像から得られる、該カメラの姿勢情報および該画像の特徴点マップに基づいて、該複数の画像を用いて3次元パノラマ画像を生成して第1の表示部に表示させ、
    前記3次元パノラマ画像上でなされた対象物の指定に応じて、前記カメラの現在の姿勢情報に基づいて、指示された該対象物の位置に係る情報を第2の表示部に出力させる
    処理をコンピュータに実行させる作業支援システム。
JP2015180828A 2015-09-14 2015-09-14 作業支援方法、作業支援プログラム、及び作業支援システム Expired - Fee Related JP6586834B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2015180828A JP6586834B2 (ja) 2015-09-14 2015-09-14 作業支援方法、作業支援プログラム、及び作業支援システム
US15/262,688 US10013795B2 (en) 2015-09-14 2016-09-12 Operation support method, operation support program, and operation support system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015180828A JP6586834B2 (ja) 2015-09-14 2015-09-14 作業支援方法、作業支援プログラム、及び作業支援システム

Publications (2)

Publication Number Publication Date
JP2017058752A true JP2017058752A (ja) 2017-03-23
JP6586834B2 JP6586834B2 (ja) 2019-10-09

Family

ID=58237036

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015180828A Expired - Fee Related JP6586834B2 (ja) 2015-09-14 2015-09-14 作業支援方法、作業支援プログラム、及び作業支援システム

Country Status (2)

Country Link
US (1) US10013795B2 (ja)
JP (1) JP6586834B2 (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017068689A (ja) * 2015-09-30 2017-04-06 富士通株式会社 視野誘導方法、視野誘導プログラム、及び視野誘導装置
WO2019155840A1 (ja) * 2018-02-07 2019-08-15 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム
JP2020038463A (ja) * 2018-09-03 2020-03-12 エスペック株式会社 試験作業支援システム及びプログラム
WO2021002256A1 (ja) 2019-07-02 2021-01-07 ソニー株式会社 情報処理システム、情報処理方法及びプログラム
JP2021043257A (ja) * 2019-09-06 2021-03-18 富士ゼロックス株式会社 情報処理装置、及び情報処理プログラム

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10140773B2 (en) 2017-02-01 2018-11-27 Accenture Global Solutions Limited Rendering virtual objects in 3D environments
WO2018173205A1 (ja) * 2017-03-23 2018-09-27 株式会社ソニー・インタラクティブエンタテインメント 情報処理システム、その制御方法、及びプログラム
AU2019377829A1 (en) 2018-11-06 2021-05-27 Lucasfilm Entertainment Company Ltd. Immersive content production system
CN111382613B (zh) * 2018-12-28 2024-05-07 中国移动通信集团辽宁有限公司 图像处理方法、装置、设备和介质
CN113519166A (zh) * 2019-03-04 2021-10-19 麦克赛尔株式会社 远程操作指示系统和安装式设备
US11729342B2 (en) * 2020-08-04 2023-08-15 Owl Labs Inc. Designated view within a multi-view composited webcam signal
US11736801B2 (en) 2020-08-24 2023-08-22 Owl Labs Inc. Merging webcam signals from multiple cameras
CN112907671B (zh) * 2021-03-31 2022-08-02 深圳市慧鲤科技有限公司 点云数据生成方法、装置、电子设备及存储介质
US11978154B2 (en) 2021-04-23 2024-05-07 Lucasfilm Entertainment Company Ltd. System and techniques for lighting adjustment for an immersive content production system
US11887251B2 (en) 2021-04-23 2024-01-30 Lucasfilm Entertainment Company Ltd. System and techniques for patch color correction for an immersive content production system
CN113938647B (zh) * 2021-09-13 2023-06-02 杭州大杰智能传动科技有限公司 用于智慧工地的智能塔吊作业全景监控还原方法和系统

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011039611A (ja) * 2009-08-06 2011-02-24 Panasonic Corp 表示画像形成装置及び切出画像表示方法
JP2012080432A (ja) * 2010-10-05 2012-04-19 Sony Computer Entertainment Inc パノラマ画像生成装置およびパノラマ画像生成方法
JP2013164696A (ja) * 2012-02-10 2013-08-22 Sony Corp 画像処理装置、画像処理方法及びプログラム
JP2015159392A (ja) * 2014-02-24 2015-09-03 株式会社オプティム オペレータ端末、携帯端末、指示送信方法、オペレータ端末用プログラム

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4952204B2 (ja) 2006-11-13 2012-06-13 コニカミノルタホールディングス株式会社 遠隔作業支援システム、及びその表示方法
JP5380789B2 (ja) 2007-06-06 2014-01-08 ソニー株式会社 情報処理装置、および情報処理方法、並びにコンピュータ・プログラム
JP5158006B2 (ja) 2009-04-23 2013-03-06 ソニー株式会社 情報処理装置、および情報処理方法、並びにプログラム
JP5728159B2 (ja) 2010-02-02 2015-06-03 ソニー株式会社 画像処理装置、画像処理方法及びプログラム
JP2012156930A (ja) 2011-01-28 2012-08-16 Brother Ind Ltd 頭部装着型遠隔撮像システム、頭部装着撮像装置、撮像方向表示方法
US9128520B2 (en) * 2011-09-30 2015-09-08 Microsoft Technology Licensing, Llc Service provision using personal audio/visual system

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011039611A (ja) * 2009-08-06 2011-02-24 Panasonic Corp 表示画像形成装置及び切出画像表示方法
JP2012080432A (ja) * 2010-10-05 2012-04-19 Sony Computer Entertainment Inc パノラマ画像生成装置およびパノラマ画像生成方法
JP2013164696A (ja) * 2012-02-10 2013-08-22 Sony Corp 画像処理装置、画像処理方法及びプログラム
JP2015159392A (ja) * 2014-02-24 2015-09-03 株式会社オプティム オペレータ端末、携帯端末、指示送信方法、オペレータ端末用プログラム

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
LEILA ALEM, 外2名: ""Remote tele-assistance system for maintenance operators in mines"", [ONLINE], JPN7019001684, 2011, pages 171 - 177, ISSN: 0004093664 *
森島茂貴, 外3名: ""遠隔協調作業支援のためのベルト装着型ProCamシステム"", ヒューマンインタフェース学会研究報告集, vol. 第14巻, 第8号, JPN6019019421, 20 September 2012 (2012-09-20), JP, pages 97 - 102, ISSN: 0004093663 *

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017068689A (ja) * 2015-09-30 2017-04-06 富士通株式会社 視野誘導方法、視野誘導プログラム、及び視野誘導装置
WO2019155840A1 (ja) * 2018-02-07 2019-08-15 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム
US11443540B2 (en) 2018-02-07 2022-09-13 Sony Corporation Information processing apparatus and information processing method
JP2020038463A (ja) * 2018-09-03 2020-03-12 エスペック株式会社 試験作業支援システム及びプログラム
WO2021002256A1 (ja) 2019-07-02 2021-01-07 ソニー株式会社 情報処理システム、情報処理方法及びプログラム
JP2021043257A (ja) * 2019-09-06 2021-03-18 富士ゼロックス株式会社 情報処理装置、及び情報処理プログラム

Also Published As

Publication number Publication date
US10013795B2 (en) 2018-07-03
US20170076491A1 (en) 2017-03-16
JP6586834B2 (ja) 2019-10-09

Similar Documents

Publication Publication Date Title
JP6586834B2 (ja) 作業支援方法、作業支援プログラム、及び作業支援システム
JP6540108B2 (ja) 画像生成方法、システム、装置、及び端末
US11796309B2 (en) Information processing apparatus, information processing method, and recording medium
JP5443134B2 (ja) シースルー・ディスプレイに現実世界の対象物の位置をマークする方法及び装置
CN107402000B (zh) 用于将显示装置相对于测量仪器相互关联的方法和系统
CN109069103B (zh) 超声成像探头定位
JP6329343B2 (ja) 画像処理システム、画像処理装置、画像処理プログラム、および画像処理方法
JP5936155B2 (ja) 3次元ユーザインタフェース装置及び3次元操作方法
US9560274B2 (en) Image generation apparatus and image generation method
US9894272B2 (en) Image generation apparatus and image generation method
US20140267594A1 (en) Image generation apparatus and image generation method
US11443540B2 (en) Information processing apparatus and information processing method
KR101638550B1 (ko) 혼합현실을 이용한 가상현실 시스템 및 그 구현방법
JP2009258884A (ja) ユーザインタフェイス
JP7109395B2 (ja) 作業支援システム、作業支援装置、及び作業支援方法
CN113677412A (zh) 信息处理装置、信息处理方法和程序
WO2022176450A1 (ja) 情報処理装置、情報処理方法、およびプログラム
JP2015184986A (ja) 複合現実感共有装置
JP2022105568A (ja) 3dツアーの比較表示システム及び方法
JP4828395B2 (ja) 三次元地図表示装置
KR20180060403A (ko) 영상 기반의 드론 제어장치
JP2013037476A (ja) 観察装置、観察方法、及び撮像装置
JP6348750B2 (ja) 電子機器、表示方法、プログラム及び通信システム
JP2023021806A (ja) 支援システム、支援側装置、支援方法、およびプログラム
JP2023021808A (ja) 支援システム、支援側装置、支援方法、およびプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180514

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190521

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190604

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190731

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190813

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190826

R150 Certificate of patent or registration of utility model

Ref document number: 6586834

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees