JP6586824B2 - 画像処理装置、画像処理方法および画像処理プログラム - Google Patents

画像処理装置、画像処理方法および画像処理プログラム Download PDF

Info

Publication number
JP6586824B2
JP6586824B2 JP2015167814A JP2015167814A JP6586824B2 JP 6586824 B2 JP6586824 B2 JP 6586824B2 JP 2015167814 A JP2015167814 A JP 2015167814A JP 2015167814 A JP2015167814 A JP 2015167814A JP 6586824 B2 JP6586824 B2 JP 6586824B2
Authority
JP
Japan
Prior art keywords
worker
area
distance
dimensional model
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015167814A
Other languages
English (en)
Other versions
JP2017046209A (ja
Inventor
あゆ 烏谷
あゆ 烏谷
山口 伸康
伸康 山口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2015167814A priority Critical patent/JP6586824B2/ja
Priority to EP16185104.3A priority patent/EP3136204B1/en
Priority to US15/243,059 priority patent/US10235118B2/en
Publication of JP2017046209A publication Critical patent/JP2017046209A/ja
Application granted granted Critical
Publication of JP6586824B2 publication Critical patent/JP6586824B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • G06T1/0007Image acquisition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/20Scenes; Scene-specific elements in augmented reality scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/107Static hand or arm
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person

Description

本発明は、画像処理装置等に関する。
近年、作業者が作業現場で用いる端末装置の画面に、コンピュータグラフィックス等で付加情報を重畳表示させて、作業支援を行うAR(Augmented Reality)技術が存在する。
図23は、AR技術の一例を示す図である。図23に示すように、例えば、利用者が携帯端末10に内蔵されたカメラを用いて、マーカ11および点検対象12を撮影すると、携帯端末10の表示画面10aに、マーカ11に対するオブジェクト情報13が重畳される。
このAR技術を応用して、作業者がカメラで撮影した撮影画像をその場にいない遠隔支持者に送信し、遠隔支持者は送信された撮影画像を見ながら作業者に作業の指示をする従来技術1がある。例えば、従来技術1では、遠隔指示者が、撮影画像に含まれる作業対象にマーカを付与し、マーカを付与された撮影画像を、作業現場の作業者の端末装置に表示させることで、作業者の作業支援を行う。
また、手術を行う医師をサポートするべく、患者の患部の3次元モデルに危険範囲の情報を予め設定しておき、医師の手と危険範囲との距離をカメラの撮影画像に重畳して表示する従来技術2が存在する。
特開2009−43242号公報 特開2000−279425号公報 特開2014−174507号公報 特開平11−309269号公報
しかしながら、上述した従来技術では、作業支援者が作業現場の作業者の状況を容易に把握することができないという問題がある。
例えば、従来技術1では、作業者と遠隔支援者とが2次元の撮影画像を共有するものであるため、作業支援者は、作業者と作業対象との距離感等をつかむことが出来ず、作業の状況を把握することができない。
また、従来技術2では、危険範囲と作業者との局所的な距離を把握できても、作業空間全体の作業者の状況を把握できるものではない。
1つの側面では、本発明は、作業支援者が作業現場の作業者の状況を容易に把握することができる画像処理装置、画像処理方法および画像処理プログラムを提供することを目的とする。
第1の案では、画像処理装置は、取得部と、判定部と、画面生成部とを有する。取得部は、予め指定された作業空間に含まれる物体の形状をモデリングした3次元モデルと、作業者側のカメラで撮影された撮影画像と、カメラの撮像位置から作業空間に含まれる物体までの距離を示す距離情報とを取得する。判定部は、3次元モデルと距離情報とを基にして作業者の位置を判定し、3次元モデル内の異なる領域に存在する危険領域のうち、作業者の位置に近い危険領域を判定する。画面生成部は、判定部の判定結果を基にして、危険領域の情報と、撮影画像の情報とを含む表示画面を生成する。
遠隔指示者による現場作業者の状況把握を容易にできる。
図1は、本実施例1に係る遠隔作業支援システムの構成を示す図である。 図2は、本実施例1に係る画像処理装置の構成を示す機能ブロック図である。 図3は、撮影画像と3次元距離情報に基づく画像との一例を示す図である。 図4は、3次元モデル情報、作業範囲情報、危険範囲情報を説明するための図である。 図5は、本実施例1に係る生成部が生成する表示画面の一例を示す図(1)である。 図6は、本実施例1に係る生成部が生成する表示画面の一例を示す図(2)である。 図7は、本実施例1に係る画像処理装置の処理手順を示すフローチャートである。 図8は、表示画面の情報を生成する処理手順を示すフローチャートである。 図9は、作業対象を判定する処理手順を示すフローチャートである。 図10は、危険範囲を判定する処理手順を示すフローチャートである。 図11は、生成部のその他の処理(1)を説明するための図である。 図12は、撮影画像の配置位置を調整する処理を説明するための図である。 図13は、生成部のその他の処理(1)の処理手順を示すフローチャートである。 図14は、生成部のその他の処理(2)を説明するための図である。 図15は、本実施例2に係る生成部が生成する表示画面の一例を示す図(1)である。 図16は、生成部のその他の処理(2)の処理手順を示すフローチャートである。 図17は、生成部のその他の処理(3)を説明するための図である。 図18は、回転量テーブルのデータ構造の一例を示す図である。 図19は、生成部のその他の処理(3)の処理手順を示すフローチャートである。 図20は、本実施例2に係る生成部が生成する表示画面の一例を示す図(2)である。 図21は、その他の回転軸の一例を説明するための図である。 図22は、画像処理プログラムを実行するコンピュータの一例を示す図である。 図23は、AR技術の一例を示す図である。
以下に、本願の開示する画像処理装置、画像処理方法および画像処理プログラムの実施例を図面に基づいて詳細に説明する。なお、この実施例によりこの発明が限定されるものではない。
図1は、本実施例1に係る遠隔作業支援システムの構成を示す図である。図1に示すように、このシステムは、画像処理装置100と、遠隔支援者端末200とを有する。例えば、画像処理装置100および遠隔支援者端末200は、ネットワーク50を介して相互に接続される。
画像処理装置100は、作業者が作業現場で利用する装置である。画像処理装置100は、カメラで撮影した撮影画像の情報を、遠隔支援者端末200に通知する。また、画像処理装置100は、撮影画像の情報を遠隔支援者端末200に送信する際に、作業空間の3次元モデルおよび距離センサの3次元距離情報から、作業者の作業位置を判定する。画像処理装置100は、作業者の作業位置から危険領域または作業領域の方向および距離の情報を含む表示画面を生成し、撮影画像の情報と合わせて遠隔支援者端末200に通知する。
遠隔支援者端末200は、作業者の作業を支援する支援者が利用する装置である。例えば、遠隔支援者端末200は、画像処理装置100から通知される表示画面を表示することで、遠隔支援者は、作業者の作業状況を把握し、各種の支援を実行する。
図2は、本実施例1に係る画像処理装置の構成を示す機能ブロック図である。図2に示すように、この画像処理装置100は、通信部110、距離センサ120、カメラ130、入力部140、表示部150、記憶部160、制御部170を有する。例えば、距離センサ120およびカメラ130は、作業者が作業時に着用するヘルメット等に設置されるものとする。
通信部110は、ネットワーク50を介して、遠隔支援者端末200とデータ通信を実行する通信装置である。後述する制御部170は、通信部110を介して、データを送受信する。
距離センサ120は、距離センサ120から、計測範囲に含まれる物体までの3次元距離を計測するセンサである。例えば、距離センサ120は、三角測距方式、タイム・オブ・フライト等に基づいて、3次元距離を計測する。以下の説明では、距離センサ120が計測した3次元距離の情報を、3次元距離情報と表記する。距離センサ120は、3次元距離情報を制御部170に出力する。
カメラ130は、撮影範囲の画像を撮影する装置である。カメラが撮影した画像を、撮影画像と表記する。カメラ130は、撮影画像の情報を制御部170に出力する。例えば、カメラ130は、作業者が頭部に装着するHMD(Head Mounted Display)に搭載されていても良い。
図3は、撮影画像と3次元距離情報に基づく画像との一例を示す。図3において、画像14は、撮影画像であり、画像15は、3次元距離情報に基づく画像である。この3次元距離情報に基づく画像は、近い部分が明るくなり、遠い部分が暗くなるように表現した。画像14の部分画像14aに着目すると、距離が分かりづらい。これに対して、画像15の部分画像15aに着目すると、色の濃淡によって、距離を把握することができる。
入力部140は、画像処理装置100に各種の情報を入力する入力装置である。入力部140は、タッチパネルや入力ボタン等の入力装置に対応する。
表示部150は、制御部170から出力される情報を表示する表示装置である。表示部150は、液晶ディスプレイやタッチパネル等に対応する。
記憶部160は、3次元モデル情報160aと、作業範囲情報160bと、危険範囲情報160cとを有する。記憶部160は、例えば、RAM(Random Access Memory)、ROM(Read Only Memory)、フラッシュメモリ(Flash Memory)などの半導体メモリ素子などの記憶装置に対応する。
3次元モデル情報160aは、作業空間に含まれる複数の物体の形状をモデリングした情報である。例えば、3次元モデル情報160aは、予め設定される世界座標系の原点を基準として、複数の物体を配置し、物体を配置した3次元座標や物体の形状を定義する。
作業範囲情報160bは、作業空間内で、作業者が作業を行う作業対象を定義した情報である。例えば、作業範囲情報160bは、予め設定される世界座標系の原点を基準として、作業対象を3次元座標で定義される。
危険範囲情報160cは、作業空間内の危険な領域を定義した情報である。例えば、危険範囲情報160bは、予め設定される世界座標系の原点を基準として、危険範囲を3次元座標で定義される。
図4は、3次元モデル情報、作業範囲情報、危険範囲情報を説明するための図である。図4では、3次元モデル情報160aを正面から見たものを示す。図4に示すように、3次元モデル情報160aは、各種の物体の3次元座標、形状が定義されている。作業範囲情報160bに対応する作業対象を、3次元モデル情報160aを用いて示すと、例えば、作業対象61となる。危険範囲情報160cに対応する危険範囲を、3次元モデル情報160aを用いて示すと、例えば、危険範囲62a,62bとなる。
図1の説明に戻る。制御部170は、取得部170aと、判定部170bと、生成部170cと、通知部170dとを有する。生成部170cは、画面生成部の一例である。制御部170は、例えば、ASIC(Application Specific Integrated Circuit)や、FPGA(Field Programmable Gate Array)などの集積装置に対応する。また、制御部170は、例えば、CPUやMPU(Micro Processing Unit)等の電子回路に対応する。
取得部170aは、通信部110または入力部140から3次元モデル情報160a、作業範囲情報160b、危険範囲情報160cを取得する。取得部170aは、取得した3次元モデル情報160a、作業範囲情報160b、危険範囲情報160cを、記憶部160に格納する。
また、取得部170aは、距離センサ120から3次元距離情報を取得し、取得した3次元距離情報を、判定部170bに出力する。取得部170aは、カメラ130から撮影画像を取得し、取得した撮影画像を、生成部170cに出力する。
判定部170bは、3次元距離情報と3次元モデル情報160aとを基にして、作業者の作業位置を判定する処理部である。判定部170bは、作業者の作業位置と、作業範囲情報160bとを基にして、作業位置に近い作業対象を判定する。判定部170bは、作業者の作業位置と、危険範囲情報160cとを基にして、作業位置に近い危険範囲を判定する。判定部170bは、判定結果を、生成部170cに出力する。以下において、判定部170bの処理の一例について説明する。
判定部170bが、作業位置を判定する処理について説明する。判定部170bは、3次元距離情報と、3次元モデル情報160aとを、ICP(Iterative Closest Point)に基づいて、3次元距離情報の各点と、3次元モデル情報160aの各点との位置合わせを行うことで、カメラ130の3次元座標を推定する。カメラ130は、作業者のヘルメットに設置されている場合には、カメラ130の3次元座標は、作業者の頭部の位置に対応する。
また、判定部170bは、3次元距離情報と3次元モデル情報160aとの差分から、作業者の手の領域を抽出する。判定部170bは、作業者の頭部の3次元座標と、抽出した手の領域の3次元座標とを組み合わせることで、作業者の作業位置を判定する。
続いて、判定部170bが、作業位置に近い作業対象を判定する処理について説明する。判定部170bは、3次元距離情報を受け付ける度に、上記手の領域を抽出する処理を繰り返し実行することで、手の進行方向を計算する。判定部170bは、手の進行方向に伸びる直線と、作業範囲情報160bに定義された作業対象の3次元座標とを比較して、直線との距離が最も近い作業対象を判定する。
なお、判定部170bは、手の領域の抽出に失敗した場合や、直線と作業対象との距離が規定距離内でない場合には、作業者の視野中心位置に基づいて、作業対象を判定する。例えば、判定部170bは、3次元距離情報の中心部分に含まれる物体の位置を視野中心位置と仮定する。判定部170bは、視野中心位置に最も近い作業対象を判定する。
続いて、判定部170bが、作業位置に近い危険範囲を判定する処理について説明する。判定部170bは、上記の処理と同様にして、手の進行方向を計算する。判定部170bは、手の進行方向に伸びる直線と、危険範囲情報160cに定義された危険範囲の3次元座標とを比較して、直線との距離が規定距離D1より近い危険範囲を判定する。
また、判定部170bは、現在の手の3次元位置との距離が規定距離D2より近い危険範囲を判定する。判定部170bは、作業者の頭部の3次元座標との距離が規定距離D3より近い危険範囲を判定する。上記の規定距離D1〜D3は、管理者が予め設定しておくものとする。例えば、規定距離D1の値を、規定距離D2の値よりも大きい値とする。また、判定部170bは、手の移動速度に応じて、規定距離D1の値を調整しても良い。例えば、判定部170bは、手の速度が速くなるほど、規定距離D1の値を小さくする。
生成部170cは、判定部170bの判定結果を基にして、遠距離支援者端末200に表示させる表示画面を生成する処理部である。生成部170cは、生成した表示画面の情報を、通知部170dに出力する。
図5は、本実施例1に係る生成部が生成する表示画面の一例を示す図(1)である。図5に示すように、表示画面20には、撮影画像20aと、3次元モデル20bとが配置される。撮影画像20aは、カメラ130の撮影画像に対応し、3次元モデル20bは、3次元モデル情報160aに対応する。
生成部170cは、撮影画像20aにおいて、作業対象までの距離を示す表示コンテンツ21と、危険範囲までの距離を示す表示コンテンツとを表示させる。生成部170cは、危険範囲までの距離を示す表示コンテンツの色を、作業者の手と危険範囲との距離に応じて変化させても良い。例えば、生成部170cは、作業者の手と危険範囲との距離が閾値未満である場合には、表示コンテンツ22の色を赤色で表示する。生成部170cは、作業者の手と危険範囲との距離が閾値以上である場合には黄色で表示する。
生成部170cは、表示コンテンツ21,22が、作業者の手の位置と重ならないように、表示コンテンツ21,22の配置位置を調整する。
生成部170cは、3次元モデル20bにおいて、危険領域を示す表示コンテンツ23,24と、作業者の手の位置を示す表示コンテンツ25と、作業者を示す表示コンテンツ26とを表示させる。また、生成部170cは、危険範囲を所定の色で表示しても良い。また、生成部170cは、撮影画像20aに対応する3次元モデル20bの位置を明示的に示しても良い。図5に示す例では、撮影画像20aが、3次元モデル20bの領域27に対応する撮影画像である旨が示されている。
なお、生成部170cが生成する表示画面は、図5に示した表示画面20に限定されるものではない。図6は、本実施例1に係る生成部が生成する表示画面の一例を示す図(2)である。例えば、表示部170は、3次元モデル20bのうち、撮影画像20aに対応する範囲のみを、表示しても良い。
通知部170dは、生成部170cによって生成された表示画面の情報を、遠隔支援者端末200に送信する処理部である。
次に、本実施例1に係る画像処理装置100の処理手順について説明する。図7は、本実施例1に係る画像処理装置の処理手順を示すフローチャートである。図7に示すように、画像処理装置100の取得部170aは、3次元モデル情報160a、作業範囲情報106b、危険範囲情報160cを取得する(ステップS101)。
取得部170aは、カメラ130から撮影画像を取得し(ステップS102)、距離センサ120から3次元距離情報を取得する(ステップS103)。画像処理装置100の判定部170bは、3次元距離情報と3次元モデル情報160aとを基にして、作業者の作業位置を判定する(ステップS104)。
判定部170bは、作業範囲および危険範囲と、作業者の手との距離を判定する(ステップS105)。画像処理装置100の生成部170cは、表示画面の情報を生成し(ステップS106)、画像処理装置100の通知部170dは、表示画面の情報を、遠隔支援者端末200に通知する(ステップS107)。
画像処理装置100は、処理を終了する場合には(ステップS108,Yes)、処理を終了する。一方、画像処理装置100は、処理を終了しない場合には(ステップS108,No)、ステップS102に移行する。
次に、図7のステップS106に示した表示画面の情報を生成する処理の一例について説明する。図8は、表示画面の情報を生成する処理手順を示すフローチャートである。図8に示すように、画像処理装置100の判定部170bは、作業範囲と、作業者の手との距離から、作業対象を判定する(ステップS201)。
判定部170bは、危険範囲と、作業者の手との距離から、作業者に近い危険範囲を判定する(ステップS202)。画像処理装置100の生成部170cは、作業対象及び危険範囲に基づいて、表示コンテンツを決定する(ステップS203)。
生成部170cは、表示コンテンツの表示位置を決定する(ステップS204)。生成部170cは、表示コンテンツを表示画面の表示位置に配置することで、表示画面の情報を生成する(ステップS205)。
次に、図8のステップS201に示した作業対象を判定する処理の一例について説明する。図9は、作業対象を判定する処理手順を示すフローチャートである。図9に示すように、画像処理装置100の判定部170bは、撮影画像内に手が存在するか否かを判定する(ステップS301)。判定部170bは、撮影画像内に手が存在しない場合には(ステップS301,No)、ステップS304に移行する。
一方、判定部170bは、撮影画像内に手が存在する場合には(ステップS301,Yes)、手の進行方向に一番近い作業対象を抽出する(ステップS302)。判定部170bは、手と作業対象との距離が所定距離以内であるか否かを判定する(ステップS303)。
判定部170bは、手と作業対象との距離が所定距離以内である場合には(ステップS303,Yes)、作業対象を判定する処理を終了する。例えば、ステップS303でYesとなる場合には、ステップS302で抽出した作業対象が、判定結果の作業対象となる。
一方、判定部170bは、手と作業対象との距離が所定距離以内でない場合には(ステップS303,No)、視野中心に一番近い作業対象を抽出する(ステップS304)。例えば、ステップS303でNoとなる場合には、ステップ304で抽出した作業対象が、判定結果の作業対象となる。
次に、図8のステップS202に示した危険範囲を判定する処理の一例について説明する。図10は、危険範囲を判定する処理手順を示すフローチャートである。図10に示すように、画像処理装置100の判定部170bは、撮影画像内に手が存在するか否かを判定する(ステップS401)。判定部170bは、撮影画像内に手が存在しない場合には(ステップS401,No)、ステップS404に移行する。
判定部170bは、撮影画像内に手が存在する場合には(ステップS401,Yes)、手の進行方向から、規定距離内の危険範囲を抽出する(ステップS402)。
判定部170bは、手から規定距離内の危険範囲を抽出する(ステップS403)。判定部170bは、撮影位置から規定距離内の危険範囲を抽出する(ステップS404)。
次に、本実施例1に係る画像処理装置100の効果について説明する。画像処理装置100は、撮影画像の情報を遠隔支援端末200に送信する際に、3次元モデル情報160aおよび3次元距離情報から、作業者の作業位置を判定する。画像処理装置100は、作業者の作業位置から危険領域または作業領域の方向および距離の情報を含む表示画面を生成し、撮影画像の情報と合わせて遠隔支援者端末200に通知する。このため、作業者の位置だけでなく、作業者に影響を与える危険範囲や作業範囲までの距離を表示でき、遠隔支援者は、作業現場の作業者の状況把握を容易に行うことができる。
実施例1に示した画像処理装置100の処理は一例である。本実施例2では、画像処理装置100が実行するその他の処理について説明する。
生成部170cのその他の処理(1)について説明する。生成部170cは、撮影画像と、3次元モデルとを配置して表示画面を生成する場合に、3次元モデル上の作業者の位置に応じて、撮影画像の配置位置を調整する。例えば、生成部170cは、3次元モデル20b上の作業者の横方向の位置と、撮影画像の横方向の位置とが重複するように、撮影画像の位置を調整する。生成部170cは、作業者の位置の代わりに、作業者の視点位置を用いても良い。
図11は、生成部のその他の処理(1)を説明するための図である。図11では一例として、表示画面20A,20Bを示す。表示画面20Aについて説明する。表示画面20Aでは、3次元モデル20bの左側に作業者26が位置しており、撮影画像20aは、領域27aに対応するものである。この場合には、生成部170cは、作業者26の横方向の位置と重複するように、撮影画像20aを表示画面20Aの左側に配置する。
表示画面20Bについて説明する。表示画面20Bでは、3次元モデル20bの右側に作業者26が位置しており、撮影画像20aは、領域27bに対応するものである。この場合には、生成部170cは、作業者26の横方向の位置と重複するように、撮影画像20aを表示画面20Bの右側に配置する。
ここで、生成部170cが、撮影画像の配置位置を調整する処理を具体的に説明する。図12は、撮影画像の配置位置を調整する処理を説明するための図である。図12に示すように、生成部170cは、3次元モデル20bを、左側領域1A、中央領域1B、右側領域1Cに分割する。生成部170cは、作業者の位置が左側領域1Aに含まれる場合には、図11の表示画面20Aに示したように、撮影画像20aを左側に配置する。
生成部170cは、作業者の位置が中央領域1Bに含まれる場合には、撮影画像20aの位置を調整せず、そのままの配置位置とする。生成部170cは、作業者の位置が右側領域1Cに含まれる場合には、図11の表示画面20Bに示したように、撮影画像20aを右側に配置する。
図13は、生成部のその他の処理(1)の処理手順を示すフローチャートである。図13では一例として、作業者の位置を用いて説明を行うが、作業者の位置の代わりに、作業者の視線位置を用いても良い。
図13に示すように、生成部170cは、作業者の位置が3次元モデルの中央領域か否かを判定する(ステップS501)。生成部170cは、作業者の位置が3次元モデルの中央領域である場合には(ステップS501,Yes)、処理を終了する。
生成部170cは、作業者の位置が3次元モデルの中央領域でない場合には(ステップS501,No)、作業者の位置が3次元モデルの左側領域であるか否かを判定する(ステップS502)。生成部170cは、作業者の位置が3次元モデルの左側領域である場合には(ステップS502,Yes)、撮影画面を、表示画面の左側に配置する(ステップS503)。
一方、生成部170cは、作業者の位置が3次元モデルの右側領域である場合には(ステップS502,No)、撮影画面を、表画画面の右側に配置する(ステップS504)。
生成部170cが上記のように表示画面を生成することで、遠隔支援者が、3次元モデル20b上の作業者と、撮影画像とを見る場合における視線移動量を抑えることができる。また、3次元モデル20bに中央領域1Bを設けることで、撮影画像20aの配置位置が頻繁に変更されることを抑止することができる。
次に、生成部170cのその他の処理(2)について説明する。生成部170cは、表示画面に3次元モデルを配置する場合に、3次元モデルの全範囲を表示する代わりに、作業者の位置を基準とする周辺範囲のみを表示しても良い。以下の説明では、作業者の位置を基準とする周辺範囲の領域を、周辺領域と表記する。
生成部170cは、予め設定された大きさの周辺領域を、3次元モデルに設定し、周辺領域に危険範囲または作業範囲が含まれるか否かを判定する。生成部170cは、周辺領域に危険範囲または作業範囲が含まれていない場合には、周辺領域を予め定められた最小表示範囲まで周辺範囲を縮小する。生成部170cは、最小表示範囲によって、3次元モデルを切り出し、表示画面に配置する。
一方、生成部170cは、周辺領域に危険範囲または作業範囲が含まれる場合には、危険範囲または作業範囲が削除されない範囲内で、周辺領域の範囲を縮小して調整する。生成部170cは、調整した周辺領域によって、3次元モデルを切り出し、表示画面に配置する。
図14は、生成部のその他の処理(2)を説明するための図である。図14において、生成部170cは、3次元モデル20bに、作業者26の位置を基準とする周辺領域を設定し、周辺領域の範囲を範囲2Aとする。生成部170cは、範囲2Aに、危険領域62a,62b、作業領域61が含まれるため、危険範囲62a,62b、作業範囲61が削除されない範囲内で、周辺領域の範囲を縮小して調整する。調整後の周辺領域の範囲は、範囲2Cとなる。生成部170cは、3次元モデル20bのうち、範囲2Cの周辺領域を切り出して、表示画面に配置する。
なお、生成部170cは、範囲2Aに、危険領域および作業範囲が含まれていない場合には、周辺領域の範囲を、最小表示範囲2Bまで縮小し、最小表示範囲2Bによって、3次元モデルを切り出し、表示画面に配置する。
図15は、本実施例2に係る生成部が生成する表示画面の一例を示す図(1)である。図15では一例として、表示画面20C,20Dを示す。表示画面20Cでは、撮影画像20aと3次元モデル20bとが配置されている。また、3次元モデル20bとして、作業者26の位置を基準とした、周辺領域の範囲が切り出されている。表示画面20Cの3次元モデル20bには、作業対象61と、危険範囲62a,62bが含まれる。
表示画面20Dでは、撮影画像20aと3次元モデル20bとが配置されている。また、3次元モデル20bとして、作業者26の位置を基準とした、周辺領域の範囲が切り出されている。表示画面20Dの3次元モデル20bには、危険範囲62bが含まれる。
図16は、生成部のその他の処理(2)の処理手順を示すフローチャートである。図16に示すように、生成部170cは、周辺領域の範囲を初期値に設定する(ステップS601)。生成部170cは、周辺領域の範囲に、作業範囲または危険範囲が含まれるか否かを判定する(ステップS602)。
生成部170cは、周辺領域の範囲に、作業範囲または危険範囲が含まれない場合には(ステップS602,No)、周辺領域の範囲を最小表示範囲に縮小して調整する(ステップS603)。
一方、生成部170cは、周辺領域の範囲に、作業範囲または危険範囲が含まれる場合には(ステップS602,Yes)、危険範囲または作業範囲が削除されない範囲内で、周辺領域の範囲を縮小して調整する(ステップS604)。
上記のように、生成部170cが、3次元モデルからの周辺領域の範囲を切り出して表示することで、遠隔支援者が注意すべき範囲を絞り込むことができ、遠隔支援者の負担を軽減させることができる。
ところで、生成部170cは、周辺領域の範囲をどのように調整しても良い。例えば、生成部170cは、周辺領域の初期値を、最小表示範囲とし、周辺領域の境界が、危険領域または作業領域と重なるか否かを判定する。生成部170cは、周辺領域の境界が、危険領域または作業領域と重ならない場合には、周辺領域を、最小表示範囲とする。一方、生成部170cは、周辺領域の境界が、危険領域または作業領域と重なる場合には、危険領域または作業領域を包含するまで周辺領域の範囲を拡張して調整する。
次に、生成部170cのその他の処理(3)について説明する。生成部170cは、作業者の手と、作業対象との距離が閾値未満となった場合に、3次元モデル情報160aを利用して、作業者視点とは異なる視点から作業対象を見た場合の仮想的な画像を生成し、表示画面に配置しても良い。以下の説明では、作業者視点とは異なる視点から作業対象を見た場合の仮想的な画像を、他視点画像と表記する。
図17は、生成部のその他の処理(3)を説明するための図である。生成部170cは、作業者の手26aの位置と、作業対象30との距離が短くなるにつれて、距離センサ120の視点位置を仮想的に回転させて、回転させた仮想的な視点位置からみた場合の他視点画像を生成する。
例えば、生成部170cは、作業者の手26aと作業対象30との距離が第1閾値未満になった場合には、作業者の手26aと作業対象30とを結ぶ直線を軸としてカメラをθ1だけ回転させて、視点位置120bから作業対象30を見た場合の他視点画像を生成する。また、生成部170cは、作業者の手26aと作業対象30との距離が第2閾値未満になった場合には、更に前期軸周りにカメラをθ2だけ回転させて、視点位置120cから作業対象30を見た場合の他視点画像を生成する。
なお、生成部170cは、利用者の手と作業対象との距離に限らず、作業者の手と危険範囲との距離を更に利用して、回転させる角度を判定しても良い。例えば、生成部170cは、回転量テーブルを利用して、回転させる角度を判定する。
図18は、回転量テーブルのデータ構造の一例を示す図である。図18に示すように、この回転量テーブルは、距離d1と、距離d2と、角度θとを対応付ける。距離d1は、作業者の手と危険範囲との距離を示す。距離d2は、作業者の手と作業対象との距離を示す。角度θは、作業者の手26aと作業対象30とを結ぶ軸周りの回転角度を示す。
例えば、生成部170cは、図19に示す処理手順と、回転量テーブルとを基にして、回転させる角度を判定する。図19は、生成部のその他の処理(3)の処理手順を示すフローチャートである。図19に示すように、生成部170cは、危険範囲と手との距離d1が、所定閾値未満であるか否かを判定する(ステップS701)。生成部170cは、危険範囲と手との距離d1が、所定閾値未満である場合には(ステップS701,Yes)、回転量テーブルと距離d1とを基にして、視点回転角度を判定する(ステップS702)。例えば、ステップS702において、距離d1が1cm以下である場合には、回転角度は「90deg」となる。
一方、生成部170cは、危険範囲と手との距離d1が、所定閾値未満でない場合には(ステップS701,No)、作業範囲と手との距離d2が、所定距離未満であるか否かを判定する(ステップS703)。生成部170cは、作業範囲と手との距離d2が、所定距離未満である場合には(ステップS703,Yes)、回転量テーブルと距離d2とを基にして、視点回転角度を判定する(ステップS704)。例えば、ステップS704において、距離d2が30cmである場合には、回転角度は「40deg」となる。
一方、生成部170cは、作業範囲と手との距離d2が、所定距離未満でない場合には(ステップS703,No)、視点回転量を0に設定する(ステップS705)。
なお、生成部170cは、他視点画像をどのように生成しても良い。例えば、生成部170cは、距離センサ120からの3次元距離情報を、図19に基づく処理で決定した回転角度に基づく仮想的な視点位置の3次元距離情報に変換する。そして、生成部170cは、仮想的な視点位置の3次元距離情報と、3次元モデル情報160aとを基にして他視点画像を生成する。生成部170cは、軸周りの回転角度が閾値以上となる場合には、3次元モデル情報160aと、手の画像とを合成して、仮想的な視点位置からみた画像に変換しても良い。
図20は、本実施例2に係る生成部が生成する表示画面の一例を示す図(2)である。図20では一例として、表示画面20E,20Fを示す。表示画面20Eでは、撮影画像20aと3次元モデル20bと、他視点画像20cとが配置されている。例えば、表示画面20Eの他視点画像20cは、軸周りにθ1だけ回転させた場合の、他視点画像である。
表示画面20Fでは、撮影画像20aと3次元モデル20bと、他視点画像20cとが配置されている。例えば、表示画面20Fの他視点画像20cは、軸周りにθ1+θ2だけ回転させた場合の、他視点画像である。
上記処理を実行することで、カメラ130の撮影画像からでは距離感がつかみにくい場合であっても、他視点画像を生成して遠隔支援者に通知することで、遠隔支援者は、作業者と危険範囲との距離、または、作業者と作業範囲との距離を容易に把握できる。
ところで、視点の回転軸は、図17に示したような作業者の手26aと作業対象30とを結ぶ直線以外であっても良い。図21は、その他の回転軸の一例を説明するための図である。図21において、手と作業対象とを結ぶ直線を、直線31とし、カメラ130の視線に対応する直線32とする。直線31と作業対象30との交点で、作業対象30の接平面を平面40とする。平面40上で直線32と直交する直線を直線33とする。ここで、直線32および直線33と直交する平面40上の直線34を回転軸としても良い。なお、平面40は、接平面ではなく、直線31と直交する平面としても良い。
また、生成部170cは、図18に示した回転量テーブルを基にして回転角度を判定していたが、これに限定されるものではない。例えば、生成部170cは、手と作業対象とを結ぶ直線が、作業対象と交わっている点に着目し、着目した点が手によって隠れない角度を、回転角度として判定しても良い。また、生成部170cは、手と作業対象との距離が閾値未満になった場合に、回転角度を一律90度としても良い。
次に、上記実施例に示した画像処理装置100と同様の機能を実現する画像処理プログラムを実行するコンピュータの一例について説明する。図22は、画像処理プログラムを実行するコンピュータの一例を示す図である。
図22に示すように、コンピュータ300は、各種演算処理を実行するCPU301と、ユーザからのデータの入力を受け付ける入力装置302と、ディスプレイ303とを有する。また、コンピュータ300は、記憶媒体からプログラム等を読み取る読み取り装置304と、ネットワークを介して他のコンピュータとの間でデータの授受を行うインターフェース装置305と、カメラ306と、距離センサ307とを有する。また、コンピュータ300は、各種情報を一時記憶するRAM308と、ハードディスク装置309とを有する。そして、各装置301〜309は、バス310に接続される。
ハードディスク装置309は、取得プログラム309a、判定プログラム309b、生成プログラム309cを有する。CPU301は、取得プログラム309a、判定プログラム309b、生成プログラム309cを読み出してRAM308に展開する。
取得プログラム309aは、取得プロセス308aとして機能する。判定プログラム309bは、判定プロセス308bとして機能する。生成プログラム309cは、生成プロセス308aとして機能する。
取得プロセス308aの処理は、取得部170aの処理に対応する。判定プロセス308bの処理は、判定部170bの処理に対応する。判定プロセス308bの処理は、判定部170bの処理に対応する。生成プロセス308cの処理は、生成部170cの処理に対応する。
なお、取得プログラム309a、判定プログラム309b、生成プログラム309cについては、必ずしも最初からハードディスク装置309に記憶させておかなくても良い。例えば、コンピュータ300に挿入されるフレキシブルディスク(FD)、CD−ROM、DVDディスク、光磁気ディスク、ICカードなどの「可搬用の物理媒体」に各プログラムを記憶させておく。そして、コンピュータ300が各プログラム309a〜309dを読み出して実行するようにしてもよい。
ところで、上記実施例1、2では、画像処理装置100が、取得部170a、判定部170b、生成部170c、通知部170dを有する場合について説明したが、これに限定されるものではない。例えば、画像処理装置100の処理の一部を、遠隔支援者端末200が実行し、画像処理装置100および遠隔支援者端末200が協働して、上記の表示画面を生成し、遠隔支援者端末200に表示するようにしても良い。例えば、画像処理装置100が、取得部170aを有し、遠隔支援者端末200が、判定部170b、生成部170cを有しても良い。この場合には、画像処理装置100は、距離センサ120、カメラ130から取得した情報を、遠隔支援者端末200に通知し、遠隔支援者端末200は、通知された情報を用いて、表示画面を生成する。
以上の各実施例を含む実施形態に関し、さらに以下の付記を開示する。
(付記1)予め指定された作業空間に含まれる物体の形状をモデリングした3次元モデルと、作業者側のカメラで撮影された撮影画像と、前記カメラの撮像位置から前記作業空間に含まれる物体までの距離を示す距離情報とを取得する取得部と、
前記3次元モデルと前記距離情報とを基にして前記作業者の位置を判定し、前記3次元モデル内の異なる領域に存在する危険領域のうち、前記作業者の位置に近い危険領域を判定する判定部と、
前記判定部の判定結果を基にして、危険領域の情報と、前記撮影画像の情報とを含む表示画面を生成する画面生成部と
を有することを特徴とする画像処理装置。
(付記2)前記判定部は、前記3次元モデル内に存在する複数の危険領域および複数の作業領域の情報を基にして、前記作業者の位置から前記危険領域までの方向および距離と、前記利用者の位置から前記作業領域までの方向および距離とを判定し、前記画面生成部は、判定結果を前記表示画面に表示することを特徴とする付記1に記載の画像処理装置。
(付記3)前記判定部は、前記3次元モデル上の前記作業者の横方向の位置を判定し、前記画面生成部は、前記撮影画像の横方向の配置領域と、前記横方向の位置とを重複させて、前記3次元モデルと前記撮影画像とを前記表示画面に配置することを特徴とする付記1に記載の画像処理装置。
(付記4)前記判定部は、前記3次元モデル上の前記作業者の位置を含む所定領域を設定し、前記所定領域の境界と前記危険領域または前記作業領域とが重なるか否かを判定し、前記画面生成部は、判定結果を基にして、前記所定領域の境界と前記危険領域または前記作業領域とが重なる場合に、前記所定領域を前記危険領域または前記作業領域を包含するまで拡張し、拡張した所定領域を、前記表示画面に表示することを特徴とする付記2に記載の画像処理装置。
(付記5)前記取得部は、前記作業者のHMD(Head Mounted Display)から前記カメラの撮影画面を取得することを特徴とする付記1に記載の画像処理装置。
(付記6)前記画面生成部は、前記作業者の位置と前記作業領域との距離を基にして、前記カメラの視点位置を仮想的に回転させた他視点位置から前記作業領域を撮影した場合の仮想的な画像を生成し、前記表示画面に配置することを特徴とする付記1に記載の画像処理装置。
(付記7)コンピュータが実行する画像処理方法であって、
予め指定された作業空間に含まれる物体の形状をモデリングした3次元モデルと、作業者側のカメラで撮影された撮影画像と、前記カメラの撮像位置から前記作業空間に含まれる物体までの距離を示す距離情報とを取得し、
前記3次元モデルと前記距離情報とを基にして前記作業者の位置を判定し、前記3次元モデル内の異なる領域に存在する危険領域のうち、前記作業者の位置に近い危険領域を判定し、
判定結果を基にして、危険領域の情報と、前記撮影画像の情報とを含む表示画面を生成する
処理を実行することを特徴とする画像処理方法。
(付記8)前記判定する処理は、前記3次元モデル内に存在する複数の危険領域および複数の作業領域の情報を基にして、前記作業者の位置から前記危険領域までの方向および距離と、前記利用者の位置から前記作業領域までの方向および距離とを判定し、前記生成する処理は、判定結果を前記表示画面に表示することを特徴とする付記7に記載の画像処理方法。
(付記9)前記判定する処理は、前記3次元モデル上の前記作業者の横方向の位置を判定し、前記生成する処理は、前記撮影画像の横方向の配置領域と、前記横方向の位置とを重複させて、前記3次元モデルと前記撮影画像とを前記表示画面に配置することを特徴とする付記7に記載の画像処理方法。
(付記10)前記判定する処理は、前記3次元モデル上の前記作業者の位置を含む所定領域を設定し、前記所定領域の境界と前記危険領域または前記作業領域とが重なるか否かを判定し、前記生成する処理は、判定結果を基にして、前記所定領域の境界と前記危険領域または前記作業領域とが重なる場合に、前記所定領域を前記危険領域または前記作業領域を包含するまで拡張し、拡張した所定領域を、前記表示画面に表示することを特徴とする付記8に記載の画像処理方法。
(付記11)前記取得する処理は、前記作業者のHMD(Head Mounted Display)から前記カメラの撮影画面を取得することを特徴とする付記7に記載の画像処理方法。
(付記12)前記生成する処理は、前記作業者の位置と前記作業領域との距離を基にして、前記カメラの視点位置を仮想的に回転させた他視点位置から前記作業領域を撮影した場合の仮想的な画像を生成し、前記表示画面に配置することを特徴とする付記7に記載の画像処理方法。
(付記13)コンピュータに、
予め指定された作業空間に含まれる物体の形状をモデリングした3次元モデルと、作業者側のカメラで撮影された撮影画像と、前記カメラの撮像位置から前記作業空間に含まれる物体までの距離を示す距離情報とを取得し、
前記3次元モデルと前記距離情報とを基にして前記作業者の位置を判定し、前記3次元モデル内の異なる領域に存在する危険領域のうち、前記作業者の位置に近い危険領域を判定し、
判定結果を基にして、危険領域の情報と、前記撮影画像の情報とを含む表示画面を生成する
処理を実行させることを特徴とする画像処理プログラム。
(付記14)前記判定する処理は、前記3次元モデル内に存在する複数の危険領域および複数の作業領域の情報を基にして、前記作業者の位置から前記危険領域までの方向および距離と、前記利用者の位置から前記作業領域までの方向および距離とを判定し、前記生成する処理は、判定結果を前記表示画面に表示することを特徴とする付記13に記載の画像処理プログラム。
(付記15)前記判定する処理は、前記3次元モデル上の前記作業者の横方向の位置を判定し、前記生成する処理は、前記撮影画像の横方向の配置領域と、前記横方向の位置とを重複させて、前記3次元モデルと前記撮影画像とを前記表示画面に配置することを特徴とする付記13に記載の画像処理プログラム。
(付記16)前記判定する処理は、前記3次元モデル上の前記作業者の位置を含む所定領域を設定し、前記所定領域の境界と前記危険領域または前記作業領域とが重なるか否かを判定し、前記生成する処理は、判定結果を基にして、前記所定領域の境界と前記危険領域または前記作業領域とが重なる場合に、前記所定領域を前記危険領域または前記作業領域を包含するまで拡張し、拡張した所定領域を、前記表示画面に表示することを特徴とする付記14に記載の画像処理プログラム。
(付記17)前記取得する処理は、前記作業者のHMD(Head Mounted Display)から前記カメラの撮影画面を取得することを特徴とする付記13に記載の画像処理プログラム。
(付記18)前記生成する処理は、前記作業者の位置と前記作業領域との距離を基にして、前記カメラの視点位置を仮想的に回転させた他視点位置から前記作業領域を撮影した場合の仮想的な画像を生成し、前記表示画面に配置することを特徴とする付記13に記載の画像処理プログラム。
100 画像処理装置
170a 取得部
170b 判定部
170c 生成部
170d 通知部
200 遠隔支援者端末

Claims (8)

  1. 予め指定された作業空間に含まれる物体の形状をモデリングした3次元モデルと、作業者側のカメラで撮影された撮影画像と、前記カメラの撮像位置から前記作業空間に含まれる物体までの距離を示す距離情報とを取得する取得部と、
    前記3次元モデルと前記距離情報とを基にして前記作業者の位置を判定し、前記3次元モデル内の異なる領域に存在する危険領域のうち、前記作業者の位置に近い危険領域を判定する判定部と、
    前記判定部の判定結果を基にして、危険領域の情報と、前記撮影画像の情報とを含む表示画面を生成する画面生成部と
    を有することを特徴とする画像処理装置。
  2. 前記判定部は、前記3次元モデル内に存在する複数の危険領域および複数の作業領域の情報を基にして、前記作業者の位置から前記危険領域までの方向および距離と、前記作業者の位置から前記作業領域までの方向および距離とを判定し、前記画面生成部は、判定結果を前記表示画面に表示することを特徴とする請求項1に記載の画像処理装置。
  3. 前記判定部は、前記3次元モデル上の前記作業者の横方向の位置を判定し、前記画面生成部は、前記撮影画像の横方向の配置領域と、前記横方向の位置とを重複させて、前記3次元モデルと前記撮影画像とを前記表示画面に配置することを特徴とする請求項1に記載の画像処理装置。
  4. 前記判定部は、前記3次元モデル上の前記作業者の位置を含む所定領域を設定し、前記所定領域の境界と前記危険領域または前記作業領域とが重なるか否かを判定し、前記画面生成部は、判定結果を基にして、前記所定領域の境界と前記危険領域または前記作業領域とが重なる場合に、前記所定領域を前記危険領域または前記作業領域を包含するまで拡張し、拡張した所定領域を、前記表示画面に表示することを特徴とする請求項2に記載の画像処理装置。
  5. 前記取得部は、前記作業者のHMD(Head Mounted Display)から前記カメラの撮影画面を取得することを特徴とする請求項1に記載の画像処理装置。
  6. 前記画面生成部は、前記作業者の位置と前記作業領域との距離を基にして、前記カメラの視点位置を仮想的に回転させた他視点位置から前記作業領域を撮影した場合の仮想的な画像を生成し、前記表示画面に配置することを特徴とする請求項に記載の画像処理装置。
  7. コンピュータが実行する画像処理方法であって、
    予め指定された作業空間に含まれる物体の形状をモデリングした3次元モデルと、作業者側のカメラで撮影された撮影画像と、前記カメラの撮像位置から前記作業空間に含まれる物体までの距離を示す距離情報とを取得し、
    前記3次元モデルと前記距離情報とを基にして前記作業者の位置を判定し、前記3次元モデル内の異なる領域に存在する危険領域のうち、前記作業者の位置に近い危険領域を判定し、
    判定結果を基にして、危険領域の情報と、前記撮影画像の情報とを含む表示画面を生成する
    処理を実行することを特徴とする画像処理方法。
  8. コンピュータに、
    予め指定された作業空間に含まれる物体の形状をモデリングした3次元モデルと、作業者側のカメラで撮影された撮影画像と、前記カメラの撮像位置から前記作業空間に含まれる物体までの距離を示す距離情報とを取得し、
    前記3次元モデルと前記距離情報とを基にして前記作業者の位置を判定し、前記3次元モデル内の異なる領域に存在する危険領域のうち、前記作業者の位置に近い危険領域を判定し、
    判定結果を基にして、危険領域の情報と、前記撮影画像の情報とを含む表示画面を生成する
    処理を実行させることを特徴とする画像処理プログラム。
JP2015167814A 2015-08-27 2015-08-27 画像処理装置、画像処理方法および画像処理プログラム Active JP6586824B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2015167814A JP6586824B2 (ja) 2015-08-27 2015-08-27 画像処理装置、画像処理方法および画像処理プログラム
EP16185104.3A EP3136204B1 (en) 2015-08-27 2016-08-22 Image processing device and image processing method
US15/243,059 US10235118B2 (en) 2015-08-27 2016-08-22 Augmented reality device and method for providing assistance to a worker at a remote site

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015167814A JP6586824B2 (ja) 2015-08-27 2015-08-27 画像処理装置、画像処理方法および画像処理プログラム

Publications (2)

Publication Number Publication Date
JP2017046209A JP2017046209A (ja) 2017-03-02
JP6586824B2 true JP6586824B2 (ja) 2019-10-09

Family

ID=56939870

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015167814A Active JP6586824B2 (ja) 2015-08-27 2015-08-27 画像処理装置、画像処理方法および画像処理プログラム

Country Status (3)

Country Link
US (1) US10235118B2 (ja)
EP (1) EP3136204B1 (ja)
JP (1) JP6586824B2 (ja)

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018005091A (ja) * 2016-07-06 2018-01-11 富士通株式会社 表示制御プログラム、表示制御方法および表示制御装置
US10957102B2 (en) * 2017-01-16 2021-03-23 Ncr Corporation Virtual reality maintenance and repair
JP6807781B2 (ja) * 2017-03-13 2021-01-06 株式会社小松製作所 表示システム、表示方法、及び遠隔操作システム
JP6857546B2 (ja) * 2017-05-24 2021-04-14 古野電気株式会社 映像生成装置及び映像生成方法
JP6987537B2 (ja) * 2017-06-07 2022-01-05 キヤノン株式会社 画像処理装置、撮像装置、作業支援システム、制御方法およびプログラム
CN107423053B (zh) * 2017-06-15 2020-08-21 东莞理工学院 一种遥感图像处理的web化模型封装与分布式处理方法
JP6824838B2 (ja) * 2017-07-07 2021-02-03 株式会社日立製作所 作業データ管理システム及び作業データ管理方法
KR102499576B1 (ko) * 2018-01-08 2023-02-15 삼성전자주식회사 전자 장치 및 그 제어 방법
JP7279530B2 (ja) 2019-06-07 2023-05-23 マツダ株式会社 映像処理方法、映像処理装置、映像処理プログラム及び映像処理プログラムを記録した記録媒体
KR102366293B1 (ko) * 2019-12-31 2022-02-22 주식회사 버넥트 디지털 트윈을 이용한 증강현실 기반 현장 모니터링 시스템 및 방법
JP2023049413A (ja) * 2021-09-29 2023-04-10 株式会社日立製作所 調査支援装置および調査支援方法
US20230119707A1 (en) * 2021-10-14 2023-04-20 Cvs Pharmacy, Inc. Methods and systems for providing health interaction information in an augmented reality presentation
CN114098719A (zh) * 2021-11-30 2022-03-01 歌尔科技有限公司 一种动作检测方法、装置和穿戴设备
CN114360209B (zh) * 2022-01-17 2023-06-23 常州信息职业技术学院 基于深度学习的视频行为识别安防系统
CN114827711B (zh) * 2022-06-24 2022-09-20 如你所视(北京)科技有限公司 图像信息显示方法和装置

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11309269A (ja) 1998-04-27 1999-11-09 Sony Corp ゲーム装置、シミュレーション装置及びゲーム画像表示方法
JP2000279425A (ja) 1999-03-30 2000-10-10 Olympus Optical Co Ltd ナビゲーション装置
US6466815B1 (en) 1999-03-30 2002-10-15 Olympus Optical Co., Ltd. Navigation apparatus and surgical operation image acquisition/display apparatus using the same
US8276088B2 (en) 2007-07-11 2012-09-25 Ricoh Co., Ltd. User interface for three-dimensional navigation
RU2452033C2 (ru) * 2005-01-03 2012-05-27 Опсигал Контрол Системз Лтд. Системы и способы наблюдения в ночное время
JP2008052480A (ja) * 2006-08-24 2008-03-06 Toshiba Corp 保守点検支援システム、およびこれに利用する保守点検支援装置、保守点検支援プログラム
JP2009134488A (ja) * 2007-11-30 2009-06-18 Toshiba Corp プラント監視システム
US20100315416A1 (en) 2007-12-10 2010-12-16 Abb Research Ltd. Computer implemented method and system for remote inspection of an industrial process
JP5390093B2 (ja) * 2007-12-21 2014-01-15 任天堂株式会社 ゲームプログラムおよびゲーム装置
DE102009037835B4 (de) 2009-08-18 2012-12-06 Metaio Gmbh Verfahren zur Darstellung von virtueller Information in einer realen Umgebung
JP5960796B2 (ja) * 2011-03-29 2016-08-02 クアルコム,インコーポレイテッド ローカルマルチユーザ共同作業のためのモジュール式のモバイル接続ピコプロジェクタ
JP2012234451A (ja) * 2011-05-09 2012-11-29 Japan Research Institute Ltd 情報通信システム、携帯端末、情報処理方法、及びプログラム
US9087412B2 (en) * 2011-09-26 2015-07-21 Nokia Technologies Oy Method and apparatus for grouping and de-overlapping items in a user interface
JP2013210989A (ja) * 2012-02-29 2013-10-10 Jvc Kenwood Corp 画像処理装置、画像処理方法及び画像処理プログラム
US9645394B2 (en) * 2012-06-25 2017-05-09 Microsoft Technology Licensing, Llc Configured virtual environments
US9448407B2 (en) 2012-12-13 2016-09-20 Seiko Epson Corporation Head-mounted display device, control method for head-mounted display device, and work supporting system
JP2014142255A (ja) * 2013-01-24 2014-08-07 Sony Corp 情報処理装置、情報処理方法およびプログラム
JP2014174507A (ja) 2013-03-13 2014-09-22 Nec Corp 拡張現実表示装置及び情報端末並びにマルチディスプレイシステム、プログラム
JP6157170B2 (ja) * 2013-03-28 2017-07-05 大阪瓦斯株式会社 監視支援システム
JP6643659B2 (ja) * 2014-04-09 2020-02-12 パナソニックIpマネジメント株式会社 表示制御装置、表示制御方法、および表示制御プログラム
JP2017010387A (ja) * 2015-06-24 2017-01-12 キヤノン株式会社 システム、複合現実表示装置、情報処理方法及びプログラム

Also Published As

Publication number Publication date
US10235118B2 (en) 2019-03-19
EP3136204B1 (en) 2019-09-25
US20170061631A1 (en) 2017-03-02
EP3136204A3 (en) 2017-03-29
JP2017046209A (ja) 2017-03-02
EP3136204A2 (en) 2017-03-01

Similar Documents

Publication Publication Date Title
JP6586824B2 (ja) 画像処理装置、画像処理方法および画像処理プログラム
US20210112181A1 (en) Image processing device, image processing method, and recording medium
JP6747504B2 (ja) 情報処理装置、情報処理方法、及びプログラム
JP6195893B2 (ja) 形状認識装置、形状認識プログラム、および形状認識方法
JP5762892B2 (ja) 情報表示システム、情報表示方法、及び情報表示用プログラム
JP5936155B2 (ja) 3次元ユーザインタフェース装置及び3次元操作方法
WO2014141504A1 (ja) 3次元ユーザインタフェース装置及び3次元操作処理方法
JP4677281B2 (ja) 画像処理方法、画像処理装置
TW201350912A (zh) 資訊處理裝置,資訊處理系統及資訊處理方法
JP2013258614A (ja) 画像生成装置および画像生成方法
JP6250024B2 (ja) キャリブレーション装置、キャリブレーションプログラム、およびキャリブレーション方法
JP2019083402A (ja) 画像処理装置、画像処理システム、画像処理方法、及びプログラム
JP2017134771A (ja) 情報処理装置、情報処理方法、プログラム
JP2016122392A (ja) 情報処理装置、情報処理システム、その制御方法及びプログラム
JP2019067323A (ja) 情報処理装置、情報処理方法、及び記録媒体
KR20190027079A (ko) 전자 장치, 그 제어 방법 및 컴퓨터 판독가능 기록 매체
JPWO2018146922A1 (ja) 情報処理装置、情報処理方法、及びプログラム
WO2020054760A1 (ja) 画像表示制御装置および画像表示制御用プログラム
JP2022058753A (ja) 情報処理装置、情報処理方法及びプログラム
JP6446465B2 (ja) 入出力装置、入出力プログラム、および入出力方法
JP2017062748A (ja) 位置合わせ装置、位置合わせ方法および位置合わせプログラム
CN107884930B (zh) 头戴式装置及控制方法
JP2019185475A (ja) 特定プログラム、特定方法及び情報処理装置
KR101572800B1 (ko) 3차원 공간 모델에 대한 카메라 제어 시스템
JP6929037B2 (ja) 情報処理装置、情報処理方法、プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180514

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190207

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190312

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190401

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190813

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190826

R150 Certificate of patent or registration of utility model

Ref document number: 6586824

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150