JP6827134B2 - 生成システム、及び生成プログラム - Google Patents

生成システム、及び生成プログラム Download PDF

Info

Publication number
JP6827134B2
JP6827134B2 JP2020024986A JP2020024986A JP6827134B2 JP 6827134 B2 JP6827134 B2 JP 6827134B2 JP 2020024986 A JP2020024986 A JP 2020024986A JP 2020024986 A JP2020024986 A JP 2020024986A JP 6827134 B2 JP6827134 B2 JP 6827134B2
Authority
JP
Japan
Prior art keywords
virtual
image
space
dimensional virtual
real
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020024986A
Other languages
English (en)
Other versions
JP2020156083A (ja
Inventor
亨 ▲高▼木
亨 ▲高▼木
賢治 坪田
賢治 坪田
英生 阪上
英生 阪上
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
SCSK Corp
Original Assignee
SCSK Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by SCSK Corp filed Critical SCSK Corp
Publication of JP2020156083A publication Critical patent/JP2020156083A/ja
Application granted granted Critical
Publication of JP6827134B2 publication Critical patent/JP6827134B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Image Analysis (AREA)
  • Processing Or Creating Images (AREA)

Description

本発明は、生成システム、及び生成プログラムに関する。
従来、撮像されたマーカを基準にして撮像された画像の一部をマスクする技術が知られていた(例えば、特許文献1)。
特開2017−108263号公報
しかしながら、特許文献1の技術においては、画像の一部をマスクするためには、マーカを設けることが前提となっていたので、例えば、マーカが撮像範囲から逸脱した場合に画像をマスクできなくなる可能性があった。
本発明は、上記に鑑みてなされたものであって、マスク対象領域をマスクした実空間マスク画像を確実に生成することが可能となる生成システム、及び生成プログラムを提供することを目的とする。
上述した課題を解決し、目的を達成するために、請求項1に記載の生成システムは、実対象物が設けられている実空間に対応付けられている三次元仮想空間に前記実対象物に対応する三次元仮想対象物を設ける配置手段と、前記実空間を撮像する撮像手段と、前記配置手段が設けた前記三次元仮想対象物と、前記撮像手段が撮像した前記実空間の画像である実空間撮像画像とに基づいて、前記実空間撮像画像上のマスク対象領域であって前記三次元仮想対象物の位置又は形状を基準とした前記マスク対象領域をマスクした実空間マスク画像を生成する生成手段と、を備え、前記生成手段は、前記実空間撮像画像上の前記実対象物が写っていない領域を前記マスク対象領域としてマスクした前記実空間マスク画像を生成し、前記撮像手段は、前記実空間に設けられている撮像装置であり、前記配置手段は、前記実空間の前記撮像装置に対応する仮想撮像装置であって前記三次元仮想空間における前記仮想撮像装置と、前記三次元仮想対象物とが内部に配置される三次元仮想中空体であって、当該三次元仮想中空体の内外を区画する仮想区画壁を有する前記三次元仮想中空体を前記三次元仮想空間に設け、前記生成手段は、前記三次元仮想空間において、前記仮想撮像装置を基準として前記三次元仮想対象物が前記仮想区画壁に投影された場合の、投影された前記三次元仮想対象物の二次元形状に基づいて、前記実空間マスク画像を生成する。
請求項に記載の生成システムは、請求項に記載の生成システムにおいて、前記配置手段は、前記撮像装置が前記実空間内を移動することにより、前記仮想撮像装置が前記三次元仮想空間内を移動した場合に、前記三次元仮想空間内の前記仮想撮像装置の位置に応じて、前記三次元仮想中空体の位置を変更する。
請求項に記載の生成システムは、請求項1又は2に記載の生成システムにおいて前記配置手段は、前記三次元仮想空間内の所定位置に前記三次元仮想対象物を固定して設ける。
請求項に記載の生成プログラムは、コンピュータを、実対象物が設けられている実空間に対応付けられている三次元仮想空間に前記実対象物に対応する三次元仮想対象物を設ける配置手段と、前記配置手段が設けた前記三次元仮想対象物と、撮像手段が撮像した前記実空間の画像である実空間撮像画像とに基づいて、前記実空間撮像画像上のマスク対象領域であって前記三次元仮想対象物の位置又は形状を基準とした前記マスク対象領域をマスクした実空間マスク画像を生成する生成手段と、として機能させ、前記生成手段は、前記実空間撮像画像上の前記実対象物が写っていない領域を前記マスク対象領域としてマスクした前記実空間マスク画像を生成し、前記撮像手段は、前記実空間に設けられている撮像装置であり、前記配置手段は、前記実空間の前記撮像装置に対応する仮想撮像装置であって前記三次元仮想空間における前記仮想撮像装置と、前記三次元仮想対象物とが内部に配置される三次元仮想中空体であって、当該三次元仮想中空体の内外を区画する仮想区画壁を有する前記三次元仮想中空体を前記三次元仮想空間に設け、前記生成手段は、前記三次元仮想空間において、前記仮想撮像装置を基準として前記三次元仮想対象物が前記仮想区画壁に投影された場合の、投影された前記三次元仮想対象物の二次元形状に基づいて、前記実空間マスク画像を生成する。
請求項1に記載の生成システム、及び請求項に記載の生成プログラムによれば、少なくとも配置手段が設けた三次元仮想対象物と、撮像手段が撮像した実空間の画像である実空間撮像画像とに基づいて、マスク対象領域をマスクした実空間マスク画像を生成することにより、例えば、実空間マスク画像を確実に生成することが可能となる。
また、仮想撮像装置を基準として三次元仮想対象物が仮想区画壁に投影された場合の、投影された三次元仮想対象物の二次元形状に基づいて、実空間マスク画像を生成することにより、例えば、実対象物が写っている部分以外をマスクした実空間マスク画像を確実に生成することが可能となる。
請求項に記載の生成システムによれば、撮像装置が実空間内を移動することにより、仮想撮像装置が三次元仮想空間内を移動した場合に、三次元仮想空間内の仮想撮像装置の位置に応じて、三次元仮想中空体の位置を変更することにより、例えば、仮想撮像装置が三次元仮想空間の外に出ることを防止することができ、実空間マスク画像を確実に生成することが可能となる。
請求項に記載の生成システムによれば、三次元仮想空間内の所定位置に三次元仮想対象物を固定して設けることにより、例えば、三次元仮想対象物の位置がずれることを防止することができ、実空間マスク画像を確実に生成することが可能となる。
本発明の実施の形態に係る表示システムを例示するブロック図である。 実空間を例示した図である。 図2の平面図である。 レンズ部を介して視認される実空間を例示した図である。 空間認識情報を説明するための図である。 第1仮想物体及び第2仮想物体を示す図である。 第1特定情報を例示した図である。 表示処理のフローチャートである。 図2の実空間に対応する三次元仮想空間を例示した図である。 設定処理のフローチャートである。 三次元仮想空間を例示した図である。 図11の平面図である。 レンズ部を介して視認される対象を例示した図である。 三次元仮想空間を例示した図である。 図14の平面図である。 三次元仮想空間を例示した図である。 図16の平面図である。 撮像画像を例示した図である。 第1マスク用画像を例示した図である。 撮像画像に第1マスク用画像を重ね合わせた状態を例示した図である。 表示画像を例示した図である。 実空間を例示した平面図である。 図22の実空間に対応する三次元仮想空間を例示した平面図である。 第2マスク用画像を例示した図である。 表示画像を例示した図である。 実空間を例示した平面図である。 図26の実空間に対応する三次元仮想空間を例示した平面図である。
以下、本発明に係る生成システム、及び生成プログラムの実施の形態について図面を参照しつつ詳細に説明する。ただし、実施の形態によって本発明が限定されるものではない。
本発明に係る生成システムは、実空間マスク画像を生成するシステムであり、例えば、実空間マスク画像を生成する専用システム、あるいは、汎用的に用いられるコンピュータ(一例としては、サーバ装置、パーソナルコンピュータ、スマートフォン、タブレット端末、ウェアラブル端末装置等)に対して生成プログラムをインストールして実空間マスク画像を生成する機能を実装することにより実現されるシステム等を含む概念である。また、生成システムは、例えば、配置手段、撮像手段、及び生成手段を備える。
「実空間マスク画像」とは、実空間撮像画像において少なくとも一部をマスクした画像である。「マスク」するとは、例えば、隠すという概念である。「実空間撮像画像」とは、実空間を撮像した画像である。
「配置手段」とは、実対象物が設けられている実空間に対応付けられている三次元仮想空間に対して、実対象物に対応する三次元仮想対象物を設ける手段である。また、「配置手段」とは、例えば、実空間の撮像装置に対応する仮想撮像装置であって三次元仮想空間における仮想撮像装置と、三次元仮想対象物とが内部に配置される三次元仮想中空体であって、当該三次元仮想中空体の内外を区画する仮想区画壁を有する三次元仮想中空体を三次元仮想空間に設ける手段等を含む概念である。また、「配置手段」とは、例えば、撮像装置が実空間内を移動することにより、仮想撮像装置が三次元仮想空間内を移動した場合に、三次元仮想空間内の仮想撮像装置の位置に応じて、三次元仮想中空体の位置を変更する手段等を含む概念である。また、「配置手段」とは、例えば、三次元仮想空間内の所定位置に三次元仮想対象物を固定して設ける手段等を含む概念である。
「撮像手段」とは、実空間を撮像する手段であり、例えば、実空間に設けられている撮像装置等を含む概念である。
「生成手段」とは、配置手段が設けた三次元仮想対象物と、撮像手段が撮像した実空間の画像である実空間撮像画像とに基づいて、当該実空間撮像画像上のマスク対象領域であって三次元仮想対象物の位置又は形状を基準としたマスク対象領域をマスクした実空間マスク画像を生成する手段であり、具体的には、実空間撮像画像上の実対象物が写っていない領域をマスク対象領域としてマスクした実空間マスク画像を生成する手段である。また、「生成手段」とは、例えば、三次元仮想空間において、仮想撮像装置を基準として三次元仮想対象物が仮想区画壁に投影された場合の、当該投影された三次元仮想対象物の二次元形状に基づいて、実空間マスク画像を生成する手段等を含む概念である。
「実空間」とは、実際の空間であって、三次元の実際の空間であり、具体的には、屋外又は屋内の空間等を含む概念であり、例えば、工場内の空間、オフィス内の空間、自室内の空間、玄関、外庭、公園、及び道路等の任意の空間等を含む概念である。「実対象物」とは、実際の物であり、つまり、三次元の実際の物、人、又は犬猫等の動物(以下、単に「物」とも称する)等を含む概念であり、具体的には、実空間に存在する物等を含む概念であり、例えば、工場内の所定の装置(例えば、所定のメーカが製造販売サポートを行う製造装置等)、オフィス内の所定の機器(例えば、コピー機等)等の任意の物を含む概念である。なお、この「実対象物」は、例えば、壁等の平面に記載等されている平面的なもの等も含む概念であり、また、壁に埋め込まれて一部が露出している平面的なもの等も含む概念である。
「三次元仮想空間」とは、実空間に対応付けられている仮想的な空間であり、例えば、任意の空間認識の技術にて認識された実空間に対応する仮想的な空間であり、一例としては、点群の情報、ポリゴンの情報、あるいは、メッシュの情報(ポリゴンメッシュを含む)等にて表現可能な空間等を含む概念である。
「三次元仮想対象物」とは、三次元の仮想の物であり、具体的には、実空間には実際には存在せずに、データ処理等にて仮想的に取り扱われるもの等を含む概念であり、例えば、前述の実対象物の形状と同様な形状の物、あるいは、他の任意の形状の物等を含む概念である。
「三次元仮想中空体」とは、三次元の仮想の物であり、具体的には、実空間には実際には存在せずに、データ処理等にて仮想的に取り扱われるもの等を含む概念である。「三次元仮想中空体」とは、例えば、実空間の撮像装置に対応する仮想撮像装置であって三次元仮想空間における仮想撮像装置と、三次元仮想対象物とが内部に配置されるもの等を含む概念である。「三次元仮想中空体」の具体的な形状は任意であり、例えば、立方体形状、直方体形状、球形状、柱形状、及び錐形状等の任意の形状であってもよい。「仮想撮像装置」とは、実空間内の撮像装置に対応するものとして三次元仮想空間内に設けられる仮想的なものであり、例えば、撮像装置の実空間内の位置に対応する三次元仮想空間内の位置に設けられており、また、撮像装置の実空間内での方向に対応する三次元仮想空間内での方向に向けられているとされるもの等を含む概念である。
そして、以下に示す実施の形態では、「生成システム」がゴーグル型のウェアラブル端末装置として実現されており、また、「実空間」が工場内の空間であり、また、「実対象物」が工場内の所定の装置(例えば、所定のメーカが製造販売サポートを行う製造装置等)である場合を例示して説明する。
(構成)
まず、本実施の形態に係る表示システム100について説明する。図1は、本発明の実施の形態に係る表示システムを例示するブロック図であり、図2は、実空間を例示した図である。なお、図2のZ軸が鉛直方向又は高さ方向であり、+Z方向を上側と称し、−Z方向を下側と称し、また、X軸及びY軸がZ軸に対して直交する水平方向であることとして説明する。図1の表示システム100は、例えば、端末装置1、及び表示装置2を備える。
(構成−端末装置)
端末装置1は、生成システムであり、例えば、空間認識及びAR(拡張現実:Augmented Reality)に関する機能が搭載されている装置である。端末装置1は、例えば、図2に示すように、実物体31〜34が設けられている実空間である工場内のユーザが顔に装着して用いるゴーグル型のウェアラブル端末装置である。「実物体」31〜34とは、実空間に設けられている物であり、例えば、工場内に設けられている装置である。なお、図2では、実物体31〜34については、説明の便宜上、直方体形状にて図示されている。また、図2の工場内のユーザが当該工場で作業を行っている作業員であり、また、実物体31〜34は相互に異なるメーカの装置である場合において、端末装置1を用いて、液晶ディスプレイ311(つまり、情報を表示する手段)を有する実物体31の画像を示す表示画像を当該実物体31のメーカ側に送信する場合を例示して説明する。つまり、実物体31が「実対象物」である場合について説明する。なお、「表示画像」については後述する。
この端末装置1は、公知の構成を含む任意の構成を備えて構成することができるが、例えば、図1に示すように、通信部11、センサ部12、レンズ部13、記録部14、及び制御部15を備える。
(構成−端末装置−通信部)
通信部11は、ネットワーク(図示省略)を介して外部装置(例えば、表示装置2等)との間で通信するための通信手段である。この通信部11の具体的な種類や構成は任意であるが、例えば、公知の無線通信手段を用いることができる。
(構成−端末装置−センサ部)
センサ部12は、情報を検出又は取得する検出手段である。このセンサ部12の具体的な種類や構成は任意であるが、例えば、慣性ユニット、デプスセンサ、及びカメラ等を含んで構成することができる。「慣性ユニット」とは、例えば、端末装置1の動き及び回転又は傾きを検出するためのものであり、例えば、加速度センサ(つまり、モーションセンサ)、及びジャイロセンサ等を用いて構成することができる。「デプスセンサ」とは、深度センサであり、例えば、周辺環境を三次元として認識するための情報を検出するためのセンサであり、一例としては、TOF(Time Of Flight)の技術を用いて実現可能なセンサ等を用いることができる。「カメラ」とは、前述の撮像手段及び撮像装置であり、例えば、動画又は静止画を撮像するためのものであり、一例としては、CCD又はCMOSイメージセンサ等を用いて構成することができる。なお、センサ部12の構成の全部又は一部を任意に変更してもよく、例えば、本実施の形態で説明する各種処理を実現できるように任意のセンサ又は検出ユニットを用いてもよいし、あるいは、マイク等を設けて端末装置1に音声入力を行えるように構成してもよい。そして、以下では、カメラを用いて動画を撮像する場合について説明する。
(構成−端末装置−レンズ部)
図3は、図2の平面図であり、図4は、レンズ部を介して視認される実空間を例示した図である。なお、図3の−X方向を矢視している矢印は、ユーザの向きであり、つまり、端末装置1の向きを示していることとする(他の図面での矢印も同様とする)。図1のレンズ部13は、端末装置1を装着したユーザに対して当該レンズ部13を介して実空間を視認させる視認手段である。つまり、ユーザが端末装置1を自己の顔に装着した場合に、レンズ部13がユーザの目の正面に配置され、当該ユーザはレンズ部13を介して実空間を視認することが可能となる。このレンズ部13の具体的な種類や構成は任意であるが、例えば、ユーザがレンズ部13を介して実空間を視認できるように透明又は半透明となっており、また、少なくとも表示対象を表示できるように表示機能も備えているものを用いることができる。このレンズ部13としては、例えば、シースルー・ホログラフィック・レンズを用いてもよい。そして、このようなレンズ部13に表示対象を表示することにより、当該レンズ部13を介して実空間を視認したユーザは、実空間に表示対象が重畳されている状態を観念することが可能となる。
そして、本実施の形態では、例えば、レンズ部13の構成(例えば、レンズの種類、曲率、サイズ、又は材質等)により、レンズ部13を介してユーザが視認可能となる空間領域である視野領域R1(図3)が定められていることとする。ここでは、例えば、図3に図示されているように、ユーザが実物体31の正面(図2の液晶ディスプレイ311が設けられている面)を向いた場合に、実空間の内の一部の空間が当該視野領域R1内に入り、一例としては、ユーザは、レンズ部13を介して、当該視野領域R1内の空間として、図4に示す実空間を視認可能となる。
また、本実施の形態では、例えば、前述のセンサ部12のカメラの画角は、ユーザがレンズ部13を介して視認可能な視野領域R1と同じ範囲の画像が撮像されるように設定されている場合を例示して説明する。つまり、図3のユーザがレンズ部13を介して実空間を視認した場合、視野領域R1内の実空間として図4に示す範囲の実空間を視認することになり、また、図3の状態の端末装置1のセンサ部12のカメラで実空間を撮像した場合、当該カメラは視野領域R1内の実空間を撮像することになり、図4に示す範囲の実空間が写っている画像を撮像することになる。つまり、例えば、端末装置1が、ユーザがレンズ部13を介して視認している実空間と同じ範囲の実空間の画像をセンサ部12のカメラを用いて撮像できるように構成されている場合について説明する。
(構成−端末装置−記録部)
記録部14は、端末装置1の動作に必要なプログラム及び各種のデータを記録する記録手段であり、例えば、外部記録装置としてのフラッシュメモリ(図示省略)を用いて構成されている。ただし、フラッシュメモリに代えてあるいはフラッシュメモリと共に、ハードディスク、磁気ディスクの如き磁気的記録媒体、又はDVDやブルーレイディスクの如き光学的記録媒体を含む、その他の任意の記録媒体を用いることができる。この記録部14は、例えば、空間認識情報、第1特定情報、及び第2特定情報を格納している。
(構成−端末装置−記録部−空間認識情報)
図5は、空間認識情報を説明するための図である。図5においては、図4において図示されている実空間をメッシュとして空間認識する場合の当該メッシュの一例が便宜上図示されている。図1の「空間認識情報」とは、センサ部12のデプスセンサの検出結果(つまり、端末装置1からの距離等)及びカメラの撮像結果(つまり、撮像画像)に基づいて、実空間について任意の三次元空間認識の技術を用いて認識した結果を示す情報であり、例えば、実空間の特徴を示すメッシュ等を特定する情報である。そして、当該空間認識情報を用いることにより、三次元空間認識された実空間に対応する三次元仮想空間を生成し、当該三次元仮想空間に関する処理を行うことが可能となる。ここでは、例えば、図4において図示されている実空間の特徴を示す図5のメッシュを特定する情報(例えば、メッシュにおける交点、辺、又は面の三次元座標の集合等)が空間認識情報として格納されることになる。そして、このような空間認識情報の具体的な格納手法は任意であるが、例えば、後述する表示処理を実行することにより格納される。
(構成−端末装置−記録部−第1特定情報)
図6は、第1仮想物体及び第2仮想物体を示す図であり、図7は、第1特定情報を例示した図である。なお、図7で具体的に図示されている各情報は、説明の便宜上の記載である。図1の「第1特定情報」とは、第1仮想物体及び第1設定用仮想物体を特定する情報である。第1特定情報は、例えば、図7に示すように、項目「マーカID」に対応する情報と、項目「第1仮想物体特定情報」に対応する情報と、項目「第1設定用仮想物体特定情報」に対応する情報と、項目「位置情報」に対応する情報とが相互に関連付けられている。
項目「マーカID」に対応する情報は、実空間に物理的に実際に配置されるARマーカを識別するマーカ識別情報(以下、「識別情報」を「ID」と称する)である(図7では、図2の実物体31に設けられているARマーカM1を識別する「Mid001」等)。
項目「第1仮想物体特定情報」に対応する情報は、第1仮想物体を特定する第1仮想物体特定情報である(図7では、図2の実物体31と外形が同一形状である図6の第1仮想物体41を特定する「3Dm001」等)。「第1仮想物体」とは、前述の三次元仮想対象物であり、実物体と外形が同一形状の三次元オブジェクト(つまり、三次元モデル)である。
項目「第1設定用仮想物体特定情報」に対応する情報は、第1設定用仮想物体を特定する第1設定用仮想物体特定情報である。「第1設定用仮想物体」とは、第1仮想物体の後述する位置情報を設定するための三次元オブジェクトであり、例えば、関連付けられている第1仮想物体と同一形状及び同一サイズの三次元オブジェクトであり、また、任意の色(例えば、灰色等)の半透明に着色されている三次元オブジェクト(つまり、着色されている点以外は第1仮想物体と同じ三次元オブジェクト)である。図7では、例えば、「3Dm001」が特定する図6の第1仮想物体41と同一形状及び同一サイズの三次元オブジェクトを特定する「3Dms001」等が格納されている。
項目「位置情報」に対応する情報は、第1仮想物体特定情報が特定する第1仮想物体を配置する位置及び方向を特定する位置情報である。この位置情報としては、任意の情報を用いることができるが、例えば、直接的に又は間接的に前述の空間認識情報と関連付けられている情報を用いることとし、一例としては、位置として「X軸、Y軸、Z軸からなる直交座標系」における三次元座標を直接的に又は間接的に特定する情報を用い、また、方向として当該直交座標系のX軸、Y軸、Z軸を基準にした回転角度を直接的に又は間接的に特定する情報を用いる場合を例示して説明する。図7では、例えば、「3Dm001」が特定する図6の第1仮想物体41の位置情報を特定する「Dp001」等が格納されている。
そして、このような第1特定情報の具体的な格納手法は任意であるが、例えば、管理者が、端末装置1を用いて表示画像を送信する対象となる実物体に付されるARマーカを生成し、生成したARマーカを実物体に付す。次に、管理者が、当該ARマーカを付した実物体の外形を任意の手法(例えば、実物体を実寸して把握する手法、あるいは、実物体の図面に基づいて把握する方法)で把握した上で、当該把握した実物体の外形と同一形状の第1仮想物体及び第1設定用仮想物体を、管理者の管理者端末(例えば、パーソナルコンピュータ等)を用いて生成し、生成した各仮想物体を特定する情報と、前述の付したARマーカのマーカIDとを管理者端末から端末装置1に送信する。この場合、端末装置1の制御部15が、前述の管理者端末から送信された情報に基づいて、記録部14の第1特定情報における図7のマーカID、第1仮想物体特定情報、及び第1設定用仮想物体特定情報を格納することとする。
なお、第1仮想物体特定情報及び第1設定用仮想物体特定情報については、セットで格納される運用がとられていることを前提として以下説明する。また、図7の位置情報については、後述する設定処理を実行することにより格納される。
(構成−端末装置−記録部−第2特定情報)
図1の「第2特定情報」とは、第2仮想物体を特定する情報である。「第2仮想物体」とは、前述の三次元仮想中空体であり、例えば、図6の第2仮想物体42を特定する情報である。
そして、このような第2特定情報の具体的な格納手法は任意であるが、例えば、管理者が、第1特定情報の第1仮想物体特定情報で特定される第1仮想物体よりも大きなサイズで任意の形状の第2仮想物体を管理者端末を用いて生成した上で、前述の第1特定情報の第1仮想物体特定情報と同様にして格納されることとしてもよい。なお、ここでは、例えば、図6に示すように、第1仮想物体41よりも大きなサイズであり、且つ、X軸方向において十分に長い形状であり、且つ、6個の仮想区画壁421(図では2個のみに符号が付されている)にて内外が区画されている中空形状又は箱形状である第2仮想物体42を特定する第2特定情報が格納されていることとして説明する。
(構成−端末装置−制御部)
図1の制御部15は、端末装置1を制御する制御手段であり、具体的には、CPU、当該CPU上で解釈実行される各種のプログラム(OSなどの基本制御プログラムや、OS上で起動され特定機能を実現するアプリケーションプログラムを含む)、及びプログラムや各種のデータを格納するためのRAMの如き内部メモリを備えて構成されるコンピュータである。特に、実施の形態に係るプログラムは、任意の記録媒体又はネットワークを介して端末装置1にインストールされることで、制御部15の各部を実質的に構成する。
また、制御部15は、機能概念的には、例えば、配置部151、及び生成部152を備える。配置部151は、実対象物が設けられている実空間に対応付けられている三次元仮想空間に実対象物に対応する三次元仮想対象物を設ける配置手段である。生成部152は、配置部151が設けた第1仮想物体と、センサ部12のカメラが撮像した実空間の画像である実空間撮像画像とに基づいて、実空間撮像画像上のマスク対象領域であって三次元仮想対象物の位置又は形状を基準としたマスク対象領域をマスクした実空間マスク画像を生成する生成手段であり、具体的には、実空間撮像画像上の実対象物が写っていない領域をマスク対象領域としてマスクした実空間マスク画像を生成する手段である。なお、この制御部15の各部により行われる処理については、後述する。
(構成−表示装置)
図1の表示装置2は、例えば、端末装置1が設けられている工場に対する遠隔地である実物体31のメーカのサポートセンタに設けられている装置であり、一例としては、通信部21、表示部22、記録部23、及び制御部24を備える。
(構成−表示装置−通信部)
通信部21は、ネットワーク(図示省略)を介して外部装置(例えば、端末装置1等)との間で通信するための通信手段である。この通信部21の具体的な種類や構成は任意であるが、例えば、端末装置1の通信部11と同様にして構成することができる。
(構成−表示装置−表示部)
表示部22は、制御部24の処理により、画像を表示する表示手段である。この表示部22の具体的な種類や構成は任意であるが、例えば、公知の液晶パネルディスプレイ等を用いて構成することができる。
(構成−表示装置−記録部)
記録部23は、表示装置2の動作に必要なプログラム及び各種のデータを記録する記録手段であり、例えば、端末装置1の記録部14と同様にして構成することができる。
(構成−表示装置−制御部)
制御部24は、表示装置2を制御する制御手段であり、例えば、端末装置1の制御部15と同様にして構成することができる。
(処理)
次に、このように構成される表示システム100によって実行される表示処理について説明する。図8は、表示処理のフローチャートである(以下の各処理の説明ではステップを「S」と略記する)。表示処理は、概略的には、表示システム100の端末装置1にて行われる処理であり、具体的には、表示画像を生成して利用する処理である。「表示画像」とは、センサ部12のカメラにて撮像された画像(以下、カメラにて撮像された画像を「撮像画像」とも称する)に基づく画像であり、例えば、当該撮像画像の少なくとも一部がマスクされた画像である。この表示処理を実行するタイミングは任意であるが、例えば、端末装置1の電源をオンした場合に、起動されて実行を開始することとして、実行を開始したところから説明する。ここでは、例えば、図2の工場内において実物体31〜34のうちの実物体31にのみにARマーカ(具体的には、ARマーカM1)が設けられていることとし、端末装置1が、当該ARマーカM1を認識する場合を適宜例示して説明する。また、端末装置1の電源をオンした場合、センサ部12の慣性ユニット、デプスセンサ、及びカメラの動作を開始し、これらの各要素が自動的に及び連続的に動作しているものとして以下説明する。また、端末装置1の記録部14の第1特定情報として、図7のマーカID、第1仮想物体特定情報、及び第1設定用仮想物体特定情報は予め格納されているものの、位置情報については、端末装置1の電源をオンした直後には未だ格納されていないものとして説明する。
まず、図8のSA1において端末装置1の制御部15は、空間認識を行う。具体的には任意であるが、例えば、センサ部12の慣性ユニットの検出結果、センサ部12のデプスセンサの検出結果、及び当該センサ部12のカメラの撮像画像に基づいて、実空間について任意の三次元空間認識の技術を用いて認識し、これらの各検出結果及び撮像画像に基づいて認識した三次元空間を示す情報として、前述のメッシュを特定する情報である座標等を空間認識情報として図1の記録部14に記録する。そして、端末装置1は、この記録した空間認識情報に基づいて、実空間に対応する三次元仮想空間に関する処理を行うことが可能となる。
ここでは、例えば、センサ部12の慣性ユニットの検出結果、センサ部12のデプスセンサの検出結果、及びカメラの撮像画像に基づいて、図2の工場内の実空間について任意の三次元空間認識の技術を用いて認識し、これらの各検出結果及び撮像画像に基づいて認識した三次元空間を示す情報として、前述のメッシュを特定する情報である座標等を空間認識情報として図1の記録部14に記録する。特に、ここでの空間認識情報については、例えば、端末装置1の電源をオンした際の当該端末装置1の位置を基準位置(つまり、X軸、Y軸、Z軸からなる所定の直交座標系における座標を「(0,0,0)」)とし、電源をオンした際に端末装置1が向いている方向を基準方向(つまり、当該直交座標系のX軸、Y軸、Z軸を基準にした回転角度を「(0度,0度,0度)」)とした上で、これらの基準位置を基準にして(必要に応じて基準方向も基準にして)空間認識情報を格納する。なお、ここで説明した空間認識の手法は例示であり、端末装置1が空間認識を行える限りにおいて、ここで説明した手法以外の公知の手法を用いてもよい。また、以下では、この「基準位置」及び「基準方向」を適宜「基準情報」と総称する。
図9は、図2の実空間に対応する三次元仮想空間を例示した図である。SA1において空間認識を行って格納した空間認識情報を用いることにより、端末装置1の制御部15は、当該空間認識情報に基づいて、図9に示す三次元仮想空間に関する処理を行うことが可能となる。なお、図9に示す仮想端末装置V1は、図2の端末装置1に対応しており、また、仮想物体V31〜V34は、実物体31〜34に対応している。つまり、図9に示す仮想端末装置V1は、端末装置1が設けられている実空間に対応する三次元仮想空間(つまり、前述の空間認識情報に基づいて把握される空間)内における端末装置1を仮想的に示すものである。また、仮想物体V31〜V34は、実物体31〜34が設けられている実空間に対応する三次元仮想空間(つまり、前述の空間認識情報に基づいて把握される空間)内における実物体31〜34を仮想的に示すものである。特に、端末装置1の制御部15は、実際には、実物体31〜34については、例えば、図5を用いて説明したように、メッシュの情報として実空間の一部として認識するが、図9では、実物体31〜34に対応する三次元仮想空間内の部分を、説明の便宜上、仮想物体V31〜V34として図示している。また、端末装置1の制御部15は、三次元仮想空間における端末装置1自身に対応するものとして仮想端末装置V1を考慮して処理を行うことが可能となる。特に、端末装置1の制御部15は、センサ部12の慣性ユニットの検出結果に基づいて実空間内での端末装置1の動き及び回転又は傾きを把握することができるので、当該検出結果を反映して情報処理を行うことにより、実空間内での端末装置1の動き及び回転又は傾きを、三次元仮想空間内での仮想端末装置V1の動き及び回転又は傾きに反映することが可能となる。つまり、このように空間認識を行うことにより、実空間と三次元仮想空間とを相互に関連付けることが可能となる。以下では、端末装置1により行われる情報処理について、この三次元仮想空間を考慮した情報処理を適宜含めて説明する。なお、図9の仮想端末装置V1は、前述したように、端末装置1に対応しているために、端末装置1のセンサ部12の「カメラ」にも対応しているので、当該仮想端末装置V1を「仮想撮像装置」と解釈してもよい。
次に、図8のSA2において端末装置1の配置部151は、ARマーカを認識する。具体的には任意であるが、例えば、センサ部12のカメラの撮像画像及びデプスセンサの検出結果に基づいて、ARマーカを認識する。詳細には、当該カメラの撮像画像にARマーカが写っている場合、当該ARマーカを認識し、当該ARマーカについてのデプスセンサの検出結果及び慣性センサの検出結果を取得する。ここでは、例えば、端末装置1が図3に示す方向を向いている場合、センサ部12のカメラを用いて図4に示す実空間を撮像し、撮像した画像にARマーカM1の画像が写っているので、当該ARマーカM1を認識し、当該ARマーカM1についてのデプスセンサの検出結果及び慣性センサの検出結果を取得する。
次に、図8のSA3において端末装置1の配置部151は、SA2で認識したARマーカに関連付けられている位置情報が存在するか否かを判定する。具体的には任意であるが、例えば、図1の記録部14に記録されている図7の第1特定情報を参照して、SA2で認識したARマーカを識別するマーカIDを特定し、特定したマーカIDに関連付けられている位置情報を参照する。次に、参照した位置情報として具体的な情報が格納されている場合、位置情報が存在するものと判定し(SA3のYES)、SA5に移行する。また、参照した位置情報として具体的な情報が格納されていない場合、位置情報が存在しないものと判定し(SA3のNO)、SA4に移行する。
ここでは、例えば、図1の記録部14に記録されている図7の第1特定情報を参照して、SA2で認識したARマーカM1を識別するマーカIDである「Mid001」を特定し、特定したマーカIDである「Mid001」に関連付けられている位置情報を参照する。そして、前述したように、図7の位置情報については、端末装置1の電源をオンした直後には未だ格納されていない(つまり、図7の「位置情報」=「Dp001」は未だ格納されていない)ので、位置情報が存在しないものと判定する。
図8のSA4において端末装置1の配置部151は、設定処理を実行する。図10は、設定処理のフローチャートである。
まず、図10のSB1において端末装置1の配置部151は、ARマーカの三次元座標を一時保存する。具体的には任意であるが、例えば、SA2で認識したARマーカの座標を、記録部14に格納する。詳細には、SA2で認識したARマーカの座標を、任意の手法を用いて、前述の「基準情報」を基準にして特定し、特定した座標を記録部14に格納する。なお、ここでの「SA2で認識したARマーカの座標を特定する任意の手法」としては、例えば、センサ部12の慣性ユニットの検出結果に基づいて実空間内での端末装置1の動き及び回転又は傾きを把握可能であること、センサ部12のカメラによる撮像画像及びセンサ部12のデプスセンサによる検出結果に基づいて端末装置1からの距離又は方向等を把握することが可能となることに着目して、SA2の処理時点での、センサ部12のカメラによる撮像画像、センサ部12のデプスセンサによる検出結果、及びセンサ部12の慣性ユニットの検出結果に基づいて、SA2で認識したARマーカの座標を特定する手法を用いてもよい。ここでは、例えば、SA2で認識したARマーカである図4のARマーカM1の座標を、前述の任意の手法を用いて、前述の「基準情報」を基準にして、例えば「(X3,Y3,Z3)」と特定し、特定した座標である「(X3,Y3,Z3)」をARマーカM1の座標として記録部14に格納する。なお、座標の具体的な値は説明の便宜上の記載とする(後述する回転角度の値も同様とする)。
なお、ここでは、SA2の処理時点での、センサ部12のカメラによる撮像画像、センサ部12のデプスセンサによる検出結果、及びセンサ部12の慣性ユニットの検出結果に基づいて、ARマーカの座標を特定する場合について説明したが、これに限らず、SB1の処理時点での、センサ部12のカメラによる撮像画像、センサ部12のデプスセンサによる検出結果、及びセンサ部12の慣性ユニットの検出結果に基づいて、ARマーカの座標を特定してもよい。あるいは、センサ部12のカメラによる撮像画像、センサ部12のデプスセンサによる検出結果、及びセンサ部12の慣性ユニットの検出結果の内の、少なくともセンサ部12のデプスセンサによる検出結果を用いて、ARマーカの座標を特定してもよい。なお、このように、実空間上で対象の物(実施の形態では、ARマーカ)の座標を特定する処理としては、公知の技術を含めて任意の技術を用いて実現することが可能となるので、当該任意の技術を適用することとしてもよい。
次に、図10のSB2において端末装置1の配置部151は、第1仮想物体が存在するか否かを判定する。具体的には任意であるが、例えば、図1の記録部14に記録されている図7の第1特定情報を参照して、SA2で認識したARマーカを識別するマーカIDを特定し、特定したマーカIDに関連付けられている第1仮想物体特定情報を参照する。次に、参照した第1仮想物体特定情報として具体的な情報が格納されていない場合、第1仮想物体が存在しないものと判定し(SB2のNO)、設定処理及び図8の表示処理を終了する。なお、この場合、「ARマーカに対応する三次元オブジェクトがありません。確認して下さい」等のメッセージを、レンズ部13に表示した後に終了するように構成してもよい。また、参照した第1仮想物体特定情報として具体的な情報が格納されている場合、第1仮想物体が存在するものと判定し(SB2のYES)、SB3に移行する。
ここでは、例えば、まず、図1の記録部14に記録されている図7の第1特定情報を参照して、SA2で認識したARマーカM1を識別するマーカIDである「Mid001」を特定し、特定したマーカIDである「Mid001」に関連付けられている第1仮想物体特定情報を参照する。そして、図7に示すように、「マーカID」=「Mid001」に関連付けられている「第1仮想物体特定情報」=「3Dm001」が格納されているので、第1仮想物体が存在するものと判定する。
次に、図10のSB3において端末装置1の配置部151は、第1設定用仮想物体を配置する。具体的には任意であるが、例えば、まず、図1の記録部14に記録されている図7の第1特定情報を参照して、SA2で認識したARマーカを識別するマーカIDを特定し、特定したマーカIDに関連付けられている第1設定用仮想物体特定情報を取得する。次に、図8のSA1で記録した空間認識情報及び図10のSB1で格納したARマーカの座標を取得し、また、SA2で認識したARマーカが示す方向を任意の手法(公知の手法を適用することができるが、例えば、撮像したARマーカの画像に基づいて方向を特定する公知の手法等)で特定した上で、取得した空間認識情報にて特定される三次元仮想空間内において、取得した座標及び特定した方向を基準に前述の取得した第1設定用仮想物体特定情報が特定する第1設定用仮想物体を配置する。
図11は、三次元仮想空間を例示した図である。ここでは、例えば、まず、図1の記録部14に記録されている図7の第1特定情報を参照して、SA2で認識したARマーカM1を識別するマーカIDである「Mid001」を特定し、特定した「Mid001」に関連付けられている第1設定用仮想物体特定情報として「3Dms001」を取得する。次に、図8のSA1で記録した空間認識情報及び図10のSB1で格納したARマーカM1の座標である「(X3,Y3,Z3)」を取得し、また、SA2で認識したARマーカが示す方向として回転角度である「(X1度,Y1度,Z1度)」を特定し、図11に示すように、前述の取得した空間認識情報にて特定される三次元仮想空間内において、前述の取得した座標である「(X3,Y3,Z3)」及び特定した方向である「(X1度,Y1度,Z1度)」を基準に、前述の取得した「3Dms001」が特定する第1設定用仮想物体43を配置する。なお、ここでは、例えば、第1設定用仮想物体43の所定位置(例えば、第1設定用仮想物体43における右上の隅又は右上の隅から若干離れた位置等)がARマーカM1の座標である「(X3,Y3,Z3)」に対応する三次元仮想空間内の位置と一致し、且つ、第1設定用仮想物体43の方向がARマーカM1の方向である「(X1度,Y1度,Z1度)」に対応する三次元仮想空間内での方向と一致するように配置することとする。
次に、図10のSB4において端末装置1の配置部151は、SB3で配置した第1設定用仮想物体を表示する。図12は、図11の平面図である。具体的には任意であるが、例えば、まず、前述したようにセンサ部12の慣性ユニットの検出結果を用いて、前述の「基準情報」を基準にして現在の端末装置1の位置及び方向を特定し、当該特定した端末装置1の位置及び方向に対応する仮想端末装置V1の位置及び方向を、図8のSA1で記録した空間認識情報にて特定される三次元仮想空間内において特定し、当該特定した位置の仮想端末装置V1が当該特定した方向に向かって仮想視野領域VR1を見た場合の第1設定用仮想物体を、レンズ部13に表示する。なお、仮想視野領域VR1とは、実空間の図3の視野領域R1(つまり、前述したように、レンズ部13を介してユーザが視認可能となる空間領域に対応する領域であり、また、センサ部12のカメラを用いて撮像可能な領域)に対応する三次元仮想空間の領域である。
図13は、レンズ部を介して視認される対象を例示した図である。ここでは、例えば、まず、前述したようにセンサ部12の慣性ユニットの検出結果を用いて、前述の「基準情報」を基準にして現在の端末装置1の位置及び方向を特定し、当該特定した端末装置1の位置及び方向に対応する仮想端末装置V1の位置及び方向として、図8のSA1で記録した空間認識情報にて特定される三次元仮想空間内において図11及び図12に図示されている位置及び方向を特定し、当該特定した位置の仮想端末装置V1が当該特定した方向に向かって仮想視野領域VR1を見た場合の第1設定用仮想物体43(つまり、仮想端末装置V1内の第1設定用仮想物体43)を、レンズ部13に表示する。この場合、図3のユーザは、図13に示すように、レンズ部13を介して実物体31〜34を視認可能となり、また、レンズ部13に表示されている灰色の半透明の第1設定用仮想物体43も視認可能となり、当該ユーザは、レンズ部13を介して視認することにより、実空間に対して第1設定用仮想物体43が重畳されているように視認することが可能となる。特に、前述の配置した第1設定用仮想物体43が、三次元仮想空間内の仮想物体V31(つまり、実空間内の実物体31に対応する三次元仮想空間内の部分)から若干ずれていることとし、この場合、図13に示すように、レンズ部13を介して視認した場合に、第1設定用仮想物体43が実物体31に対して若干ずれているように視認されることになる。
次に、図10のSB5において端末装置1の配置部151は、第1設定用仮想物体が配置される位置又は方向を調整するための入力情報を受け付ける。具体的には任意であるが、例えば、ユーザが公知のジェスチャ入力にて入力情報を入力することとし、この場合、端末装置1の配置部151は、センサ部12のカメラで撮像されたユーザの指の動き等のジェスチャ入力に基づいてユーザからの入力情報として、第1設定用仮想物体43の移動方向、移動量、及び回転角度を特定する情報を受け付ける。
ここでは、例えば、ユーザが、図13に示すように、レンズ部13を介して視認した場合において、第1設定用仮想物体43が実物体31から位置又は方向がずれている場合に、レンズ部13を介して視認して、第1設定用仮想物体43が実物体31と位置及び方向(回転角度)が合致するように(つまり、レンズ部13を介して視認した場合に、第1設定用仮想物体43が実物体31と位置及び方向(回転角度)が合致したように視認可能となるように)、ジェスチャ入力を行って第1設定用仮想物体43の位置及び方向を調整する。一例としては、ジェスチャ入力を行うことにより、レンズ部13に表示されている第1設定用仮想物体43の位置又は方向が変更されて、レンズ部13を介して視認した場合において、実物体31に対して第1設定用仮想物体43の位置又は方向が変更された状態を認識できるように構成されていることとし、当該表示を視認しつつジェスチャ入力を行うことにより、入力情報を入力する場合について説明する。この場合、端末装置1の配置部151は、図13の第1設定用仮想物体43の位置及び方向を実物体31の位置及び方向に合致されるための入力情報として、第1設定用仮想物体43の移動方向、移動量、及び回転角度を特定する情報を受け付ける。
なお、レンズ部13を介して視認した場合において、第1設定用仮想物体43が実物体31から位置及び方向がずれていない場合、ユーザは、何らの変更も行わないジェスチャ入力を行い、この場合、端末装置1の配置部151は、当該ジェスチャ入力に対応する入力情報を受け付けることとする。
次に、図10のSB6において端末装置1の配置部151は、位置情報を格納する。具体的には任意であるが、例えば、まず、SB5で受け付けた入力情報を取得し、また、SB1で一時保存したARマーカの三次元座標を取得した上で、当該取得したARマーカの三次元座標を基準にした当該入力情報が示す三次元相対座標(具体的には、一時保存したARマーカの三次元座標に対して、前述の取得した入力情報に示される移動方向に対応する方向に向かって当該取得した入力情報に示される移動量分に対応する移動量分だけ離れた位置の座標)を特定する。次に、SB5で受け付けた入力情報を取得した上で、SA2で認識したARマーカが示す方向を基準にした当該入力情報が示す相対回転角度を特定する。次に、これらの特定した三次元相対座標及び相対回転角度を特定する情報を、SA2で認識したARマーカの位置情報として格納する。格納する処理について詳細には、図1の記録部14に記録されている図7の第1特定情報を参照して、SA2で認識したARマーカを識別するマーカIDを特定し、特定したマーカIDに関連付けられている位置情報として、これらの三次元相対座標及び相対回転角度を特定する情報を格納する。
ここでは、例えば、SB5で受け付けた入力情報を取得し、また、SB1で一時保存したARマーカの三次元座標である「(X3,Y3,Z3)」を取得した上で、前述の取得したARマーカの三次元座標である「(X3,Y3,Z3)」を基準にした当該取得した入力情報が示す三次元相対座標として「(Xr1,Yr1,Zr1)」を特定する。次に、SB5で受け付けた入力情報を取得した上で、SA2で認識したARマーカが示す方向である「(X1度,Y1度,Z1度)」を基準にした当該取得した入力情報が示す相対回転角度として「(Xr1度,Yr1度,Zr1度)」を特定する。次に、これらの特定した三次元相対座標である「(Xr1,Yr1,Zr1)」及び相対回転角度である「(Xr1度,Yr1度,Zr1度)」を特定する情報である「Dp001」を、図1の記録部14に記録されている図7の第1特定情報において、SA2で認識したARマーカM1を識別する「マーカID」=「Mid001」に関連付けられている位置情報として記録する。この後、設定処理をリターンする。
次に、図8のSA5において端末装置1の配置部151は、第1仮想物体特定情報及び位置情報を取得する。具体的には任意であるが、例えば、図1の記録部14に記録されている図7の第1特定情報を参照して、SA2で認識したARマーカを識別するマーカIDを特定し、特定したマーカIDに関連付けられている第1仮想物体特定情報及び位置情報を取得する。ここでは、例えば、図1の記録部14に記録されている図7の第1特定情報を参照して、SA2で認識したARマーカM1を識別するマーカIDである「Mid001」を特定し、特定したマーカIDである「Mid001」に関連付けられている「第1仮想物体特定情報」=「3Dm001」及び「位置情報」=「Dp001」(つまり、「(Xr1度,Yr1度,Zr1度)」及び「(Xr1度,Yr1度,Zr1度)」)を取得する。
次に、図8のSA6において端末装置1の配置部151は、第1仮想物体及び第2仮想物体を配置する。図14は、三次元仮想空間を例示した図であり、図15は、図14の平面図である。ここでは、第1仮想物体を配置する処理と、第2仮想物体を配置する処理に分けて説明する。
===第1仮想物体を配置する処理===
まず、第1仮想物体を配置する処理については具体的には任意であるが、例えば、端末装置1の配置部151は、まず、図10のSB1の場合と同様にして、SA2で認識したARマーカの座標を特定し、また、図10のSB3の場合と同様にして、SA2で認識したARマーカが示す方向を特定する。次に、SA5で取得した位置情報を取得し、前述の特定したARマーカの座標に対する当該取得した位置情報が示す三次元相対座標に対応する座標(以下、「配置座標」とも称する)を、前述の「基準情報」を基準に特定する。次に、SA5で取得した位置情報を取得し、前述の特定したARマーカの方向に対する当該取得した位置情報が示す相対回転角度に対応する回転角度(以下、「配置回転角度」とも称する)を、前述の「基準情報」を基準に特定する。次に、SA1で記録した空間認識情報にて特定される三次元仮想空間内において、前述の特定した「配置座標」及び特定した「配置回転角度」を基準に、SA5で取得した第1仮想物体特定情報が特定する第1仮想物体を配置する。そして、この後、三次元仮想空間内において、第1仮想物体を当該配置した位置(所定位置であり、実空間内の実物体31の位置に対応する三次元仮想空間内の位置)に固定する。
ここでは、例えば、第1仮想物体を配置する処理については具体的には任意であるが、例えば、端末装置1の配置部151は、まず、図10のSB1の場合と同様にして、SA2で認識したARマーカの座標として「(X3,Y3,Z3)」を特定し、また、図10のSB3の場合と同様にして、SA2で認識したARマーカが示す方向として回転角度である「(X1度,Y1度,Z1度)」を特定する。次に、SA5で取得した位置情報である「Dp001」(つまり、「(Xr1度,Yr1度,Zr1度)」及び「(Xr1度,Yr1度,Zr1度)」)を取得し、前述の特定した「ARマーカの座標」=「(X3,Y3,Z3)」に対する当該取得した「位置情報」=「Dp001」が示す「三次元相対座標」=「(Xr1,Yr1,Zr1)」に対応する座標として「配置座標」=「X2,Y2,Z2」を、前述の「基準情報」を基準に特定する。次に、SA5で取得した位置情報である「Dp001」を取得し、前述の特定した「ARマーカの方向」=「(X1度,Y1度,Z1度)」に対する当該「位置情報」=「Dp001」が示す「相対回転角度」=「(Xr1度,Yr1度,Zr1度)」に対応する回転角度として「配置回転角度」=「(X2度,Y2度,Z2度)」を、前述の「基準情報」を基準に特定する。次に、SA1で記録した空間認識情報にて特定される三次元仮想空間内において、図14及び図15に示されるように、前述の特定した「配置座標」=「X2,Y2,Z2」及び「配置回転角度」=「(X2度,Y2度,Z2度)」を基準に、SA5で取得した「第1仮想物体特定情報」=「3Dm001」が特定する第1仮想物体41を配置する。なお、ここでは、SB3の場合と同様にして、例えば、第1仮想物体41の所定位置(例えば、第1仮想物体41における右上の隅又は右上の隅から若干離れた位置等)が「配置座標」=「X2,Y2,Z2」に対応する位置と一致し、且つ、第1仮想物体41の方向が「配置回転角度」=「(X2度,Y2度,Z2度)」に対応する方向と一致するように配置して固定することとする。また、この場合、図10のSB5で受け付けた入力情報を反映して第1仮想物体41が配置されることになり、つまり、第1仮想物体41は、図10のSB5においてジェスチャ入力にて調整された調整後の第1設定用仮想物体43(つまり、レンズ部13を介して視認して、実物体31と位置及び方向が合致する第1設定用仮想物体43)と位置及び方向が合致するように配置されることになる。
===第2仮想物体を配置する処理===
次に、第2仮想物体を配置する処理については具体的には任意であるが、例えば、端末装置1の配置部151は、まず、図1の記録部14の第2特定情報を取得し、SA1で記録した空間認識情報にて特定される三次元仮想空間内に、当該取得した第2特定情報が示す第2仮想物体を配置する。第2仮想物体を配置する位置及び方向は、仮想端末装置V1及び第1仮想物体が第2仮想物体の内部に配置される限りにおいて任意である。
ここでは、例えば、図14に示すように、6個の仮想区画壁421(図14では2個のみに符号が付されている)の内の1個の仮想区画壁421a(図14及び図15参照)が第1仮想物体41を挟んで仮想端末装置V1の反対側に設けられるように配置する場合を例示して説明する。また、例えば、図15の第2仮想物体42のX軸方向の長さが、実空間上での所定距離(例えば、100m〜120m程度(つまり、ユーザが移動するものと想定される距離よりも十分に長い距離)))に対応する長さとなるように設定されている場合について説明する。また、ここでは、例えば、第1仮想物体41と仮想区画壁421aとの間の距離が一定の距離となるように、第2仮想物体42を配置してもよいし、あるいは、仮想端末装置V1と仮想区画壁421aとの間の距離が一定の距離となるように、第2仮想物体42を配置してもよい。そして、この第2仮想物体42は、後のステップで特記するまで当該配置された位置に固定されることとなる。
次に、図8のSA7において端末装置1の生成部152は、表示画像を生成する。なお、実際には、センサ部12のカメラでは動画として撮像画像を撮像しているが、ここでは、当該動画である撮像画像の内の1個のフレームを取り上げて処理を詳細に説明するが、ここで説明する処理を高速に実行することにより、動画である撮像画像に基づいて動画の表示画像を生成することが可能となる。
SA7の処理について概略的には、センサ部12のカメラで撮像した撮像画像(つまり、図3の視野領域R1内を撮像した撮像画像)と、仮想端末装置V1から仮想視野領域VR1を見た場合の第2仮想物体42の仮想区画壁421に対応する画像(後述するように、第1仮想物体41を投影された部分を透明化した画像を含む)とに基づいて、表示画像を生成する。
SA7の処理について詳細には、まず、センサ部12のカメラで実空間を撮像し、当該撮像した撮像画像を取得する(以下、「撮像画像取得ステップ」)。
次に、前述したようにセンサ部12の慣性ユニットの検出結果を用いて、前述の「基準情報」を基準にして、現在(つまり、「撮像画像取得ステップ」で取得した撮像画像を撮像した際)の端末装置1の位置及び方向を特定し、当該特定した端末装置1の位置及び方向に対応する仮想端末装置V1の位置及び方向を、図8のSA1で記録した空間認識情報にて特定される三次元仮想空間内において特定する(以下、「特定ステップ」と称する)。
次に、前述の三次元仮想空間において、「特定ステップ」で特定した位置及び方向の仮想端末装置V1から仮想視野領域VR1を見た場合に、当該仮想視野領域VR1内に第1仮想物体41が配置されている場合、以下の「第1の処理」を行い、一方、「特定ステップ」で特定した位置及び方向の仮想端末装置V1から仮想視野領域VR1を見た場合に、当該仮想視野領域VR1内に第1仮想物体41が配置されていない場合、以下の「第2の処理」を行う。
===第1の処理===
「第1の処理」とは、「撮像画像取得ステップ」で取得した撮像画像の一部の領域をマスクすることにより、表示画像を生成する処理である。この「第1の処理」においては、まず、「特定ステップ」で特定した位置及び方向の仮想端末装置V1を基準(例えば、仮想的な光源)として、仮想視野領域VR1内において第1仮想物体を第2仮想物体の仮想区画壁に投影した場合の、仮想視野領域VR1内の仮想区画壁に投影された第1仮想物体の二次元形状の像を特定する(以下、「第1の処理の第1ステップ」)。次に、仮想視野領域VR1内の仮想区画壁において、投影された二次元形状の像(つまり、「第1の処理の第1ステップ」で特定された二次元形状の像)に対応する部分を透明な部分とし(つまり、当該部分を介して一方側から他方側を視認できる部分とし)、当該二次元形状の像以外の部分を不透明な部分とする(つまり、当該部分を介して一方側から他方側を視認可能でない部分)とする(以下、「第1の処理の第2ステップ」)。次に、「撮像画像取得ステップ」で取得した撮像画像において、当該撮像画像の一部を「第1の処理の第2ステップ」での処理結果に基づいてマスクした画像を表示画像として生成する(以下、「第1の処理の第3ステップ」)。
この「第1の処理の第3ステップ」については任意であるが、例えば、仮想視野領域VR1が図3の視野領域R1(つまり、センサ部12のカメラを用いて撮像可能な領域)に対応する領域である点に着目して、以下の処理を行うこととしてもよい。具体的には、第1マスク用画像(例えば、仮想視野領域VR1内の仮想区画壁を基準にして生成されるマスク用画像であって、「第1の処理の第2ステップ」にて透明な部分とされた部分に対応する領域に非マスク領域を有し、不透明な部分とされた部分に対応する領域にマスク領域を有するマスク用画像)を生成し、「撮像画像取得ステップ」で取得した撮像画像に対して当該生成した第1マスク用画像を重ね合わせる処理を行うことにより、前述の撮像画像の一部が第1マスク用画像にてマスクされた画像を表示画像として生成してもよい。なお、「マスク領域」とは、例えば、隠される領域を示す概念であり、また、「非マスク領域」とは、例えば、隠されない領域を示す概念である。
なお、ここで説明した第1マスク用画像を重ね合わせる処理は一例であり、前述の「第1の処理の第1ステップ」及び「第1の処理の第2ステップ」の処理結果に基づいて、撮像画像において、前述の不透明な部分に対応する当該撮像画像内の一部の領域がマスクされ、且つ、前述の透明な部分に対応する当該撮像画像内の他の一部の領域がマスクされない画像を表示画像として生成する処理である限りにおいて、任意の処理を適用することができる。
===第1の処理(具体例)===
図16は、三次元仮想空間を例示した図であり、図17は、図16の平面図であり、図18は、撮像画像を例示した図であり、図19は、第1マスク用画像を例示した図であり、図20は、撮像画像に第1マスク用画像を重ね合わせた状態を例示した図であり、図21は、表示画像を例示した図である。なお、図17における仮想視野領域VR1の境界を示す2本の一点鎖線の内側の2本の破線は、仮想端末装置V1を光源とした場合の当該光源と第1仮想物体41の外形の最外部分とを結んだ直線である。
ここでは、例えば、「撮像画像取得ステップ」において、図3に示す状態において、センサ部12のカメラで実空間を撮像した撮像画像として、図18の撮像画像を撮像した場合を例示して説明」する。なお、この図18の撮像画像の実物体画像G31〜G34及び液晶ディスプレイ画像G311は、図3又は図4の実物体31〜34及び液晶ディスプレイ311の画像である。
この場合、「特定ステップ」において、前述したようにセンサ部12の慣性ユニットの検出結果を用いて、前述の「基準情報」を基準にして、現在(つまり、「撮像画像取得ステップ」で取得した図18の撮像画像を撮像した際)の図3の端末装置1の位置及び方向を特定し、当該特定した端末装置1の位置及び方向に対応する図15の仮想端末装置V1の位置及び方向を、図8のSA1で記録した空間認識情報にて特定される三次元仮想空間内において特定する。
次に、「特定ステップ」で特定した位置及び方向の図15の仮想端末装置V1から仮想視野領域VR1を見た場合に、当該仮想視野領域VR1内に第1仮想物体41が配置されているので、「第1の処理」を実行することになる。具体的には、「第1の処理の第1ステップ」において、「特定ステップ」で特定した位置及び方向の図15の仮想端末装置V1を基準(例えば、仮想的な光源)として、図16及び図17に示すように、仮想視野領域VR1内において第1仮想物体41を第2仮想物体42の仮想区画壁421aに投影した場合の、仮想視野領域VR1内の仮想区画壁421aに投影された第1仮想物体41の二次元形状の像41aを特定する(以下、「第1の処理の第1ステップ」)。次に、「第1の処理の第2ステップ」について、仮想視野領域VR1内の仮想区画壁421aにおいて、投影された二次元形状の像41a(つまり、「第1の処理の第1ステップ」で特定された二次元形状の像41a)に対応する部分を透明な部分とし、当該二次元形状の像41a以外の部分を不透明な部分とする。次に、「第1の処理の第3ステップ」において、「撮像画像取得ステップ」で取得した図18の撮像画像の一部を「第1の処理の第2ステップ」での処理結果に基づいてマスクした画像を表示画像として生成する。
この「第1の処理の第3ステップ」について具体的には、まず、仮想区画壁421aにおける仮想視野領域VR1内の一部の領域421a1(つまり、図16及び図17の仮想区画壁421aにおける一部の領域であって、仮想視野領域VR1内に入る一部の領域)を基準にして「第1の処理の第2ステップ」にて透明な部分とされた部分(つまり、二次元形状の像41aの部分)に対応する領域を非マスク領域R22とし、不透明な部分とされた部分(つまり、二次元形状の像41aの部分以外の部分)に対応する領域をマスク領域R21とする第1マスク用画像として、図19の第1マスク用画像を生成する。なお、この図19の第1マスク用画像の外形、マスク領域R21、及び非マスク領域R22は、図16及び図17における仮想区画壁421aにおける仮想視野領域VR1内の一部の領域421a1の外形、当該領域421a1における二次元形状の像41aの部分以外の部分、及び当該領域421a1における二次元形状の像41aの部分に対応している。なお、この第1マスク用画像の具体的な構成は任意であるが、例えば、マスク領域R21が重ねられた領域が隠され、且つ、非マスク領域R22に対応する部分が隠されないように構成されている限りにおいて任意である。次に、図20に示すように、前述の「撮像画像取得ステップ」で取得した図18の撮像画像に対して当該生成した図19の第1マスク用画像を重ね合わせる処理を行うことにより、前述の図18の撮像画像の一部が図19の第1マスク用画像のマスク領域R21にてマスクされた画像として図21の表示画像として生成する。
なお、この図21の表示画像においては、図19の第1マスク用画像における非マスク領域R22に対応する一部のみが視認可能となり、他の部分はマスクされて視認不可能となるので、図18の撮像画像に写っている実物体画像G31〜G34の内の実物体画像G32〜G34はマスクされて実物体画像G31のみが表示されることになる。また、例えば、ここで生成した図21の表示画像が「実空間マスク画像」に相当し、また、図18の撮像画像が「実空間撮像画像」に相当し、また、図18の撮像画像における図19の第1マスク用画像のマスク領域R21にてマスクされる領域(つまり、実物体31の画像である実物体画像G31が写っていない領域)が「マスク対象領域」に相当し、当該マスク対象領域は、前述したように、第1仮想物体41の位置又は形状を基準として定められることになる。
===第2の処理===
「第2の処理」とは、「撮像画像取得ステップ」で取得した撮像画像の全部の領域をマスクすることにより、表示画像を生成する処理である。この「第2の処理」においては、「特定ステップ」で特定した位置及び方向の仮想端末装置V1を基準として、第2マスク用画像(例えば、仮想視野領域VR1内の仮想区画壁を基準にして生成されるマスク用画像であって、全ての部分をマスク領域とするマスク用画像)を生成し、「撮像画像取得ステップ」で取得した撮像画像に対して当該生成した第2マスク用画像を重ね合わせる処理を行うことにより、前述の撮像画像の全部が第2マスク用画像にてマスクされた画像を表示画像として生成してもよい。
なお、ここで説明した第2マスク用画像を重ね合わせる処理は一例であり、撮像画像内の全部の領域がマスクされる画像を表示画像として生成する処理である限りにおいて、任意の処理を適用することができる。
===第2の処理(具体例)===
図22は、実空間を例示した平面図であり、図23は、図22の実空間に対応する三次元仮想空間を例示した平面図であり、図24は、第2マスク用画像を例示した図であり、図25は、表示画像を例示した図である。
ここでは、例えば、「撮像画像取得ステップ」において、図22に示す状態において、センサ部12のカメラで実空間を撮像した場合を例示して説明する。
この場合、「特定ステップ」において、前述したようにセンサ部12の慣性ユニットの検出結果を用いて、前述の「基準情報」を基準にして、現在(つまり、「撮像画像取得ステップ」で取得した撮像画像を撮像した際)の図22の端末装置1の位置及び方向を特定し、当該特定した端末装置1の位置及び方向に対応する図23の仮想端末装置V1の位置及び方向を、図8のSA1で記録した空間認識情報にて特定される三次元仮想空間内において特定する。
次に、「特定ステップ」で特定した位置及び方向の図23の仮想端末装置V1から仮想視野領域VR1を見た場合に、当該仮想視野領域VR1内に第1仮想物体41が配置されていないので、「第2の処理」を実行することになる。具体的には、「特定ステップ」で特定した位置及び方向の図23の仮想端末装置V1を基準とした仮想区画壁421bにおける仮想視野領域VR1内の一部の領域421b1(つまり、図23の仮想区画壁421bにおける一部の領域であって、仮想視野領域VR1内に入る一部の領域)を基準にして、全部をマスク領域R31とする第2マスク用画像として、図24の第2マスク用画像を生成する。なお、この図24の第2マスク用画像の外形は、図23における仮想区画壁421bにおける仮想視野領域VR1内の一部の領域421b1の外形に対応している。なお、この第2マスク用画像の具体的な構成は任意であるが、例えば、マスク領域R31が重ねられた領域が隠されるように構成されている限りにおいて任意である。次に、前述の「撮像画像取得ステップ」で取得した撮像画像に対して当該生成した図24の第2マスク用画像を重ね合わせる処理を行うことにより、撮像画像の全部が図24の第2マスク用画像のマスク領域R31にてマスクされた画像として図25の表示画像として生成する。
次に、図8のSA8において端末装置1の制御部15は、SA7で生成した表示画像を出力して利用する。具体的には任意であるが、例えば、端末装置1と表示装置2との間のビデオ通話で利用する場合について説明する。詳細には、SA8で生成した表示画像を取得し、取得した表示画像を、通信部11を介して図1の表示装置2に送信して、表示装置2の表示部22に表示画像を表示することにより、端末装置1と表示装置2との間のビデオ通話で利用する。なお、実際には、この図8の各ステップについては高速に実行されているために、ビデオ通話では動画をシームレスに表示することができる。また、表示画像をビデオ通話で利用するための具体的な処理については、公知の処理を含む任意の処理を適用してもよい。
ここでは、例えば、ユーザが図2及び図3の位置及び方向において、レンズ部13を介して図4の三次元対象空間を視認している場合、SA7において図21の表示画像等が生成されるので、この図21の表示画像等を表示装置2に送信して、表示部22に当該図21の表示画像等を表示する。また、例えば、ユーザが図23の位置において当該図23が示す方向(図面下側)を向いている場合、SA7において図25の表示画像等が生成されているので、この図25の表示画像等を送信して表示部22に表示する。このように、図1の表示装置2側では、図2の実物体31の画像は視認可能となるが、その他の空間の画像(つまり、実物体32〜34を含む空間の画像)は視認不可能となるために、図2の工場内の機密性を確保することが可能となる。
次に、図8のSA9において端末装置1の配置部151は、端末装置1が移動したか否かを判定する。図26は、実空間を例示した平面図であり、図27は、図26の実空間に対応する三次元仮想空間を例示した平面図である。具体的には任意であるが、例えば、センサ部12の慣性ユニットの検出結果に基づいて、端末装置1がSA2において認識したARマーカの位置(つまり、実物体31の位置)を基準として、SA6において第2仮想物体を配置した場合の端末装置1の位置(又は、後述するSA10を実行した後にSA9を実行する場合においては、直近のSA10で特定した端末装置1の位置)に対して、端末装置1が回転方向に移動したか否かを判定する。なお、「回転方向」とは、例えば、SA2で認識したARマーカと端末装置1とを通る直線上から外れる方向(又は当該直線と交差する方向)であり、例えば、図26において一点鎖線の矢印で示す方向等を含む概念である。そして、端末装置1が回転方向に移動していないものと判定した場合(SA9のNO)、SA11に移行する。また、端末装置1が回転方向に移動したものと判定した場合(SA9のYES)、SA10に移行する。
ここでは、例えば、図26に示すように、ユーザが、図3に示す位置から図26に示す位置に移動した場合、端末装置1が回転方向に移動することになり、この場合、端末装置1が回転方向に移動したものと判定する。
次に、図8のSA10において端末装置1の配置部151は、第2仮想物体が配置される位置を変更する。具体的には任意であるが、例えば、まず、前述したようにセンサ部12の慣性ユニットの検出結果を用いて、前述の「基準情報」を基準にして、現在の端末装置1の位置及び方向を特定し、当該特定した端末装置1の位置及び方向に対応する仮想端末装置V1の位置及び方向を、図8のSA1で記録した空間認識情報にて特定される三次元仮想空間内において特定する。次に、当該位置及び方向が特定された仮想端末装置V1が第2仮想物体42の内部に入った状態が維持されるように、仮想空間内に配置されて固定されている第1仮想物体41を中心にして、第2仮想物体42を回動させることにより第2仮想物体42の位置を変更する。
ここでは、例えば、まず、前述したようにセンサ部12の慣性ユニットの検出結果を用いて、前述の「基準情報」を基準にして、現在の図26の端末装置1の位置及び方向を特定し、当該特定した端末装置1の位置及び方向に対応する図27の仮想端末装置V1の位置及び方向を、図8のSA1で記録した空間認識情報にて特定される三次元仮想空間内において特定する。次に、当該位置及び方向が特定された仮想端末装置V1が第2仮想物体42の内部に入った状態が維持されるように、仮想空間内に配置されて固定されている第1仮想物体41を中心にして、第2仮想物体42を図27の一点鎖線の矢印で示されている方向に回動させることにより第2仮想物体42の位置を変更する。なお、このSA10を含むSA7〜SA11の処理に対応する処理は、実際には高速で行われるので、端末装置1が実空間内を移動することにより、仮想端末装置V1が三次元仮想空間内を移動した場合に、三次元仮想空間内の仮想端末装置V1の位置に応じて、第2仮想物体42の位置が変更されることになる。このように処理することにより、仮想端末装置V1及び第1仮想物体41が常に第2仮想物体42の内部に配置されることになり、SA7での表示画像の生成を確実に行うことが可能となる。
図8のSA11において端末装置1の制御部15は、処理を終了するか否かを判定する。具体的には任意であるが、例えば、センサ部12のカメラを介して処理を終了するためのジェスチャ操作が入力されたか否かに基づいて判定する。そして、処理を終了するためのジェスチャ操作が入力されていない場合、処理を終了しないものと判定し(SA11のNO)、SA7に移行する。また、処理を終了するためのジェスチャ操作が入力された場合、処理を終了するものと判定し(SA11のYES)、処理を終了する。これにて、表示処理を終了する。
(実施の形態の効果)
このように本実施の形態によれば、少なくとも配置部151が設けた第1仮想物体41と、センサ部12のカメラが撮像した実空間の画像である撮像画像とに基づいて、マスク対象領域をマスクした実空間マスク画像(表示画像)を生成することにより、例えば、実空間マスク画像を確実に生成することが可能となる。
また、仮想端末装置V1を基準として第1仮想物体41が仮想区画壁421に投影された場合の、投影された第1仮想物体41の二次元形状に基づいて、実空間マスク画像を生成することにより、例えば、実対象物(実物体31)が写っている部分以外をマスクした実空間マスク画像を確実に生成することが可能となる。
また、端末装置1(つまり、端末装置1に実装されているセンサ部12のカメラ)が実空間内を移動することにより、仮想端末装置V1が三次元仮想空間内を移動した場合に、三次元仮想空間内の仮想端末装置V1の位置に応じて、第2仮想物体42の位置を変更することにより、例えば、仮想端末装置V1が第2仮想物体42の外に出ることを防止することができ、実空間マスク画像を確実に生成することが可能となる。
また、三次元仮想空間内の所定位置に第1仮想物体41を固定して設けることにより、例えば、第1仮想物体41の位置がずれることを防止することができ、実空間マスク画像を確実に生成することが可能となる。
〔実施の形態に対する変形例〕
以上、本発明に係る実施の形態について説明したが、本発明の具体的な構成及び手段は、特許請求の範囲に記載した本発明の技術的思想の範囲内において、任意に改変及び改良することができる。以下、このような変形例について説明する。
(解決しようとする課題や発明の効果について)
まず、発明が解決しようとする課題や発明の効果は、上述の内容に限定されるものではなく、発明の実施環境や構成の細部に応じて異なる可能性があり、上述した課題の一部のみを解決したり、上述した効果の一部のみを奏したりすることがある。
(分散や統合について)
また、上述した各電気的構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各部の分散や統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散又は統合して構成できる。また、本出願における「装置」とは、単一の装置によって構成されたものに限定されず、複数の装置によって構成されたものを含む。例えば、端末装置1の少なくとも一部の機能を不図示のサーバ装置又は表示装置2に設けてもよい。より具体的には、例えば、端末装置1の第1特定情報又は第2特定情報を不図示のサーバに格納した上で、端末装置1が当該サーバと適宜通信を行いつつ上述の各処理を実行するように構成してもよい。
(形状、数値、構造、時系列について)
実施の形態や図面において例示した構成要素に関して、形状、数値、又は複数の構成要素の構造若しくは時系列の相互関係については、本発明の技術的思想の範囲内において、任意に改変及び改良することができる。
(第1仮想物体及び第2仮想物体の表示について)
また、上記実施の形態の図8のSA6で配置する第1仮想物体41及び第2仮想物体42については、SA7での表示画像の生成のために用いられるが、この第1仮想物体41及び第2仮想物体42について、レンズ部13に表示してユーザが当該レンズ部13を介して視認可能となるように構成してもよい。この場合、図10のSB4の場合と同様にして表示してもよい。なお、ここでの、第1仮想物体41及び第2仮想物体42については、表示又は非表示をユーザからの入力に基づいて選択可能としてもよい。
(第1設定仮想物体について)
また、上記実施の形態では、図7の第1設定用仮想物体特定情報を省略してもよい。この場合、図10の設定処理においては、第1仮想物体を用いて処理を行うように変更してもよい。この場合、SA4においては、ユーザによって予め定められている半透明の色にて、第1仮想物体を表示するように構成してもよい。
(第2仮想物体について)
また、上記第2仮想物体の構成を任意に変更してもよい。例えば、図6の第2仮想物体42を十分に大きなサイズ(例えば、実空間である工場の建築物に対応するサイズ等)にしてもよい。この場合、ユーザが工場の建築物内で移動する限りにおいて、実空間における端末装置1の移動に応じて、三次元仮想空間における仮想端末装置V1が第2仮想物体42の外部に移動することは想定されないので、図8のSA9及びSA10の処理を省略してもよい。
また、例えば、第2仮想物体42の形状又はサイズを自由に変更可能にしてもよく、一例としては、端末装置1が移動した場合、当該端末装置1の移動に応じて第2仮想物体42の形状又はサイズを変更することにより、仮想端末装置V1及び第1仮想物体41が第2仮想物体42の内部に配置されるように構成してもよい。
(表示画像の記録)
また、上記実施の形態の図8のSA7で生成した表示画像について、制御部15が、記録部14に記録するように構成してもよい。
(非表示の部分への他の画像の表示について)
また、上記実施の形態の図21又は図25の撮像画像がマスクされている領域に、他の画像(実空間とは無関係の画像)が表示されるように、表示画像を生成しもよい。他の画像としては、例えば、ユーザが設定可能となるように構成してもよいし、あるいは、予め定められているものとしてもよく、一例としては、風景画像等のユーザの心理状態に影響を与えうる画像を採用してもよい。
(生成システムについて)
また、上記実施の形態では、生成システムとしてウェアラブル端末装置を用いる場合を例示して説明したが、これに限らない。例えば、生成システムとしてタブレット端末を用いてもよい。この場合、例えば、ユーザが、工場内で作業する場合に、生成システムであるタブレット端末を用いて当該工場内の実物体31周辺を、当該タブレット端末のカメラで動画又は静止画を撮像することにより、タブレット端末が表示画像情報を生成するように構成してもよい。また、生成システムとして例えばスマートフォンを用いてもよい。
(レンズ部について)
また、上記実施の形態では、レンズ部13が透明である場合について説明したが、これに限らず、レンズ部13を半透明にしたり、あるいは、レンズ部の代わりに小型ディスプレイ(つまり、画像表示装置)を用いたりしてもよい。
(端末装置の位置について)
また、上記実施の形態では、センサ部12の慣性ユニットを用いて端末装置1の位置を特定する場合について説明したが、これに限らない。例えば、GPS(Global Positioning System)の技術を用いて、端末装置1の位置を特定するように構成してもよい。
(位置情報について)
また、上記実施の形態では、図10のSB6において三次元相対座標及び相対回転角度を特定する情報を、図7の位置情報として格納する場合について説明したが、これに限らない。例えば、前述の「基準情報」を基準とした三次元座標及び回転角度(つまり、SB1で一時保存したARマーカの三次元座標に対してSB2で受け付けた入力情報を反映した三次元座標、SA2で認識したARマーカが示す方向を基準にした当該入力情報を反映した方向(回転角度)を反映した回転角度)を位置情報として格納してもよい。
(用語の解釈について)
また、上記実施の形態の各用語については、ARの技術、仮想空間に関する技術、空間認識の技術等において各処理を実現するための具体的な情報処理を特定しているものと解釈することとしてもよい。例えば、第1仮想物体41を「配置する」とは、三次元仮想空間(ここでは、例えば、SA1で記録した空間認識情報にて特定される三次元仮想空間)内に第1仮想物体41を設けることに対応する概念であり、例えば、三次元仮想空間内に第1仮想物体41を設けるための情報をメモリ又は記録部14に記録すること等を含む概念であるものと解釈してもよい(他の仮想物体を「配置する」についても同様としてもよい)。また、第1仮想物体41を「固定する」とは、例えば、固定した以後の処理において明示的に第1仮想物体41を移動させる処理を行うまで、三次元仮想空間内の同じ場所に設けられていることを示す概念と解釈してもよい。また、第1仮想物体41を「固定する」とは、三次元仮想空間内に第1仮想物体41を設けるための情報をメモリ又は記録部14に記録しておき、固定した以後の処理において明示的に第1仮想物体41を移動させる処理を行うまで、当該記録しておいた情報を用いて三次元仮想空間内の第1仮想物体41の位置を特定する概念であるものと解釈してもよい(他の仮想物体を「固定する」についても同様としてもよい)。あるいは、本願発明の範囲を逸脱しない範囲において、ここで説明した用語の解釈以外の任意の解釈を行ってもよい。
(特徴について)
また、上記実施の形態と変形例の特徴を任意に組み合わせてもよい。また、各処理の各ステップについては、任意に組み替えてもよい。
(付記)
付記1の生成システムは、実対象物が設けられている実空間に対応付けられている三次元仮想空間に前記実対象物に対応する三次元仮想対象物を設ける配置手段と、前記実空間を撮像する撮像手段と、前記配置手段が設けた前記三次元仮想対象物と、前記撮像手段が撮像した前記実空間の画像である実空間撮像画像とに基づいて、前記実空間撮像画像上のマスク対象領域であって前記三次元仮想対象物の位置又は形状を基準とした前記マスク対象領域をマスクした実空間マスク画像を生成する生成手段と、を備え、前記生成手段は、前記実空間撮像画像上の前記実対象物が写っていない領域を前記マスク対象領域としてマスクした前記実空間マスク画像を生成する。
付記2の生成システムは、付記1に記載の生成システムにおいて、前記撮像手段は、前記実空間に設けられている撮像装置であり、前記配置手段は、前記実空間の前記撮像装置に対応する仮想撮像装置であって前記三次元仮想空間における前記仮想撮像装置と、前記三次元仮想対象物とが内部に配置される三次元仮想中空体であって、当該三次元仮想中空体の内外を区画する仮想区画壁を有する前記三次元仮想中空体を前記三次元仮想空間に設け、前記生成手段は、前記三次元仮想空間において、前記仮想撮像装置を基準として前記三次元仮想対象物が前記仮想区画壁に投影された場合の、投影された前記三次元仮想対象物の二次元形状に基づいて、前記実空間マスク画像を生成する。
付記3の生成システムは、付記2に記載の生成システムにおいて、前記配置手段は、前記撮像装置が前記実空間内を移動することにより、前記仮想撮像装置が前記三次元仮想空間内を移動した場合に、前記三次元仮想空間内の前記仮想撮像装置の位置に応じて、前記三次元仮想中空体の位置を変更する。
付記4の生成システムは、付記1から3の何れか一項に記載の生成システムにおいて前記配置手段は、前記三次元仮想空間内の所定位置に前記三次元仮想対象物を固定して設ける。
付記5の生成プログラムは、コンピュータを、実対象物が設けられている実空間に対応付けられている三次元仮想空間に前記実対象物に対応する三次元仮想対象物を設ける配置手段と、前記配置手段が設けた前記三次元仮想対象物と、撮像手段が撮像した前記実空間の画像である実空間撮像画像とに基づいて、前記実空間撮像画像上のマスク対象領域であって前記三次元仮想対象物の位置又は形状を基準とした前記マスク対象領域をマスクした実空間マスク画像を生成する生成手段と、として機能させ、前記生成手段は、前記実空間撮像画像上の前記実対象物が写っていない領域を前記マスク対象領域としてマスクした前記実空間マスク画像を生成する。
(付記の効果)
付記1に記載の生成システム、及び付記5に記載の生成プログラムによれば、少なくとも配置手段が設けた三次元仮想対象物と、撮像手段が撮像した実空間の画像である実空間撮像画像とに基づいて、マスク対象領域をマスクした実空間マスク画像を生成することにより、例えば、実空間マスク画像を確実に生成することが可能となる。
付記2に記載の生成システムによれば、仮想撮像装置を基準として三次元仮想対象物が仮想区画壁に投影された場合の、投影された三次元仮想対象物の二次元形状に基づいて、実空間マスク画像を生成することにより、例えば、実対象物が写っている部分以外をマスクした実空間マスク画像を確実に生成することが可能となる。
付記3に記載の生成システムによれば、撮像装置が実空間内を移動することにより、仮想撮像装置が三次元仮想空間内を移動した場合に、三次元仮想空間内の仮想撮像装置の位置に応じて、三次元仮想中空体の位置を変更することにより、例えば、仮想撮像装置が三次元仮想空間の外に出ることを防止することができ、実空間マスク画像を確実に生成することが可能となる。
付記4に記載の生成システムによれば、三次元仮想空間内の所定位置に三次元仮想対象物を固定して設けることにより、例えば、三次元仮想対象物の位置がずれることを防止することができ、実空間マスク画像を確実に生成することが可能となる。
1 端末装置
2 表示装置
11 通信部
12 センサ部
13 レンズ部
14 記録部
15 制御部
21 通信部
22 表示部
23 記録部
24 制御部
31 実物体
32 実物体
33 実物体
34 実物体
41 第1仮想物体
41a 像
42 第2仮想物体
43 第1設定用仮想物体
100 表示システム
151 配置部
152 生成部
311 液晶ディスプレイ
421 仮想区画壁
421a 仮想区画壁
421a1 領域
421b 仮想区画壁
421b1 領域
G31 実物体画像
G32 実物体画像
G33 実物体画像
G34 実物体画像
G311 液晶ディスプレイ画像
M1 ARマーカ
R1 視野領域
R21 マスク領域
R22 非マスク領域
V1 仮想端末装置
V31 仮想物体
V32 仮想物体
V33 仮想物体
V34 仮想物体
VR1 仮想視野領域

Claims (4)

  1. 実対象物が設けられている実空間に対応付けられている三次元仮想空間に前記実対象物に対応する三次元仮想対象物を設ける配置手段と、
    前記実空間を撮像する撮像手段と、
    前記配置手段が設けた前記三次元仮想対象物と、前記撮像手段が撮像した前記実空間の画像である実空間撮像画像とに基づいて、前記実空間撮像画像上のマスク対象領域であって前記三次元仮想対象物の位置又は形状を基準とした前記マスク対象領域をマスクした実空間マスク画像を生成する生成手段と、を備え、
    前記生成手段は、前記実空間撮像画像上の前記実対象物が写っていない領域を前記マスク対象領域としてマスクした前記実空間マスク画像を生成し、
    前記撮像手段は、前記実空間に設けられている撮像装置であり、
    前記配置手段は、前記実空間の前記撮像装置に対応する仮想撮像装置であって前記三次元仮想空間における前記仮想撮像装置と、前記三次元仮想対象物とが内部に配置される三次元仮想中空体であって、当該三次元仮想中空体の内外を区画する仮想区画壁を有する前記三次元仮想中空体を前記三次元仮想空間に設け、
    前記生成手段は、
    前記三次元仮想空間において、前記仮想撮像装置を基準として前記三次元仮想対象物が前記仮想区画壁に投影された場合の、投影された前記三次元仮想対象物の二次元形状に基づいて、前記実空間マスク画像を生成する、
    生成システム。
  2. 前記配置手段は、前記撮像装置が前記実空間内を移動することにより、前記仮想撮像装置が前記三次元仮想空間内を移動した場合に、前記三次元仮想空間内の前記仮想撮像装置の位置に応じて、前記三次元仮想中空体の位置を変更する、
    請求項に記載の生成システム。
  3. 前記配置手段は、前記三次元仮想空間内の所定位置に前記三次元仮想対象物を固定して設ける、
    請求項1又は2に記載の生成システム。
  4. コンピュータを、
    実対象物が設けられている実空間に対応付けられている三次元仮想空間に前記実対象物に対応する三次元仮想対象物を設ける配置手段と、
    前記配置手段が設けた前記三次元仮想対象物と、撮像手段が撮像した前記実空間の画像である実空間撮像画像とに基づいて、前記実空間撮像画像上のマスク対象領域であって前記三次元仮想対象物の位置又は形状を基準とした前記マスク対象領域をマスクした実空間マスク画像を生成する生成手段と、として機能させ、
    前記生成手段は、前記実空間撮像画像上の前記実対象物が写っていない領域を前記マスク対象領域としてマスクした前記実空間マスク画像を生成し、
    前記撮像手段は、前記実空間に設けられている撮像装置であり、
    前記配置手段は、前記実空間の前記撮像装置に対応する仮想撮像装置であって前記三次元仮想空間における前記仮想撮像装置と、前記三次元仮想対象物とが内部に配置される三次元仮想中空体であって、当該三次元仮想中空体の内外を区画する仮想区画壁を有する前記三次元仮想中空体を前記三次元仮想空間に設け、
    前記生成手段は、
    前記三次元仮想空間において、前記仮想撮像装置を基準として前記三次元仮想対象物が前記仮想区画壁に投影された場合の、投影された前記三次元仮想対象物の二次元形状に基づいて、前記実空間マスク画像を生成する、
    生成プログラム。
JP2020024986A 2019-03-18 2020-02-18 生成システム、及び生成プログラム Active JP6827134B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2019049692 2019-03-18
JP2019049692 2019-03-18

Publications (2)

Publication Number Publication Date
JP2020156083A JP2020156083A (ja) 2020-09-24
JP6827134B2 true JP6827134B2 (ja) 2021-02-10

Family

ID=72560044

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020024986A Active JP6827134B2 (ja) 2019-03-18 2020-02-18 生成システム、及び生成プログラム

Country Status (1)

Country Link
JP (1) JP6827134B2 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7294667B2 (ja) * 2020-10-27 2023-06-20 Necフィールディング株式会社 映像送信システム、映像送信システムの動作方法及び映像送信システムの動作プログラム

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
RU2216781C2 (ru) * 2001-06-29 2003-11-20 Самсунг Электроникс Ко., Лтд Основанные на изображениях способ представления и визуализации трехмерного объекта и способ представления и визуализации анимированного объекта
US7609910B2 (en) * 2004-04-09 2009-10-27 Siemens Medical Solutions Usa, Inc. System and method for creating a panoramic view of a volumetric image
JP5870958B2 (ja) * 2012-04-27 2016-03-01 キヤノンマーケティングジャパン株式会社 情報処理システム、その制御方法、及びプログラム、並びに情報処理装置、その制御方法、及びプログラム
JP2014219448A (ja) * 2013-05-01 2014-11-20 コニカミノルタ株式会社 表示システム、表示方法、表示端末および表示プログラム
JP6362401B2 (ja) * 2014-05-02 2018-07-25 キヤノン株式会社 画像処理装置及び画像処理装置の制御方法
JP7116410B2 (ja) * 2017-03-31 2022-08-10 株式会社バンダイナムコエンターテインメント プログラム及び画像生成システム

Also Published As

Publication number Publication date
JP2020156083A (ja) 2020-09-24

Similar Documents

Publication Publication Date Title
CN107209386B (zh) 增强现实视野对象跟随器
KR102222974B1 (ko) 홀로그램 스냅 그리드
JP6780642B2 (ja) 情報処理装置、情報処理方法及びプログラム
US20130282345A1 (en) Context aware surface scanning and reconstruction
KR20170100641A (ko) 실세계 객체들의 가상 표현들
JPWO2019123729A1 (ja) 画像処理装置、画像処理方法、およびプログラム
KR20230017849A (ko) 증강 현실 안내
WO2022005726A1 (en) Augmented reality eyewear 3d painting
CN114341943A (zh) 使用平面提取的简单环境求解器
KR20230029885A (ko) 말 풍선들 및 번역을 갖는 증강 현실 안경류
US20210407213A1 (en) Augmented reality eyewear with 3d costumes
WO2020179027A1 (ja) ヘッドマウント情報処理装置およびヘッドマウントディスプレイシステム
CN115735149A (zh) 包括多用户共享交互式体验的眼戴器
KR20230022239A (ko) 증강 현실 환경 향상
WO2017122270A1 (ja) 画像表示装置
JP6827134B2 (ja) 生成システム、及び生成プログラム
KR20230025913A (ko) 기분 공유를 갖는 증강 현실 안경류
JP2024024099A (ja) 後方散乱レーザスペックルパターンのオプティカルフローの追跡
EP4172739A1 (en) Eyewear with shared gaze-responsive viewing
JP6682624B2 (ja) 画像処理装置
US20230007227A1 (en) Augmented reality eyewear with x-ray effect
US11972037B2 (en) Head mounted information processing apparatus and head mounted display system
KR20210102210A (ko) 상호 작용을 위한 물리적 인터페이스로서의 모바일 플랫폼
JP6611143B1 (ja) 画像表示方法、画像表示システム、プログラム
CN112053444B (zh) 基于光通信装置叠加虚拟对象的方法和相应的电子设备

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200218

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20200218

AA64 Notification of invalidation of claim of internal priority (with term)

Free format text: JAPANESE INTERMEDIATE CODE: A241764

Effective date: 20200310

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200421

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20200421

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20200826

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200901

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201029

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210105

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210118

R150 Certificate of patent or registration of utility model

Ref document number: 6827134

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250