JP2017016202A - 画像処理装置、画像処理方法 - Google Patents

画像処理装置、画像処理方法 Download PDF

Info

Publication number
JP2017016202A
JP2017016202A JP2015129201A JP2015129201A JP2017016202A JP 2017016202 A JP2017016202 A JP 2017016202A JP 2015129201 A JP2015129201 A JP 2015129201A JP 2015129201 A JP2015129201 A JP 2015129201A JP 2017016202 A JP2017016202 A JP 2017016202A
Authority
JP
Japan
Prior art keywords
component
image
image processing
processing apparatus
size
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015129201A
Other languages
English (en)
Other versions
JP6564259B2 (ja
JP2017016202A5 (ja
Inventor
圭介 田宮
Keisuke Tamiya
圭介 田宮
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2015129201A priority Critical patent/JP6564259B2/ja
Publication of JP2017016202A publication Critical patent/JP2017016202A/ja
Publication of JP2017016202A5 publication Critical patent/JP2017016202A5/ja
Application granted granted Critical
Publication of JP6564259B2 publication Critical patent/JP6564259B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

【課題】 複数の構成要素から成る仮想物体の画像と現実空間の画像との合成画像上で構成要素を指示した場合に、どの構成要素を指示したのかを明確に通知するための技術を提供すること。
【解決手段】 外部機器において合成画像上で指定された位置を該外部機器から受信する。合成画像上で該位置に表示されている構成要素のサイズに基づいて、該構成要素若しくはツリー構造において該構成要素を配下とする構成要素の何れかを、指定構成要素として特定する。指定構成要素及びツリー構造において指定構成要素の配下の構成要素を強調表示した合成画像を生成して外部機器に対して送信する。
【選択図】 図1

Description

本発明は、仮想空間の画像と現実空間の画像との合成画像を取り扱う技術に関するものである。
従来、ヘッドマウントディスプレイなどの撮像装置が撮像した実空間の映像と、コンピュータグラフィックによって表現される仮想空間上の仮想物体と、を合成する拡張現実、複合現実という技術が実用化されている。具体的には、画像合成装置が、撮像装置が撮像した画像と、仮想空間上の仮想物体をレンダリングした画像と、を合成することで実現する。画像合成装置は、撮像装置に取り付けられた姿勢センサから取得した情報に基づいて仮想空間におけるカメラ情報を変更し、撮像装置の動きに仮想物体を追従させた合成画像を生成することができる。
また、撮像装置が特定のマーカを含む画像を撮像し、画像合成装置が画像からマーカの位置を特定することでマーカが存在する位置に仮想物体を表示させることができる。なお、マーカとは、被写体に取り付けてその三次元座標を特定するための目印である。
画像合成装置は、合成画像を撮像装置に表示する他、タッチパネルを持つタブレットなどの撮像装置とは異なる端末に表示することもある(特許文献1)。このような構成では、端末の利用者が、仮想物体の一部を画面上でタッチすることで、撮像装置装着者が参照する合成画像に対して操作を行うことが行われている。
特開2014−44655号公報
合成画像内の仮想物体は複数の部品で表現されることがある。この場合、端末利用者が画面をタッチすることで部品をハイライト表示などで強調して、撮像装置装着者に注目を促すことが行われる。
ただし、部品のサイズは、仮想物体の定義データの作成者により定義することが可能であるが、装着者と仮想物体との位置関係によって装着者の参照に適したサイズで表示されるとは限らないという問題があった。例えば、仮想物体の定義データでサイズが小さく設定されている部品は、装着者と仮想物体とが離れていた場合、さらに小さく表示され、装着者が合成画像の中で視認するには難しくなる。
本発明はこのような問題に鑑みてなされたものであり、複数の構成要素から成る仮想物体の画像と現実空間の画像との合成画像上で構成要素を指示した場合に、どの構成要素を指示したのかを明確に通知するための技術を提供する。
本発明の一様態は、ツリー構造で管理されている複数の構成要素から成る仮想物体と現実空間の画像との合成画像を生成して外部機器に送信する画像処理装置であって、前記外部機器において前記合成画像上で指定された位置を該外部機器から受信する受信手段と、前記合成画像上で前記位置に表示されている構成要素のサイズに基づいて、該構成要素若しくは前記ツリー構造において該構成要素を配下とする構成要素の何れかを、指定構成要素として特定する特定手段と、前記指定構成要素及び前記ツリー構造において前記指定構成要素の配下の構成要素を強調表示した前記合成画像を生成して前記外部機器に対して送信する送信手段とを備えることを特徴とする。
本発明の構成によれば、複数の構成要素から成る仮想物体の画像と現実空間の画像との合成画像上で構成要素を指示した場合に、どの構成要素を指示したのかを明確に通知することができる。
システムの構成例を示すブロック図。 画像表示装置120及び画像合成装置100が行う処理のフローチャート。 ステップS212における処理の詳細を示すフローチャート。 画像表示装置120及び画像合成装置100が行う処理のフローチャート。 画像表示装置120及び画像合成装置100が行う処理のフローチャート。 仮想物体とその見え方を示す図。 ツリーの一例を示す図。 システムの構成例を示すブロック図。 システムの構成例を示すブロック図。
以下、添付図面を参照し、本発明の好適な実施形態について説明する。なお、以下説明する実施形態は、本発明を具体的に実施した場合の一例を示すもので、特許請求の範囲に記載した構成の具体的な実施例の1つである。
[第1の実施形態]
本実施形態では、ツリー構造で管理されている複数の構成要素から成る仮想物体と現実空間の画像との合成画像を生成して外部機器に送信する画像処理装置であって、次のような構成を有することを特徴とする画像処理装置の一例について説明する。すなわちこの画像処理装置は、外部機器において合成画像上で指定された位置を該外部機器から受信する。そして画像処理装置は、合成画像上で該位置に表示されている構成要素のサイズに基づいて、該構成要素若しくはツリー構造において該構成要素を配下とする構成要素の何れかを、指定構成要素として特定する。そして画像処理装置は、指定構成要素及びツリー構造において指定構成要素の配下の構成要素を強調表示した合成画像を生成して外部機器に対して送信する。
先ず、本実施形態に係るシステムの構成例について、図1のブロック図を用いて説明する。図1に示す如く、本実施形態に係るシステムは、画像表示装置120、撮像装置130、画像合成装置100、記憶装置140を有し、それぞれの装置間は、LANやインターネットなどの有線若しくは有線のネットワークを介して接続されている。
先ず、記憶装置140について説明する。記憶装置140は、仮想物体を描画するためのデータであるモデルデータ141を保持している装置であり、ハードディスクドライブ装置等の大容量情報記憶装置で構成される。モデルデータ141には、例えば、仮想物体をポリゴンで表現する場合には、ポリゴンを構成する各頂点の位置、ポリゴンの法線ベクトル、ポリゴンの色などの属性、ポリゴンの配置位置情報、テクスチャデータ等が含まれている。代表的な3DグラフィックライブラリであるSGIのOpen Inventorでは、モデルデータはシーングラフというツリー構造で構成されており、ツリーを構成するグラフィック部品(構成要素)をノードと呼ぶ。本実施形態においても、モデルデータ141は、構成要素をノードとするツリーのデータであるものとする。構成要素をノードとするツリーの一例を図7に示す。
図7の左側には、最上段に位置する直方体(直方体Aと呼称する)、該直方体Aの直下に位置する直方体(直方体Bと呼称する)、該直方体Bの一方面と反対面とに2個ずつ位置する円柱、といった構成要素から成る仮想物体が示されている。このような仮想物体を構成するそれぞれの構成要素をツリー構造で表現すると図7の右側に示すようなツリーとなる。
このツリーにおいて最上位のノードとして仮想物体全体を定義したノードPが配されており、その配下の子ノードとしてノードX、ノードYが配されている。ノードXは直方体Aに対応しており、ノードYは直方体Bに対応している。また、ノードYの配下には、ノードZ1、Z2、Z3、Z4という子ノードが配されている。ノードZ1、Z3は、直方体Bの手前側の面に位置している円柱に対応しており、ノードZ2、Z4は、直方体Bの奥側の面に位置している円柱に対応している。
従って、図7の左側の仮想物体のモデルデータ141は、図7の右側のツリーのデータとなる。このように、本実施形態では、仮想物体を構成するそれぞれの構成要素をノードとし、且つそれぞれのノードをツリー構造にて管理しているものがモデルデータ141である。
次に、画像表示装置120について説明する。画像表示装置120は、画像合成装置100から送信された合成画像を受信して表示する機能、該表示した合成画像上でユーザが指示した位置を取得して画像合成装置100に送信する機能を有する装置であり、例えば、タッチパネル画面を有する装置である。このような画像表示装置120には、例えば、スマートフォン、タブレット端末装置、PC(パーソナルコンピュータ)を適用することができる。
CPU121は、メモリ122に格納されているコンピュータプログラムやデータを用いて処理を実行することで、画像表示装置120全体の動作制御を行うと共に、画像表示装置120が行うものとして後述する各処理を実行若しくは制御する。
メモリ122は、RAM、ハードディスクドライブ装置、フラッシュメモリなどで構成されている。ハードディスクドライブ装置やフラッシュメモリには、OS(オペレーティングシステム)や、画像表示装置120が行うものとして後述する各処理をCPU121に実行若しくは制御させるためのコンピュータプログラムやデータが保存されている。RAMは、ハードディスクドライブ装置やフラッシュメモリからロードされたコンピュータプログラムやデータ、画像合成装置100から受信したデータを格納するためのエリア、CPU121が各種の処理を実行する際に用いるワークエリアを有する。
取得部123は、表示部125上でタッチされた位置を取得する。送信部124は、取得部123が取得した位置を画像合成装置100に対して送信する。
受信部126は、画像合成装置100から送信された合成画像を受信する。表示部125は、受信部126が受信した合成画像を表示する。表示部125は、例えば、タッチパネル画面であり、受信部126が受信した合成画像を含む様々な画像や文字を表示する機能、ユーザによる画面上のタッチを検知する機能、を有する。なお、取得部123、送信部124、受信部126、表示部125は何れもハードウエアで構成しても構わないが、これら各機能部のそれぞれが行うものとして説明した処理(動作)の一部をソフトウェアで実現させても構わない。この場合、このソフトウェアは、メモリ122に格納され、CPU121による実行対象となる。
次に、撮像装置130について説明する。撮像装置130は、現実空間の動画像を撮像して画像合成装置100に送信する機能、自身の位置姿勢を計測して画像合成装置100に送信する機能、画像合成装置100から送信された合成画像を表示する機能、を有する装置である。撮像装置130は、例えば、ヘッドマウントディスプレイ装置である。
次に、画像合成装置100について説明する。画像合成装置100は、撮像装置130の位置姿勢に基づいて仮想物体の画像を生成し、該仮想物体の画像と撮像装置130が撮像した現実空間の画像との合成画像を生成し、該合成画像を画像表示装置120及び撮像装置130に対して送信する機能を有する。なお、画像合成装置100は、合成画像を生成する際には、画像表示装置120側で合成画像上で指定された位置に応じた構成要素を強調表示した合成画像を生成する。画像合成装置100には、例えば、PCやサーバ装置を適用することができる。
CPU101は、メモリ102に格納されているコンピュータプログラムやデータを用いて処理を実行することで、画像合成装置100全体の動作制御を行うと共に、画像合成装置100が行うものとして後述する各処理を実行若しくは制御する。
メモリ102は、RAM、ハードディスクドライブ装置、フラッシュメモリなどで構成されている。ハードディスクドライブ装置やフラッシュメモリには、OS(オペレーティングシステム)や、画像合成装置100が行うものとして後述する各処理をCPU101に実行若しくは制御させるためのコンピュータプログラムやデータが保存されている。RAMは、ハードディスクドライブ装置やフラッシュメモリからロードされたコンピュータプログラムやデータ、画像表示装置120や撮像装置130から受信したデータを格納するためのエリアを有する。さらにはRAMは、CPU101が各種の処理を実行する際に用いるワークエリアを有する。
受信部103、選択部104、変換部105、読み込み部106、送信部111、取得部112、生成部110、判断部109、算出部107、取得部108、検索部113、取得部114、検証部115のそれぞれの機能については後述する。なお、これらの機能部をハードウエアで構成しても構わないが、これら機能部の機能のうちの一部の機能についてはソフトウェアで実現させても構わない。この場合、このソフトウェアは、メモリ102に格納され、CPU101による実行対象となる。
次に、画像表示装置120及び画像合成装置100のそれぞれが行う処理について、図2のフローチャートを用いて説明する。なお、図2のフローチャートにおいて、ステップS201,S202,S215,S216の各ステップにおける処理は、画像表示装置120側で行う処理である。また、ステップS203〜S214の各ステップにおける処理は、画像合成装置100側で行う処理である。
なお、図2のフローチャートに従った処理の開始時点で、画像表示装置120の表示部125及び撮像装置130の表示画面には、画像合成装置100が生成した合成画像が表示されているものとする。この合成画像は、モデルデータ141に基づく仮想物体を撮像装置130の位置姿勢を有する視点から見た場合の該仮想物体の画像と、撮像装置130が撮像した現実空間の画像と、の合成画像である。
<ステップS201>
画像表示装置120のユーザは、表示部125に表示されている合成画像を閲覧し、該合成画像中に写っている仮想物体の各構成要素のうち着目構成要素の表示位置をタッチする。表示部125がユーザによる表示画面上(タッチパネル画面上)のタッチを検知すると、取得部123は、表示画面上におけるユーザによるタッチ位置(タッチ座標)を取得する。タッチ座標とは、例えば、表示部125の表示画面の左上隅の位置の座標を(0,0)とし、水平方向にx座標、垂直方向にy座標を規定した座標系においてユーザがタッチした位置の座標である。
<ステップS202>
送信部124は、ステップS201において取得部123が取得したタッチ座標を画像合成装置100に対して送信する。
<ステップS203>
受信部103は、送信部124によって送信されたタッチ座標を受信する。
<ステップS204>
読み込み部106は、記憶装置140からモデルデータ141を読み出す。
<ステップS205>
取得部112は、撮像装置130から送信された「撮像装置130によって撮像された現実空間の画像」(背景画像)及び「撮像装置130の位置姿勢」を受信する。撮像装置130の位置姿勢は、世界座標系(現実空間中の1点を原点とし、該原点で互いに直交する3軸をそれぞれx軸、y軸、z軸とする座標系)におけるものであるとする。
<ステップS206>
変換部105は、ステップS204において読み出されたモデルデータ141に含まれている各ポリゴンの頂点の座標を、撮像装置130が有する表示画面上の座標に変換する。この座標変換は、一般的にモデリング変換、視野変換、投影変換、ビューポート変換の4つの座標変換で実現されることが知られている。
モデリング変換では、モデルデータ141の座標系(モデルリング座標系)上の座標を世界座標系上の座標に変換する。視野変換では、世界座標系上の座標を、撮像装置130の位置を原点とする座標系(ビュー座標系)上の座標に変換する。投影変換では、ビュー座標系上の座標を平面上の座標系(投影座標系)に変換する。なお、本実施形態では、投影変換として、撮像装置130と仮想物体との間の距離に応じて該仮想物体のサイズを変更する透視投影を使用する。ビューポート変換では、投影座標系上の座標を、撮像装置130が有する表示画面の座標系(ビューポート座標)に変換する。なお、変換部105は、座標変換時に、ビューポート座標系での座標のほか、奥行を表現するデプス値も保存する。
このようにして変換部105は、モデルデータ141に基づく仮想物体を撮像装置130の表示画面に投影した投影仮想物体を得ることができる。このような変換処理により、仮想物体を構成するそれぞれの構成要素の撮像装置130の表示画面上における投影領域(投影された頂点(投影頂点)で囲まれた領域)を求めると共に、それぞれの構成要素のデプス値をそのまま保存することができる。なお、上記の通り、構成要素とノードとは1対1の関係であるから、このような座標変換は、ノードの座標変換でもある。
モデルデータ141の座標系(モデル座標系)における、該モデルデータ141に基づく仮想物体を図6(a)に示す。このような仮想物体を世界座標系に配置した様子を図6(b)に示す。ここで、視点V1から見た仮想物体の画像(撮像装置130の表示画面のビューポート座標上での仮想物体の見え方)を図6(c)に示す。また、視点V1よりも仮想物体から遠い視点V2から見た仮想物体の画像(撮像装置130の表示画面のビューポート座標上での仮想物体の見え方)を図6(d)に示す。視点V2は視点V1よりも仮想物体から遠いので、当然ながら、図6(d)の画像中における仮想物体のサイズは図6(c)の画像中における仮想物体よりも小さくなってしまう。
<ステップS207>
選択部104は、「仮想物体を構成するそれぞれの構成要素」のうち、ステップS203において受信したタッチ座標を含む投影領域に対応する構成要素を選択する。なお、撮像装置130の表示画面の縦横サイズと表示部125の縦横サイズとが異なる場合には、そのサイズ比に応じてタッチ座標を変換することで、表示部125上のタッチ座標を、撮像装置130の表示画面上のタッチ座標に変換する必要がある。そして該変換後、選択部104は、「仮想物体を構成するそれぞれの構成要素」のうち、該変換したタッチ座標を含む投影領域に対応する構成要素を選択する。このように、撮像装置130の表示画面の縦横サイズと表示部125の縦横サイズとが異なる場合には、それぞれの画面間で対応する座標を得るためには適宜変換が必要となる
また、選択部104が複数の構成要素を選択した場合には、デプス値が最も小さい構成要素、すなわち、選択した構成要素のうち最も撮像装置130に近い構成要素を選択する。
例えば、図6(c)に示す如く、タッチ座標がT1である場合、タッチ座標T1を含む投影領域に対応する構成要素は、ノードZ3に対応する構成要素と、その奥側に位置しているノードZ1に対応する構成要素の2つとなる。しかし、ノードZ3に対応する構成要素がノードZ1に対応する構成要素よりも撮像装置130に近いため、この場合は、ノードZ3に対応する構成要素を選択することになる。
なお、ステップS206,S207における処理(3次元仮想物体を表示している画面上で指定した位置に対応する構成要素を選択する処理)は、一般的な3Dグラフィックライブラリがセレクションとよばれる標準機能によって実現可能である。この一般的な3Dグラフィックライブラリには、Open InventorやOpenGLなどがある。
<ステップS208>
算出部107は、ステップS207において選択された選択構成要素(候補ノード)の評価値を求める。ここで求める評価値とは、ビューポート座標系における選択構成要素のサイズ(撮像装置130の表示画面で表示された場合の表示サイズ)である。例えば、選択構成要素の投影領域を構成する各投影頂点のうち頂点間の距離が最大となる2頂点間の距離を評価値としても構わない。また、世界座標系における撮像装置130の位置と、選択構成要素の各頂点の位置と、を結んだ線で構成される立体角の最大値を評価値としても構わない。
<ステップS209>
取得部108は、選択構成要素を、ユーザが指定した構成要素として採用するか否かを判断するために上記の評価値と比較される選択基準を取得する。ここでは一例として、撮像装置130の表示画面において視認可能な最小サイズを選択基準とするが、これに限るものではない。他にも例えば、画像表示装置120の表示部125においてユーザが指でタップすることができる領域の最小サイズ(最小タップサイズ)を1辺の長さとする正方形の面積を選択基準としても良い。また、最小値だけではなく、最大値を選択基準として使用してもよい。さらに、上記の組み合わせを選択基準として使用してもよい。
<ステップS210>
判断部109は、ステップS208において求めた評価値と、ステップS209において取得した選択基準と、を比較して、選択構成要素を、ユーザが合成画像上で指定した構成要素として採用するのか否かを判断する。この判断の結果、採用すると判断した場合には、処理はステップS211を介してステップS213に進み、採用しないと判断した場合には、処理はステップS211を介してステップS212に進む。
例えば、図6(c)に示す如く、タッチ座標がT1であり、その結果、ノードZ3に対応する構成要素が選択構成要素として選択されたとする。図6(c)においては選択構成要素は円として投影されており、その半径を15とする。このとき、評価値を撮像装置130の表示画面上における選択構成要素の面積Sz3、選択基準を撮像装置130の表示画面において視認可能な最小面積S0=49とすると、以下の式が成立し、その結果、選択構成要素は採用すると判断される。
Sz3=(15×15)×π=706.5>S0=49
その結果、処理はステップS211を介してステップS213に進むことになる。なお、同様のケースにおいて選択構成要素の半径が3の場合、以下の式が成立し、その結果、選択構成要素は採用しないと判断する。
Sz3=(3×3)×π=28.3<S0=49
その結果、処理はステップS211を介してステップS212に進むことになる。このように、選択構成要素のサイズが規定サイズ以上であるのか規定サイズ未満であるのかを判断するようにしても構わない。
<ステップS212>
本ステップでは、ツリー構造において、ステップS207において選択された選択構成要素を配下とする構成要素の何れかを、新たな選択構成要素として選択する為の処理を行う。ステップS212における処理の詳細について、図3のフローチャートを用いて説明する。
<ステップS301>
検索部113は、モデルデータ141から、ステップS207で選択した選択構成要素の直上の親ノード(1つ上位のノード)を検索する。例えば、ステップS207において図7のノードZ3に対応する構成要素が選択構成要素として選択された場合、ステップS301では、検索部113は、ノードZ3の親ノードであるノードYを検索することになる。
<ステップS302>
取得部114は、モデルデータ141から、ステップS301において検索部113が検索したノードに対応する構成要素の属性値を取得する。
<ステップS303>
検証部115は、ステップS302において取得した属性値が、予め定められた前提条件を満たしているか否かを判断する。前提条件は、その属性値を有する構成要素が表示可能であるか否かを判断するためのものであり、様々なものが考え得る。例えば、前提条件は、「属性値に「可視」が設定されている」であっても良いし、「属性値に、ノードをグルーピングするための形式的な「コンテナノード」が設定されていない」であっても良い。
また、別の例として、ノードのサイズ属性が子ノードとほぼ同じ場合、それぞれのノードに対応する構成要素の撮像装置130の表示画面上における表示サイズはほぼ同じと仮定し、前提条件を満たさないとしてもよい。
このような判断の結果、属性値が前提条件を満たしている場合には、処理はステップS304を介してステップS305に進む。一方、属性値が前提条件を満たしていない場合には、処理はステップS304を介してステップS301に戻り、更に上位の親ノードを検索する。
<ステップS305>
選択部104は、ステップS301において検索部113が検索したノードに対応する構成要素を選択構成要素として取得する。以上説明した図3のフローチャートに従った処理の結果、選択部104が選択構成要素を取得すると、処理はステップS208に戻る。ここで、ステップS212において図7のノードZ3に対応する構成要素を選択構成要素として取得し、その後、ステップS208〜S211の処理によって、該選択構成要素を採用しないと判断されたとする。この場合、再びステップS212の検索処理が行われ、その結果、ノードYに対応する構成要素を選択構成要素として取得することになる。そして、ノードYに対応する構成要素の撮像装置130の表示画面上における縦サイズ=6、横サイズ=24であるとすると、該構成要素の面積Syは以下の式を満たすことになり、該構成要素は採用すると判断される。
Sy=6×24=144>S0=49
<ステップS213>
生成部110は、モデルデータ141に基づく仮想物体を、ステップS205において取得部112が取得した「撮像装置130の位置姿勢」を有する視点から見た画像を生成する。その際、生成部110は、選択構成要素と、ツリー構造において該選択構成要素の配下に位置する構成要素と、を強調表示する。強調表示の方法には様々な方法があり、点滅させて表示しても構わないし、他の構成要素とは異なる色で表示しても構わない。また、文字などの付加情報を共に表示しても構わない。
そして生成部110は、このようにして生成した仮想物体の画像と、ステップS205において取得部112が取得した「撮像装置130によって撮像された現実空間の画像」と、を合成して合成画像を生成する。現実空間の画像と仮想空間の画像とを合成して合成画像(所謂複合現実空間の画像)を生成するための処理については周知であるため、該処理に係る説明は省略する。
<ステップS214>
送信部111は、ステップS213において生成部110が生成した合成画像を画像表示装置120及び撮像装置130に対して送信する。
<ステップS215>
画像表示装置120の受信部126は、送信部111が送信した合成画像を受信する。
<ステップS216>
表示部125は、ステップS215において受信部126が受信した合成画像を表示する。
これにより画像表示装置120の表示部125及び撮像装置130の表示画面には、ユーザが指定した位置に表示されている構成要素のサイズを加味した上で決定された選択構成要素及びその配下の構成要素が強調表示された合成画像が表示されることになる。
なお、ステップS212の処理によって、候補ノードのすべての評価値を求める必要がなくなるため、合成画像を画像表示装置120及び撮像装置130に早く送信することが可能となる。
[第2の実施形態]
本実施形態では、上記のステップS209において取得した選択基準を補正する点が第1の実施形態と異なる。以下では第1の実施形態との差分について重点的に説明し、以下で特に触れない限りは第1の実施形態と同様であるものとする。
本実施形態に係るシステムの構成例について、図8のブロック図を用いて説明する。図8に示した構成は、図1に示した構成において、画像合成装置100に補正部801を加えた構成となっている。
画像表示装置120及び画像合成装置100のそれぞれが行う処理について、図4のフローチャートを用いて説明する。図4のフローチャートは、図2のフローチャートにおいて、ステップS209とステップS210との間にステップS401を設けたものとなっている。
ステップS401では、補正部801が、ステップS209において取得部108が取得した選択基準を、様々な状況に合わせて補正する。そしてステップS210では、判断部109は、ステップS208において求めた評価値と、ステップS401において補正した選択基準と、を比較して、選択構成要素を、ユーザが合成画像上で指定した構成要素として採用するのか否かを判断する。ステップS401における補正処理には様々なものが考えられるが、以下では幾つかの例を説明する。
例えば、ユーザが画像表示装置120に備わっているユーザインターフェースや撮像装置130に備わっているユーザインターフェースを操作して、選択基準の補正内容を設定した場合には、受信部103や取得部112が該補正内容を取得する。そして補正部801は、該取得した補正内容に基づいて、ステップS209において取得した選択基準を補正する。この補正内容は、例えば、選択基準が上記のS0である場合には、その補正値αとすることができる。α=10%の場合、補正部801は、下記のようにして選択基準S0を補正する。
S0’=(100+10)/100×S0
そして第1の実施形態ではステップS210では選択基準としてS0を用いていたが、本実施形態では、ステップS210では、選択基準としてS0の代わりにS0’を用いる。なお、補正値は全ての仮想物体で同じであっても構わないし、複数の仮想物体を幾つかのグループに分割した場合に、グループ毎に補正値を設定しても構わないし、仮想物体毎に補正値を設定しても構わない。例えば、「車」の仮想物体、「机の仮想物体」等、様々な属性の仮想物体において、同じ属性の仮想物体には同じ補正値を設定するようにしても構わない。仮想物体の属性はモデルデータ141に適宜されている。
また、仮想物体を構成する構成要素(ノード)の数に応じて補正値を変えても構わない。例えば、仮想物体を構成する構成要素の数が大きいほど補正値を大きくしても良いし、構成要素の数が一定数未満であるときの補正値よりも一定数以上であるときの補正値を大きくしても構わない。
また、仮想物体のサイズに応じて補正値を変えても構わない。例えば、仮想物体のサイズが大きいほど補正値を大きくしても良いし、仮想物体のサイズが一定数未満であるときの補正値よりも一定数以上であるときの補正値を大きくしても構わない。
また、前回画像表示装置120からタッチ座標を受信してから規定時間内に、仮想物体と撮像装置130との間のビュー座標系における距離が規定距離以上縮まった場合に補正値を適用する、としても構わない。例えば、前回画像表示装置120からタッチ座標を受信してから1秒以内に、仮想物体と撮像装置130との間のビュー座標系における距離が1メートル以上縮まった場合に補正値α=−10%を適用する、としても構わない。
[第3の実施形態]
本実施形態では、ステップS207において選択した構成要素が、前回のステップS207において選択した構成要素と同じである場合には、該構成要素の代わりに、該構成要素の直上の親ノードに対応する構成要素を選択構成要素として選択する。以下では第1の実施形態との差分について重点的に説明し、以下で特に触れない限りは第1の実施形態と同様であるものとする。
本実施形態に係るシステムの構成例について、図9のブロック図を用いて説明する。図9に示した構成は、図1に示した構成において、画像合成装置100に設定部901を加えた構成となっている。
画像表示装置120及び画像合成装置100のそれぞれが行う処理について、図5のフローチャートを用いて説明する。図5のフローチャートは、図2のフローチャートにおいて、ステップS207とステップS208との間にステップS501及びステップS502を設けたものとなっている。
ステップS207において選択した構成要素が、前回のステップS207において選択した構成要素と同じである場合には、処理はステップS501を介してステップS502に進む。一方、ステップS207において選択した構成要素が、前回のステップS207において選択した構成要素と異なる場合には、処理はステップS501を介してステップS208に進む。
ステップS502では、設定部901は、ステップS207で選択した構成要素の代わりに、該構成要素の直上の親ノードに対応する構成要素を選択構成要素として選択する。これにより、画像表示装置120の表示画面上で複数回同じ位置をタッチすることにより、選択構成要素を切り替えることが可能となる。
なお、ステップS502では、親ノードの構成要素を選択することに限るものではなく、ステップS207において選択された構成要素のノードと関連するノードに対応する構成要素を選択しても良い。例えば、ステップS207において選択された構成要素の親ノード配下の兄弟ノードに対応する構成要素を選択しても構わない。
[第4の実施形態]
第1〜3の実施形態では、撮像装置130の位置姿勢はセンサ等の計測機器を用いて計測するものとしたが、撮像装置130の位置姿勢を求めるための技術には様々なものがあり、何れを採用しても構わない。例えば、現実空間中に配したマーカや予め現実空間中に存在する自然特徴を用いて撮像装置130の位置姿勢を求める方法もある。また、このような画像を用いた位置姿勢を求める方法とセンサを用いた位置姿勢計測方法とを併用してより高精度の位置姿勢を求める方法を採用しても構わない。
また、図1,8,9では、画像合成装置100に接続されている画像表示装置120及び撮像装置130の台数は1としているが、複数台の画像表示装置120及び撮像装置130を画像合成装置100に接続しても構わない。
また、図1,8,9では、モデルデータ141は、記憶装置140に保存されており、画像合成装置100はモデルデータ141を該記憶装置140から取得している。しかし、モデルデータ141はどのような装置に保存させても良く、ネットワークを介して他の装置(PC,サーバ装置など)から取得するようにしても構わない。
また、仮想物体の配置位置姿勢については、予めモデルデータ141で規定されても良いし、動的に変更しても構わない。また、現実空間中にマーカなどを配し、該マーカに記載の情報や該マーカの位置姿勢に応じた位置姿勢でもって仮想物体を配しても構わない。また、上記の実施形態の一部若しくは全部を適宜組み合わせて実施しても構わない。
(その他の実施例)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
103:受信部 104:選択部 107:算出部 108:取得部 109:判断部 110:生成部 111:送信部

Claims (15)

  1. ツリー構造で管理されている複数の構成要素から成る仮想物体と現実空間の画像との合成画像を生成して外部機器に送信する画像処理装置であって、
    前記外部機器において前記合成画像上で指定された位置を該外部機器から受信する受信手段と、
    前記合成画像上で前記位置に表示されている構成要素のサイズに基づいて、該構成要素若しくは前記ツリー構造において該構成要素を配下とする構成要素の何れかを、指定構成要素として特定する特定手段と、
    前記指定構成要素及び前記ツリー構造において前記指定構成要素の配下の構成要素を強調表示した前記合成画像を生成して前記外部機器に対して送信する送信手段と
    を備えることを特徴とする画像処理装置。
  2. 前記受信手段は、前記外部機器のタッチパネル画面上でユーザがタッチした位置を該外部機器から取得することを特徴とする請求項1に記載の画像処理装置。
  3. 前記特定手段は、
    前記合成画像上で前記位置に表示されている構成要素のサイズが規定サイズ以上であれば該構成要素を前記指定構成要素として特定することを特徴とする請求項1又は2に記載の画像処理装置。
  4. 前記特定手段は、
    前記合成画像上で前記位置に表示されている構成要素のサイズが規定サイズ未満であれば、前記ツリー構造において該構成要素を配下とする構成要素を前記指定構成要素として特定することを特徴とする請求項1乃至3の何れか1項に記載の画像処理装置。
  5. 前記特定手段は、
    前記合成画像上で前記位置に表示されている構成要素のサイズが規定サイズ未満であれば、前記ツリー構造において該構成要素を配下とする構成要素のうち規定の条件を満たす構成要素を前記指定構成要素として特定することを特徴とする請求項4に記載の画像処理装置。
  6. 前記特定手段は、
    特定した構成要素が前記特定手段が前回に特定した構成要素と同じである場合には、前記ツリー構造において該構成要素と関連するノードの構成要素を前記指定構成要素として特定することを特徴とする請求項1乃至5の何れか1項に記載の画像処理装置。
  7. 更に、
    前記規定サイズを補正する補正手段を備え、
    前記特定手段は、前記補正手段によって補正された規定サイズを用いることを特徴とする請求項3乃至6の何れか1項に記載の画像処理装置。
  8. 前記補正手段は、前記仮想物体の属性に応じた補正値で前記規定サイズを補正することを特徴とする請求項7に記載の画像処理装置。
  9. 前記補正手段は、前記仮想物体を構成する構成要素の数に応じた補正値で前記規定サイズを補正することを特徴とする請求項7に記載の画像処理装置。
  10. 前記補正手段は、前記仮想物体のサイズに応じた補正値で前記規定サイズを補正することを特徴とする請求項7に記載の画像処理装置。
  11. 前記補正手段は、前記受信手段が前回に前記位置を受信してから規定時間内に前記現実空間の画像を撮像する装置と前記仮想物体との間の距離が規定距離以上縮まった場合に前記規定サイズを補正することを特徴とする請求項7に記載の画像処理装置。
  12. 前記規定サイズは、前記外部機器の表示画面においてタッチが可能な最小の領域のサイズであることを特徴とする請求項3乃至11の何れか1項に記載の画像処理装置。
  13. 前記規定の条件は、可視の構成要素であることを特徴とする請求項5に記載の画像処理装置。
  14. ツリー構造で管理されている複数の構成要素から成る仮想物体と現実空間の画像との合成画像を生成して外部機器に送信する画像処理装置が行う画像処理方法であって、
    前記画像処理装置の受信手段が、前記外部機器において前記合成画像上で指定された位置を該外部機器から受信する受信工程と、
    前記画像処理装置の特定手段が、前記合成画像上で前記位置に表示されている構成要素のサイズに基づいて、該構成要素若しくは前記ツリー構造において該構成要素を配下とする構成要素の何れかを、指定構成要素として特定する特定工程と、
    前記画像処理装置の送信手段が、前記指定構成要素及び前記ツリー構造において前記指定構成要素の配下の構成要素を強調表示した前記合成画像を生成して前記外部機器に対して送信する送信工程と
    を備えることを特徴とする画像処理方法。
  15. コンピュータを、請求項1乃至13の何れか1項に記載の画像処理装置の各手段として機能させるためのコンピュータプログラム。
JP2015129201A 2015-06-26 2015-06-26 画像処理装置、画像処理方法 Active JP6564259B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015129201A JP6564259B2 (ja) 2015-06-26 2015-06-26 画像処理装置、画像処理方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015129201A JP6564259B2 (ja) 2015-06-26 2015-06-26 画像処理装置、画像処理方法

Publications (3)

Publication Number Publication Date
JP2017016202A true JP2017016202A (ja) 2017-01-19
JP2017016202A5 JP2017016202A5 (ja) 2018-08-02
JP6564259B2 JP6564259B2 (ja) 2019-08-21

Family

ID=57830755

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015129201A Active JP6564259B2 (ja) 2015-06-26 2015-06-26 画像処理装置、画像処理方法

Country Status (1)

Country Link
JP (1) JP6564259B2 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020528184A (ja) * 2017-07-28 2020-09-17 ▲騰▼▲訊▼科技(深▲セン▼)有限公司 情報処理方法、装置、端末機器及びコンピューター読み取り可能な記憶媒体
WO2020195021A1 (ja) * 2019-03-28 2020-10-01 日本電気株式会社 情報処理装置、表示システム、表示方法、及びプログラムが格納された非一時的なコンピュータ可読媒体

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020528184A (ja) * 2017-07-28 2020-09-17 ▲騰▼▲訊▼科技(深▲セン▼)有限公司 情報処理方法、装置、端末機器及びコンピューター読み取り可能な記憶媒体
US11645817B2 (en) 2017-07-28 2023-05-09 Tencent Technology (Shenzhen) Company Limited Information processing method and apparatus, terminal device, and computer readable storage medium on displaying decoupled virtual objects in a virtual scene
WO2020195021A1 (ja) * 2019-03-28 2020-10-01 日本電気株式会社 情報処理装置、表示システム、表示方法、及びプログラムが格納された非一時的なコンピュータ可読媒体

Also Published As

Publication number Publication date
JP6564259B2 (ja) 2019-08-21

Similar Documents

Publication Publication Date Title
US10964108B2 (en) Augmentation of captured 3D scenes with contextual information
CN105659295B (zh) 用于在移动设备上的真实环境的视图中表示兴趣点的方法以及用于此方法的移动设备
JP5592011B2 (ja) マルチスケール3次元配向
US9268410B2 (en) Image processing device, image processing method, and program
US8929628B2 (en) Measuring device and measuring method
KR102279300B1 (ko) 가상 물체 표시 제어 장치, 가상 물체 표시 시스템, 가상 물체 표시 제어 방법, 및 가상 물체 표시 제어 프로그램
US11490062B2 (en) Information processing apparatus, information processing method, and storage medium
JP2020014159A (ja) ファイルの生成装置およびファイルに基づく映像の生成装置
US10712473B2 (en) Weather data processing apparatus and method using weather radar
WO2019000692A1 (zh) 立体图形绘制方法、装置、设备及存储介质
JP2020173529A (ja) 情報処理装置、情報処理方法、及びプログラム
JP6564259B2 (ja) 画像処理装置、画像処理方法
US20190243461A1 (en) Cable movable region display device, cable movable region display method, and cable movable region display program
JP2009266251A (ja) 電子関数グラフ表示装置、座標取得装置、電子関数グラフ表示方法、座標取得方法、及びプログラム
JP2013092888A (ja) データ処理装置
JP2017184136A (ja) 情報処理装置、情報処理方法、情報処理システム及びプログラム
JP6405539B2 (ja) 多視点画像に対するラベル情報の処理装置及びそのラベル情報の処理方法
CN114442888A (zh) 对象确定方法、装置及电子设备
JP7401245B2 (ja) 画像合成装置、画像合成装置の制御方法およびプログラム
JP5287613B2 (ja) 画像表示方法、情報処理装置および画像表示プログラム
KR20210076615A (ko) 영상 정보 제공 방법 및 장치
CN113129362B (zh) 一种三维坐标数据的获取方法及装置
CN108920598A (zh) 全景图浏览方法、装置、终端设备、服务器及存储介质
CN117237500A (zh) 三维模型显示视角调整方法、装置、电子设备及存储介质
CN116880693A (zh) 三维手模的显示方法、装置、电子设备及可读存储介质

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180620

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180620

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190624

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190628

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190726

R151 Written notification of patent or utility model registration

Ref document number: 6564259

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151