JP5857946B2 - 画像処理装置、画像処理方法およびプログラム - Google Patents
画像処理装置、画像処理方法およびプログラム Download PDFInfo
- Publication number
- JP5857946B2 JP5857946B2 JP2012262523A JP2012262523A JP5857946B2 JP 5857946 B2 JP5857946 B2 JP 5857946B2 JP 2012262523 A JP2012262523 A JP 2012262523A JP 2012262523 A JP2012262523 A JP 2012262523A JP 5857946 B2 JP5857946 B2 JP 5857946B2
- Authority
- JP
- Japan
- Prior art keywords
- modeling data
- user
- image processing
- virtual
- processing apparatus
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Processing Or Creating Images (AREA)
Description
[ハードウェア構成]
図1は、本発明の一実施形態に係る画像処理装置1のハードウェアの構成を示すブロック図である。
画像処理装置1は、例えばHMD端末100として構成される。
CPU11は、例えば、後述する3Dモデリングデータ生成処理のためのプログラム等、ROM12に記録されているプログラム、または、記憶部19からRAM13にロードされたプログラムに従って各種の処理を実行する。
フォーカスレンズは、イメージセンサの受光面に被写体像を結像させるレンズである。ズームレンズは、焦点距離を一定の範囲で自在に変化させるレンズである。
光学レンズ部にはまた、必要に応じて、焦点、露出、ホワイトバランス等の設定パラメータを調整する周辺回路が設けられる。
光電変換素子は、例えばCMOS(Complementary Metal Oxide Semiconductor)型の光電変換素子等から構成される。光電変換素子には、光学レンズ部から被写体像が入射される。そこで、光電変換素子は、被写体像を光電変換(撮像)して画像信号を一定時間蓄積し、蓄積した画像信号をアナログ信号としてAFEに順次供給する。
AFEは、このアナログの画像信号に対して、A/D(Analog/Digital)変換処理等の各種信号処理を実行する。各種信号処理によって、ディジタル信号が生成され、撮像部16の出力信号として出力される。
このような撮像部16の出力信号を、以下、「撮像画像のデータ」と呼ぶ。撮像画像のデータは、CPU11等に適宜供給される。
出力部18は、ディスプレイやスピーカ等で構成され、画像や音声を出力する。
記憶部19は、ハードディスクあるいはDRAM(Dynamic Random Access Memory)等で構成され、各種画像のデータを記憶する。
通信部20は、インターネットを含むネットワークを介してHMD端末100や感覚フィードバック装置110との間で行う通信を制御する。HMD端末100や感覚フィードバック装置110については、後述の図2を参照して説明する。
次に、図1の画像処理装置1の使用例について説明する。
図2は、図1の画像処理装置1をユーザが使用している様子の一例を模式的に示す図である。
なお、画像処理装置1の撮像部16は、ユーザの手の動きを示す一連の撮像画像のデータを出力できるものとする。
より具体的には例えば、図2の例では、ユーザ200が建築を依頼している「家」についての3Dモデリングデータが記憶部19に記憶されているものとする。この3Dモデリングデータは、家を構成する各要素(扉、窓、壁、家具等)を示す仮想物体(以下、「部品」と呼ぶ)が組み合わされて構成されている。図2には、扉の部品300Mが示されている。仮想空間内の各部品の位置や大きさ等は、実空間内の各要素の位置や大きさ等に対応しているものとする。ただし、「家」は設計段階であり実空間上に未だ存在しないため、各部品の位置や大きさ等は自在に可変できるものとする。
HMD端末100に表示される2次元画像は、当該3Dモデリングデータを含む仮想空間内に存在する「視点」から眺望した様子(2次元平面に投影した様子)を示している。この視点は、画像処理装置1の入力部17(図1)に対するユーザ200の所定の操作や、ユーザ200の身体に装着したHMD端末100の向きに応じて、仮想空間内を自在に移動可能であり、その方向も自在に変更可能である。
これにより、ユーザ200は、HMD端末100に表示される2次元画像、即ち、仮想空間内の視点から眺望した家の外部または内部を示す2次元画像を、あたかも自身の目で眺めたかのように見ることができる。図2の例では、扉の部品300Mを含む室内の仮想空間において当該扉の部品300Mを眺望可能な位置に視点が配置されており、この視点から眺めた様子の2次元画像、即ち扉の画像300Gを含む2次元画像が、HMD端末100に表示される。そして、ユーザ200は、入力部17を操作して視点の位置および方向を自在に変更することで、HMD端末100に表示される2次元画像の内容を、あたかも自身が移動したり自身の目を動かした際に見える風景に変化させることができる。このようにして、ユーザ200は、視覚的に、仮想空間を擬似的に体感することができる。
画像処理装置1は、上述したように、ユーザが手を動かしている様子が写る一連の撮像画像のデータから、当該手の動きを認識することで、3Dモデリングデータの仮想物体の位置や大きさの修正指示を認識する。そして、画像処理装置1は、認識した手の動き(その位置と方向と姿勢との時間推移)に基づいて3Dモデリングデータを修正する。
具体的には例えば図2の例では、ユーザは、HMD端末100に表示される扉の画像300Gをあたかも手で押し広げるように、実空間上で左右の手を所定方向に離していくように動かすことで、3Dモデリングデータの扉の部品300Mの寸法を修正する指示をする。この場合、撮像部16は、実空間におけるユーザ200の手の動きの様子を逐次撮像し、撮像画像のデータを逐次出力する。画像処理装置1は、撮像部16から逐次出力される撮像画像のデータから、ユーザ200の手の位置と方向と姿勢の時間的推移(動き)を検出し、検出された位置と方向と姿勢との時間推移に基づいて、3Dモデリングデータの修正を行う部位が扉の部品300Mであることと、その扉の部品300Mの修正後のサイズ等を特定する。そして、画像処理装置1は、特定した内容に基づいて、3Dモデリングデータを修正する。
図3は、このような画像処理装置1の機能的構成のうち、3Dモデリングデータ生成処理を実行するための機能的構成を示す機能ブロック図である。
3Dモデリングデータ生成処理とは、実空間内の所定部位の位置と方向と姿勢を、実空間の座標系と仮想空間の座標系との対応関係に基づいて変換された仮想空間内の位置と方向と姿勢に対応させて生成された画像を表示する。そして、画像が表示されている状態で、ユーザにより3Dモデリングデータの生成や修正を指示する操作が行われた場合に、3Dモデリングデータの生成や修正を行うまでの一連の処理をいう。
生成部51により生成される3Dモデリングデータは、仮想物体の他に、この仮想物体が配置される仮想背景の3Dデータを含む。生成部51は、3Dモデリングデータに基づいて仮想物体と仮想背景を含む2次元画像の生成を行う。
また、生成部51により生成される3Dモデリングデータで表現される仮想物体は、建物である。また、生成部51により生成される3Dモデリングデータで表現される仮想物体は、家具であり、仮想背景は建物内とすることができる。仮想背景とは、図2の例では、ユーザ200が建築を依頼している家(建物)の間取りに合わせて3Dモデリングデータにより生成される画像であり、建物の内装を含む建物内の背後の光景により構成される。ユーザは、所望の仮想背景に任意の仮想物体を自由に配置することができる。生成部51は、生成した画像データを変換部53へ供給する。
また、表示制御部54は、3Dモデリングデータから2次元画像を生成する際に、記憶部19に記憶されているタグ情報を関連付けられた位置に合成して表示する。
また、表示制御部54は、仮想空間内に、前記仮想空間の座標系と前記実空間の座標系とを対応付けている座標スケール(相互変換倍率)に対応した寸法目盛りを表示させる。表示制御部54により表示される寸法目盛りとしては、メジャーやものさし等ユーザが仮想物体の大きさを容易に把握するのに便宜なスケールが仮想物体に添えられて表示される。
また、修正部55は、表示制御部54の制御により3Dモデリングデータから生成される2次元画像がHDM端末100に表示されている状態で、ユーザが手を動かすことにより3Dモデリングデータの修正を指示する操作を行った場合に、3Dモデリングデータの生成や修正を行う。
具体的には、修正部55は、感覚フィードバック装置110から供給される指示に基づき操作が行われたときに3Dモデリングデータの修正を指示する操作を受け付ける。そして、修正部55は、検出部52で検出されているユーザの手の位置、方向、姿勢および手の移動方向に基づいて3Dモデリングデータにおける修正部位と修正内容を特定する。そして、修正部55は、特定した3Dモデリングデータにおける修正部位と修正内容に基づき、3Dモデリングデータの修正を行う。
また、修正部55は、ユーザが手を動かすことにより3Dモデリングデータの生成を指示する操作を行った場合に、その操作が行われたときに検出部で検出されているユーザの手の位置と手の移動方向に基づいて新たな3Dモデリングデータを生成する。
具体的には、修正部55は、感覚フィードバック装置110から供給される指示に基づき操作が行われたときに3Dモデリングデータの生成を指示する操作を受け付ける。そして、修正部55は、検出部52で検出されているユーザの手の位置、方向、姿勢および手の移動方向に基づいて3Dモデリングデータにおける生成部位と生成内容を特定する。そして、修正部55は、特定した3Dモデリングデータにおける生成部位と生成内容に基づき、3Dモデリングデータの生成を行う。
次に、図2の機能的構成を有する画像処理装置1が実行する、3Dモデリングデータ生成処理について説明する。
図4および図5は、図2の機能的構成を有する画像処理装置1が実行する3Dモデリングデータ生成処理の流れを示すフローチャートである。
ユーザが入力部17を操作して、3Dモデリングデータの生成または修正を指示する操作が行われた場合に、図4の3Dモデリングデータ生成処理が開始される。
生成部51は、3Dモデリングデータで表現される仮想物体を、仮想空間内に所定の位置と方向とで仮想的に配置し、この仮想空間内で指定される仮想的な視点の位置と方向に対応させて、該3Dモデリングデータから画像のデータを生成する。
検出部52は、実空間に対する所定部位の位置と方向を検出する。
変換部53は、検出部52により検出された実空間内の所定部位の位置と方向を、実空間の座標系と仮想空間の座標系との対応関係に基づいて、仮想空間内の位置と方向に変換する。
表示制御部54は、変換部53により変換された位置と方向に対応させて、生成部51により3Dモデリングデータから画像のデータを生成させ、当該画像をHMD端末100に表示させる。
修正部55は、表示制御部54の制御により画像が表示されている状態で、ユーザによる3Dモデリングデータの生成や修正を指示する操作が行われた場合に、その操作が行われたときに検出部52で検出されている位置と方向に基づいて3Dモデリングデータの生成や修正を行う部位を特定して3Dモデリングデータの生成または修正を行う。
これにより、ユーザは、HMD端末100により表示される仮想空間において仮想物体の大きさを擬似的に体感しながら、3Dモデリングデータの生成や修正を指示する操作を行うことにより、3Dモデリングデータの生成や修正を行うことができる。したがって、仮想空間における仮想物体の性状を任意に修正することができる。
これにより、3Dモデリングデータの生成や修正を指示する操作を行うと、リアルタイムでその生成や修正された2次元画像がHMD端末100により表示される。これにより、ユーザは、3Dモデリングデータが生成や修正された状態をリアルタイムで認識することができるため、生成内容や修正内容を容易に把握することができる。
これにより、ユーザは、自身の視線や手の位置に対応した位置に基づいて、3Dモデリングデータの生成や修正を行うことができる。したがって、仮想空間における仮想物体の生成や性状の修正を容易に行うことができる。
これにより、ユーザは、自身の視線および手の位置の各々に対応した位置に基づいて、3Dモデリングデータの生成や修正を行うことができる。したがって、仮想空間における仮想物体の生成や性状の修正をより正確に行うことができる。
これにより、ユーザが実空間において手を移動して3Dモデリングデータの修正を指示する操作を行うと、その手の位置と移動方向に基づいて3Dモデリングデータにおける修正部位と修正内容が特定される。そして、この特定された部位に基づいて3Dモデリングデータの修正が行われる。これにより、ユーザは、手を用いて3Dモデリングデータの修正を容易に行うことができる。
これにより、ユーザが実空間において手を移動して3Dモデリングデータの生成を指示する操作を行うと、その手の位置と移動方向に基づいて新たな3Dモデリングデータの生成が行われる。これにより、ユーザは、手を用いて3Dモデリングデータの生成を容易に行うことができる。
検出部52は、実空間に対するユーザの視線または手の位置と方向と姿勢を検出する。
変換部53は、検出部52により検出された視線または手の位置と方向と姿勢を、実空間の座標系と仮想空間の座標系との対応関係に基づいて、仮想空間内の視線または手の位置と方向と姿勢に変換する。
修正部55は、検出部52で検出されている位置と方向と姿勢に基づいて3Dモデリングデータの生成または修正を行う部位および生成または修正の内容を特定して3Dモデリングデータの生成または修正を行う。
これにより、ユーザが実空間において視線や手を移動して3Dモデリングデータの生成や修正を指示する操作を行うと、その視線や手の移動方向に基づいて3Dモデリングデータにおける修正内容や生成内容が特定される。そして、この特定された部位に基づいて3Dモデリングデータの修正や生成が行われる。これにより、ユーザは、視線や手を用いて3Dモデリングデータの修正や生成を容易に行うことができる。
これにより、ユーザが実空間において手を移動する操作を行うと、実空間内の手の位置と方向と姿勢と、仮想空間内に配置された仮想物体の位置、方向および姿勢との関係に基づいて感覚フィードバック装置110が制御される。したがって、ユーザが手を用いて3Dモデリングデータの修正や生成を行う指示を行うと、その手の動きに対応した感覚がユーザにフィードバックされるため、ユーザは、仮想空間上の仮想物体の生成や修正を擬似的に体感することができる。
これにより、撮像部16によりリアルタイムに撮影される実空間のライブビュー画像上に、3Dモデリングデータから生成される2次元画像が合成して表示される。したがって、ユーザは、あたかも実空間上に仮想物体があるかのように、3Dモデリングデータから生成された仮想物体を実空間上に擬似的に配置して表示することができる。
これにより、ユーザの実空間に対する視線の位置や方向に基づいて3Dモデリングデータから2次元画像が生成される。したがって、ユーザは、あたかも自身が仮想空間内で視線を動かしているかのように、仮想物体を認識することができる。
これにより、3Dモデリングデータから生成される2次元画像がHMD端末100を向けた方向を背景画像として、重畳して表示される。したがって、ユーザは、あたかも実空間上に仮想物体があるかのように、3Dモデリングデータから生成された仮想物体を実空間上に擬似的に配置して表示することができる。
これにより、3Dデータから生成される仮想背景をバックに仮想物体が配置された2次元画像が表示される。したがって、ユーザは、所望の仮想背景に任意の仮想物体を自由に配置することができる。
これにより、実空間の寸法が仮想空間の寸法よりも大きい場合には、実空間の座標系の座標スケールを縮小することにより、実空間と仮想空間とのスケールを同じように合わせて表示することができる。これに対し、実空間の寸法が仮想空間の寸法よりも小さい場合には、実空間の座標系の座標スケールを拡大することにより、実空間と仮想空間とのスケールを同じように合わせて表示することができる。したがって、実空間のスケールと仮想空間のスケールとが異なる場合であっても、スケール間の相違を気にすることなく、拡大または縮小された画像を認識することができる。
これにより、ユーザは、3Dモデリングデータにより表現される建物を視認することができるともに、当該建物の寸法や大きさを自由に生成および修正することができる。
これにより、ユーザは、3Dモデリングデータにより表現される建物内に配置された家具を視認することができるともに、当該建物内の家具の寸法や大きさを自由に生成および修正することができる。
記憶制御部57は、ユーザ操作に基づいて仮想空間内における所望の位置にタグ情報を付加することができ、この仮想空間内に付加されたタグ情報を3Dモデリングデータの内外に、3Dモデリングデータの座標情報と関連付けて記憶する。そして、表示制御部54は、3Dモデリングデータから2次元画像を生成する際に、記憶されているタグ情報を関連付けられた位置に合成して表示する。
これにより、ユーザにより所望の位置に付加されたタグ情報を3Dモデリングデータから生成される2次元画像に合成して表示することができる。これにより、ユーザが所望する位置の情報を2次元画像に反映することができる。
これにより、ユーザは、実空間のスケールと仮想空間のスケールとが異なる場合であっても、スケール間の相違を認識することができる。
また、上述の実施形態では、検出部52は、実空間に対するユーザの視線の位置と方向と、ユーザの手の位置と方向のそれぞれを、異なる方法で個別に検出しているが、いずれか一方のみを検出し、この検出結果で他方の検出結果を代替または推定するようにしてもよい。例えば、HMD端末100から供給される各種センサの値に基づき、実空間に対するユーザの視線の位置と方向だけを検出し、ユーザーがキーボード等の操作、あるいは音声により3Dモデリングデータの生成や修正を指示する操作を行った場合、そのときに検出されているユーザの視線の位置と方向に基づいて、3Dモデリングデータの生成や修正を行う部位を特定するようにしてもよい。
また、上述の実施形態では、検出部52は、実空間に対するユーザの視線や手の位置と方向と姿勢を検出したが、姿勢については常に水平であると仮定して検出を省略してもよい。
例えば、本発明は、画像処理機能を有する電子機器一般に適用することができる。具体的には、例えば、本発明は、テレビジョン受像機、ビデオカメラ、携帯型ナビゲーション装置、携帯電話機、スマートフォン、ポータブルゲーム機等に適用可能である。
換言すると、図2の機能的構成は例示に過ぎず、特に限定されない。即ち、上述した一連の処理を全体として実行できる機能が画像処理装置1に備えられていれば足り、この機能を実現するためにどのような機能ブロックを用いるのかは特に図2の例に限定されない。
また、1つの機能ブロックは、ハードウェア単体で構成してもよいし、ソフトウェア単体で構成してもよいし、それらの組み合わせで構成してもよい。
コンピュータは、専用のハードウェアに組み込まれているコンピュータであってもよい。また、コンピュータは、各種のプログラムをインストールすることで、各種の機能を実行することが可能なコンピュータ、例えば汎用のパーソナルコンピュータであってもよい。
また、本明細書において、システムの用語は、複数の装置や複数の手段等より構成される全体的な装置を意味するものとする。
[付記1]
3Dモデリングデータで表現される仮想物体を、仮想空間内に所定の位置と方向とで仮想的に配置し、この仮想空間内で指定される仮想的な視点の位置と方向に対応させて、該3Dモデリングデータから画像のデータを生成する生成手段と、
実空間に対する所定部位の位置と方向を検出する検出手段と、
前記検出手段により検出された実空間内の前記所定部位の位置と方向を、実空間の座標系と仮想空間の座標系との対応関係に基づいて、前記仮想空間内の位置と方向に変換する変換手段と、
前記変換手段により変換された位置と方向に対応させて、前記生成手段により前記3Dモデリングデータから画像のデータを生成させ、当該画像を表示部に表示させる表示制御手段と、
前記表示制御手段の制御により前記画像が表示されている状態で、ユーザによる前記3Dモデリングデータの生成や修正を指示する操作が行われた場合に、その操作が行われたときに前記検出手段で検出されている位置と方向に基づいて3Dモデリングデータの生成や修正を行う部位を特定して3Dモデリングデータの生成または修正を行う修正手段と、
を備えることを特徴とする画像処理装置。
[付記2]
前記表示制御手段は、前記修正手段による3Dモデリングデータの生成または修正中において、生成や修正中の3Dモデリングデータに基づく2次元画像の生成と表示をリアルタイムに行う
ことを特徴とする付記1に記載の画像処理装置。
[付記3]
前記検出手段は、実空間に対するユーザの視線または手の位置と方向を検出し、
前記変換手段は、前記検出手段により検出された視線または手の位置と方向を、実空間の座標系と仮想空間の座標系との対応関係に基づいて、前記仮想空間内の視線または手の位置と方向に変換することを特徴とする付記1または2に記載の画像処理装置。
[付記4]
前記検出手段は、実空間に対するユーザの視線の位置と方向と、ユーザの手の位置と方向を別々に検出し、
前記変換手段は、前記検出手段により検出された実空間におけるユーザの視線の位置と方向およびユーザの手の位置と方向を、実空間の座標系と仮想空間の座標系との対応関係に基づいて、前記仮想空間内のユーザの視線の位置と方向およびユーザの手の位置と方向位置と方向に変換し、
前記表示制御手段は、前記変換手段により変換されたユーザの視線の位置と方向に対応させて、前記生成手段により前記3Dモデリングデータから画像のデータを生成させ、
前記修正手段は、前記検出手段で検出され、前記変換手段により変換されたユーザの手の位置と方向に基づいて3Dモデリングデータの生成または修正を行う部位を特定することを特徴とする付記3に記載の画像処理装置。
[付記5]
前記検出手段は、実空間に対するユーザの手の位置と手の移動方向を検出し、
前記修正手段は、前記表示制御手段の制御により前記3Dモデリングデータから生成される前記2次元画像が表示されている状態で、ユーザが手を動かすことにより前記3Dモデリングデータの修正を指示する操作を行った場合に、その操作が行われたときに前記検出手段で検出されているユーザの手の位置と手の移動方向に基づいて前記3Dモデリングデータにおける修正部位と修正内容を特定して前記3Dモデリングデータの修正を行う
ことを特徴とする付記1乃至4のいずれかに記載の画像処理装置。
[付記6]
前記検出手段は、実空間に対するユーザの手の位置と手の移動方向を検出し、
前記修正手段は、ユーザが手を動かすことにより前記3Dモデリングデータの生成を指示する操作を行った場合に、その操作が行われたときに前記検出手段で検出されているユーザの手の位置と手の移動方向に基づいて新たな3Dモデリングデータを生成する
ことを特徴とする付記1乃至4のいずれかに記載の画像処理装置。
[付記7]
前記生成手段は、3Dモデリングデータで表現される仮想物体を、仮想空間内に所定の位置と方向と姿勢で仮想的に配置し、この仮想空間内で指定される仮想的な視点の位置と方向と姿勢に対応させて、該3Dモデリングデータから画像のデータを生成し、
前記検出手段は、実空間に対するユーザの視線または手の位置と方向と姿勢を検出し、
前記変換手段は、前記検出手段により検出された視線または手の位置と方向と姿勢を、実空間の座標系と仮想空間の座標系との対応関係に基づいて、前記仮想空間内の視線または手の位置と方向と姿勢に変換し、
前記修正手段は、前記検出手段で検出されている位置と方向と姿勢に基づいて3Dモデリングデータの生成または修正を行う部位および生成または修正の内容を特定して3Dモデリングデータの生成または修正を行うことを特徴とする付記1乃至4のいずれかに記載の画像処理装置。
[付記8]
前記画像処理装置は、感覚フィードバック制御手段を更に備え、
前記検出手段は、ユーザの手に装着した感覚フィードバック機能付きの機器の実空間に対する位置と移動方向を検出し、
前記変換手段は、前記検出手段により検出される実空間内の位置と方向と姿勢を、前記仮想空間内の位置と方向と姿勢に変換し、
感覚フィードバック制御手段は、前記変換手段により変換された位置、方向および姿勢と、仮想空間内に配置された前記仮想物体の位置、方向および姿勢との関係に基づいて、ユーザの手に装着した機器の感覚フィードバック機能を制御する
ことを特徴とする付記1乃至4のいずれかに記載の画像処理装置。
[付記9]
前記画像処理装置は、撮像部を更に備え、
前記検出手段は、実空間に対する前記撮像部の位置と撮影方向を検出し、
前記表示制御手段は、前記撮像部によりリアルタイムに撮影されるライブビュー画像を前記表示部に表示した状態で、このライブビュー画像上に、前記3Dモデリングデータから生成される2次元画像を合成して表示する
ことを特徴とする付記1乃至4のいずれかに記載の画像処理装置。
[付記10]
前記検出手段は、身体に装着したセンサ付表示装置により実空間に対する視線の位置や方向の変化をリアルタイムに検出する
ことを特徴とする付記1乃至4のいずれかに記載の画像処理装置。
[付記11]
前記センサ付表示装置は、背景を透過可能な表示装置であり、前記仮想空間の座標系と前記実空間の座標系とを対応付ける際の座標スケールを同じにする
ことを特徴とする付記10に記載の画像処理装置。
[付記12]
前記3Dモデリングデータは、前記仮想物体の他に、この仮想物体が配置される仮想背景の3Dデータを含み、前記生成手段は、前記3Dモデリングデータに基づいて前記仮想物体と前記仮想背景を含む2次元画像の生成を行う
ことを特徴とする付記1乃至11のいずれかに記載の画像処理装置。
[付記13]
前記変換手段は、前記3Dモデリングデータで表現される仮想物体の種類に応じて、前記仮想空間の座標系と前記実空間の座標系とを対応付ける際の座標スケールを拡大または縮小して変換する
ことを特徴とする付記1乃至12のいずれかに記載の画像処理装置。
[付記14]
前記3Dモデリングデータで表現される仮想物体は建物である
ことを特徴とする付記1乃至13のいずれかに記載の画像処理装置。
[付記15]
前記3Dモデリングデータで表現される仮想物体は家具であり、仮想背景は建物内である
ことを特徴とする付記1乃至14のいずれかに記載の画像処理装置。
[付記16]
前記画像処理装置は、記憶制御手段を更に備え、
前記記憶制御手段は、ユーザ操作に基づいて仮想空間内における所望の位置にタグ情報を付加することができ、この仮想空間内に付加されたタグ情報を3Dモデリングデータの内外に、3Dモデリングデータの座標情報と関連付けて記憶し、
前記表示制御手段は、3Dモデリングデータから2次元画像を生成する際に、記憶されているタグ情報を関連付けられた位置に合成して表示する
ことを特徴とする付記1乃至15のいずれかに記載の画像処理装置。
[付記17]
前記表示制御手段は、仮想空間内に、前記仮想空間の座標系と前記実空間の座標系とを対応付けている座標スケールに対応した寸法目盛りを表示させる
ことを特徴とする付記1乃至16のいずれかに記載の画像処理装置。
[付記18]
3Dモデリングデータの生成や修正を行う画像処理装置が実行する画像処理方法であって、
3Dモデリングデータで表現される仮想物体を、仮想空間内に所定の位置と方向とで仮想的に配置し、この仮想空間内で指定される仮想的な視点の位置と方向に対応させて、該3Dモデリングデータから画像のデータを生成する生成ステップと、
実空間に対する所定部位の位置と方向を検出する検出ステップと、
前記検出ステップにより検出された実空間内の前記所定部位の位置と方向を、実空間の座標系と仮想空間の座標系との対応関係に基づいて、前記仮想空間内の位置と方向に変換する変換ステップと、
前記変換ステップにより変換された位置と方向に対応させて、前記生成ステップにより前記3Dモデリングデータから画像のデータを生成させ、当該画像を表示部に表示させる表示制御ステップと、
前記表示制御ステップの制御により前記画像が表示されている状態で、ユーザによる前記3Dモデリングデータの生成や修正を指示する操作が行われた場合に、その操作が行われたときに前記検出ステップで検出されている位置と方向に基づいて3Dモデリングデータの生成や修正を行う部位を特定して3Dモデリングデータの生成または修正を行う修正ステップと、
を含むことを特徴とする画像処理方法。
[付記19]
3Dモデリングデータの生成や修正する制御を実行するコンピュータを、
3Dモデリングデータで表現される仮想物体を、仮想空間内に所定の位置と方向とで仮想的に配置し、この仮想空間内で指定される仮想的な視点の位置と方向に対応させて、該3Dモデリングデータから画像のデータを生成する生成手段、
実空間に対する所定部位の位置と方向を検出する検出手段、
前記検出手段により検出された実空間内の前記所定部位の位置と方向を、実空間の座標系と仮想空間の座標系との対応関係に基づいて、前記仮想空間内の位置と方向に変換する変換手段、
前記変換手段により変換された位置と方向に対応させて、前記生成手段により前記3Dモデリングデータから画像のデータを生成させ、当該画像を表示部に表示させる表示制御手段、
前記表示制御手段の制御により前記画像が表示されている状態で、ユーザによる前記3Dモデリングデータの生成や修正を指示する操作が行われた場合に、その操作が行われたときに前記検出手段で検出されている位置と方向に基づいて3Dモデリングデータの生成や修正を行う部位を特定して3Dモデリングデータの生成または修正を行う修正手段、
として機能させることを特徴とするプログラム。
51・・・生成部、52・・・検出部、53・・・変換部、54・・・表示制御部、55・・・修正部、56・・・感覚フィードバック制御部、57・・・記憶制御部、100・・・HMD端末、110・・・感覚フィードバック装置
Claims (18)
- 3Dモデリングデータで表現される仮想物体を、仮想空間内に所定の位置と方向とで仮想的に配置し、この仮想空間内で指定される仮想的な視点の位置と方向に対応させて、該3Dモデリングデータから画像のデータを生成する生成手段と、
実空間に対するユーザの視線の位置と方向の変化を逐次検出する検出手段と、
前記検出手段により逐次検出される実空間内の前記ユーザの視線の位置と方向を、実空間の座標系と仮想空間の座標系との対応関係に基づいて、前記仮想空間内の位置と方向に逐次変換する変換手段と、
前記変換手段により逐次変換されるユーザの視線の位置と方向に対応させて、前記生成手段により前記3Dモデリングデータから生成される画像のデータを逐次更新させ、当該画像を表示部に逐次表示させる表示制御手段と、
前記表示制御手段の制御により前記画像が表示されている状態で、ユーザによる前記3Dモデリングデータの生成や修正を指示する操作が行われた場合に、その操作が行われたときに前記検出手段で検出されているユーザの視線の位置と方向に基づいて3Dモデリングデータの生成や修正を行う部位を特定して3Dモデリングデータの生成または修正を行う修正手段と、
を備えることを特徴とする画像処理装置。 - 前記表示制御手段は、前記修正手段による3Dモデリングデータの生成または修正中において、生成や修正中の3Dモデリングデータに基づく2次元画像の生成と表示をリアルタイムに行う
ことを特徴とする請求項1に記載の画像処理装置。 - 前記検出手段は、実空間に対するユーザの視線の位置と方向の変化と、ユーザの手の位置の変化を別々に検出し、
前記変換手段は、前記検出手段により逐次検出される実空間におけるユーザの視線の位置と方向およびユーザの手の位置を、実空間の座標系と仮想空間の座標系との対応関係に基づいて、前記仮想空間内のユーザの視線の位置と方向およびユーザの手の位置に逐次変換し、
前記修正手段は、前記検出手段で逐次検出され、前記変換手段により逐次変換されるユーザの視線の位置と方向およびユーザの手の位置に基づいて3Dモデリングデータの生成または修正を行う部位を逐次特定することを特徴とする請求項1または2に記載の画像処理装置。 - 前記検出手段は、実空間に対するユーザの手の方向と手の移動方向を検出し、
前記修正手段は、前記表示制御手段の制御により前記3Dモデリングデータから生成される前記2次元画像が表示されている状態で、ユーザが手を動かすことにより前記3Dモデリングデータの修正を指示する操作を行った場合に、その操作が行われたときに前記検出手段で検出されているユーザの手の方向と手の移動方向に基づいて前記3Dモデリングデータにおける修正内容を特定して前記3Dモデリングデータの修正を行う
ことを特徴とする請求項3に記載の画像処理装置。 - 前記検出手段は、実空間に対するユーザの手の方向と手の移動方向を検出し、
前記修正手段は、ユーザが手を動かすことにより前記3Dモデリングデータの生成を指示する操作を行った場合に、その操作が行われたときに前記検出手段で検出されているユーザの手の方向と手の移動方向に基づいて新たな3Dモデリングデータを生成する
ことを特徴とする請求項3に記載の画像処理装置。 - 前記生成手段は、3Dモデリングデータで表現される仮想物体を、仮想空間内に所定の位置と方向と姿勢で仮想的に配置し、この仮想空間内で指定される仮想的な視点の位置と方向と姿勢に対応させて、該3Dモデリングデータから画像のデータを生成し、
前記検出手段は、実空間に対するユーザの視線および手の位置と方向と姿勢を検出し、
前記変換手段は、前記検出手段により検出された視線および手の位置と方向と姿勢を、実空間の座標系と仮想空間の座標系との対応関係に基づいて、前記仮想空間内の視線および手の位置と方向と姿勢に変換し、
前記修正手段は、前記検出手段で検出されている位置と方向と姿勢に基づいて3Dモデリングデータの生成または修正を行う部位および生成または修正の内容を特定して3Dモデリングデータの生成または修正を行うことを特徴とする請求項3に記載の画像処理装置。 - 前記画像処理装置は、感覚フィードバック制御手段を更に備え、
前記検出手段は、ユーザの手に装着した感覚フィードバック機能付きの機器の実空間に対する位置と移動方向を検出し、
前記変換手段は、前記検出手段により検出される実空間内の位置と方向と姿勢を、前記仮想空間内の位置と方向と姿勢に変換し、
感覚フィードバック制御手段は、前記変換手段により変換された位置、方向および姿勢と、仮想空間内に配置された前記仮想物体の位置、方向および姿勢との関係に基づいて、ユーザの手に装着した機器の感覚フィードバック機能を制御する
ことを特徴とする請求項3乃至6のいずれかに記載の画像処理装置。 - 前記画像処理装置は、撮像部を更に備え、
前記検出手段は、実空間に対する前記撮像部の位置と撮影方向を検出し、
前記表示制御手段は、前記撮像部によりリアルタイムに撮影されるライブビュー画像を前記表示部に表示した状態で、このライブビュー画像上に、前記3Dモデリングデータから生成される2次元画像を合成して表示する
ことを特徴とする請求項1乃至7のいずれかに記載の画像処理装置。 - 前記検出手段は、身体に装着したセンサ付表示装置により実空間に対する視線の位置や方向の変化をリアルタイムに検出する
ことを特徴とする請求項1乃至8のいずれかに記載の画像処理装置。 - 前記センサ付表示装置は、背景を透過可能な表示装置であり、前記仮想空間の座標系と前記実空間の座標系とを対応付ける際の座標スケールを同じにする
ことを特徴とする請求項9に記載の画像処理装置。 - 前記3Dモデリングデータは、前記仮想物体の他に、この仮想物体が配置される仮想背景の3Dデータを含み、前記生成手段は、前記3Dモデリングデータに基づいて前記仮想物体と前記仮想背景を含む2次元画像の生成を行う
ことを特徴とする請求項1乃至10のいずれかに記載の画像処理装置。 - 前記変換手段は、前記3Dモデリングデータで表現される仮想物体の種類に応じて、前記仮想空間の座標系と前記実空間の座標系とを対応付ける際の座標スケールを拡大または縮小して変換する
ことを特徴とする請求項1乃至11のいずれかに記載の画像処理装置。 - 前記3Dモデリングデータで表現される仮想物体は建物である
ことを特徴とする請求項1乃至12のいずれかに記載の画像処理装置。 - 前記3Dモデリングデータで表現される仮想物体は家具であり、仮想背景は建物内である
ことを特徴とする請求項1乃至13のいずれかに記載の画像処理装置。 - 前記画像処理装置は、記憶制御手段を更に備え、
前記記憶制御手段は、ユーザ操作に基づいて仮想空間内における所望の位置にタグ情報を付加することができ、この仮想空間内に付加されたタグ情報を3Dモデリングデータの内外に、3Dモデリングデータの座標情報と関連付けて記憶し、
前記表示制御手段は、3Dモデリングデータから2次元画像を生成する際に、記憶されているタグ情報を関連付けられた位置に合成して表示する
ことを特徴とする請求項1乃至14のいずれかに記載の画像処理装置。 - 前記表示制御手段は、仮想空間内に、前記仮想空間の座標系と前記実空間の座標系とを対応付けている座標スケールに対応した寸法目盛りを表示させる
ことを特徴とする請求項1乃至15のいずれかに記載の画像処理装置。 - 3Dモデリングデータの生成や修正を行う画像処理装置が実行する画像処理方法であって、
3Dモデリングデータで表現される仮想物体を、仮想空間内に所定の位置と方向とで仮想的に配置し、この仮想空間内で指定される仮想的な視点の位置と方向に対応させて、該3Dモデリングデータから画像のデータを生成する生成ステップと、
実空間に対するユーザの視線の位置と方向の変化を逐次検出する検出ステップと、
前記検出ステップにより逐次検出される実空間内の前記ユーザの視線の位置と方向を、実空間の座標系と仮想空間の座標系との対応関係に基づいて、前記仮想空間内の位置と方向に逐次変換する変換ステップと、
前記変換ステップにより逐次変換されるユーザの視線の位置と方向に対応させて、前記生成ステップにより前記3Dモデリングデータから生成される画像のデータを逐次更新させ、当該画像を表示部に逐次表示させる表示制御ステップと、
前記表示制御ステップの制御により前記画像が表示されている状態で、ユーザによる前記3Dモデリングデータの生成や修正を指示する操作が行われた場合に、その操作が行われたときに前記検出ステップで検出されているユーザの視線の位置と方向に基づいて3Dモデリングデータの生成や修正を行う部位を特定して3Dモデリングデータの生成または修正を行う修正ステップと、
を含むことを特徴とする画像処理方法。 - 3Dモデリングデータの生成や修正する制御を実行するコンピュータを、
3Dモデリングデータで表現される仮想物体を、仮想空間内に所定の位置と方向とで仮想的に配置し、この仮想空間内で指定される仮想的な視点の位置と方向に対応させて、該3Dモデリングデータから画像のデータを生成する生成手段、
実空間に対するユーザの視線の位置と方向の変化を逐次検出する検出手段、
前記検出手段により逐次検出される実空間内の前記ユーザの視線の位置と方向を、実空間の座標系と仮想空間の座標系との対応関係に基づいて、前記仮想空間内の位置と方向に逐次変換する変換手段、
前記変換手段により逐次変換されるユーザの視線の位置と方向に対応させて、前記生成手段により前記3Dモデリングデータから生成される画像のデータを逐次更新させ、当該画像を表示部に逐次表示させる表示制御手段、
前記表示制御手段の制御により前記画像が表示されている状態で、ユーザによる前記3Dモデリングデータの生成や修正を指示する操作が行われた場合に、その操作が行われたときに前記検出手段で検出されているユーザの視線の位置と方向に基づいて3Dモデリングデータの生成や修正を行う部位を特定して3Dモデリングデータの生成または修正を行う修正手段、
として機能させることを特徴とするプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012262523A JP5857946B2 (ja) | 2012-11-30 | 2012-11-30 | 画像処理装置、画像処理方法およびプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012262523A JP5857946B2 (ja) | 2012-11-30 | 2012-11-30 | 画像処理装置、画像処理方法およびプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2014109802A JP2014109802A (ja) | 2014-06-12 |
JP5857946B2 true JP5857946B2 (ja) | 2016-02-10 |
Family
ID=51030427
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012262523A Active JP5857946B2 (ja) | 2012-11-30 | 2012-11-30 | 画像処理装置、画像処理方法およびプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5857946B2 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102506255B1 (ko) * | 2022-02-03 | 2023-03-07 | 주식회사 태화팩 | 빅데이터 기반 고객 맞춤형 기계설비 제작 시스템 및 방법 |
Families Citing this family (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3264246A4 (en) * | 2015-02-27 | 2018-09-05 | Sony Corporation | Information processing apparatus, information processing method, and program |
JP6582526B2 (ja) * | 2015-05-08 | 2019-10-02 | 凸版印刷株式会社 | コンテンツ提供システム、コンテンツ提供装置及びコンテンツ提供方法 |
US10521941B2 (en) | 2015-05-22 | 2019-12-31 | Samsung Electronics Co., Ltd. | System and method for displaying virtual image through HMD device |
KR101740806B1 (ko) * | 2015-08-26 | 2017-05-29 | 한양대학교 에리카산학협력단 | 가상 현실을 이용한 인테리어 디자인 서비스 제공 방법 및 장치 |
JP6318202B2 (ja) * | 2016-08-18 | 2018-04-25 | 株式会社カプコン | ゲームプログラムおよびゲームシステム |
JP2018106392A (ja) * | 2016-12-26 | 2018-07-05 | 株式会社コロプラ | 仮想空間を介して通信するためにコンピュータによって実行される方法、当該方法をコンピュータに実行させるためのプログラム、およびコンピュータ装置 |
KR102092374B1 (ko) * | 2018-01-09 | 2020-03-23 | 한국과학기술원 | 맞춤형 가이드 정보를 출력하는 가구 디자인 장치 |
KR20180030979A (ko) * | 2018-03-20 | 2018-03-27 | 한국과학기술원 | 헤드 마운트 디스플레이 장치를 이용한 맞춤형 가구 디자인 방법 및 헤드 마운트 디스플레이 장치 |
JP6720385B1 (ja) * | 2019-02-07 | 2020-07-08 | 株式会社メルカリ | プログラム、情報処理方法、及び情報処理端末 |
JP7165604B2 (ja) * | 2019-03-06 | 2022-11-04 | 日産自動車株式会社 | 仮想オブジェクト出力装置及び仮想オブジェクト出力方法 |
Family Cites Families (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000048226A (ja) * | 1999-06-02 | 2000-02-18 | Nec Corp | 情報提示装置 |
JP3198303B2 (ja) * | 1999-06-09 | 2001-08-13 | 工業技術院長 | 三次元構造体作製システム |
JP4065507B2 (ja) * | 2002-07-31 | 2008-03-26 | キヤノン株式会社 | 情報提示装置および情報処理方法 |
JP4282067B2 (ja) * | 2003-09-30 | 2009-06-17 | キヤノン株式会社 | 指標識別方法および装置 |
JP4500632B2 (ja) * | 2004-09-07 | 2010-07-14 | キヤノン株式会社 | 仮想現実感提示装置および情報処理方法 |
JP2006085375A (ja) * | 2004-09-15 | 2006-03-30 | Canon Inc | 画像処理方法、画像処理装置 |
JP4950834B2 (ja) * | 2007-10-19 | 2012-06-13 | キヤノン株式会社 | 画像処理装置、画像処理方法 |
US20100053151A1 (en) * | 2008-09-02 | 2010-03-04 | Samsung Electronics Co., Ltd | In-line mediation for manipulating three-dimensional content on a display device |
JP2010282497A (ja) * | 2009-06-05 | 2010-12-16 | Ricoh Co Ltd | 異世界状態反映装置 |
-
2012
- 2012-11-30 JP JP2012262523A patent/JP5857946B2/ja active Active
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102506255B1 (ko) * | 2022-02-03 | 2023-03-07 | 주식회사 태화팩 | 빅데이터 기반 고객 맞춤형 기계설비 제작 시스템 및 방법 |
Also Published As
Publication number | Publication date |
---|---|
JP2014109802A (ja) | 2014-06-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5857946B2 (ja) | 画像処理装置、画像処理方法およびプログラム | |
CN110908503B (zh) | 跟踪设备的位置的方法 | |
JP7095602B2 (ja) | 情報処理装置、情報処理方法及び記録媒体 | |
US9858643B2 (en) | Image generating device, image generating method, and program | |
JP5936155B2 (ja) | 3次元ユーザインタフェース装置及び3次元操作方法 | |
JP5871345B2 (ja) | 3次元ユーザインタフェース装置及び3次元操作方法 | |
JP2022000640A (ja) | 情報処理装置、情報処理方法、及び情報処理プログラム | |
JP6344380B2 (ja) | 画像処理装置および方法、並びにプログラム | |
CN112424728B (zh) | 信息处理装置、信息处理方法和存储介质 | |
JP6609383B2 (ja) | オーディオ、ビジュアル及びモーション分析を備えたデジタルカメラ | |
JP2011090400A (ja) | 画像表示装置および方法、並びにプログラム | |
AU2021290132C1 (en) | Presenting avatars in three-dimensional environments | |
CN111373347B (zh) | 用于虚拟现实内容的提供的装置、方法和计算机程序 | |
JP2015011480A (ja) | 画像生成装置、画像生成方法及びプログラム | |
JP2010257081A (ja) | 画像処理方法及び画像処理装置 | |
WO2017122270A1 (ja) | 画像表示装置 | |
JP2023065528A (ja) | ヘッドマウント情報処理装置およびヘッドマウントディスプレイシステム | |
EP3599539A1 (en) | Rendering objects in virtual views | |
JP5770018B2 (ja) | 表示制御プログラム、表示制御装置、表示制御方法及び表示制御システム | |
JP6801138B1 (ja) | 端末装置、仮想オブジェクト操作方法、及び仮想オブジェクト操作プログラム | |
KR102044003B1 (ko) | 영상 회의를 위한 전자 장치 및 그의 동작 방법 | |
JP2012191380A (ja) | カメラ、画像変換装置、及び画像変換方法 | |
JP2019219702A (ja) | 仮想空間における仮想カメラの制御方法 | |
US20240221240A1 (en) | Display device, method of controlling display device, and computer-readable storage medium | |
WO2008029529A1 (fr) | Dispositif de synthèse d'images vidéostéréoscopiques, procédé de génération de données de forme et son programme |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20140929 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20150811 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20150825 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20151021 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20151117 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20151130 |
|
R150 | Certificate of patent (=grant) or registration of utility model |
Ref document number: 5857946 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |