JP5857946B2 - 画像処理装置、画像処理方法およびプログラム - Google Patents

画像処理装置、画像処理方法およびプログラム Download PDF

Info

Publication number
JP5857946B2
JP5857946B2 JP2012262523A JP2012262523A JP5857946B2 JP 5857946 B2 JP5857946 B2 JP 5857946B2 JP 2012262523 A JP2012262523 A JP 2012262523A JP 2012262523 A JP2012262523 A JP 2012262523A JP 5857946 B2 JP5857946 B2 JP 5857946B2
Authority
JP
Japan
Prior art keywords
modeling data
user
image processing
virtual
processing apparatus
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2012262523A
Other languages
English (en)
Other versions
JP2014109802A (ja
Inventor
喜多 一記
一記 喜多
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2012262523A priority Critical patent/JP5857946B2/ja
Publication of JP2014109802A publication Critical patent/JP2014109802A/ja
Application granted granted Critical
Publication of JP5857946B2 publication Critical patent/JP5857946B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)

Description

本発明は、3Dモデリングデータの生成や修正を行う、画像処理装置、画像処理方法およびプログラムに関する。
従来から、3D−CAD(3Dimention−computer aided design)等で設計された、建物や住宅、施設等の建築物の仮想物体の3Dデータに基づいて、建築物やその中のインテリアが配置された仮想空間を疑似体験できるVR(Virtual Reality:仮想現実感)疑似体験ソフト等がある。これら疑似体験ソフトでは、ユーザが仮想空間の中に入ったときの見かけの様子を、ヘッドマウントディスプレイ(Head Mounted Display:(以下、「HMD端末100」と呼ぶ))等にCG(computer graphics)映像表示することにより、仮想現実感が実現される。
例えば、洋服ショップや家具のサイト等では、ユーザは家具や家電等の仮想物体の3Dデータをダウンロードして、家具等の仮想物体を擬似的に配置することができる。また、ユーザの実際の部屋の中に家具等の仮想物体を配置した時の大きさや様子等の具合を、仮想CG映像によるAR(Augmented Reality:拡張現実感)映像としてPC(Personal computer)画面にシミュレーション表示させたりして、疑似体験できるサービスやアプリが提供されている。
また、現実空間に配された指標を撮像画像中で検出し、カメラの位置姿勢と指標と画像中の位置とから、指標を画像面上に投影し、指標の方向性等から、対応する指標を同定する技術が存在する(例えば、特許文献1参照)。
特開2005−107964号公報
しかしながら、上述の特許文献1を含む従来の技術では、ユーザは仮想空間において仮想物体の大きさを擬似的に体感することができるものの、ユーザが仮想空間において配置した仮想物体の大きさや長さ等の性状を変更することはできなかった。
本発明は、このような状況に鑑みてなされたものであり、仮想空間における仮想物体の性状を任意に修正することを目的とする。
上記目的を達成するため、本発明の一態様の画像処理装置は、3Dモデリングデータで表現される仮想物体を、仮想空間内に所定の位置と方向とで仮想的に配置し、この仮想空間内で指定される仮想的な視点の位置と方向に対応させて、該3Dモデリングデータから画像のデータを生成する生成手段と、実空間に対するユーザの視線の位置と方向の変化を逐次検出する検出手段と、前記検出手段により逐次検出される実空間内の前記ユーザの視線の位置と方向を、実空間の座標系と仮想空間の座標系との対応関係に基づいて、前記仮想空間内の位置と方向に逐次変換する変換手段と、前記変換手段により逐次変換されるユーザの視線の位置と方向に対応させて、前記生成手段により前記3Dモデリングデータから生成される画像のデータを逐次更新させ、当該画像を表示部に逐次表示させる表示制御手段と、前記表示制御手段の制御により前記画像が表示されている状態で、ユーザによる前記3Dモデリングデータの生成や修正を指示する操作が行われた場合に、その操作が行われたときに前記検出手段で検出されているユーザの視線の位置と方向に基づいて3Dモデリングデータの生成や修正を行う部位を特定して3Dモデリングデータの生成または修正を行う修正手段と、を備えることを特徴とする。
本発明によれば、仮想空間における仮想物体の性状を任意に修正することが可能となる。
画像処理装置のハードウェアの構成を示すブロック図である。 図1の画像処理装置をユーザが使用している様子の一例を模式的に示す図である。 図1の画像処理装置の機能的構成のうち、3Dモデリングデータ生成処理を実行するための機能的構成を示す機能ブロック図である。 図2の機能的構成を有する画像処理装置が実行する3Dモデリングデータ生成処理の流れを示すフローチャートである。 図2の機能的構成を有する画像処理装置が実行する3Dモデリングデータ生成処理の流れを示すフローチャートである。
以下、本発明の一実施形態について、図面を用いて説明する。
[ハードウェア構成]
図1は、本発明の一実施形態に係る画像処理装置1のハードウェアの構成を示すブロック図である。
画像処理装置1は、例えばHMD端末100として構成される。
本実施形態に係る画像処理装置1は、3Dモデリングデータからの画像のデータに基づいて画像が表示されている状態で、ユーザからの指示操作が行われることにより、3Dモデリングデータの生成や修正を行う。
画像処理装置1は、CPU(Central Processing Unit)11と、ROM(Read Only Memory)12と、RAM(Random Access Memory)13と、バス14と、入出力インターフェース15と、撮像部16と、入力部17と、出力部18と、記憶部19と、通信部20と、ドライブ21と、を備えている。
CPU11は、例えば、後述する3Dモデリングデータ生成処理のためのプログラム等、ROM12に記録されているプログラム、または、記憶部19からRAM13にロードされたプログラムに従って各種の処理を実行する。
RAM13には、CPU11が各種の処理を実行する上において必要なデータ等も適宜記憶される。
CPU11、ROM12およびRAM13は、バス14を介して相互に接続されている。このバス14にはまた、入出力インターフェース15も接続されている。入出力インターフェース15には、撮像部16、入力部17、出力部18、記憶部19、通信部20およびドライブ21が接続されている。
撮像部16は、図示はしないが、光学レンズ部と、イメージセンサと、を備えている。
光学レンズ部は、被写体を撮影するために、光を集光するレンズ、例えばフォーカスレンズやズームレンズ等で構成される。
フォーカスレンズは、イメージセンサの受光面に被写体像を結像させるレンズである。ズームレンズは、焦点距離を一定の範囲で自在に変化させるレンズである。
光学レンズ部にはまた、必要に応じて、焦点、露出、ホワイトバランス等の設定パラメータを調整する周辺回路が設けられる。
イメージセンサは、光電変換素子や、AFE(Analog Front End)等から構成される。
光電変換素子は、例えばCMOS(Complementary Metal Oxide Semiconductor)型の光電変換素子等から構成される。光電変換素子には、光学レンズ部から被写体像が入射される。そこで、光電変換素子は、被写体像を光電変換(撮像)して画像信号を一定時間蓄積し、蓄積した画像信号をアナログ信号としてAFEに順次供給する。
AFEは、このアナログの画像信号に対して、A/D(Analog/Digital)変換処理等の各種信号処理を実行する。各種信号処理によって、ディジタル信号が生成され、撮像部16の出力信号として出力される。
このような撮像部16の出力信号を、以下、「撮像画像のデータ」と呼ぶ。撮像画像のデータは、CPU11等に適宜供給される。
入力部17は、各種釦やポインティングデバイス、ソフトウェアキー等で構成され、3Dモデリングデータ生成処理における3Dモデリングデータの仮想物体を選択する操作、3Dモデリングデータの生成を指示する操作等、ユーザの指示操作に応じて各種情報を入力する。
出力部18は、ディスプレイやスピーカ等で構成され、画像や音声を出力する。
記憶部19は、ハードディスクあるいはDRAM(Dynamic Random Access Memory)等で構成され、各種画像のデータを記憶する。
通信部20は、インターネットを含むネットワークを介してHMD端末100や感覚フィードバック装置110との間で行う通信を制御する。HMD端末100や感覚フィードバック装置110については、後述の図2を参照して説明する。
ドライブ21には、磁気ディスク、光ディスク、光磁気ディスク、あるいは半導体メモリ等よりなる、リムーバブルメディア31が適宜装着される。ドライブ21によってリムーバブルメディア31から読み出されたプログラムは、必要に応じて記憶部19にインストールされる。また、リムーバブルメディア31は、記憶部19に記憶されている画像のデータ等の各種データも、記憶部19と同様に記憶することができる。
[使用例]
次に、図1の画像処理装置1の使用例について説明する。
図2は、図1の画像処理装置1をユーザが使用している様子の一例を模式的に示す図である。
なお、画像処理装置1の撮像部16は、ユーザの手の動きを示す一連の撮像画像のデータを出力できるものとする。
初めに、ユーザ200は、仮想空間を体感するために、HMD端末100を身体の頭部に装着する。HMD端末100は、身体に装着できるディスプレイであれば足り、眼鏡型や帽子型等ユーザの身体に合わせた形状により構成される。また、画像の表示形式は、ディスプレイ方式や投影方式等既存の表示形式が採用される。HMD端末100は、画像処理装置1の通信部20を介してBluetooth(登録商標)や赤外線等の近距離無線通信により双方向通信可能に接続されている。
また、同様に、仮想空間を体感するために、ユーザ200が感覚フィードバック装置110を身体の手や腕に装着する。感覚フィードバック装置110は、仮想物体に仮想的に接した場合の圧力を、電気的に変換し、人体の感覚器官に伝達(フィードバック)する装置であれば足りる。感覚フィードバック装置110は、例えば、手袋型や指サック型等ユーザの身体に合わせた形状により構成される。感覚フィードバック装置110から感覚器官への伝達(フィードバック)方式は、モータや圧電素子等を使用する振動、帯電、圧接等既存の感覚フィードバック技術(「触覚フィードバック技術」や「ハプティック」とも呼ばれる)が採用される。感覚フィードバック装置110は、画像処理装置1の通信部20を介してBluetooth(登録商標)や赤外線等の近距離無線通信により双方向通信可能に接続されている。
ユーザ200が、画像処理装置1の入力部17(図1)を操作して、3Dモデリングデータの再生を指示すると、記憶部19に記憶されている3Dモデリングデータから生成される2次元画像がHMD端末100に表示される。
より具体的には例えば、図2の例では、ユーザ200が建築を依頼している「家」についての3Dモデリングデータが記憶部19に記憶されているものとする。この3Dモデリングデータは、家を構成する各要素(扉、窓、壁、家具等)を示す仮想物体(以下、「部品」と呼ぶ)が組み合わされて構成されている。図2には、扉の部品300Mが示されている。仮想空間内の各部品の位置や大きさ等は、実空間内の各要素の位置や大きさ等に対応しているものとする。ただし、「家」は設計段階であり実空間上に未だ存在しないため、各部品の位置や大きさ等は自在に可変できるものとする。
HMD端末100に表示される2次元画像は、当該3Dモデリングデータを含む仮想空間内に存在する「視点」から眺望した様子(2次元平面に投影した様子)を示している。この視点は、画像処理装置1の入力部17(図1)に対するユーザ200の所定の操作や、ユーザ200の身体に装着したHMD端末100の向きに応じて、仮想空間内を自在に移動可能であり、その方向も自在に変更可能である。
これにより、ユーザ200は、HMD端末100に表示される2次元画像、即ち、仮想空間内の視点から眺望した家の外部または内部を示す2次元画像を、あたかも自身の目で眺めたかのように見ることができる。図2の例では、扉の部品300Mを含む室内の仮想空間において当該扉の部品300Mを眺望可能な位置に視点が配置されており、この視点から眺めた様子の2次元画像、即ち扉の画像300Gを含む2次元画像が、HMD端末100に表示される。そして、ユーザ200は、入力部17を操作して視点の位置および方向を自在に変更することで、HMD端末100に表示される2次元画像の内容を、あたかも自身が移動したり自身の目を動かした際に見える風景に変化させることができる。このようにして、ユーザ200は、視覚的に、仮想空間を擬似的に体感することができる。
更に、この間、撮像部16は、実空間におけるユーザ200の手を撮像した様子を示す撮像画像のデータを逐次出力している。画像処理装置1は、逐次出力される撮像画像のデータに対して所定の画像処理を施すことで、ユーザ200の手の動きを認識する。そして、画像処理装置1は、ユーザ200の手に対応する仮想オブジェクト(図2の例では、ユーザ200全体に対応する仮想オブジェクト)を、認識した実際の手の動きに応じて仮想空間内でも移動させる。手に対応する仮想オブジェクトが、扉の部品300Mと接触した場合、感覚フィードバック装置110は、実際のユーザ200の手に対して、実際の扉に接触した場合の触感を伝達(フィードバック)する。このようにして、ユーザ200は、視覚的のみならず触覚的にも、仮想空間を擬似的に体感することができる。
ユーザが、感覚フィードバック装置110を手に装着した状態で、手を動かすことにより3Dモデリングデータの仮想物体の位置や大きさを修正する指示をすることができる。この指示の仕方は、ユーザが、実空間内の実物体の位置や大きさを変化させるのと同様に手を動かすだけでよい。
画像処理装置1は、上述したように、ユーザが手を動かしている様子が写る一連の撮像画像のデータから、当該手の動きを認識することで、3Dモデリングデータの仮想物体の位置や大きさの修正指示を認識する。そして、画像処理装置1は、認識した手の動き(その位置と方向と姿勢との時間推移)に基づいて3Dモデリングデータを修正する。
具体的には例えば図2の例では、ユーザは、HMD端末100に表示される扉の画像300Gをあたかも手で押し広げるように、実空間上で左右の手を所定方向に離していくように動かすことで、3Dモデリングデータの扉の部品300Mの寸法を修正する指示をする。この場合、撮像部16は、実空間におけるユーザ200の手の動きの様子を逐次撮像し、撮像画像のデータを逐次出力する。画像処理装置1は、撮像部16から逐次出力される撮像画像のデータから、ユーザ200の手の位置と方向と姿勢の時間的推移(動き)を検出し、検出された位置と方向と姿勢との時間推移に基づいて、3Dモデリングデータの修正を行う部位が扉の部品300Mであることと、その扉の部品300Mの修正後のサイズ等を特定する。そして、画像処理装置1は、特定した内容に基づいて、3Dモデリングデータを修正する。
[機能的構成]
図3は、このような画像処理装置1の機能的構成のうち、3Dモデリングデータ生成処理を実行するための機能的構成を示す機能ブロック図である。
3Dモデリングデータ生成処理とは、実空間内の所定部位の位置と方向と姿勢を、実空間の座標系と仮想空間の座標系との対応関係に基づいて変換された仮想空間内の位置と方向と姿勢に対応させて生成された画像を表示する。そして、画像が表示されている状態で、ユーザにより3Dモデリングデータの生成や修正を指示する操作が行われた場合に、3Dモデリングデータの生成や修正を行うまでの一連の処理をいう。
3Dモデリングデータ生成処理が実行される場合、CPU11においては、生成部51と、検出部52と、変換部53と、表示制御部54と、修正部55と、感覚フィードバック制御部56と、記憶制御部57と、が機能する。
生成部51は、3Dモデリングデータで表現される仮想物体を、仮想空間内に所定の位置と方向と姿勢とで仮想的に配置し、この仮想空間内で指定される仮想的な視点の位置と方向に対応させて、該3Dモデリングデータから2次元画像の画像データを生成する。
生成部51により生成される3Dモデリングデータは、仮想物体の他に、この仮想物体が配置される仮想背景の3Dデータを含む。生成部51は、3Dモデリングデータに基づいて仮想物体と仮想背景を含む2次元画像の生成を行う。
また、生成部51により生成される3Dモデリングデータで表現される仮想物体は、建物である。また、生成部51により生成される3Dモデリングデータで表現される仮想物体は、家具であり、仮想背景は建物内とすることができる。仮想背景とは、図2の例では、ユーザ200が建築を依頼している家(建物)の間取りに合わせて3Dモデリングデータにより生成される画像であり、建物の内装を含む建物内の背後の光景により構成される。ユーザは、所望の仮想背景に任意の仮想物体を自由に配置することができる。生成部51は、生成した画像データを変換部53へ供給する。
検出部52は、撮像部16から供給されるユーザの手の位置から位置情報を算出し、算出した位置情報に基づき、実空間に対するユーザの手の位置と方向と姿勢とを検出する。検出部52は、時系列的に複数検出したユーザの手の位置に基づいて手の移動方向を検出する。検出部52は、検出したユーザの底の位置と方向と姿勢の情報を変換部53へ供給する。
また、検出部52は、身体に装着したHMD端末100から供給される各種センサの値に基づき、実空間に対するユーザの視線の位置と方向をリアルタイムに検出する。HMD端末100に設けられているセンサとしては、例えば、加速度センサ、角速度センサおよび磁気センサ等を用いることができる。検出部52は、時系列的に検出したユーザの視線の位置に基づいてユーザの視線の変化を検出することができる。この場合、検出部52は、HMD端末100に設けられた各種センサにより、実空間に対するユーザの視線の位置や方向の変化をリアルタイムに検出することができる。
変換部53は、検出部52により検出された実空間内の所定部位の位置と方向と姿勢を、実空間の座標系と仮想空間の座標系との対応関係に基づいて、仮想空間内の位置と方向と姿勢に変換する。この場合、変換部53は、3Dモデリングデータで表現される仮想物体の種類に応じて、仮想空間の座標系と実空間の座標系とを対応付ける際の座標スケールを拡大または縮小して変換する。変換部53は、変換した仮想空間内の位置と方向と姿勢の情報を表示制御部54および感覚フィードバック制御部56へ供給する。
表示制御部54は、変換部により変換された位置と方向と姿勢に対応させて、生成部51により生成された3Dモデリングデータから画像のデータを生成させ、当該画像をHMD端末100に表示させる制御を実行する。この、HMD端末100は、背景を透過可能な表示装置であり、仮想空間の座標系と実空間の座標系とを対応付ける際の座標スケール(相互変換倍率)を同じにする。この場合、表示制御部54は、修正部55による3Dモデリングデータの生成や修正中において、生成や修正中の3Dモデリングデータに基づく2次元画像の生成と表示をリアルタイムに行う。
また、表示制御部54は、3Dモデリングデータから2次元画像を生成する際に、記憶部19に記憶されているタグ情報を関連付けられた位置に合成して表示する。
また、表示制御部54は、仮想空間内に、前記仮想空間の座標系と前記実空間の座標系とを対応付けている座標スケール(相互変換倍率)に対応した寸法目盛りを表示させる。表示制御部54により表示される寸法目盛りとしては、メジャーやものさし等ユーザが仮想物体の大きさを容易に把握するのに便宜なスケールが仮想物体に添えられて表示される。
修正部55は、表示制御部の制御により画像が表示されている状態で、ユーザによる3Dモデリングデータの生成や修正を指示する操作が行われた場合に、その操作が行われたときに検出部52で検出されている位置と方向と姿勢に基づいて3Dモデリングデータの生成や修正を行う部位を特定して3Dモデリングデータの生成や修正を行う。
また、修正部55は、表示制御部54の制御により3Dモデリングデータから生成される2次元画像がHDM端末100に表示されている状態で、ユーザが手を動かすことにより3Dモデリングデータの修正を指示する操作を行った場合に、3Dモデリングデータの生成や修正を行う。
具体的には、修正部55は、感覚フィードバック装置110から供給される指示に基づき操作が行われたときに3Dモデリングデータの修正を指示する操作を受け付ける。そして、修正部55は、検出部52で検出されているユーザの手の位置、方向、姿勢および手の移動方向に基づいて3Dモデリングデータにおける修正部位と修正内容を特定する。そして、修正部55は、特定した3Dモデリングデータにおける修正部位と修正内容に基づき、3Dモデリングデータの修正を行う。
また、修正部55は、ユーザが手を動かすことにより3Dモデリングデータの生成を指示する操作を行った場合に、その操作が行われたときに検出部で検出されているユーザの手の位置と手の移動方向に基づいて新たな3Dモデリングデータを生成する。
具体的には、修正部55は、感覚フィードバック装置110から供給される指示に基づき操作が行われたときに3Dモデリングデータの生成を指示する操作を受け付ける。そして、修正部55は、検出部52で検出されているユーザの手の位置、方向、姿勢および手の移動方向に基づいて3Dモデリングデータにおける生成部位と生成内容を特定する。そして、修正部55は、特定した3Dモデリングデータにおける生成部位と生成内容に基づき、3Dモデリングデータの生成を行う。
感覚フィードバック制御部56は、変換部53により変換された位置、方向および姿勢と、仮想空間内に配置された仮想物体の位置、方向および姿勢との関係に基づいて、ユーザの手に装着した感覚フィードバック装置110の感覚フィードバック機能を制御する。例えば、変換部53の変換した仮想空間内の位置において、仮想空間内の右手の位置に仮想物体が接触した場合には、感覚フィードバック制御部56は、ユーザの右手に所定の圧力を加えるように、ユーザの右手側に装着した感覚フィードバック装置110を制御する。
記憶制御部57は、ユーザ操作に基づいて仮想空間内における所望の位置にタグ情報を付加することができ、この仮想空間内に付加されたタグ情報を3Dモデリングデータの内外に、3Dモデリングデータの座標情報と関連付けて記憶する。
[3Dモデリングデータ生成処理]
次に、図2の機能的構成を有する画像処理装置1が実行する、3Dモデリングデータ生成処理について説明する。
図4および図5は、図2の機能的構成を有する画像処理装置1が実行する3Dモデリングデータ生成処理の流れを示すフローチャートである。
ユーザが入力部17を操作して、3Dモデリングデータの生成または修正を指示する操作が行われた場合に、図4の3Dモデリングデータ生成処理が開始される。
ステップS11において、変換部53は、実空間の座標系と仮想空間の座標系とを対応付けると共に、相互に変換するための座標変換情報を設定する。この場合、変換部53は、3Dモデリングデータで表現される仮想物体の種類に応じて、仮想空間の座標系と実空間の座標系とを対応付ける際の座標スケールを拡大または縮小して、座標変換情報を設定する。
ステップS12において、生成部51は、3Dモデリングデータで表現される仮想物体を、仮想空間内に所定の位置と方向と姿勢で仮想的に配置する。
ステップS13において、検出部52は、身体に装着したHMD端末100から供給される各種センサの値に基づき、実空間に対するユーザの視線の位置と方向を検出する。この場合、検出部52は、時系列的にリアルタイムに検出したユーザの視線の位置に基づいて視線の変化を検出する。
ステップS14において、生成部51は、仮想空間内に配置された3Dモデリングデータの座標を、ステップS11において生成した座標変換情報に基づいて実空間内の座標に変換しながら、ステップS13において検出したユーザの視線の位置と方向に応じた仮想物体の2次元画像のデータを生成する。
ステップS15において、表示制御部54は、ステップS14において生成した仮想物体の2次元画像を、背景部分を透過した状態でHMD端末100に表示する制御を実行する。
ステップS16において、検出部52は、撮像部16により撮像された感覚フィードバック装置110の実空間に対する位置と移動方向とに基づき、実空間に対するユーザの手の位置と方向と姿勢を検出する。この場合、検出部52は、時系列的に複数検出したユーザの手の位置に基づいて手の移動方向を検出する。
ステップS17において、変換部53は、ステップS16において検出したユーザの手の位置と方向と姿勢が仮想物体に対するものであるか否かを判定する。この処理では、変換部53は、仮想空間内に配置された3Dモデリングデータの座標を、ステップS11において設定した座標変換情報に基づいて実空間内の座標に変換しながら、実空間上のユーザの手が仮想空間上の仮想物体に対するものであるか否かを判定する。検出したユーザの手の位置と方向と姿勢が仮想物体に対するものでない場合、ステップS17においてNOであると判定されて、処理はステップS21に進む。ステップS21以降の処理については後述する。これに対し、検出したユーザの手の位置と方向と姿勢が仮想物体に対するものである場合、ステップS17においてYESであると判定されて、処理はステップS18に進む。
ステップS18において、感覚フィードバック制御部56は、感覚フィードバック装置110に対して操作方向に対応した感覚をフィードバックする。この処理では、感覚フィードバック制御部56は、ステップS16において検出された、実空間に対するユーザの手の位置と方向と姿勢および、時系列的に複数検出したユーザの手の位置に基づき検出されたユーザの手の移動方向に基づいて、ユーザの操作方向を算出する。そして、感覚フィードバック制御部56は、算出したユーザの操作方向と対抗する挙動となるよう制御する制御信号を感覚フィードバック装置110に送信することで、ユーザの操作方向に対応した感覚を感覚フィードバック装置110に対しフィードバックする。
ステップS19において、修正部55は、仮想物体に対する操作位置と操作方向に応じて、3Dモデリングデータに対する修正部位および修正内容を特定する。この処理では、修正部55は、ステップS16において検出された、実空間に対するユーザの手の位置と方向と姿勢および、ユーザの手の移動方向を、ステップS11において設定した座標変換情報により変換し、仮想物体に対する操作位置と操作方向を算出する。そして、修正部55は、算出した仮想物体に対する操作位置と操作方向に基づいて3Dモデリングデータに対する修正部位および修正内容を特定する。
ステップS20において、修正部55は、ステップS19において特定された修正部位を特定された修正内容で3Dモデリングデータを修正する。
ステップS21において、3Dモデリングデータの生成または修正を終了する指示を受けたか否かを判定する。3Dモデリングデータの生成または修正を終了する指示を受けていない場合には、ステップS21においてNOであると判定されて、処理はステップS13に戻る。即ち、3Dモデリングデータの生成または修正を終了する指示を受けるまでの間、ステップS13乃至S21の処理が繰り返し行われる。これに対し、3Dモデリングデータの生成または修正を終了する指示を受けた場合には、ステップS21においてYESであると判定されて、処理はステップS22の処理に移る。
ステップS22において、記憶制御部57は、ステップS20の処理において修正された3Dモデリングデータを記憶部19に記憶する。この処理が終了すると3Dモデリングデータ生成処理は終了となる。
以上説明したように、本実施形態の画像処理装置1は、生成部51と、検出部52と、変換部53と、表示制御部54と、修正部55と、を備える。
生成部51は、3Dモデリングデータで表現される仮想物体を、仮想空間内に所定の位置と方向とで仮想的に配置し、この仮想空間内で指定される仮想的な視点の位置と方向に対応させて、該3Dモデリングデータから画像のデータを生成する。
検出部52は、実空間に対する所定部位の位置と方向を検出する。
変換部53は、検出部52により検出された実空間内の所定部位の位置と方向を、実空間の座標系と仮想空間の座標系との対応関係に基づいて、仮想空間内の位置と方向に変換する。
表示制御部54は、変換部53により変換された位置と方向に対応させて、生成部51により3Dモデリングデータから画像のデータを生成させ、当該画像をHMD端末100に表示させる。
修正部55は、表示制御部54の制御により画像が表示されている状態で、ユーザによる3Dモデリングデータの生成や修正を指示する操作が行われた場合に、その操作が行われたときに検出部52で検出されている位置と方向に基づいて3Dモデリングデータの生成や修正を行う部位を特定して3Dモデリングデータの生成または修正を行う。
これにより、ユーザは、HMD端末100により表示される仮想空間において仮想物体の大きさを擬似的に体感しながら、3Dモデリングデータの生成や修正を指示する操作を行うことにより、3Dモデリングデータの生成や修正を行うことができる。したがって、仮想空間における仮想物体の性状を任意に修正することができる。
また、本実施形態の画像処理装置1の表示制御部54は、修正部55による3Dモデリングデータの生成または修正中において、生成や修正中の3Dモデリングデータに基づく2次元画像の生成と表示をリアルタイムに行う。
これにより、3Dモデリングデータの生成や修正を指示する操作を行うと、リアルタイムでその生成や修正された2次元画像がHMD端末100により表示される。これにより、ユーザは、3Dモデリングデータが生成や修正された状態をリアルタイムで認識することができるため、生成内容や修正内容を容易に把握することができる。
また、本実施形態の画像処理装置1の検出部52は、実空間に対するユーザの視線または手の位置と方向を検出する。変換部53は、検出部52により検出された視線または手の位置と方向を、実空間の座標系と仮想空間の座標系との対応関係に基づいて、仮想空間内の視線または手の位置と方向に変換する。
これにより、ユーザは、自身の視線や手の位置に対応した位置に基づいて、3Dモデリングデータの生成や修正を行うことができる。したがって、仮想空間における仮想物体の生成や性状の修正を容易に行うことができる。
また、本実施形態の画像処理装置1の検出部52は、実空間に対するユーザの視線の位置と方向と、ユーザの手の位置と方向を別々に検出する。変換部53は、検出部52により検出された実空間におけるユーザの視線の位置と方向およびユーザの手の位置と方向を、実空間の座標系と仮想空間の座標系との対応関係に基づいて、仮想空間内のユーザの視線の位置と方向およびユーザの手の位置と方向位置と方向に変換する。表示制御部54は、変換部53により変換されたユーザの視線の位置と方向に対応させて、生成部51により3Dモデリングデータから画像のデータを生成させる。修正部55は、検出部52で検出され、変換部53により変換されたユーザの手の位置と方向に基づいて3Dモデリングデータの生成または修正を行う部位を特定する。
これにより、ユーザは、自身の視線および手の位置の各々に対応した位置に基づいて、3Dモデリングデータの生成や修正を行うことができる。したがって、仮想空間における仮想物体の生成や性状の修正をより正確に行うことができる。
また、本実施形態の画像処理装置1の検出部52は、実空間に対するユーザの手の位置と手の移動方向を検出する。また、修正部55は、表示制御部54の制御により3Dモデリングデータから生成される2次元画像が表示されている状態で、ユーザが手を動かすことにより3Dモデリングデータの修正を指示する操作を行った場合に、その操作が行われたときに検出部52で検出されているユーザの手の位置と手の移動方向に基づいて3Dモデリングデータにおける修正部位と修正内容を特定して3Dモデリングデータの修正を行う。
これにより、ユーザが実空間において手を移動して3Dモデリングデータの修正を指示する操作を行うと、その手の位置と移動方向に基づいて3Dモデリングデータにおける修正部位と修正内容が特定される。そして、この特定された部位に基づいて3Dモデリングデータの修正が行われる。これにより、ユーザは、手を用いて3Dモデリングデータの修正を容易に行うことができる。
また、本実施形態の画像処理装置1の検出部52は、実空間に対するユーザの手の位置と手の移動方向を検出する。そして、修正部55は、ユーザが手を動かすことにより3Dモデリングデータの生成を指示する操作を行った場合に、その操作が行われたときに検出部52で検出されているユーザの手の位置と手の移動方向に基づいて新たな3Dモデリングデータを生成する。
これにより、ユーザが実空間において手を移動して3Dモデリングデータの生成を指示する操作を行うと、その手の位置と移動方向に基づいて新たな3Dモデリングデータの生成が行われる。これにより、ユーザは、手を用いて3Dモデリングデータの生成を容易に行うことができる。
また、本実施形態の画像処理装置1の生成部51は、3Dモデリングデータで表現される仮想物体を、仮想空間内に所定の位置と方向と姿勢で仮想的に配置し、この仮想空間内で指定される仮想的な視点の位置と方向と姿勢に対応させて、該3Dモデリングデータから画像のデータを生成する。
検出部52は、実空間に対するユーザの視線または手の位置と方向と姿勢を検出する。
変換部53は、検出部52により検出された視線または手の位置と方向と姿勢を、実空間の座標系と仮想空間の座標系との対応関係に基づいて、仮想空間内の視線または手の位置と方向と姿勢に変換する。
修正部55は、検出部52で検出されている位置と方向と姿勢に基づいて3Dモデリングデータの生成または修正を行う部位および生成または修正の内容を特定して3Dモデリングデータの生成または修正を行う。
これにより、ユーザが実空間において視線や手を移動して3Dモデリングデータの生成や修正を指示する操作を行うと、その視線や手の移動方向に基づいて3Dモデリングデータにおける修正内容や生成内容が特定される。そして、この特定された部位に基づいて3Dモデリングデータの修正や生成が行われる。これにより、ユーザは、視線や手を用いて3Dモデリングデータの修正や生成を容易に行うことができる。
また、本実施形態の画像処理装置1は、感覚フィードバック制御部56を更に備える。検出部52は、ユーザの手に装着した感覚フィードバック装置110の実空間に対する位置と移動方向を検出する。変換部53は、検出部52により検出される実空間内の位置と方向と姿勢を、仮想空間内の位置と方向と姿勢に変換する。そして、感覚フィードバック制御部56は、変換部53により変換された位置、方向および姿勢と、仮想空間内に配置された仮想物体の位置、方向および姿勢との関係に基づいて、ユーザの手に装着した感覚フィードバック装置110の感覚フィードバック機能を制御する。
これにより、ユーザが実空間において手を移動する操作を行うと、実空間内の手の位置と方向と姿勢と、仮想空間内に配置された仮想物体の位置、方向および姿勢との関係に基づいて感覚フィードバック装置110が制御される。したがって、ユーザが手を用いて3Dモデリングデータの修正や生成を行う指示を行うと、その手の動きに対応した感覚がユーザにフィードバックされるため、ユーザは、仮想空間上の仮想物体の生成や修正を擬似的に体感することができる。
また、本実施形態の画像処理装置1は、撮像部16を更に備える。検出部52は、実空間に対する撮像部16の位置と撮影方向を検出する。そして、表示制御部54は、撮像部16によりリアルタイムに撮影されるライブビュー画像をHMD端末100に表示した状態で、このライブビュー画像上に、3Dモデリングデータから生成される2次元画像を合成して表示する。
これにより、撮像部16によりリアルタイムに撮影される実空間のライブビュー画像上に、3Dモデリングデータから生成される2次元画像が合成して表示される。したがって、ユーザは、あたかも実空間上に仮想物体があるかのように、3Dモデリングデータから生成された仮想物体を実空間上に擬似的に配置して表示することができる。
また、本実施形態の画像処理装置1の検出部52は、身体に装着したHMD端末100により実空間に対する視線の位置や方向の変化をリアルタイムに検出する。
これにより、ユーザの実空間に対する視線の位置や方向に基づいて3Dモデリングデータから2次元画像が生成される。したがって、ユーザは、あたかも自身が仮想空間内で視線を動かしているかのように、仮想物体を認識することができる。
また、本実施形態の画像処理装置1のHMD端末100は、背景を透過可能な表示装置であり、仮想空間の座標系と実空間の座標系とを対応付ける際の座標スケールを同じにする。
これにより、3Dモデリングデータから生成される2次元画像がHMD端末100を向けた方向を背景画像として、重畳して表示される。したがって、ユーザは、あたかも実空間上に仮想物体があるかのように、3Dモデリングデータから生成された仮想物体を実空間上に擬似的に配置して表示することができる。
また、本実施形態の画像処理装置1の3Dモデリングデータは、仮想物体の他に、この仮想物体が配置される仮想背景の3Dデータを含む。そして、生成部51は、3Dモデリングデータに基づいて仮想物体と仮想背景を含む2次元画像の生成を行う。
これにより、3Dデータから生成される仮想背景をバックに仮想物体が配置された2次元画像が表示される。したがって、ユーザは、所望の仮想背景に任意の仮想物体を自由に配置することができる。
また、本実施形態の画像処理装置1の変換部53は、3Dモデリングデータで表現される仮想物体の種類に応じて、仮想空間の座標系と実空間の座標系とを対応付ける際の座標スケールを拡大または縮小して変換する。
これにより、実空間の寸法が仮想空間の寸法よりも大きい場合には、実空間の座標系の座標スケールを縮小することにより、実空間と仮想空間とのスケールを同じように合わせて表示することができる。これに対し、実空間の寸法が仮想空間の寸法よりも小さい場合には、実空間の座標系の座標スケールを拡大することにより、実空間と仮想空間とのスケールを同じように合わせて表示することができる。したがって、実空間のスケールと仮想空間のスケールとが異なる場合であっても、スケール間の相違を気にすることなく、拡大または縮小された画像を認識することができる。
また、本実施形態の画像処理装置1の3Dモデリングデータで表現される仮想物体は建物である。
これにより、ユーザは、3Dモデリングデータにより表現される建物を視認することができるともに、当該建物の寸法や大きさを自由に生成および修正することができる。
また、本実施形態の画像処理装置1の3Dモデリングデータで表現される仮想物体は家具であり、仮想背景は建物内である。
これにより、ユーザは、3Dモデリングデータにより表現される建物内に配置された家具を視認することができるともに、当該建物内の家具の寸法や大きさを自由に生成および修正することができる。
また、本実施形態の画像処理装置1は、記憶制御部57を更に備える。
記憶制御部57は、ユーザ操作に基づいて仮想空間内における所望の位置にタグ情報を付加することができ、この仮想空間内に付加されたタグ情報を3Dモデリングデータの内外に、3Dモデリングデータの座標情報と関連付けて記憶する。そして、表示制御部54は、3Dモデリングデータから2次元画像を生成する際に、記憶されているタグ情報を関連付けられた位置に合成して表示する。
これにより、ユーザにより所望の位置に付加されたタグ情報を3Dモデリングデータから生成される2次元画像に合成して表示することができる。これにより、ユーザが所望する位置の情報を2次元画像に反映することができる。
また、本実施形態の画像処理装置1の表示制御部54は、仮想空間内に、仮想空間の座標系と実空間の座標系とを対応付けている座標スケールに対応した寸法目盛りを表示させる。
これにより、ユーザは、実空間のスケールと仮想空間のスケールとが異なる場合であっても、スケール間の相違を認識することができる。
なお、本発明は、上述の実施形態に限定されるものではなく、本発明の目的を達成できる範囲での変形、改良等は本発明に含まれるものである。
上述の実施形態では、生成部51は、3Dモデリングデータから2次元画像の画像データを生成しているがこれに限られるものではなく、例えば、生成部51は、3D映像を表示する為の3次元画像の画像データを生成することができる。
また、上述の実施形態では、検出部52は、身体に装着したHMD端末100から供給される各種センサの値に基づき、実空間に対するユーザの視線の位置と方向を検出しているがこれに限られるものではない。例えば、検出部52は、撮像部16により撮像されたHMD端末100の位置と方向とに基づいてユーザの視線の位置と方向とを検出することができる。
また、上述の実施形態では、ユーザ200が、3Dモデリングデータの再生を指示すると、記憶部19に記憶されている3Dモデリングデータから生成される2次元画像がHMD端末100に表示しているがこれに限られるものではない。例えば、画像処理装置1は、撮像部16によりリアルタイムに撮影されるライブビュー画像をHMD端末100に表示する。そして、画像処理装置1は、このライブビュー画像上に、3Dモデリングデータから生成される2次元画像を合成して表示することができる。
また、上述の実施形態では、検出部52は、撮像部16から供給されるユーザの手の位置から位置情報を算出し、算出した位置情報に基づき、実空間に対するユーザの手の位置と方向と姿勢とを検出しているがこれに限られるものではない。例えば、感覚フィードバック装置110から供給される加速度センサの値に基づき、実空間に対するユーザの手の位置と方向と姿勢とを検出することができる。
また、上述の実施形態では、検出部52は、実空間に対するユーザの視線の位置と方向と、ユーザの手の位置と方向のそれぞれを、異なる方法で個別に検出しているが、いずれか一方のみを検出し、この検出結果で他方の検出結果を代替または推定するようにしてもよい。例えば、HMD端末100から供給される各種センサの値に基づき、実空間に対するユーザの視線の位置と方向だけを検出し、ユーザーがキーボード等の操作、あるいは音声により3Dモデリングデータの生成や修正を指示する操作を行った場合、そのときに検出されているユーザの視線の位置と方向に基づいて、3Dモデリングデータの生成や修正を行う部位を特定するようにしてもよい。
また、上述の実施形態では、検出部52は、実空間に対するユーザの視線や手の位置と方向と姿勢を検出したが、姿勢については常に水平であると仮定して検出を省略してもよい。
また、上述の実施形態では、本発明が適用される画像処理装置1は、パーソナルコンピュータを例として説明したが、特にこれに限定されない。
例えば、本発明は、画像処理機能を有する電子機器一般に適用することができる。具体的には、例えば、本発明は、テレビジョン受像機、ビデオカメラ、携帯型ナビゲーション装置、携帯電話機、スマートフォン、ポータブルゲーム機等に適用可能である。
上述した一連の処理は、ハードウェアにより実行させることもできるし、ソフトウェアにより実行させることもできる。
換言すると、図2の機能的構成は例示に過ぎず、特に限定されない。即ち、上述した一連の処理を全体として実行できる機能が画像処理装置1に備えられていれば足り、この機能を実現するためにどのような機能ブロックを用いるのかは特に図2の例に限定されない。
また、1つの機能ブロックは、ハードウェア単体で構成してもよいし、ソフトウェア単体で構成してもよいし、それらの組み合わせで構成してもよい。
一連の処理をソフトウェアにより実行させる場合には、そのソフトウェアを構成するプログラムが、コンピュータ等にネットワークや記録媒体からインストールされる。
コンピュータは、専用のハードウェアに組み込まれているコンピュータであってもよい。また、コンピュータは、各種のプログラムをインストールすることで、各種の機能を実行することが可能なコンピュータ、例えば汎用のパーソナルコンピュータであってもよい。
このようなプログラムを含む記録媒体は、ユーザにプログラムを提供するために装置本体とは別に配布される図1のリムーバブルメディア31により構成されるだけでなく、装置本体に予め組み込まれた状態でユーザに提供される記録媒体等で構成される。リムーバブルメディア31は、例えば、磁気ディスク(フロッピディスクを含む)、Blu−ray Disc(ブルーレイディスク)、光ディスク、または光磁気ディスク等により構成される。光ディスクは、例えば、CD−ROM(Compact Disk−Read Only Memory),DVD(Digital Versatile Disk)、ブルーレイ(Blu−ray)(登録商標)等により構成される。光磁気ディスクは、MD(Mini−Disk)等により構成される。また、装置本体に予め組み込まれた状態でユーザに提供される記録媒体は、例えば、プログラムが記録されている図1のROM12や、図1の記憶部19に含まれるハードディスク等で構成される。
なお、本明細書において、記録媒体に記録されるプログラムを記述するステップは、その順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的あるいは個別に実行される処理をも含むものである。
また、本明細書において、システムの用語は、複数の装置や複数の手段等より構成される全体的な装置を意味するものとする。
以上、本発明の実施形態について説明したが、この実施形態は、例示に過ぎず、本発明の技術的範囲を限定するものではない。本発明はその他の様々な実施形態を取ることが可能であり、更に、本発明の要旨を逸脱しない範囲で、省略や置換等種々の変更を行うことができる。上記実施形態やその変形は、本明細書等に記載された発明の範囲や要旨に含まれると共に、特許請求の範囲に記載された発明とその均等の範囲に含まれる。
以下に、本願の出願当初の特許請求の範囲に記載された発明を付記する。
[付記1]
3Dモデリングデータで表現される仮想物体を、仮想空間内に所定の位置と方向とで仮想的に配置し、この仮想空間内で指定される仮想的な視点の位置と方向に対応させて、該3Dモデリングデータから画像のデータを生成する生成手段と、
実空間に対する所定部位の位置と方向を検出する検出手段と、
前記検出手段により検出された実空間内の前記所定部位の位置と方向を、実空間の座標系と仮想空間の座標系との対応関係に基づいて、前記仮想空間内の位置と方向に変換する変換手段と、
前記変換手段により変換された位置と方向に対応させて、前記生成手段により前記3Dモデリングデータから画像のデータを生成させ、当該画像を表示部に表示させる表示制御手段と、
前記表示制御手段の制御により前記画像が表示されている状態で、ユーザによる前記3Dモデリングデータの生成や修正を指示する操作が行われた場合に、その操作が行われたときに前記検出手段で検出されている位置と方向に基づいて3Dモデリングデータの生成や修正を行う部位を特定して3Dモデリングデータの生成または修正を行う修正手段と、
を備えることを特徴とする画像処理装置。
[付記2]
前記表示制御手段は、前記修正手段による3Dモデリングデータの生成または修正中において、生成や修正中の3Dモデリングデータに基づく2次元画像の生成と表示をリアルタイムに行う
ことを特徴とする付記1に記載の画像処理装置。
[付記3]
前記検出手段は、実空間に対するユーザの視線または手の位置と方向を検出し、
前記変換手段は、前記検出手段により検出された視線または手の位置と方向を、実空間の座標系と仮想空間の座標系との対応関係に基づいて、前記仮想空間内の視線または手の位置と方向に変換することを特徴とする付記1または2に記載の画像処理装置。
[付記4]
前記検出手段は、実空間に対するユーザの視線の位置と方向と、ユーザの手の位置と方向を別々に検出し、
前記変換手段は、前記検出手段により検出された実空間におけるユーザの視線の位置と方向およびユーザの手の位置と方向を、実空間の座標系と仮想空間の座標系との対応関係に基づいて、前記仮想空間内のユーザの視線の位置と方向およびユーザの手の位置と方向位置と方向に変換し、
前記表示制御手段は、前記変換手段により変換されたユーザの視線の位置と方向に対応させて、前記生成手段により前記3Dモデリングデータから画像のデータを生成させ、
前記修正手段は、前記検出手段で検出され、前記変換手段により変換されたユーザの手の位置と方向に基づいて3Dモデリングデータの生成または修正を行う部位を特定することを特徴とする付記3に記載の画像処理装置。
[付記5]
前記検出手段は、実空間に対するユーザの手の位置と手の移動方向を検出し、
前記修正手段は、前記表示制御手段の制御により前記3Dモデリングデータから生成される前記2次元画像が表示されている状態で、ユーザが手を動かすことにより前記3Dモデリングデータの修正を指示する操作を行った場合に、その操作が行われたときに前記検出手段で検出されているユーザの手の位置と手の移動方向に基づいて前記3Dモデリングデータにおける修正部位と修正内容を特定して前記3Dモデリングデータの修正を行う
ことを特徴とする付記1乃至4のいずれかに記載の画像処理装置。
[付記6]
前記検出手段は、実空間に対するユーザの手の位置と手の移動方向を検出し、
前記修正手段は、ユーザが手を動かすことにより前記3Dモデリングデータの生成を指示する操作を行った場合に、その操作が行われたときに前記検出手段で検出されているユーザの手の位置と手の移動方向に基づいて新たな3Dモデリングデータを生成する
ことを特徴とする付記1乃至4のいずれかに記載の画像処理装置。
[付記7]
前記生成手段は、3Dモデリングデータで表現される仮想物体を、仮想空間内に所定の位置と方向と姿勢で仮想的に配置し、この仮想空間内で指定される仮想的な視点の位置と方向と姿勢に対応させて、該3Dモデリングデータから画像のデータを生成し、
前記検出手段は、実空間に対するユーザの視線または手の位置と方向と姿勢を検出し、
前記変換手段は、前記検出手段により検出された視線または手の位置と方向と姿勢を、実空間の座標系と仮想空間の座標系との対応関係に基づいて、前記仮想空間内の視線または手の位置と方向と姿勢に変換し、
前記修正手段は、前記検出手段で検出されている位置と方向と姿勢に基づいて3Dモデリングデータの生成または修正を行う部位および生成または修正の内容を特定して3Dモデリングデータの生成または修正を行うことを特徴とする付記1乃至4のいずれかに記載の画像処理装置。
[付記8]
前記画像処理装置は、感覚フィードバック制御手段を更に備え、
前記検出手段は、ユーザの手に装着した感覚フィードバック機能付きの機器の実空間に対する位置と移動方向を検出し、
前記変換手段は、前記検出手段により検出される実空間内の位置と方向と姿勢を、前記仮想空間内の位置と方向と姿勢に変換し、
感覚フィードバック制御手段は、前記変換手段により変換された位置、方向および姿勢と、仮想空間内に配置された前記仮想物体の位置、方向および姿勢との関係に基づいて、ユーザの手に装着した機器の感覚フィードバック機能を制御する
ことを特徴とする付記1乃至4のいずれかに記載の画像処理装置。
[付記9]
前記画像処理装置は、撮像部を更に備え、
前記検出手段は、実空間に対する前記撮像部の位置と撮影方向を検出し、
前記表示制御手段は、前記撮像部によりリアルタイムに撮影されるライブビュー画像を前記表示部に表示した状態で、このライブビュー画像上に、前記3Dモデリングデータから生成される2次元画像を合成して表示する
ことを特徴とする付記1乃至4のいずれかに記載の画像処理装置。
[付記10]
前記検出手段は、身体に装着したセンサ付表示装置により実空間に対する視線の位置や方向の変化をリアルタイムに検出する
ことを特徴とする付記1乃至4のいずれかに記載の画像処理装置。
[付記11]
前記センサ付表示装置は、背景を透過可能な表示装置であり、前記仮想空間の座標系と前記実空間の座標系とを対応付ける際の座標スケールを同じにする
ことを特徴とする付記10に記載の画像処理装置。
[付記12]
前記3Dモデリングデータは、前記仮想物体の他に、この仮想物体が配置される仮想背景の3Dデータを含み、前記生成手段は、前記3Dモデリングデータに基づいて前記仮想物体と前記仮想背景を含む2次元画像の生成を行う
ことを特徴とする付記1乃至11のいずれかに記載の画像処理装置。
[付記13]
前記変換手段は、前記3Dモデリングデータで表現される仮想物体の種類に応じて、前記仮想空間の座標系と前記実空間の座標系とを対応付ける際の座標スケールを拡大または縮小して変換する
ことを特徴とする付記1乃至12のいずれかに記載の画像処理装置。
[付記14]
前記3Dモデリングデータで表現される仮想物体は建物である
ことを特徴とする付記1乃至13のいずれかに記載の画像処理装置。
[付記15]
前記3Dモデリングデータで表現される仮想物体は家具であり、仮想背景は建物内である
ことを特徴とする付記1乃至14のいずれかに記載の画像処理装置。
[付記16]
前記画像処理装置は、記憶制御手段を更に備え、
前記記憶制御手段は、ユーザ操作に基づいて仮想空間内における所望の位置にタグ情報を付加することができ、この仮想空間内に付加されたタグ情報を3Dモデリングデータの内外に、3Dモデリングデータの座標情報と関連付けて記憶し、
前記表示制御手段は、3Dモデリングデータから2次元画像を生成する際に、記憶されているタグ情報を関連付けられた位置に合成して表示する
ことを特徴とする付記1乃至15のいずれかに記載の画像処理装置。
[付記17]
前記表示制御手段は、仮想空間内に、前記仮想空間の座標系と前記実空間の座標系とを対応付けている座標スケールに対応した寸法目盛りを表示させる
ことを特徴とする付記1乃至16のいずれかに記載の画像処理装置。
[付記18]
3Dモデリングデータの生成や修正を行う画像処理装置が実行する画像処理方法であって、
3Dモデリングデータで表現される仮想物体を、仮想空間内に所定の位置と方向とで仮想的に配置し、この仮想空間内で指定される仮想的な視点の位置と方向に対応させて、該3Dモデリングデータから画像のデータを生成する生成ステップと、
実空間に対する所定部位の位置と方向を検出する検出ステップと、
前記検出ステップにより検出された実空間内の前記所定部位の位置と方向を、実空間の座標系と仮想空間の座標系との対応関係に基づいて、前記仮想空間内の位置と方向に変換する変換ステップと、
前記変換ステップにより変換された位置と方向に対応させて、前記生成ステップにより前記3Dモデリングデータから画像のデータを生成させ、当該画像を表示部に表示させる表示制御ステップと、
前記表示制御ステップの制御により前記画像が表示されている状態で、ユーザによる前記3Dモデリングデータの生成や修正を指示する操作が行われた場合に、その操作が行われたときに前記検出ステップで検出されている位置と方向に基づいて3Dモデリングデータの生成や修正を行う部位を特定して3Dモデリングデータの生成または修正を行う修正ステップと、
を含むことを特徴とする画像処理方法。
[付記19]
3Dモデリングデータの生成や修正する制御を実行するコンピュータを、
3Dモデリングデータで表現される仮想物体を、仮想空間内に所定の位置と方向とで仮想的に配置し、この仮想空間内で指定される仮想的な視点の位置と方向に対応させて、該3Dモデリングデータから画像のデータを生成する生成手段、
実空間に対する所定部位の位置と方向を検出する検出手段、
前記検出手段により検出された実空間内の前記所定部位の位置と方向を、実空間の座標系と仮想空間の座標系との対応関係に基づいて、前記仮想空間内の位置と方向に変換する変換手段、
前記変換手段により変換された位置と方向に対応させて、前記生成手段により前記3Dモデリングデータから画像のデータを生成させ、当該画像を表示部に表示させる表示制御手段、
前記表示制御手段の制御により前記画像が表示されている状態で、ユーザによる前記3Dモデリングデータの生成や修正を指示する操作が行われた場合に、その操作が行われたときに前記検出手段で検出されている位置と方向に基づいて3Dモデリングデータの生成や修正を行う部位を特定して3Dモデリングデータの生成または修正を行う修正手段、
として機能させることを特徴とするプログラム。
1・・・画像処理装置、11・・・CPU、12・・・ROM、13・・・RAM、14・・・バス、15・・・入出力インターフェース、16・・・撮像部、17・・・入力部、18・・・出力部、19・・・記憶部、20・・・通信部、21・・・ドライブ、31・・・リムーバブルメディア、
51・・・生成部、52・・・検出部、53・・・変換部、54・・・表示制御部、55・・・修正部、56・・・感覚フィードバック制御部、57・・・記憶制御部、100・・・HMD端末、110・・・感覚フィードバック装置

Claims (18)

  1. 3Dモデリングデータで表現される仮想物体を、仮想空間内に所定の位置と方向とで仮想的に配置し、この仮想空間内で指定される仮想的な視点の位置と方向に対応させて、該3Dモデリングデータから画像のデータを生成する生成手段と、
    実空間に対するユーザの視線の位置と方向の変化を逐次検出する検出手段と、
    前記検出手段により逐次検出される実空間内の前記ユーザの視線の位置と方向を、実空間の座標系と仮想空間の座標系との対応関係に基づいて、前記仮想空間内の位置と方向に逐次変換する変換手段と、
    前記変換手段により逐次変換されるユーザの視線の位置と方向に対応させて、前記生成手段により前記3Dモデリングデータから生成される画像のデータを逐次更新させ、当該画像を表示部に逐次表示させる表示制御手段と、
    前記表示制御手段の制御により前記画像が表示されている状態で、ユーザによる前記3Dモデリングデータの生成や修正を指示する操作が行われた場合に、その操作が行われたときに前記検出手段で検出されているユーザの視線の位置と方向に基づいて3Dモデリングデータの生成や修正を行う部位を特定して3Dモデリングデータの生成または修正を行う修正手段と、
    を備えることを特徴とする画像処理装置。
  2. 前記表示制御手段は、前記修正手段による3Dモデリングデータの生成または修正中において、生成や修正中の3Dモデリングデータに基づく2次元画像の生成と表示をリアルタイムに行う
    ことを特徴とする請求項1に記載の画像処理装置。
  3. 前記検出手段は、実空間に対するユーザの視線の位置と方向の変化と、ユーザの手の位置の変化を別々に検出し、
    前記変換手段は、前記検出手段により逐次検出される実空間におけるユーザの視線の位置と方向およびユーザの手の位置を、実空間の座標系と仮想空間の座標系との対応関係に基づいて、前記仮想空間内のユーザの視線の位置と方向およびユーザの手の位置に逐次変換し、
    前記修正手段は、前記検出手段で逐次検出され、前記変換手段により逐次変換されるユーザの視線の位置と方向およびユーザの手の位置に基づいて3Dモデリングデータの生成または修正を行う部位を逐次特定することを特徴とする請求項1または2に記載の画像処理装置。
  4. 前記検出手段は、実空間に対するユーザの手の方向と手の移動方向を検出し、
    前記修正手段は、前記表示制御手段の制御により前記3Dモデリングデータから生成される前記2次元画像が表示されている状態で、ユーザが手を動かすことにより前記3Dモデリングデータの修正を指示する操作を行った場合に、その操作が行われたときに前記検出手段で検出されているユーザの手の方向と手の移動方向に基づいて前記3Dモデリングデータにおける修正内容を特定して前記3Dモデリングデータの修正を行う
    ことを特徴とする請求項3に記載の画像処理装置。
  5. 前記検出手段は、実空間に対するユーザの手の方向と手の移動方向を検出し、
    前記修正手段は、ユーザが手を動かすことにより前記3Dモデリングデータの生成を指示する操作を行った場合に、その操作が行われたときに前記検出手段で検出されているユーザの手の方向と手の移動方向に基づいて新たな3Dモデリングデータを生成する
    ことを特徴とする請求項3に記載の画像処理装置。
  6. 前記生成手段は、3Dモデリングデータで表現される仮想物体を、仮想空間内に所定の位置と方向と姿勢で仮想的に配置し、この仮想空間内で指定される仮想的な視点の位置と方向と姿勢に対応させて、該3Dモデリングデータから画像のデータを生成し、
    前記検出手段は、実空間に対するユーザの視線および手の位置と方向と姿勢を検出し、
    前記変換手段は、前記検出手段により検出された視線および手の位置と方向と姿勢を、実空間の座標系と仮想空間の座標系との対応関係に基づいて、前記仮想空間内の視線および手の位置と方向と姿勢に変換し、
    前記修正手段は、前記検出手段で検出されている位置と方向と姿勢に基づいて3Dモデリングデータの生成または修正を行う部位および生成または修正の内容を特定して3Dモデリングデータの生成または修正を行うことを特徴とする請求項3に記載の画像処理装置。
  7. 前記画像処理装置は、感覚フィードバック制御手段を更に備え、
    前記検出手段は、ユーザの手に装着した感覚フィードバック機能付きの機器の実空間に対する位置と移動方向を検出し、
    前記変換手段は、前記検出手段により検出される実空間内の位置と方向と姿勢を、前記仮想空間内の位置と方向と姿勢に変換し、
    感覚フィードバック制御手段は、前記変換手段により変換された位置、方向および姿勢と、仮想空間内に配置された前記仮想物体の位置、方向および姿勢との関係に基づいて、ユーザの手に装着した機器の感覚フィードバック機能を制御する
    ことを特徴とする請求項3乃至6のいずれかに記載の画像処理装置。
  8. 前記画像処理装置は、撮像部を更に備え、
    前記検出手段は、実空間に対する前記撮像部の位置と撮影方向を検出し、
    前記表示制御手段は、前記撮像部によりリアルタイムに撮影されるライブビュー画像を前記表示部に表示した状態で、このライブビュー画像上に、前記3Dモデリングデータから生成される2次元画像を合成して表示する
    ことを特徴とする請求項1乃至7のいずれかに記載の画像処理装置。
  9. 前記検出手段は、身体に装着したセンサ付表示装置により実空間に対する視線の位置や方向の変化をリアルタイムに検出する
    ことを特徴とする請求項1乃至8のいずれかに記載の画像処理装置。
  10. 前記センサ付表示装置は、背景を透過可能な表示装置であり、前記仮想空間の座標系と前記実空間の座標系とを対応付ける際の座標スケールを同じにする
    ことを特徴とする請求項9に記載の画像処理装置。
  11. 前記3Dモデリングデータは、前記仮想物体の他に、この仮想物体が配置される仮想背景の3Dデータを含み、前記生成手段は、前記3Dモデリングデータに基づいて前記仮想物体と前記仮想背景を含む2次元画像の生成を行う
    ことを特徴とする請求項1乃至10のいずれかに記載の画像処理装置。
  12. 前記変換手段は、前記3Dモデリングデータで表現される仮想物体の種類に応じて、前記仮想空間の座標系と前記実空間の座標系とを対応付ける際の座標スケールを拡大または縮小して変換する
    ことを特徴とする請求項1乃至11のいずれかに記載の画像処理装置。
  13. 前記3Dモデリングデータで表現される仮想物体は建物である
    ことを特徴とする請求項1乃至12のいずれかに記載の画像処理装置。
  14. 前記3Dモデリングデータで表現される仮想物体は家具であり、仮想背景は建物内である
    ことを特徴とする請求項1乃至13のいずれかに記載の画像処理装置。
  15. 前記画像処理装置は、記憶制御手段を更に備え、
    前記記憶制御手段は、ユーザ操作に基づいて仮想空間内における所望の位置にタグ情報を付加することができ、この仮想空間内に付加されたタグ情報を3Dモデリングデータの内外に、3Dモデリングデータの座標情報と関連付けて記憶し、
    前記表示制御手段は、3Dモデリングデータから2次元画像を生成する際に、記憶されているタグ情報を関連付けられた位置に合成して表示する
    ことを特徴とする請求項1乃至14のいずれかに記載の画像処理装置。
  16. 前記表示制御手段は、仮想空間内に、前記仮想空間の座標系と前記実空間の座標系とを対応付けている座標スケールに対応した寸法目盛りを表示させる
    ことを特徴とする請求項1乃至15のいずれかに記載の画像処理装置。
  17. 3Dモデリングデータの生成や修正を行う画像処理装置が実行する画像処理方法であって、
    3Dモデリングデータで表現される仮想物体を、仮想空間内に所定の位置と方向とで仮想的に配置し、この仮想空間内で指定される仮想的な視点の位置と方向に対応させて、該3Dモデリングデータから画像のデータを生成する生成ステップと、
    実空間に対するユーザの視線の位置と方向の変化を逐次検出する検出ステップと、
    前記検出ステップにより逐次検出される実空間内の前記ユーザの視線の位置と方向を、実空間の座標系と仮想空間の座標系との対応関係に基づいて、前記仮想空間内の位置と方向に逐次変換する変換ステップと、
    前記変換ステップにより逐次変換されるユーザの視線の位置と方向に対応させて、前記生成ステップにより前記3Dモデリングデータから生成される画像のデータを逐次更新させ、当該画像を表示部に逐次表示させる表示制御ステップと、
    前記表示制御ステップの制御により前記画像が表示されている状態で、ユーザによる前記3Dモデリングデータの生成や修正を指示する操作が行われた場合に、その操作が行われたときに前記検出ステップで検出されているユーザの視線の位置と方向に基づいて3Dモデリングデータの生成や修正を行う部位を特定して3Dモデリングデータの生成または修正を行う修正ステップと、
    を含むことを特徴とする画像処理方法。
  18. 3Dモデリングデータの生成や修正する制御を実行するコンピュータを、
    3Dモデリングデータで表現される仮想物体を、仮想空間内に所定の位置と方向とで仮想的に配置し、この仮想空間内で指定される仮想的な視点の位置と方向に対応させて、該3Dモデリングデータから画像のデータを生成する生成手段、
    実空間に対するユーザの視線の位置と方向の変化を逐次検出する検出手段、
    前記検出手段により逐次検出される実空間内の前記ユーザの視線の位置と方向を、実空間の座標系と仮想空間の座標系との対応関係に基づいて、前記仮想空間内の位置と方向に逐次変換する変換手段、
    前記変換手段により逐次変換されるユーザの視線の位置と方向に対応させて、前記生成手段により前記3Dモデリングデータから生成される画像のデータを逐次更新させ、当該画像を表示部に逐次表示させる表示制御手段、
    前記表示制御手段の制御により前記画像が表示されている状態で、ユーザによる前記3Dモデリングデータの生成や修正を指示する操作が行われた場合に、その操作が行われたときに前記検出手段で検出されているユーザの視線の位置と方向に基づいて3Dモデリングデータの生成や修正を行う部位を特定して3Dモデリングデータの生成または修正を行う修正手段、
    として機能させることを特徴とするプログラム。
JP2012262523A 2012-11-30 2012-11-30 画像処理装置、画像処理方法およびプログラム Active JP5857946B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012262523A JP5857946B2 (ja) 2012-11-30 2012-11-30 画像処理装置、画像処理方法およびプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012262523A JP5857946B2 (ja) 2012-11-30 2012-11-30 画像処理装置、画像処理方法およびプログラム

Publications (2)

Publication Number Publication Date
JP2014109802A JP2014109802A (ja) 2014-06-12
JP5857946B2 true JP5857946B2 (ja) 2016-02-10

Family

ID=51030427

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012262523A Active JP5857946B2 (ja) 2012-11-30 2012-11-30 画像処理装置、画像処理方法およびプログラム

Country Status (1)

Country Link
JP (1) JP5857946B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102506255B1 (ko) * 2022-02-03 2023-03-07 주식회사 태화팩 빅데이터 기반 고객 맞춤형 기계설비 제작 시스템 및 방법

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3264246A4 (en) * 2015-02-27 2018-09-05 Sony Corporation Information processing apparatus, information processing method, and program
JP6582526B2 (ja) * 2015-05-08 2019-10-02 凸版印刷株式会社 コンテンツ提供システム、コンテンツ提供装置及びコンテンツ提供方法
US10521941B2 (en) 2015-05-22 2019-12-31 Samsung Electronics Co., Ltd. System and method for displaying virtual image through HMD device
KR101740806B1 (ko) * 2015-08-26 2017-05-29 한양대학교 에리카산학협력단 가상 현실을 이용한 인테리어 디자인 서비스 제공 방법 및 장치
JP6318202B2 (ja) * 2016-08-18 2018-04-25 株式会社カプコン ゲームプログラムおよびゲームシステム
JP2018106392A (ja) * 2016-12-26 2018-07-05 株式会社コロプラ 仮想空間を介して通信するためにコンピュータによって実行される方法、当該方法をコンピュータに実行させるためのプログラム、およびコンピュータ装置
KR102092374B1 (ko) * 2018-01-09 2020-03-23 한국과학기술원 맞춤형 가이드 정보를 출력하는 가구 디자인 장치
KR20180030979A (ko) * 2018-03-20 2018-03-27 한국과학기술원 헤드 마운트 디스플레이 장치를 이용한 맞춤형 가구 디자인 방법 및 헤드 마운트 디스플레이 장치
JP6720385B1 (ja) * 2019-02-07 2020-07-08 株式会社メルカリ プログラム、情報処理方法、及び情報処理端末
JP7165604B2 (ja) * 2019-03-06 2022-11-04 日産自動車株式会社 仮想オブジェクト出力装置及び仮想オブジェクト出力方法

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000048226A (ja) * 1999-06-02 2000-02-18 Nec Corp 情報提示装置
JP3198303B2 (ja) * 1999-06-09 2001-08-13 工業技術院長 三次元構造体作製システム
JP4065507B2 (ja) * 2002-07-31 2008-03-26 キヤノン株式会社 情報提示装置および情報処理方法
JP4282067B2 (ja) * 2003-09-30 2009-06-17 キヤノン株式会社 指標識別方法および装置
JP4500632B2 (ja) * 2004-09-07 2010-07-14 キヤノン株式会社 仮想現実感提示装置および情報処理方法
JP2006085375A (ja) * 2004-09-15 2006-03-30 Canon Inc 画像処理方法、画像処理装置
JP4950834B2 (ja) * 2007-10-19 2012-06-13 キヤノン株式会社 画像処理装置、画像処理方法
US20100053151A1 (en) * 2008-09-02 2010-03-04 Samsung Electronics Co., Ltd In-line mediation for manipulating three-dimensional content on a display device
JP2010282497A (ja) * 2009-06-05 2010-12-16 Ricoh Co Ltd 異世界状態反映装置

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102506255B1 (ko) * 2022-02-03 2023-03-07 주식회사 태화팩 빅데이터 기반 고객 맞춤형 기계설비 제작 시스템 및 방법

Also Published As

Publication number Publication date
JP2014109802A (ja) 2014-06-12

Similar Documents

Publication Publication Date Title
JP5857946B2 (ja) 画像処理装置、画像処理方法およびプログラム
CN110908503B (zh) 跟踪设备的位置的方法
JP7095602B2 (ja) 情報処理装置、情報処理方法及び記録媒体
US9858643B2 (en) Image generating device, image generating method, and program
JP5936155B2 (ja) 3次元ユーザインタフェース装置及び3次元操作方法
JP5871345B2 (ja) 3次元ユーザインタフェース装置及び3次元操作方法
JP2022000640A (ja) 情報処理装置、情報処理方法、及び情報処理プログラム
JP6344380B2 (ja) 画像処理装置および方法、並びにプログラム
CN112424728B (zh) 信息处理装置、信息处理方法和存储介质
JP6609383B2 (ja) オーディオ、ビジュアル及びモーション分析を備えたデジタルカメラ
JP2011090400A (ja) 画像表示装置および方法、並びにプログラム
AU2021290132C1 (en) Presenting avatars in three-dimensional environments
CN111373347B (zh) 用于虚拟现实内容的提供的装置、方法和计算机程序
JP2015011480A (ja) 画像生成装置、画像生成方法及びプログラム
JP2010257081A (ja) 画像処理方法及び画像処理装置
WO2017122270A1 (ja) 画像表示装置
JP2023065528A (ja) ヘッドマウント情報処理装置およびヘッドマウントディスプレイシステム
EP3599539A1 (en) Rendering objects in virtual views
JP5770018B2 (ja) 表示制御プログラム、表示制御装置、表示制御方法及び表示制御システム
JP6801138B1 (ja) 端末装置、仮想オブジェクト操作方法、及び仮想オブジェクト操作プログラム
KR102044003B1 (ko) 영상 회의를 위한 전자 장치 및 그의 동작 방법
JP2012191380A (ja) カメラ、画像変換装置、及び画像変換方法
JP2019219702A (ja) 仮想空間における仮想カメラの制御方法
US20240221240A1 (en) Display device, method of controlling display device, and computer-readable storage medium
WO2008029529A1 (fr) Dispositif de synthèse d'images vidéostéréoscopiques, procédé de génération de données de forme et son programme

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140929

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150811

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150825

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20151021

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20151117

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20151130

R150 Certificate of patent (=grant) or registration of utility model

Ref document number: 5857946

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150