JP2012079177A - 仮想物体操作装置 - Google Patents

仮想物体操作装置 Download PDF

Info

Publication number
JP2012079177A
JP2012079177A JP2010225154A JP2010225154A JP2012079177A JP 2012079177 A JP2012079177 A JP 2012079177A JP 2010225154 A JP2010225154 A JP 2010225154A JP 2010225154 A JP2010225154 A JP 2010225154A JP 2012079177 A JP2012079177 A JP 2012079177A
Authority
JP
Japan
Prior art keywords
virtual object
virtual
tool
display
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2010225154A
Other languages
English (en)
Other versions
JP5597087B2 (ja
Inventor
Satoshi Furukawa
聡 古川
Eiji Nakamoto
栄次 中元
Takeshi Kimoto
剛 木本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Original Assignee
Panasonic Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Corp filed Critical Panasonic Corp
Priority to JP2010225154A priority Critical patent/JP5597087B2/ja
Publication of JP2012079177A publication Critical patent/JP2012079177A/ja
Application granted granted Critical
Publication of JP5597087B2 publication Critical patent/JP5597087B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】実空間における物体の動きによる作用を仮想三次元空間の仮想物体に反映させる仮想物体操作装置を提供する。
【解決手段】距離画像生成手段10は、実空間における所定の空間領域に存在する物体との距離を画素値とする距離画像を生成する。入力情報取得手段21は、距離画像から物体における規定の特定部位を抽出する。抽出された特定部位は射影手段22により仮想三次元空間に配置される指標に対応付けられ、仮想物体に所定の作用を及ぼす処理ツールがツール結合手段28により指標に結合される。表示処理手段24は、仮想物体に対する処理ツールによる作用の結果を反映させて表示手段25に表示する。
【選択図】図1

Description

本発明は、コンピュータグラフィックス技術を用いて構築された仮想三次元空間に配置される仮想物体を操作する仮想物操作装置に関するものである。
一般に、製品の展示会や説明会においては、製品のモックアップモデルやクレイモデルを展示したり、製品の試作品を展示して来訪者に体験させることが行われている。したがって、展示品の作成には手間がかかり、展示品の準備に多大な時間がかかるという問題を有している。
この種の問題に対しては、コンピュータグラフィックス技術を用いて構築される仮想三次元空間に配置される仮想物体を展示品に代えて提示することが考えられる。仮想物体を展示品に代えて用いれば、実体としての展示品を作成する必要がないから、作成の手間が軽減されるとともに準備に要する時間も短縮されると考えられる。このような仮想物体を作成するには、三次元CAD用のソフトウェアを用いることによって、三次元形状データを生成することが多い。
また、三次元形状データを生成する技術として、対象物を撮像した画像データを用いる技術も知られている(たとえば、特許文献1参照)。特許文献1に記載された技術では、対象物に関して様々な方向から撮像した複数の画像データを用い、対象物に関する三次元形状データを生成している。
一方、このような三次元形状データに基づいて実空間のワークを加工することによって実立体モデルを作成することが考えられている(たとえば、特許文献2参照)。特許文献2には、特許文献1に記載された技術により生成した三次元形状データの変形、修正、統合、加工を行うことも記載されている。
特許文献2には、三次元形状データの変形、修正、統合、加工を行うために、どのような作業を行うかは、とくに記載されていない。ただし、通常の技術であれば、三次元機能を備えたグラフィックソフトウェアを用い、マウスのようなポインティングデバイスの操作によって三次元形状データに対する作業を行うことが推定される。
ところで、物体までの距離を画素値とする距離画像の動画を生成し、距離画像から人の特定部位を抽出するとともに、特定部位の時間変化をジェスチャーとして認識することが考えられている(たとえば、特許文献3参照)。特許文献3に記載された技術では、ジェスチャーに対応付けられた制御出力を制御対象機器へ与えることによって、制御対象機器をジェスチャーで制御している。
特願平10−124704号公報 特開2001−166809号公報 特開2006−99749号公報
三次元形状データは、特許文献1に記載された技術のように、対象物を撮像した画像データを用いて生成することができ、また、三次元CADソフトウェアを用いて作成することができる。また、特許文献2に記載されているように、三次元形状データの変形、修正、統合、加工の作業が可能であるが、この作業には、モニタ装置に表示された仮想三次元空間に対して、マウスやデジタイザのようなポインティングデバイスを操作するのが一般的である。
通常のモニタ装置は二次元平面の表示領域しか持たず、また、ポインティングデバイスは平面上での位置を指示することしかできない。したがって、モニタ装置に表示されている仮想三次元空間に対する作業とポインティングデバイスの操作の感覚とを一致させることは困難を伴い、三次元形状データに対する上述のような作業を思い通りに行うには熟練が必要である。
また同様に、仮想三次元空間において三次元形状データで表された仮想物体に動きを付与する場合にも、ポインティングデバイスで指示することは困難である。
一方、特許文献3に記載された技術は、人の特定部位の動きをジェスチャーとして認識し、ジェスチャーの内容に応じて制御対象機器の制御を行っている。ただし、特許文献3では、ジェスチャーの内容を制御対象機器に対するスイッチとして用いており、三次元形状データの変形、修正、統合、加工などの作業に用いることは考慮されておらず、また、この種の作業に用いる構成も示されていない。つまり、特許文献3には、人の特定部位の動きを、制御対象機器の動作に反映させることは記載されているが、仮想三次元空間に存在する仮想物体に反映させる技術については示されていない。
本発明は、実空間における物体の動きによる作用を仮想三次元空間の仮想物体に反映させるようにした仮想物体操作装置を提供することを目的とする。
本発明は、実空間に存在する物体についての距離画像を生成する距離画像生成手段と、距離画像から物体の特定部位を抽出する入力情報取得手段と、特定部位の動きを仮想三次元空間の仮想物体に作用させ、その結果を表示手段への表示に反映させる対話手段とを備えることを特徴とする。
対話手段は、入力情報取得手段が抽出した特定部位の画素値を用いて特定部位をコンピュータにより構築された仮想三次元空間に配置される指標に対応付ける射影手段と、仮想三次元空間に仮想物体を配置する物体配置手段と、物体配置手段が仮想三次元空間に配置した仮想物体に所定の作用を及ぼす処理ツールを提供するツール提供手段と、入力情報取得手段が抽出した指標にツール提供手段が提供する処理ツールを結合させるツール結合手段と、射影手段により仮想三次元空間に対応付けられた指標にツール結合手段により処理ツールを結合した状態において、指標の動きに応じて表示手段に表示された仮想物体に処理ツールによる作用の結果を反映させる表示処理手段とを備えることが望ましい。
ツール提供手段は複数種類の処理ツールを提供し、ツール結合手段は、複数種類の処理ツールから指標に結合する処理ツールを選択することが好ましい。
この場合、入力情報取得手段が抽出した特定部位の画素値を用いて特定部位の動きパターンを分類するパターン分類手段を備え、ツール結合手段は、処理ツールが動きパターンに対応付けられておりパターン分類手段が分類した動きパターンに応じた処理ツールを指標に結合することが好ましい。
物体配置手段は、仮想三次元空間に配置する仮想物体に背景を透過する透明なテクスチャを付与し、ツール提供手段は、処理ツールとして通過部位に存在する仮想物体に、あらかじめ定めた不透明のテクスチャをマッピングする貼付ツールを提供することが望ましい。
物体配置手段は、仮想物体として規定形状である第1の仮想物体と、第1の仮想物体を覆う第2の仮想物体とを仮想三次元空間に配置し、ツール提供手段は、処理ツールとして通過部位に存在する第2の仮想物体を消去する消去ツールを提供することが好ましい。
また、物体配置手段は、規定形状である仮想物体を仮想三次元空間に配置し、ツール提供手段は、処理ツールとして指標を仮想物体の表面に吸着させ指標の移動の向きに応じて仮想物体を変形させる変形ツールを提供することが好ましい。
表示処理手段は、変形ツールにより仮想物体を変形させる際に、変形ツールが仮想物体を貫通すると、貫通した仮想物体の表示状態を他の仮想物体の表示状態とは異ならせるようにしてもよい。
物体は人体であり特定部位は少なくとも四肢と頭部とを含み、仮想物体は四肢と頭部とを備える立体モデルであって、ツール提供手段は、処理ツールとして人体の四肢および頭部の動きを立体モデルの四肢および頭部の動きに連動させる連動ツールを提供するようにしてもよい。
特定部位は人体の四肢と頭部とのうちの少なくとも1箇所の動きに伴って実空間での位置が変化する部位であって、入力情報取得手段は、特定部位の表示手段からの距離および特定部位の移動の向きを抽出し、表示処理手段は、表示手段に表示される仮想三次元空間の範囲を、入力情報取得手段により抽出された特定部位の位置に追従させて変更するとともに、表示手段に表示される仮想三次元空間の範囲および座標軸の向きを、入力情報取得手段により抽出された特定部位の移動の向きに追従させて変更するようにしてもよい。
物体は人体であり特定部位は頭部であって、入力情報取得手段は、頭部の位置および向きを抽出し、表示処理手段は、表示手段に表示される仮想三次元空間の範囲を、入力情報取得手段により抽出された頭部の位置により定めた視点に追従させて変更するとともに、表示手段に表示される仮想三次元空間の座標軸の向きを、入力情報取得手段により抽出された頭部の向きにより定めた視線の向きに追従させて変更するようにしてもよい。
表示手段は、仮想三次元空間の立体表示を行うことが好ましい。
本発明の構成によれば、仮想三次元空間の仮想物体に対して所定の作用を及ぼす処理ツールに実空間における物体の特定部位を結合し、実空間における物体の動きによる作用を仮想物体に反映させることができる。その結果、仮想三次元空間の仮想物体に対して、ポインティングデバイスを用いることなく、直観的に作用を及ぼすことが可能になり、熟練を要することなく仮想物体に対する操作が可能になるという利点がある。
実施形態を示すブロック図である。 同上に用いる人体モデルの一例を示す図である。 同上に用いる距離画像生成手段の構成例を示すブロック図である。 同上の使用例を示す図である。 同上の他の使用例を示す図である。 同上のさらに他の使用例を示す図である。 同上の別の使用例を示す図である。 同上のさらに別の使用例を示す図である。
以下に説明する実施形態において、実空間における「物体」としては、人体と人が身に着ける物品とがある。また、人が身に着ける物品には、指し棒、筆記具、手袋などを想定している。物体の「特定部位」には、物体が人体である場合に、手、四肢、頭部などがあり、指し棒や筆記具のような物品では先端部などを意味する。以下では、物体が人体であって、特定部位が左右の一方の手である場合を例示する。
本実施形態は、図1に示すように、距離画像生成手段10を備え、距離画像生成手段10は、実空間における所定の空間領域に存在する物体との距離を画素値とする距離画像を生成する。所定の空間領域は、距離画像生成手段10が物体までの距離を検出可能な範囲内で定められる。距離画像生成手段10の構成は後述する。
距離画像生成手段10が生成した距離画像は入力情報取得手段21に与えられ、入力情報取得手段21は、距離画像から人体の手を抽出する。距離画像から人体の手を抽出するために、入力情報取得手段21では、まず、背景との距離差によって人体の存在する領域を抽出する。距離画像生成手段10では、後述するように、実空間における物体の位置を実空間に設定した直交座標系で検出する。そこで、この直交座標系で基準平面を規定し、基準平面からの距離を用いることにより、人体の存在する領域を抽出する。
たとえば、床面に相当する平面を規定する2本の座標軸と床面に直交する1本の座標軸とにより直交座標系を規定し、壁面に相当する平面を上述した基準平面に用いる。基準平面から物体までの距離について、濃淡画像における輪郭線抽出の処理と同様にして、エッジを強調する処理を行うことにより、人体に相当する物体の輪郭線を抽出することができる。エッジの強調には、濃淡画像の微分と同様に着目画素の周囲の画素値を用いて距離値の局所的な変化の大きさを評価する評価値を求め、評価値が極大になる画素をエッジ上の画素とする。
人体の輪郭線を抽出すれば、抽出した輪郭線を図2に示すような適宜の人体モデル30に当てはめることにより、人体の各部位を分離することができる。図示する人体モデル30は、骨に相当するセグメント31と、関節に相当するジョイント32とで構成されている。ここでは、15個のジョイントを用いた人体モデル30を例示しているが、他の構成の人体モデル30を用いてもよい。
距離画像から求めた輪郭線に基づいて適宜に取り決めた複数個の特徴点を抽出すれば、実空間に存在する人体に人体モデル30を当てはめることができる。このように人体モデル30への当てはめにより、実空間に存在する人体の各部位を分離して認識することができる。ここでは、人体の四肢と頭部と胴体とを分離して認識し、さらに腕を人体モデル30に当てはめることによって手を認識する。
入力情報取得手段21では、手の形状も認識するのが望ましい。手の形状を認識するには、距離画像から抽出した手の輪郭線を手の骨格モデルに当てはめる必要があるから、手の位置を追跡するとともに、手を含む領域を拡大するのが望ましい。ここで、手の形状としては、手を開いているか握っているかの別や、どの指を曲げているかが認識できればよい。
上述のようにして、入力情報取得手段21は、実空間に存在する人体を人体モデル30に当てはめることにより、実空間における手を認識する。さらに、入力情報取得手段21は、距離画像生成手段10が実空間に設定した直交座標系における手の位置を求める。このようにして求めた実空間における手の座標位置は、コンピュータにより構築された仮想三次元空間の座標位置に対応付けられる。仮想三次元空間には適宜の指標が規定されており、射影手段22によって当該指標に手が対応付けられる。言い換えると、射影手段22において実空間の手と仮想現実空間の指標とを対応付けることにより、実空間の手を動かすと仮想三次元空間の指標を動かせるようになる。
ところで、仮想三次元空間には物体配置手段23により適宜の仮想物体が配置される。仮想三次元空間は表示処理手段24を通して表示手段25に表示される。表示手段25としては、二次元の平面表示を行う通常のモニタ装置のような構成のほか、三次元の立体表示を行う構成を採用してもよい。立体表示を行う表示手段25には、表示映像と同期して開閉されるシャッタを備えたゴーグルを用いる構成、ゴーグルを用いずに左右の眼で見ることによって立体視が可能になる表示器、ゴーグルに表示器が内蔵されたヘッドマウントディスプレイなどがある。仮想物体の配置例については後述する。
ところで、射影手段22では、仮想三次元空間に規定した指標に実空間の手を対応付けているから、手を移動させることにより仮想三次元空間における指標を移動させることができる。そのため、指標をマウスカーソルと同様に扱うことによって、手をマウスに代えて用いることが可能になる。ただし、手の移動に追従させて指標を移動させるだけでは、仮想三次元空間に何の作用も及ぼすことができない。
そこで、ツール提供手段27を設け、仮想三次元空間に配置した仮想物体に所定の作用を及ぼす処理ツールを提供するとともに、ツール提供手段27から提供された処理ツールを、ツール結合手段28において手に結合している。この構成により、実空間において手を移動させると、仮想三次元空間に配置した仮想物体に対して、手に結合した処理ツールが作用し、処理ツールに定められた処理が行われる。
ツール提供手段27は、1種類の処理ツールのみを提供するように構成してもよいが、通常は複数種類の処理ツールを提供することが好ましい。また、ツール結合手段28は、複数種類の処理ツールから指標(手に対応する)に結合する処理ツールを選択するのが好ましい。
複数種類の処理ツールから手に結合する処理ツールを選択するには、通常のグラフィックソフトと同様に、表示手段25の画面上に処理ツールを配列したツールパレットを表示し、ツールパレットから処理ツールを選択すればよい。
また、ツールパレットを用いるのではなく、射影手段22が検出した手などの人体の特定部位の動きパターン(形状パターンを含んでいてもよい)を用いて処理ツールを選択してもよい。この場合、パターン分類手段29にあらかじめ動きパターンを登録しておき、登録された動きパターンをパターン分類手段29が検出したときに、ツール結合手段28において当該動きパターンに応じた処理ツールを指標(手に対応する)に結合するようにしてもよい。形状パターンは、手を開いているか握っているかの別や、どの指を曲げているかなどのパターンを意味する。
パターン分類手段29では、入力情報取得手段21が取得した手(特定部位)の画素値を用い、画素値から求めた代表点(たとえば、重心)の位置の時間変化により、手の動きパターンを分類する。手の動きパターンは、複数種類があらかじめ登録されており、種類ごとにコードが付与される。ツール結合手段28では、このコードをツール提供手段27に与えることにより、コードに応じた処理ツールを指標に結合することができる。
なお、上述したツールパレットにおける処理ツールにもコードを付与し、パターン分類手段29のコードと一致させておけば、手の動きパターンを用いる処理ツールの選択をツールパレットからの処理ツールの選択とが同処理になる。つまり、ツール結合手段28には、手の動きパターンによる指示かツールパレットによる指示かによらず、同じ処理ツールの指示には同じコードが与えられ、同じ手順で指標に結合する処理ツールを選択することができる。
処理ツールによる仮想物体への作用の結果は、表示処理手段24により表示手段25への表示内容に反映される。つまり、射影手段22により仮想三次元空間に対応付けられた指標(手に対応する)に処理ツールを結合した状態では、手の動きに応じて処理ツールが仮想物体に作用し、その結果が表示手段25の表示に反映される。
上述の構成により、入力情報取得手段21で実空間に存在する人体の動きを取得し、その動きを仮想三次元空間に配置した仮想物体に作用させるとともに、その結果を表示手段25への表示に反映させることができる。したがって、射影手段22、物体配置手段23、表示処理手段24、ツール提供手段27、ツール結合手段28は、入力情報取得手段21が取得した実空間の人体の動きと仮想三次元空間の仮想物体とをインタラクティブに結合する対話手段として機能する。なお、入力情報取得手段21と対話手段とは、コンピュータを用いて構成される。
以下、さらに具体的に説明する。距離画像生成手段10において生成する距離画像は画素値を距離値とした画像であり、距離画像を生成する技術は種々知られている。パッシブ型の距離画像生成手段10としては、複数台の撮像装置の視差に基づいて物体までの距離を求めるステレオ画像法が知られている。また、アクティブ型の距離画像生成手段10としては、三角測量法の原理に基づいて物体までの距離を求める光切断法、光を投光し物体での反射光を受光するまでの時間を計測する飛行時間法が広く採用されている。また、空間位相の異なる複数種類の光パターンを投光し、物体の表面に形成された光パターンの位置関係から物体の表面の3次元形状を求める距離画像生成手段10も知られている。
以下に説明する実施形態では、距離画像を生成する技術についてとくに制限はないが、飛行時間法(Time Of Flight)を用いる場合を例として説明する。以下では、飛行時間法を「TOF法」と略称する。TOF法を用いる距離画像生成手段10の構成は種々知られている。ここでは、光の強度を一定周期の変調信号で変調した強度変調光を実空間である対象空間に投光し、対象空間に存在する物体で反射された強度変調光が受光されるまでの時間を、強度変調光の投受光の位相差として検出し、この位相差を物体までの距離に換算する構成を採用する。
対象空間に投光する光は、多くの物体を透過することなく物体の表面で反射され、かつ人に知覚されない光が望ましい。そのため、投光する光には近赤外線を用いるのが望ましい。ただし、撮像領域を調節する場合のように、人に知覚されるほうが望ましい場合には可視光を用いることも可能である。
強度変調光の波形は、正弦波を想定しているが、三角波、鋸歯状波、方形波などを用いることができる。正弦波、三角波、鋸歯状波を用いる場合には強度変調光の周期を一定周期とする。なお、方形波を用いる場合に、強度変調光の周期を一定周期とするほか、オン期間(発光源の投光期間)とオフ期間(発光源の非投光期間)との比率を乱数的に変化させる技術を採用することも可能である。すなわち、オン期間とオフ期間とに対して十分に長い時間において、オン期間の生じる確率が50%になるようにオン期間とオフ期間とを不規則に変化させ、十分に長い時間において累積した受光量を用いてもよい。
また、強度変調光を一定周期とする場合、たとえば、投光する光を20MHzの変調信号により変調し、10000周期程度の受光量を累積することによりショットノイズの影響を軽減させる。オン期間とオフ期間とを乱数的に変化させる場合にも、たとえば、単位期間を20MHzの1周期に相当する期間(5×10−8s)とし、単位期間の数倍程度の範囲でオン期間とオフ期間とを変化させ、単位期間の10000倍程度の期間の受光量を累積する。この動作により、累積後の受光量は、一定周期の強度変調光を用いて受光量を累積した場合と同様に扱うことができる。
物体で反射された強度変調光は、複数個の画素が2次元に配列された撮像装置により受光する。撮像装置は、濃淡画像を撮像するため撮像素子と、撮像素子の受光面に光が入射する範囲を制限する受光光学系とを備える。撮像素子は、CCDイメージセンサやCMOSイメージセンサとして提供されている濃淡画像を撮像する周知構成の撮像素子を用いることができるが、距離画像生成手段10に適する構造を有するように専用に設計された撮像素子を用いることが望ましい。
以下では、距離画像生成手段10の一例として下記構成を想定して説明するが、この構成に限定する趣旨ではなく、強度変調光の変調波形、撮像素子の構成、撮像素子の制御などに関して、周知の種々の距離画像生成手段10に提供された構成を採用することができる。
以下の説明で用いる距離画像生成手段10は、図3に示すように、光を対象空間に投光する発光素子11と、対象空間からの光を受光する撮像素子12とを備える。発光素子11は、発光ダイオードやレーザダイオードのように入力の瞬時値に比例した光出力が得られる素子を用いる。また、発光素子11から出射した光は投光光学系13を通して投光される。発光素子11は、光出力を確保するために適数個設けられる。撮像素子12の前方には、視野を決める受光光学系14が配置される。
発光素子11から出射された強度変調光は投光光学系13を通して所望の空間領域に投光される。撮像素子12は、受光光学系14を通して対象空間からの光を受光する。投光光学系13と受光光学系14とは、投受光の方向(光軸の方向)を平行にし、互いに近接して配置してある。ここに、投光光学系13と受光光学系14との距離は視野領域に対して実質的に無視することができるものとする。
距離画像生成手段10は、強度変調光を出射させるために発光素子11に与える変調信号を生成する変調信号生成部15を備える。また、距離画像生成手段10は、撮像素子12が対象空間から受光するタイミングを制御するために、撮像素子12での受光タイミングを規定する受光タイミング信号を変調信号から生成するタイミング制御部16を備える。撮像素子12で得られた受光量に相当する電荷は撮像素子12から読み出されて演算処理部17に入力される。演算処理部17は、受光タイミングと受光量との関係から対象空間に存在する物体までの距離を求める。また、後述するように、演算処理部17は、物体までの距離と方位とを、実空間に設定した直交座標系の座標値に変換して出力する機能も備える。
変調信号生成部15は、出力電圧が一定周波数(たとえば、20MHz)の正弦波形で変化する変調信号を生成する。発光素子11はこの変調信号により駆動され、光出力が正弦波状に変化する強度変調光が発光素子11から出射される。
本実施形態において用いる撮像素子12は、電子シャッタの技術を用いることにより、受光タイミング信号に同期する期間にのみ受光強度に応じた電荷を生成する。また、生成された電荷は、遮光された蓄積領域に転送され、蓄積領域において変調信号の複数周期(たとえば、10000周期)に相当する蓄積期間に蓄積された後、撮像素子12の外部に受光出力として取り出される。
タイミング制御部16では、変調信号に同期する受光タイミング信号を生成する。ここでは、タイミング制御部16が、変調信号の異なる4位相ごとに一定時間幅の受光期間を有した4種類の受光タイミング信号を生成する。また、上述した蓄積期間ごとに4種類の受光タイミング信号から選択した1種類の受光タイミング信号を撮像素子12に与える。
すなわち、1回の蓄積期間において1種類の受光タイミング信号を撮像素子12に与えることにより、変調信号の特定の位相期間に対応する受光期間における電荷を撮像素子12の各画素で生成する。蓄積後の電荷は、受光出力として撮像素子12から取り出される。蓄積期間ごとに異なる各受光タイミング信号を撮像素子12に与え、撮像素子12で生成された電荷を受光出力として取り出す動作を繰り返すと、4回の蓄積期間で4種類の受光タイミング信号に対応する受光出力が撮像素子12から得られる。
いま、4種類の受光タイミング信号が、変調信号の1周期において90度ずつ異なる位相に設定され、各受光タイミング信号に対応して撮像素子12から出力された受光出力(電荷量)が、それぞれA0,A1,A2,A3であったとする。このとき、三角関数の関係を用いると、強度変調光の投光時と受光時との位相差ψ〔rad〕は、下式の形式で表すことができる。
ψ=(A0−A2)/(A1−A3)
変調信号の周波数は一定であるから、位相差ψを投光から受光までの時間差に換算することができ、光速は既知であるから、時間差が求まれば物体までの距離を求めることができる。
すなわち、4種類の受光出力(電荷量)A0〜A3により物体までの距離を求めることができる。なお、受光期間は、各画素において適正な受光量が得られるように、適宜に設定することができる(たとえば、変調信号の4分の1周期に相当する受光期間を用いることが可能である)。各受光期間の時間幅は互いに等しくすることが必要である。
演算処理部17では、受光出力(電荷量)A0〜A3に基づいて位相差ψを求め、距離に換算する上述の処理のほか、以下の実施形態において説明する処理も行う。演算処理部17はマイコン、DSP、FPGAなどから選択されるデジタル信号処理装置を用いて構成され、上述した処理はデジタル信号処理装置においてプログラムを実行することにより実現される。また、演算処理部17だけではなく、発光素子11および撮像素子12を除く構成は、上述したデジタル信号処理装置を用いて実現可能である。
上述の動作例では、4種類の受光タイミング信号を用いているが、3種類の受光タイミング信号でも位相差ψを求めることができ、環境光ないし周囲光が存在しない環境下では、2種類の受光タイミング信号でも位相差ψを求めることが可能である。
さらに、上述した動作では、1画素について1種類の受光タイミング信号に対応する電荷を蓄積しているから、4種類の受光出力(電荷量)A0〜A3を撮像素子12から取り出すために4回の蓄積期間が必要である。これに対して、1画素について2種類の受光タイミング信号に対応する電荷を蓄積すれば、撮像素子12から2種類の受光タイミング信号に対応した受光出力を1回で読み出すことが可能になる。同様に、1画素について4種類の受光タイミング信号に対応する電荷を蓄積可能に構成すれば、4種類の受光タイミング信号に対応する受光出力を1回で読み出すことが可能になる。
上述した距離画像生成手段10は、対象空間からの光を受光するための受光素子として複数個の画素が2次元配列された撮像素子を用いているから、各画素の画素値として距離値を求めることにより距離画像が生成されることになる。すなわち、撮像素子の受光面が距離画像生成手段10の視野領域を投影する仮想の投影面になる。
上述した距離画像生成手段10は、対象空間に発光素子11から投光し撮像素子12の視野領域を対象空間として撮像するから、対象空間の形状は、距離画像生成手段10を頂点として距離画像生成手段10から離れるほど広がる形になる。たとえば、投光光学系13および受光光学系14がそれぞれ光軸の周りに等方的に形成されていると、対象空間の形状は、距離画像生成手段10を頂点とする角錐状になる。
したがって、上述した仮想の投影面に配列された画素の位置は、距離画像生成手段10から対象空間を見込む方向に対応することになり、各画素の画素値は当該方向に存在する物体までの距離を表すことになる。言い換えると、距離画像生成手段10により生成された距離画像は、極座標系で物体の位置を表していることになる。このような距離画像を極座標系の距離画像と呼ぶことにする。
上述した極座標系の距離画像は、距離画像生成手段10からの距離の情報が必要であるときには利便性が高いが、対象空間である実空間の各位置との対応関係がわかりにくく、実空間に存在する物体を基準にした領域を指定するには不便である。したがって、演算処理部17では、極座標系の距離画像から直交座標系の各座標値を有した画像を生成する座標変換を行う。以下では、座標変換を行った後の画像を座標軸別画像と呼ぶ。
極座標系の距離画像から座標軸別画像を生成する手順について、簡単に説明する。極座標系の距離画像から座標軸別画像を生成するには、まず極座標系の距離画像を直交座標系であるカメラ座標系の3次元画像に変換し、この3次元画像を対象空間に規定した直交座標系であるグローバル座標系の3次元画像に変換する。グローバル座標系の3次元画像が得られると、各座標軸別画像に分解することができる。
極座標系の距離画像からカメラ座標系の3次元画像を生成するには以下の演算を行う。ここに、撮像素子12の受光面における水平方向と垂直方向とをu方向とv方向とする。撮像素子12と受光光学系14とは、受光光学系14の光軸が撮像素子12の受光面の中心位置の画素を通るように配置する。また、撮像素子12の受光面を受光光学系14の焦点に位置させる。この位置関係において、撮像素子12の受光面の中心位置の画素の座標(単位は、ピクセル)を(uc ,vc)、撮像素子12の画素のu方向とv方向とのピッチ(単位は、mm)を(su,sv)とする。さらに、受光光学系14の焦点距離をf[mm]とし、撮像素子12の受光面における各画素の座標(単位はピクセル)の位置(u,v)に対応する方向に存在する物体について受光光学系14の中心から物体までの距離をd[mm]とする。これらの値は、距離画像生成手段10において物体までの距離dを各画素の位置に対応付けることにより既知の値になる。
物体についてカメラ座標系での座標値(X1,Y1,Z1)を求めると以下のようになる。座標値(X1,Y1,Z1)の各成分の単位はmmである。なお、撮像素子12の受光面に設定した座標系の原点は矩形状である撮像素子12の受光面の1つの角の位置とし、直交座標系の原点は受光光学系14の中心とする。
X1=u1・d/R
Y1=v1・d/R
Z1=f・d/R
ただし、
u1=su(u−uc)
v1=sv(v−vc)
R=(u1+v1+f1/2
ここでは、説明を簡単にするために、受光光学系14の光学歪みの影響は省略している。ただし、光学中心からの距離Rを補正する歪み補正式を用いることにより、光学歪みを補正することができる。
上述したように、極座標系の距離画像をカメラ座標系の3次元画像に変換した後に、グローバル座標系への座標変換を行う。ここに、距離画像生成手段10は、撮像素子12の受光面における垂直方向(すなわち、v方向)が室内の壁面および床面に平行になるように配置されているものとする。
いま、距離画像生成手段10において受光光学系14の光軸の俯角をθとする。また、距離画像生成手段10の視野角をφとする。カメラ座標系からグローバル座標系への変換には、カメラ座標系での座標値(X1,Y1,Z1)に対して、Y軸周りで俯角θに相当する回転を行う。これにより、室内の壁面および床面に直交する座標軸を持つグローバル座標系の3次元画像が生成される。
以下では、グローバル座標系での座標値を(X,Y,Z)とする。図示例では、壁に直交する方向で壁から離れる向きをX方向の正の向きとし、床に直交する方向の下向きをZ方向の正の向きとする。また、座標系には右手系を用いる。俯角θに関する座標系の回転は、以下の計算により行う。
X=X1・cos(90°−θ)+Z1・sin(90°−θ)
Y=Y1
Z=−X1・sin(90°−θ)+Z1・cos(90°−θ)
座標軸別画像は、グローバル座標系にマッピングを行った画像そのものではなく、距離画像の各画素の座標位置(u,v)にX値とY値とZ値とをそれぞれ個別に対応付けた画像である。すなわち、各座標位置(u,v)に、X(u,v)、Y(u,v)、Z(u,v)をそれぞれ対応付けた画像であり、1枚の極座標系の距離画像に対して3枚の座標軸別画像が生成される。極座標系の距離画像から座標軸別画像を得るには、上述の計算を行ってもよいが、極座標系の距離画像から座標値(X,Y,Z)に変換するテーブルを用意しておけば、処理負荷を軽減することができる。
座標軸別画像のうちX値を画素値とする画像をX画像、Y値を画素値とする画像をY画像、Z値を画素値とする画像をZ画像と呼ぶことにする。上記構成では、座標変換を行うテーブルとしては、X画像に変換するX変換テーブルと、Y画像に変換するY変換テーブルと、Z画像に変換するZ変換テーブルとの3種類が必要になる。
上述したX画像とY画像とZ画像とは、コンピュータのメモリに格納され、実空間である対象空間に対応する3次元の仮想空間を表している。したがって、仮想空間における条件を設定すれば、対象空間において条件を設定したことと等価になる。
距離画像生成手段10において生成されたX画像とY画像とZ画像とは、図1に示したように、入力情報取得手段21に与えられる。ここで、距離画像生成手段10により実空間における所定の空間領域に存在する人体までの距離画像を生成すると、仮想三次元空間に存在する仮想物体に対して上述のように手の位置に応じた作用を及ぼすことが可能になる。
以下では、手に結合される処理ツールの例を説明する。図4には、背景を透過させる透明なテクスチャを有した仮想物体41を仮想三次元空間に配置した例を示している。仮想物体41は、たとえば自動車であるが、図4(a)に示すように、当初は表示手段25の画面上では視認できない状態で配置される。図4(a)における破線は、表示手段25には表示されていないが、透明な仮想物体41が存在していることを示している。
この状態において、図4(b)のように、表示手段25の画面に表示される指標42を仮想物体41が存在する領域に重ねると、仮想物体41に不透明なテクスチャががマッピングされ、仮想物体41が表示手段25の画面上で視認できるようになる。すなわち、図示例では、処理ツールとして、仮想物体41に作用して不透明なテクスチャをマッピングする貼付ツールを提供する場合を示している。
貼付ツールが手に結合されている場合には、図4(b)に示すように、仮想物体41を手でこする動作を行うことによって、透明である仮想物体41に不透明なテクスチャが徐々にマッピングされる。図示例では、仮想三次元空間における指標の位置を確認できるように、手の形の指標42を表示手段25の画面上に表示している。そして、実空間において手を動かすことにより、この指標42の通過部位に存在する仮想物体41にテクスチャがマッピングされる。
上述のように貼付ツールを用いることによって、実空間での手の動きに合わせて、何も存在しない空間から仮想物体41が現れるかのような印象で、表示手段25の画面に徐々に仮想物体41が表示される。その結果、展示会や説明会において、仮想物体41を登場させる際に印象的な演出を行うことができる。
図5に示す例では、2種類の仮想物体43,44を仮想三次元空間に配置している。第1の仮想物体43は、たとえば自動車であって、第2の仮想物体44は、第1の仮想物体43を覆うように配置される。図5(a)は第2の仮想物体44が第1の仮想物体43を完全に覆っている状態を示している。図5(a)には第1の仮想物体43を破線で示しているが、実際には表示手段25の画面には第1の仮想物体43は視認できない状態になっている。
この状態において第2の仮想物体44を消去すれば、第1の仮想物体43を表示手段25の画面に表示することができる。そこで、図示例では、処理ツールとして、第2の仮想物体44にのみ作用して第2の仮想物体44を消去する消去ツールを提供する場合を示している。消去ツールが手に結合されている場合には、図5(b)に示すように、第2の仮想物体44の表面を手でこする動作を行うことによって、第1の仮想物体43を覆っていた第2の仮想物体44が消しゴムで消されるかのように徐々に消去される。図示例では、仮想三次元空間における指標の位置を確認できるように、手の形の指標42を表示手段25の画面上に表示している。そして、実空間において手を動かすことにより、この指標42の通過部位に存在する第2の仮想物体44を消去することが可能になる。
上述のように消去ツールを用いることによって、実空間での手の動きに合わせて、第2の仮想物体44がこすり取られるかのような印象で、表示手段25の画面に徐々に第1の仮想物体43が表示される。消去ツールを用いることによっても、貼付ツールを用いる場合と同様に、展示会や説明会において、第1の仮想物体43を登場させる際に印象的な演出を行うことができる。
ツール提供手段27は、処理ツールとして仮想物体に変形を加える変形ツールも提供する。変形ツールは、実際の物体に類似した形状、円柱や立方体や球体のような幾何学的な形状など、規定形状である仮想物体を仮想三次元空間に配置されている状態において、仮想物体の表面に指標を吸着させる機能を有している。
変形ツールは、仮想物体の表面に指標が吸着した部位に対して、指標を仮想物体に押し込む向きに移動させると仮想物体に凹ませる変形を加え、指標により仮想物体を引っ張る向きに指標を移動させると仮想物体を膨らます変形を加える機能を備える。さらに、変形ツールには、仮想物体との吸着部位をつまんで捻ることも可能であり、あたかも粘土の成形を行っているかのようにして、仮想物体を変形させることができる。
ここで、変形ツールを用いて仮想物体を凹ませる変形を加える場合に、変形ツールが仮想物体を貫通する可能性が考えられる。そこで、変形ツールが仮想物体を貫通した場合には、変形ツールが貫通した仮想物体の表示状態を他の仮想物体とは異ならせる。仮想物体が複数個の部品によって構成されている場合には、部品を単位として変形ツールによる貫通の有無を報知するのが望ましい。
このように表示状態を変えることによって、仮想物体を変形させている使用者に注意を喚起することができる。表示状態としては、仮想物体の色、仮想物体の点滅表示などを用いる。
上述のように変形ツールを提供しているから、製品のモックアップモデルやクレイモデルを製作することなく、表示手段25に表示された仮想物体をもとにして、所望の変形を加えることが可能になり、仮想物体の作成作業が容易になる。また、複数人で議論しながら仮想物体を変形させることも可能である。
上述の動作では、入力情報取得手段21が実空間に存在する人体の手を特定部位として抽出しているが、図6に示すように、人体33の頭部34を特定部位として抽出してもよい。また、入力情報取得手段21は頭部34を特定部位として抽出する際には、頭部34の位置および向きを抽出する。頭部34の位置および向きを抽出すると、実空間の人体が表示手段25の画面を見ている位置と向きとを推定することができる。
そこで、表示処理手段24では、表示手段25に表示される仮想三次元空間の範囲を、表示手段25の画面を見ている位置および向きに応じて変更するのが望ましい。つまり、頭部34の位置により視点の位置を定めて表示手段25に表示する範囲を調整し、頭部34の位置により視線の向きを定めて表示手段25に表示される仮想三次元空間の座標軸の向きを調整する。これらの調整は、入力情報取得手段21により抽出された頭部34の位置および向きに追従させて行う。
図6(a)では人体33の頭部34が表示手段25の画面に正対した状態を示し、表示手段25には仮想物体45が表示されている。ここで、図6(b)に示すように、頭部34を下に向けると視線が下向きになるから、仮想物体45の上面が見えるように仮想三次元空間の座標軸の向きが変更される。ここで、表示手段25に正対する位置まで頭部34を上げたときに、仮想物体45の向きが変わると、使用者である人体33は仮想物体45の状態を詳細に見ることができない。したがって、頭部34の位置を元に戻す際には、座標軸の向きは変更されないようにすることが望ましい。すなわち、表示手段25に正対した位置から頭部34を向けた向きに応じて座標軸の向きを変更し、その後、表示手段25に正対する位置まで戻す間には、座標軸の向きを変更しないのが望ましい。
上述の動作により、使用者である人体33が頭部34を動かすことによって、表示手段25の画面に表示される仮想物体45の向きを変えることができる。したがって、表示手段25を見ている使用者である人体33が、仮想物体45について見たい部位に視線を向けるように頭部34を動かすだけで(このとき、人体33は表示手段25に対する位置を変えてもよい)、仮想物体45を見る視点を変更することができる。
図6に示す動作は、人体33の頭部を用いているが、実空間における人体33の手35の位置に応じて表示手段25における仮想物体の表示を変更するようにしてもよい。たとえば、図7に示すように、表示手段25の画面と手35との距離に応じて、表示手段25に提示されている仮想三次元空間の範囲を変更してもよい。表示する範囲の変更は表示処理手段24が行う。
図示例において、表示手段25に表示されている仮想三次元空間は、地図や航空写真のように仮想物体46の上方に視点を有する場合を示している。この場合、図7(a)のように、表示手段25の画面から手35までの距離が大きいときには、視点が上方に位置するとみなして表示の範囲を広くする。これに対して、図7(b)のように、表示手段25の画面から手35までの距離が小さいときには、視点が下方に位置するとみなして表示の範囲を狭くする。表示手段25に表示する仮想三次元空間の範囲は、手35の動きに追従させて変更すればよい。
このように表示手段25に対する手35の位置の遠近により、表示手段25への仮想三次元空間の表示範囲を変化させることができる。この動作は図6に示した動作と組み合わせることが可能であり、また、手35ではなく表示手段25と頭部34との距離を用いて表示範囲を変更するようにしてもよい。あるいはまた、手35の左右の動きに追従させて仮想三次元空間の表示範囲を左右に移動させたり、手35の向き(手の平の向き)に追従させて仮想三次元空間の表示範囲のパンやチルト(つまり、視点の回りでの座標軸の向きの変更)を行ってもよい。
さらに、頭部34や手35だけではなく、人体33の四肢と頭部との少なくとも1箇所の動きに伴って実空間の位置が変化する部位であれば、他の箇所の動きによって表示手段25に表示する座標軸の向きや範囲を変更してもよい。四肢と頭部との少なくとも1箇所の動きに伴って実空間の位置が変化する部位は、四肢や頭部の全体だけではなく、四肢や頭部の一部であったり、四肢や頭部とともに動く物品、たとえば手に持った指し棒や筆記具などであってもよい。
図8に示す例は、さらに別の動作例であって、仮想物体として四肢と頭部とを備える立体モデル47を仮想三次元空間に配置している。図示している立体モデル47には、たとえば、キャラクタを用いることができる。入力情報取得手段21は、実空間における人体33の四肢および頭部の動きを抽出する。また、ツール提供手段27は、実空間における人体33の四肢および頭部の動きを、立体モデル47における四肢および頭部の動きに連動させる連動ツールを提供する。
したがって、使用者である人体33は、四肢および頭部を動かすことによって、表示手段25に表示されたキャラクタなどの立体モデル47の四肢および頭部を、連動させて動かすことができる。この動作では、仮想三次元空間において、立体モデル47により使用者の立体的なアバター(化身)が設定されるから、使用者は手足の動きに合わせて仮想三次元空間内でアバターを操ることができる。また、図示しているように、実空間の人体33と仮想三次元空間の立体モデル47との左右を反転させると、立体モデル47を鏡に映した鏡像のように動かすこともできる。
上述した各動作は一例であって、適宜に組み合わせて用いることが可能であり、また、表示手段25に表示する仮想三次元空間の内容も、上述した実施形態の例に限定されるものではない。上述のように、本実施形態で説明した技術は、実空間での物体(とくに、人体)の動きを、表示手段25の画面に表示される仮想物体に反映させることができる。したがって、製品デザインの際には、実空間でモデルを形成することなく仮想物体に様々な変形を加えることによって製品デザインを行うことが可能である。また、仮想三次元空間に配置された仮想物体に処理ツールによる作用を与える際に、入力用の装置を操作する必要がなく、また人体にインターフェースとなる装置を装着する必要もないから、幼児であっても仮想物体を操作することができる。したがって、幼児の教育ゲームにも応用することができる。
10 距離画像生成手段
21 入力情報取得手段
22 射影手段
23 物体配置手段
24 表示処理手段
25 表示手段
27 ツール提供手段
28 ツール結合手段
29 パターン分類手段
30 人体モデル
31 セグメント
32 ジョイント
33 人体
34 頭部
35 手
42 指標
43 第1の仮想物体
44 第2の仮想物体
45 仮想物体
46 仮想物体
47 立体モデル

Claims (12)

  1. 実空間に存在する物体についての距離画像を生成する距離画像生成手段と、前記距離画像から前記物体の特定部位を抽出する入力情報取得手段と、前記特定部位の動きを仮想三次元空間の仮想物体に作用させ、その結果を表示手段への表示に反映させる対話手段とを備えることを特徴とする仮想物体操作装置。
  2. 前記対話手段は、前記入力情報取得手段が抽出した前記特定部位の画素値を用いて前記特定部位をコンピュータにより構築された仮想三次元空間に配置される指標に対応付ける射影手段と、前記仮想三次元空間に仮想物体を配置する物体配置手段と、前記物体配置手段が前記仮想三次元空間に配置した前記仮想物体に所定の作用を及ぼす処理ツールを提供するツール提供手段と、前記入力情報取得手段が抽出した前記指標に前記ツール提供手段が提供する処理ツールを結合させるツール結合手段と、前記射影手段により前記仮想三次元空間に対応付けられた前記指標に前記ツール結合手段により処理ツールを結合した状態において、前記指標の動きに応じて前記表示手段に表示された前記仮想物体に処理ツールによる作用の結果を反映させる表示処理手段とを備えることを特徴とする請求項1記載の仮想物体操作装置。
  3. 前記ツール提供手段は複数種類の処理ツールを提供し、前記ツール結合手段は、複数種類の処理ツールから前記指標に結合する処理ツールを選択することを特徴とする請求項2記載の仮想物体操作装置。
  4. 前記入力情報取得手段が抽出した前記特定部位の画素値を用いて前記特定部位の動きパターンを分類するパターン分類手段を備え、前記ツール結合手段は、処理ツールが動きパターンに対応付けられており前記パターン分類手段が分類した動きパターンに応じた処理ツールを前記指標に結合することを特徴とする請求項3記載の仮想物体操作装置。
  5. 前記物体配置手段は、前記仮想三次元空間に配置する前記仮想物体に背景を透過する透明なテクスチャを付与し、前記ツール提供手段は、処理ツールとして通過部位に存在する前記仮想物体に、あらかじめ定めた不透明のテクスチャをマッピングする貼付ツールを提供することを特徴とする請求項2〜4のいずれか1項に記載の仮想物体操作装置。
  6. 前記物体配置手段は、前記仮想物体として規定形状である第1の仮想物体と、第1の仮想物体を覆う第2の仮想物体とを前記仮想三次元空間に配置し、前記ツール提供手段は、処理ツールとして通過部位に存在する前記第2の仮想物体を消去する消去ツールを提供することを特徴とする請求項2〜4のいずれか1項に記載の仮想物体操作装置。
  7. 前記物体配置手段は、規定形状である前記仮想物体を前記仮想三次元空間に配置し、前記ツール提供手段は、処理ツールとして前記指標を前記仮想物体の表面に吸着させ前記指標の移動の向きに応じて前記仮想物体を変形させる変形ツールを提供することを特徴とする請求項2〜6のいずれか1項に記載の仮想物体操作装置。
  8. 前記表示処理手段は、前記変形ツールにより前記仮想物体を変形させる際に、前記変形ツールが前記仮想物体を貫通すると、貫通した前記仮想物体の表示状態を他の仮想物体の表示状態とは異ならせることを特徴とする請求項7記載の仮想物操作装置。
  9. 前記物体は人体であり前記特定部位は少なくとも四肢と頭部とを含み、前記仮想物体は四肢と頭部とを備える立体モデルであって、前記ツール提供手段は、処理ツールとして人体の四肢および頭部の動きを立体モデルの四肢および頭部の動きに連動させる連動ツールを提供することを特徴とする請求項3記載の仮想物操作装置。
  10. 前記特定部位は人体の四肢と頭部とのうちの少なくとも1箇所の動きに伴って実空間での位置が変化する部位であって、前記入力情報取得手段は、前記特定部位の前記表示手段からの距離および前記特定部位の移動の向きを抽出し、前記表示処理手段は、前記表示手段に表示される前記仮想三次元空間の範囲を、前記入力情報取得手段により抽出された前記特定部位の位置に追従させて変更するとともに、前記表示手段に表示される前記仮想三次元空間の範囲および座標軸の向きを、前記入力情報取得手段により抽出された前記特定部位の移動の向きに追従させて変更することを特徴とする請求項2〜9のいずれか1項に記載の仮想物操作装置。
  11. 前記物体は人体であり前記特定部位は頭部であって、前記入力情報取得手段は、頭部の位置および向きを抽出し、前記表示処理手段は、前記表示手段に表示される前記仮想三次元空間の範囲を、前記入力情報取得手段により抽出された頭部の位置により定めた視点に追従させて変更するとともに、前記表示手段に表示される前記仮想三次元空間の座標軸の向きを、前記入力情報取得手段により抽出された頭部の向きにより定めた視線の向きに追従させて変更することを特徴とする請求項2〜9のいずれか1項に記載の仮想物操作装置。
  12. 前記表示手段は、前記仮想三次元空間の立体表示を行うことを特徴とする請求項1〜11のいずれか1項に記載の仮想物操作装置。
JP2010225154A 2010-10-04 2010-10-04 仮想物体操作装置 Expired - Fee Related JP5597087B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010225154A JP5597087B2 (ja) 2010-10-04 2010-10-04 仮想物体操作装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010225154A JP5597087B2 (ja) 2010-10-04 2010-10-04 仮想物体操作装置

Publications (2)

Publication Number Publication Date
JP2012079177A true JP2012079177A (ja) 2012-04-19
JP5597087B2 JP5597087B2 (ja) 2014-10-01

Family

ID=46239319

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010225154A Expired - Fee Related JP5597087B2 (ja) 2010-10-04 2010-10-04 仮想物体操作装置

Country Status (1)

Country Link
JP (1) JP5597087B2 (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014029656A (ja) * 2012-06-27 2014-02-13 Soka Univ 画像処理装置および画像処理方法
JP2017525029A (ja) * 2014-06-27 2017-08-31 華為技術有限公司Huawei Technologies Co.,Ltd. ターゲットオブジェクトのサインデータを取得するための方法、装置、および端末
KR101772890B1 (ko) 2016-03-28 2017-08-31 한국과학기술원 손의 홀딩 제스쳐에 대응하는 물체의 종류 및 조작 제스쳐에 대응하는 조작의 종류를 판단하기 위한 제스쳐 감지 장치 및 이에 의한 제스쳐 감지 방법
US10082879B2 (en) 2015-11-30 2018-09-25 Fujitsu Limited Head mounted display device and control method
US10341642B2 (en) 2012-09-27 2019-07-02 Kyocera Corporation Display device, control method, and control program for stereoscopically displaying objects

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003242523A (ja) * 2002-02-15 2003-08-29 Namco Ltd 画像生成システム、プログラム及び情報記憶媒体
JP2004298305A (ja) * 2003-03-31 2004-10-28 Namco Ltd 画像生成情報、情報記憶媒体及び画像生成装置
JP2005500096A (ja) * 2001-06-13 2005-01-06 ヴォリューム・インタラクションズ・プライヴェート・リミテッド ガイドシステム
WO2009035705A1 (en) * 2007-09-14 2009-03-19 Reactrix Systems, Inc. Processing of gesture-based user interactions
JP2010526391A (ja) * 2007-05-04 2010-07-29 ジェスチャー テック,インコーポレイテッド コンパクト・デバイスのためのカメラ・ベースのユーザ入力

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005500096A (ja) * 2001-06-13 2005-01-06 ヴォリューム・インタラクションズ・プライヴェート・リミテッド ガイドシステム
JP2003242523A (ja) * 2002-02-15 2003-08-29 Namco Ltd 画像生成システム、プログラム及び情報記憶媒体
JP2004298305A (ja) * 2003-03-31 2004-10-28 Namco Ltd 画像生成情報、情報記憶媒体及び画像生成装置
JP2010526391A (ja) * 2007-05-04 2010-07-29 ジェスチャー テック,インコーポレイテッド コンパクト・デバイスのためのカメラ・ベースのユーザ入力
WO2009035705A1 (en) * 2007-09-14 2009-03-19 Reactrix Systems, Inc. Processing of gesture-based user interactions

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
内海章, 外2名: ""画素値分布特徴を用いた手の検出処理"", 電子情報通信学会技術研究報告, vol. 第102巻, 第15号, JPN6014016270, 11 April 2002 (2002-04-11), JP, pages 37 - 42, ISSN: 0002852855 *
山内康晋, 外2名: ""実時間インタラクションのための3次元手姿勢判定法の提案と評価"", 情報処理学会論文誌, vol. 第42巻, 第6号, JPN6014016272, 15 June 2001 (2001-06-15), JP, pages 1290 - 1298, ISSN: 0002852856 *

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014029656A (ja) * 2012-06-27 2014-02-13 Soka Univ 画像処理装置および画像処理方法
US10341642B2 (en) 2012-09-27 2019-07-02 Kyocera Corporation Display device, control method, and control program for stereoscopically displaying objects
JP2017525029A (ja) * 2014-06-27 2017-08-31 華為技術有限公司Huawei Technologies Co.,Ltd. ターゲットオブジェクトのサインデータを取得するための方法、装置、および端末
US9984461B2 (en) 2014-06-27 2018-05-29 Huawei Technologies Co., Ltd. Method, apparatus, and terminal for obtaining vital sign data of target object
US10082879B2 (en) 2015-11-30 2018-09-25 Fujitsu Limited Head mounted display device and control method
KR101772890B1 (ko) 2016-03-28 2017-08-31 한국과학기술원 손의 홀딩 제스쳐에 대응하는 물체의 종류 및 조작 제스쳐에 대응하는 조작의 종류를 판단하기 위한 제스쳐 감지 장치 및 이에 의한 제스쳐 감지 방법

Also Published As

Publication number Publication date
JP5597087B2 (ja) 2014-10-01

Similar Documents

Publication Publication Date Title
Wilson Depth-sensing video cameras for 3d tangible tabletop interaction
CN103793060B (zh) 一种用户交互系统和方法
US20140160162A1 (en) Surface projection device for augmented reality
US8917240B2 (en) Virtual desktop coordinate transformation
WO2017075932A1 (zh) 基于三维显示的手势操控方法和系统
US20150097777A1 (en) 3D Motion Interface Systems and Methods
KR101620777B1 (ko) 증강된 가상 터치패드 및 터치스크린
CN116719413A (zh) 用于操纵环境中的对象的方法
KR101171660B1 (ko) 증강현실의 포인팅 장치
Ha et al. WeARHand: Head-worn, RGB-D camera-based, bare-hand user interface with visually enhanced depth perception
WO2015180497A1 (zh) 一种基于立体视觉的动作采集和反馈方法及系统
JP4926826B2 (ja) 情報処理方法および情報処理装置
CN104050859A (zh) 可交互数字化立体沙盘系统
JP2013101528A (ja) 情報処理装置、表示制御方法、およびプログラム
GB2554914A (en) Virtual reality system and method
WO2012112401A2 (en) Providing an interactive experience using a 3d depth camera and a 3d projector
JP5597087B2 (ja) 仮想物体操作装置
CN104090465B (zh) 一种三维交互式投影成像方法
CN106980377B (zh) 一种三维空间的交互系统及其操作方法
EP3878529A1 (en) Interactive entertainment system
KR100971667B1 (ko) 증강 책을 통한 실감 콘텐츠를 제공하는 방법 및 장치
JP4945694B2 (ja) 映像再生装置及び映像再生方法
Messaci et al. 3d interaction techniques using gestures recognition in virtual environment
WO2017191702A1 (ja) 画像処理装置
JP2019046472A (ja) 画像処理装置、画像処理方法

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20120118

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130801

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140407

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140422

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140623

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140715

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140808

LAPS Cancellation because of no payment of annual fees