JP2015184986A - 複合現実感共有装置 - Google Patents
複合現実感共有装置 Download PDFInfo
- Publication number
- JP2015184986A JP2015184986A JP2014061735A JP2014061735A JP2015184986A JP 2015184986 A JP2015184986 A JP 2015184986A JP 2014061735 A JP2014061735 A JP 2014061735A JP 2014061735 A JP2014061735 A JP 2014061735A JP 2015184986 A JP2015184986 A JP 2015184986A
- Authority
- JP
- Japan
- Prior art keywords
- hand
- server
- user
- client
- sensor
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 150000001875 compounds Chemical class 0.000 title abstract 2
- 230000033001 locomotion Effects 0.000 claims abstract description 45
- 238000003384 imaging method Methods 0.000 claims abstract description 18
- 238000004458 analytical method Methods 0.000 claims abstract description 15
- 230000001133 acceleration Effects 0.000 claims abstract description 9
- 230000005236 sound signal Effects 0.000 claims abstract description 5
- 238000000034 method Methods 0.000 claims description 30
- 238000004891 communication Methods 0.000 claims description 22
- 230000008569 process Effects 0.000 claims description 20
- 238000001514 detection method Methods 0.000 claims description 18
- 230000003190 augmentative effect Effects 0.000 claims description 13
- 239000002131 composite material Substances 0.000 abstract 1
- 238000012545 processing Methods 0.000 description 40
- 208000013057 hereditary mucoepithelial dysplasia Diseases 0.000 description 33
- 238000010586 diagram Methods 0.000 description 23
- 230000006870 function Effects 0.000 description 11
- 239000004065 semiconductor Substances 0.000 description 11
- 230000009467 reduction Effects 0.000 description 10
- 239000004973 liquid crystal related substance Substances 0.000 description 9
- 230000009466 transformation Effects 0.000 description 8
- 239000011159 matrix material Substances 0.000 description 7
- 238000006243 chemical reaction Methods 0.000 description 5
- 238000000605 extraction Methods 0.000 description 5
- 238000004364 calculation method Methods 0.000 description 4
- 230000002452 interceptive effect Effects 0.000 description 3
- 230000009471 action Effects 0.000 description 2
- 238000013459 approach Methods 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000002372 labelling Methods 0.000 description 2
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000007717 exclusion Effects 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 238000013178 mathematical model Methods 0.000 description 1
- 238000011946 reduction process Methods 0.000 description 1
- 239000003381 stabilizer Substances 0.000 description 1
- 230000002194 synthesizing effect Effects 0.000 description 1
Images
Abstract
【解決手段】サーバ装置と複数のクライエント装置から構成され、クライエント装置は、ユーザが装着する、加速度センサおよびディスプレイ装置を有するヘッドセットと、赤外線センサと撮像手段と収音手段とを有する3次元形状取得センサと、を有する。サーバ装置は、クライエント装置から送信された深度信号を用いてユーザの動作解析を行い、動作解析に基づくCGを生成し、実物体データを表示し、拡張現実空間を合成し、合成した拡張現実空間の情報をクライエント装置に送信する。クライエント装置は、サーバ装置から受信した拡張現実空間情報に基づいて、ヘッドセットのディスプレイ装置に画像を表示し、スピーカに音声信号を出力する。
【選択図】図2
Description
より特定的には、本発明は、仮想現実(VR:Virtual Reality )または、拡張現実(AR:Argumented Reality)、または、複合現実(MR)などを利用し、コンピュータグラフィック(CG)を適用し、遠隔にいる複数のユーザ(クライエントまたは作業者)が、あたかも同一の空間で共有し、直観的に、かつ、3次元的に操作可能とする技術に関する。
しかしながら、このようなシステムは、複数のユーザが、あたかも同一の空間で共有し、直観的に、かつ、3次元的に操作可能とすることができない。
複合現実遠隔操作支援システムおいては、作業者がヘッドセット(HMD)を装着し、作業者の視点から見える複合現実空間、すなわち、現実物体と仮想物体、スタライサ、ポインタが写っており、これらの映像を遠隔地にいる指示者に伝送し、指示者が伝送された映像を観察しながら作業者の空間をシームレスに知覚して、3次元的な作業を可能とする。
より特定的には、会議に参加している複数のユーザ(メンバー)が同一の空間を共有し、どのメンバーも、直観的に、かつ、3次元的にCGを操作することができ、かつ、お互いの操作を共有し理解しあえる、遠隔会議システムを提供し、遠隔会議の効率を向上させることにある。
各クライエント装置は、その場所にいるユーザが装着する、加速度センサおよびディスプレイ装置を有するヘッドセットと、赤外線センサと、撮像手段と、収音手段とを有する3次元形状取得センサと、を有し、
前記各クライエント装置は、前記加速度センサの検出信号、前記赤外線センサの検出信号、前記撮像手段で撮像した撮像画像データおよび深度情報、前記収音手段で収音した信号を、前記通信網を介して前記サーバ装置に送信し、
前記サーバ装置は、(1))前記各クライエント装置から送信された前記深度信号を用いてユーザの動作解析を行い、(2)前記動作解析に基づくCGを生成し、(3)実物体データを表示し、(4)拡張現実空間を合成し、(5)前記合成した拡張現実空間の情報を、各クライエント装置に送信し、
前記各クライエント装置は、前記サーバ装置から受信した拡張現実空間情報に基づいて、ヘッドセットのディスプレイ装置に画像(映像)を表示し、前記スピーカに音声信号を出力する、
複合現実感共有装置が提供される。
図1に図解した本発明の、AR、VR、MRを利用した、1実施の形態の複合現実感共有装置1は、サーバPC10と、通信網20と、この通信網20を介してサーバPC10に接続された複数の遠隔地である空間、たとえば、空間A、空間B、空間Cにそれぞれ配置されたクライエント装置30、40、50とを有する。
通信網20は、遠隔の空間A、空間B、空間Cの相互、および、これら空間A、空間B、空間Cと、サーバPC10とを通信可能とする遠隔通信手段、たとえば、インターネットを用いることが望ましい。
空間B、Cに配置されたクライエント装置40、50も、クライエント装置30と同様であり、以下、代表して、クライエント装置30について述べる。
(1)クライエントPC31から送信された上記各種信号を用いて動作解析を行う。
(2)上記動作解析に基づくCGを生成する。
すなわち、サーバPC10は、クライエント装置30、40、50から得た遠隔地にいる各ユーザの位置、特に、手の3次元的な形状と姿勢が取得できるので、ユーザの手の操作により、AR(または、VR、MR)によるCGを生成する。特に、サーバPC10において、遠隔地にいる各ユーザの3次元的な形状と姿勢が取得できるので、ユーザの手の操作により、AR(または、VR、MR)によるCGを生成することができるため、各ユーザは恰も同一空間で協調作業を行っているように感じることができる。
(3)好適には、形状情報にテクスチャをはりつける。
形状情報にテクスチャをはりつけるのは、下記の理由による。ユーザが、HMD37を装着しているため、そのままの形状をディスプレイ装置に表示すると、違和感を感じることがある。そのため、ユーザがHMD37を装着していないときの顔のテクスチャを予め取得しておき、形状を表示するときは、取得したテクスチャを貼りつけて,違和感を低減する。
(4)実物体データを、たとえば、液晶表示部に表示する。
(5)ARなどによる拡張現実空間を合成する。
(6)合成した拡張現実空間の情報を、クライエントPC31に送信する。
クライエント装置30は下記の処理を行う。
(1)第1、第2のkineticセンサ34、35の赤外線センサの検出信号、Webカメラの撮像(画像)データおよび、マイクロフォンの収音信号、HMD37の加速度センサの検出信号を入力して、サーバPC10に送信する。
(2)サーバPC10において生成した拡張現実空間情報を受信し、それにに基づいて、ユーザが装着しているHMD37のディスプレイ装置に画像(映像)を表示し、スピーカ35に音声信号を出力する。
HDDメモリ303には、下記の処理に必要が種々の情報と、下記に述べる信号処理を行う複数のプログラムが記憶されており、動作すべきプログラムと情報とが半導体メモリ302に転送されてCPU301がそれらを用いて下記に述べる種々の処理を行う。その結果が、通信モジュール304によって、クライエントPC10に送信される。
クライエントPC31は、クライエント装置30におけ信号処理手段の1例として機能する。
kineticセンサは市販されている。
Webカメラが、ユーザの視点で見た空間Aにおける状況を実時間で撮像し、その映像(画像)データがクライエントPC31に入力されて、クライエントPC31からサーバPC10に送信される。kineticセンサは、Webカメラの映像結果を、RBG信号および深度信号として提供するので、これらの信号から、本実施の形態では後述するサーバPC10において、物体の3次元形状を取得することができる。
赤外線センサは、第1の目的として、対向する2つの赤外線センサで、HMD37の位置を検出するための、HMD37位置検出機能を果たす。また、赤外線センサは、第2の目的として、たとえば、夜間あるいは照明が乏しくWebカメラでは十分に撮像できない状況において物体を識別する機能を果たす。赤外線センサの検出信号がクライエントPC31に入力されて、サーバPC10に送信される。
HMD37は、ユーザの頭部に装着して使用する。
HMD37は、たとえば、加速度センサと、ディスプレイ装置とを有する。
加速度センサがそのHMD37をしようしているユーザの動きの速さを検出し、クライエントPC31を経由してサーバPC10にその検出信号が送信される。
HMD37内のディスプレイ装置にサーバPC10からのCG画像などの映像が表示(投影)される。
このように、HMD37は、ユーザの動き検出、映像表示手段として機能する。
HDDメモリ103には、下記に詳述する複合現実感共有装置1のAR、または、AR、VR、MRなどを利用した諸機能を遂行するための各種情報、および複数のプログラムが記憶されており、動作すべきプログラムおよび必要な情報が半導体メモリ102に転送されてCPU101において使用され、下記に述べる種々の処理を行う。その結果が、通信モジュール104によって、該当するクライエント装置、たとえば、クライエント装置30に送信される。
このように、遠隔にあるクライエント装置30とサーバPC10とは、たとえば、インターネットなどの通信網20を介して、それぞれの、通信モジュール304と通信モジュール104とで、データの送信および受信(送受信)が可能である。
図6、図7を参照して、サーバPC10と、クライエント装置30との基本動作を述べる。
クライエントPC31は、第1、第2のkineticセンサ34、35の赤外線センサの検出信号、Webカメラの撮像(画像)データおよび、マイクロフォンの収音信号、HMD37の加速度センサの検出信号を入力して、通信網20を経由したサーバPC10に送信する。
サーバPC10のCPU101は、通信モジュール105で受信したクライエントPC31から送信された上記各種信号を用いて動作解析を行う。
動作解析の例としては、たとえば、kineticセンサが、深度情報を提供するので、たとえば、ユーザの手の動きを示す信号を提供しており、その信号を用いて、手の回転、移動などを検出することができる。これについては後述する。
ユーザの手は操作の指示する行為、報告する行為などに使用することができる。
サーバPC10は、上記動作解析に基づくコンピュータグラフック(CG)画像を生成する。すなわち、サーバPC10は、クライエント装置30、40、50から得た遠隔地にいる各ユーザの位置、特に、手の3次元的な形状と姿勢が取得できるので、ユーザの手の操作により、AR(または、VR、MR)によるCG画像を生成する。
このように、サーバPC10において、遠隔地にいる各ユーザの3次元的な形状と姿勢が取得できるので、ユーザの手の操作により、AR(または、VR、MR)によるCGを生成することができるため、各ユーザは恰も同一空間で協調作業を行っているように感じることができる。
サーバPC10は、好ましくは、形状情報にテクスチャをはりつける。
形状情報にテクスチャをはりつけるのは、下記の理由による。
ユーザが、HMD37を装着しているため、そのままの形状をディスプレイ装置に表示すると、違和感を感じることがある。そのため、ユーザがHMD37を装着していないときの顔のテクスチャを予め取得しておき、形状を表示するときは、取得したテクスチャを貼りつけて,違和感を低減する。
サーバPC10は、液晶表示部に実物体データを表示する。
サーバPC10は、ARなどによる拡張現実空間を合成して、たとえば、液晶表示部に表示する。
サーバPC10は、合成した拡張現実空間の情報を、通信モジュール105、通信網20を経由して、クライエントPC31に送信する。
クライエントPC31は、サーバPC10から受信した拡張現実空間情報に基づいて、ユーザが装着しているHMD37のディスプレイ装置に画像(映像)を表示し、スピーカ35に音声信号を出力する。
サーバPC10は、ステップ5の処理を終了したら、複合現実感共有装置1の動作が終了するまで上記処理を反復する。
クライエントPC31は、ステップ2の処理を終了したら、複合現実感共有装置1の動作が終了するまで、上記処理を反復する。
図7(A)は、各空間にいるユーザが装着したHMD37のディスプレイ装置に表示された画像を表す。
図7(B)は、対向する位置に配設された第1のkineticセンサ33と第2のkineticセンサ34とで、HMD37を装着したユーザの位置と動き、たとえば、ユーザの手の動きを検出することを例示した図である。
図7(C)、(D)は、各クライエントPCと、サーバPC10との情報の交換を図解した図である。
図7(E)は、サーバPC10において、AR空間で、各空間の情報を合成することを例示した図である。
たとえば、3次元画像(3次元オブジェクト、3Dオブジェクト)に対する、回転などの信号処理を指示する操作手段、たとえば、人間の手、の3次元位置、形状、動きを検出して、それに応じた3Dオブジェクトに対する画像処理を行う、画像処理について述べる 3次元操作手段としての、たとえば、手は、フリックによるスクロール、ピンチイン、ピンチアウトなどを含む3次元画像の回転、移動などに対応する操作を指示する。
また、たとえば、ミーティングなどにおいて、一人または複数のユーザ(聴衆)が、直観的な操作で、たとえば、インタラクティブな3次元画像の画像処理を行なうことが望まれている。
Kinetectセンサから出力されたRGB信号から輝度信号を得ることができる。 特に、下記に述べるユーザの手の内容を分析するためには、RGB信号そのものを用いず、たとえば、0〜255の階調を持つ白色または黒色の輝度信号として扱う。
色信号としては、各ビクセル毎の、たとえば、R(赤)G(緑)B(青)の3原色信号である。また、深度信号は、たとえば、各ブロックごとの深度信号である。
ステップ21、初期設定
サーバPC10は下記の初期設定を行う。
(1)ランド(基準)マークの投影
図9は、スクリーン4の4隅(角)を指向した4個のランドマーク(基準マーク)を配置する例を示す図である。
ユーザは、スクリーン4の投影面(投射面)の4隅(角)を指向したランドマークを配置する。この領域(手移動抽出範囲)において手5が操作される。
図10はスクリーン4の4隅に配置されたランドマークをKinetectセンサで撮像して、4隅の座標位置を検出する方法を示す図である。
Kinetectセンサは、ランドマークが配置されたスクリーン4を撮像して、RGB信号および、深度信号を生成して、PC3に出力する。
サーバPC10はKinetectセンサから出力されたRGB信号としてではなく、たとえば、0〜255の階調を持つ輝度信号として用いる。
図11はKinetectから出力されるランドマークの深度情報の初期値の例を示す図である。
スクリーン4の投射面にユーザの手5が存在しない状態で、Kinetectセンサでスクリーン4を撮像して、Kinetectセンサからのスクリーン4上のランドマークの深度状態を取得する。この深度情報は、Kinetectセンサの先端からスクリーン4までの距離を意味する。
サーバPC10はその深度情報、すなわち、スクリーン4までの距離情報を半導体メモリに記憶する。
この例示では、スクリーン4が下から上に向かって傾斜しており、上列の深度が大きく、下列の深度が小さい。
図12〜図18を参照して、ユーザの手の3次元座標を取得するために、サーバPC10は、Kinetectセンサと協働して、スクリーン4の投影画像上の手5の領域(手移動可能領域)の抽出を行う。
図12はスクリーンの投射面にユーザが手5を置いた時に、それを撮像したKinetect(1)の手の深度情報の例を示す図である。
ユーザがスクリーン4の投影面に手5を置いた状態で、Kinetect(1)で手5を撮像し、Kinetectセンサは撮像による深度情報をクライエントPC31を経由したサーバPC10に出力する。
なお、図12に例示した深度情報と図11に例示した深度情報とを対比すると、図12の深度情報は手5があるブロック(区分)の深度情報の値が小さい。
手5の深度情報の差が、スクリーンとKinetectセンサとの間の手移動可能領域の下限値、たとえば、20mmより大きいとき、サーバPC10は、有効な手移動可能領域とする。
図14はプロジェクタ2からスクリーン4に3次元画像を投影(投射)する画像領域を抽出することを示す図である。図14において、左側の上部にプロジェクタ2側から肉眼で見た画面を示し、左側の下部にKinetect(1)で撮像した画像を示す。また、図9において、右側の上部に左側の上部の肉眼で見た画面を4隅のランドマーク内に展開した図を示し、右側の下部にスクリーン4の投影画像上の手移動可能領域を示す。
サーバPC10は、図14の左側の上部に図解した、初期設定で取得したスクリーン4へのランドマークの投影画像の4隅の座標を用いて、座標変換のための射影変換行列を算出し、手移動可能領域から、図14の右側に図解した、手移動可能領域を抽出する。
n+1次元アフィン空間An+1の一次変換Fを考える。
F:An+1 −−> An+1(u−−>MU)
ただし、uは、縦ベクトル表示してあるものとし、
Mは、n+1次正方行列である。
原点を通る直線はFによって再び原点を通る直線に移る。したがって、Fは射影空間の変換を引きおこしている。
F:Pn −−> Pn (〔u〕−−> M〔u〕=〔Mu〕
これを射影変換という。
なお、n+1次元の縦ベクトルu(≠0)に対して、〔u〕は対応するn次元射影空間の点とする。
サーバPC10は、手5の3次元座標(x,y,z)の取得を行う。
(1)手の中心座標の取得
図15は、スクリーン4における手5の中心の座標を取得する方法を示す図である。
サーバPC10は、図15の左側に図解した手5の手移動可能領域を抽出した画像を、白画素から最も近い黒画素までの距離で正規化する。そして、サーバPC10は、輝度値が最大の輝度、本例では、255の画素を検出し、図15の右側に図解したように、その座標を手5の中心座標とする。
なお、本例では、手5のある部分(ピクセル)は白画素または白画素に近い画素として表し、手5が存在しない部分、たとえば、3次元画像、手5が存在しないスクリーン4の白い色の部分を、黒画素として図解している場合について、述べている。
図16の左側に図解したように、手5の他に腕も手移動可能領域に入った場合には、その状態でスクリーン4の投影画像上の手移動可能領域を、白画素から元も近い黒画素まで距離で正規化して、最大輝度値、たとえば、255の画素を検出すると、図11の右側に図解したように、腕の中心座標を検出してしまうという問題が起こる。
この問題を解決するため、図17に図解したように、腕の画像を排除する処理を行う。 図12はスクリーン4の前の手移動抽出範囲に腕が入る状況での手の中心位置の座標を示す図である。
まず、サーバPC10は、腕の画像を削除するため、サーバPC10の半導体メモリに記憶してある画像データについて、取得した腕の中心座標から輪郭までの最短距離を計測する。
サーバPC10は、その距離を半径として、図17の左側に図解したように、腕の中心座標を中心とする黒い円を描く。そして、黒い円の輝度は低いので、それら低い輝度を排除して、腕の画像を廃棄する。これにより、手移動可能領域に入り込んだ腕の情報を削除することができる。したがって、ユーザは、手5の操作に対して、特別注意をする必要がない。
この最大輝度値の画素の部分が、図17の右側に図解した、手5の中心座標(x,y)である。
この垂直成分は、手5までの距離を意味している。
以上の処理により、手の3次元座標を取得する処理が終了する。
手5の操作に応じて、スクリーン4に表示されている3次元画像(すなわち、3Dオブジェクト)の移動、回転、拡大、縮小操作の切り替えを一意的に行うため、操作の分岐処理を行う。
図19は、分岐処理を詳細に図解したフローチャートである。
上記例では、3Dオブジェクトの移動操作(ステップ4a)、3次元画像(3Dオブジェクト)の回転操作(ステップ4b)、3Dオブジェクトの拡大、縮小操作(ステップ4c)と、簡略して図解している。他方、図19においては、片手または両手の操作(ステップS41)、片手のグー操作またはパー操作(ステップS42)、両手のグー操作またはパー操作(ステップS43)、Kinetect(1)から見て、スクリーン4に表示されている3次元画像(3Dオブジェクト)の上に(または、前に)手5がある処理(ステップS44)、移動操作(ステップS45)、z軸回転操作(ステップS46)、xy軸回転操作(ステップS47)、拡大・縮小操作(ステップS48)、3Dオブジェクトの表示(ステップS49)の操作に分類している。
3次元画像(3Dオブジェクト)の移動操作は、手5が片手で(ステップS41)、手5の形状が「グー(握りこぶし)」のとき(ステップS42、ステップS45)、その手5の移動方向、移動量、移動速度などに対応して行う(ステップS45)。
PC3が行う3次元画像の移動操作としては、スクリーン4において3次元画像の上下左右への移動、スクリーン4から3次元画像がKinetectセンサに向かって近づく、または、Kinetectセンサからスクリーン4に向かって遠ざかるなどの操作である。
そのため、サーバPC10は、手5の移動を、半導体メモリに記憶している、Kinetectセンサで撮像した連続する複数の画像を示す、色信号(輝度信号)および深度情報を参照して、判断する。
以下、各画面におけるKinetectセンサの撮像データに基づく、サーバPC10の処理について述べる。
図20は両手の認識を行う方法を示す図である。
サーバPC10は、Kinetectセンサから出力されて、半導体メモリに記憶しているRGB信号に基づく輝度値のうち、スクリーン4の投影画像上の画像について、たとえば、上記例示した区分(領域)のピクセル(画素)ごとに、画像処理において、画像処理において通常行われている「ラベリング処理」を行い、輝度が第1の輝度値、たとえば、250、より大きな最大領域を抽出して、最大領域を認識する。
サーバPC10は、再度、「ラベリング処理」を行い、輝度が上記第1の輝度値より小さな第2の輝度値、たとえば、240、より大きな大きい領域が所定量のピクセル、たとえば、100ピクセル以上存在すれば、両手であると認識する。
両手でなければ、サーバPC10は、片手であると判断する。
図21は手がグーパー(グー、または、パー)のいずれかであることを認識することを示す図である。
サーバPC10が、上記処理で、手移動可能領域にあるものが、片手であると認識した場合を例示して述べる。
サーバPC10は、スクリーン4の投影画像上の輪郭を検出する。この輪郭の検出は、隣接する二次元方向の領域(ピクセル)の輝度の差が所定の値以上の部分として(あるいは、2次元方向の微分値が所定値以上の部分として)検出することができる。その結果を、図21において、細い白線で示している。
サーバPC10は次いで、輪郭線の曲率を算出する。
輪郭線の曲率は、変曲点を意味しており、手5が開いている場合は、握りこぶしのときより、変曲点は多くなる。このような曲率の演算は、通常の数学モデルを用いて行なうことができる。
サーバPC10は、曲率の高い部分が所定量以下、たとえば、5個以下の場合は、手5が「グー」であると判断する。他方、サーバPC10は、曲率の高い部分が所定量以上、たとえば、6個以下の場合は、手5が「パー」であると(検出)認識する。
それにより、両手の場合についても、片手ごとに、「グー」または「パー」を検出することができる。
サーバPC10は、KinetectセンサのWebカメラで撮像した結果得られた、ある時刻におけるRGB信号および深度信号を用いて、上述した処理を行う。
サーバPC10は、Kinetectセンサから時々刻々と連続して出力される、RGB信号および深度信号についての上述した処理結果を追跡している。
それにより、サーバPC10は総合的に、(1)手5の動き、たとえば、手5全体の動き、手5の指の広がりの程度、(2)さらに、それらの動きの速度、(3)動きの方向などを検出することができる。
すなわち、時々刻々と連続して出力される、RGB信号および深度信号についての上述した処理結果の変化を追跡していくことにより、(1)手5の動き、たとえば、手5全体の動き、手5の指の広がりの程度、(2)さらに、それらの動きの速度、(3)動きの方向などを検出することができる。
図22は手の3次元座標系(x,y,z)から3Dオブジェクト(3次元画像)の3次元座標系(X,Y,Z)への変換を示す図である。
サーバPC10は、図22に例示した手移動可能領域について、下記式(1)、(2)に基づいてxy軸への変換を行う。
サーバPC10は、次いで、図22に例示した範囲について、下記式(3)に基づいて、z軸への変換を行う。
移動操作以外の他の操作についても、サーバPC10は、スクリーン4に投影されている3次元画像に対応するメモリ部に記憶されている画像データについて、対応する信号処理を行う。
サーバPC10は、上記結果に基づく画像処理した画像データを、たとえば、液晶表示部にに出力する。
図23は手の指の角度を検出することを示す図である。
スクリーン4に投影されている3次元画像(3Dオブジェクト)上に手5がある場合、サーバPC10は、手5の角度を用いて、垂直軸(Z軸)の回転操作を行う。
サーバPC10は、図23に例示したように、投影画像上の手移動可能領域の画像信号(RGB画像)において中心座標を腕の中心座標として、その半径を手の中心座標(x,y)までの距離で黒い円を描く。
サーバPC10は次に、手の中心座標から最も遠い白画素を検出する。検出した座標を、中指の座標(Fx,Fy)とする。
サーバPC10は、中指の座標(Fx,Fy)と手の中心座標(x,y)の角度Fθを、下記式(4)により、算出する。
サーバPC10におけるこの回転操作は、たとえば、CGなどで行う変換処理と同様に行うことができる。
サーバPC10は、回転操作の結果に基づく画像データを、たとえば、液晶表示部に出力する。
図24は手の平面を推定する方法を示す図である。
サーバPC10は、手5がスクリーン4に投影されている3Dオブジェクト(3次元画像)の上にない場合、手の法線ベクトルを用いて、3Dオブジェクトの平面(xy軸面)の回転操作を行う。
サーバPC10は、まず、手の法線ベクトル(H)を算出するため、図24に例示した手の3点を検出する。
サーバPC10は、まず、手の中心座標O(x,y,z)の点を第1の点とする。サーバPC10はこの点を中心に手の幅を検出する。
サーバPC10は次に、中指の方向に、手の中心座標O(x,y,z)から手の幅の分離れた点を検出する。
サーバPC10は次に、手の中心座標O(x,y,z)を中心に、中指の方向の点を+45度の点を第2の点とし、その座標をR1(R1 x,R1 y,R1 z)とする。
また、サーバPC10は、手の中心座標O(x,y,z)を中心に、中指の方向の点を−45度の点を第3の点とし、その座標をR2(R2 x,R2 y,R2 z)とする。
以上の3点を用いて、下記式(5)、(6)、(7)を用いて、手5の法線ベクトル(H)を算出する。
次に、サーバPC10は、手の法線ベクトル(H)とz軸ベクトルとの間の角度Rθを下記式(9)を用いて算出する。この角度Rθを平面軸(xy軸)回転操作の回転角度とする。
サーバPC10は、上記回転操作の結果に基づく画像データを、たとえば、液晶表示部に出力する。
図25は両手の中心座標を示す図である。
両手がグーの場合(ステップS43)、PC3は、両手間のベクトルと距離に応じて、3Dオブジェクトの任意軸方向の拡大・縮小操作を行う。
サーバPC10は、図25に例示した、両手の中心座標を検出する。右手の中心座標S1を(S1 x,S1 y,S1 z)とし、左手の中心座標S2を(S2 x,S2 y,S2 z)とする。
サーバPC10は、式(11)、(12)を用いて、両手間のベクトル(u)と、距離λとを算出する。
サーバPC10は次に、式(13)を用いて、任意軸方向の拡大・縮小行列Tを算出する。
サーバPC10は、上記任意軸方向の拡大・縮小操作の結果に基づく、3Dオブジェクトの画像データを、たとえば、液晶表示部に出力する。
サーバPC10は、ユーザが終了指示をするまで、上述したステップS2〜ステップS4の処理を反復する。
サーバPC10は、ユーザが終了指示をしたとき、上記処理を終了する。
したがって、以上の実施の形態においては、上述した処理を行うサーバPC10のみを新規に開発すればよく、実施で容易であった。
30、40、50…クライエント装置
31…クライエントPC、
33、34…第1、第2のkineticセンサ33
35…スピーカ
37…ヘッドセット(HMD)
Claims (5)
- 通信網で接続された、サーバ装置と、異なる場所に配置された複数のクライエント装置とを有し、
各クライエント装置は、
その場所にいるユーザが装着する、加速度センサおよびディスプレイ装置を有するヘッドセットと、
赤外線センサと、撮像手段と、収音手段とを有する3次元形状取得センサと、
を有し、
前記各クライエント装置は、
前記加速度センサの検出信号、前記赤外線センサの検出信号、前記撮像手段で撮像した撮像画像データおよび深度情報、前記収音手段で収音した信号を、前記通信網を介して前記サーバ装置に送信し、
前記サーバ装置は、
前記各クライエント装置から送信された前記深度信号を用いてユーザの動作解析を行い、
前記動作解析に基づくCGを生成し、
実物体データを表示し、
拡張現実空間を合成し、
前記合成した拡張現実空間の情報を、各クライエント装置に送信し、
前記各クライエント装置は、
前記サーバ装置から受信した拡張現実空間情報に基づいて、ヘッドセットのディスプレイ装置に画像(映像)を表示し、前記スピーカに音声信号を出力する、
複合現実感共有装置。 - 前記サーバ装置は、前記各クライエント装置から送信された各ユーザの位置、特に、手の3次元的な形状と姿勢から、前記動作解析を行う、
請求項1に記載の複合現実感共有装置。 - 前記サーバ装置は、前記ユーザがヘッドセットを装着していないときの顔のテクスチャを予め取得しておき、前記形状情報にテクスチャをはりつける、
請求項1または2に記載の複合現実感共有装置。 - 前記3次元形状取得センサは、kineticセンサを有する、
請求項1〜2のいずれかに記載の複合現実感共有装置。 - 前記サーバ装置は、前記動作解析として、 前記撮像データに含まれる3次元操作対象の色信号および深度信号を解析処理する、
請求項1〜4のいずれかに記載の複合現実感共有装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014061735A JP2015184986A (ja) | 2014-03-25 | 2014-03-25 | 複合現実感共有装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014061735A JP2015184986A (ja) | 2014-03-25 | 2014-03-25 | 複合現実感共有装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2015184986A true JP2015184986A (ja) | 2015-10-22 |
Family
ID=54351421
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014061735A Pending JP2015184986A (ja) | 2014-03-25 | 2014-03-25 | 複合現実感共有装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2015184986A (ja) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110728987A (zh) * | 2019-10-23 | 2020-01-24 | 随锐科技集团股份有限公司 | Windows计算机实时与会共享音频的采集方法 |
WO2021220494A1 (ja) | 2020-04-30 | 2021-11-04 | 塁 佐藤 | 通信端末装置、通信方法、およびソフトウェアプログラム |
JP7399503B2 (ja) | 2019-04-26 | 2023-12-18 | 株式会社バーチャルウインドウ | 運動用設備 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009206619A (ja) * | 2008-02-26 | 2009-09-10 | Oki Electric Ind Co Ltd | 遠隔会議システム及びその制御方法 |
JP2014029656A (ja) * | 2012-06-27 | 2014-02-13 | Soka Univ | 画像処理装置および画像処理方法 |
-
2014
- 2014-03-25 JP JP2014061735A patent/JP2015184986A/ja active Pending
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009206619A (ja) * | 2008-02-26 | 2009-09-10 | Oki Electric Ind Co Ltd | 遠隔会議システム及びその制御方法 |
JP2014029656A (ja) * | 2012-06-27 | 2014-02-13 | Soka Univ | 画像処理装置および画像処理方法 |
Non-Patent Citations (3)
Title |
---|
岡本 祐樹, 北原 格, 大田 友一: "遠隔協調型複合現実感における作業空間表現のための立体人物像提示", 電子情報通信学会論文誌, vol. 第J94-D巻/第5号, JPN6018015153, 1 May 2011 (2011-05-01), JP, pages 830 - 838, ISSN: 0004040079 * |
木内 泰, 野口 康人, 井上 智雄: "複合現実感を用いた分散会議における遠隔参加者の表現", 第69回(平成19年)全国大会講演論文集(4) インタフェース コンピュータと人間社会, JPN6018015151, 6 March 2007 (2007-03-06), JP, pages 4 - 163, ISSN: 0004040078 * |
都竹 尚紀, 梅澤 猛, 大澤 範高: "複数の深度センサを用いたユーザの向きに依存しないジェスチャ認識手法", 第75回(平成25年)全国大会講演論文集(4) インタフェース コンピュータと人間社会, JPN6018015155, 6 March 2013 (2013-03-06), JP, pages 4 - 107, ISSN: 0003914282 * |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7399503B2 (ja) | 2019-04-26 | 2023-12-18 | 株式会社バーチャルウインドウ | 運動用設備 |
CN110728987A (zh) * | 2019-10-23 | 2020-01-24 | 随锐科技集团股份有限公司 | Windows计算机实时与会共享音频的采集方法 |
CN110728987B (zh) * | 2019-10-23 | 2022-02-11 | 随锐科技集团股份有限公司 | Windows计算机实时与会共享音频的采集方法 |
WO2021220494A1 (ja) | 2020-04-30 | 2021-11-04 | 塁 佐藤 | 通信端末装置、通信方法、およびソフトウェアプログラム |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9256986B2 (en) | Automated guidance when taking a photograph, using virtual objects overlaid on an image | |
CN204465706U (zh) | 终端装置 | |
WO2019242262A1 (zh) | 基于增强现实的远程指导方法、装置、终端和存储介质 | |
KR101171660B1 (ko) | 증강현실의 포인팅 장치 | |
Kasahara et al. | Jackin head: Immersive visual telepresence system with omnidirectional wearable camera | |
US11887234B2 (en) | Avatar display device, avatar generating device, and program | |
JP5936155B2 (ja) | 3次元ユーザインタフェース装置及び3次元操作方法 | |
TWI540461B (zh) | 手勢輸入的方法及系統 | |
US9268410B2 (en) | Image processing device, image processing method, and program | |
US11288871B2 (en) | Web-based remote assistance system with context and content-aware 3D hand gesture visualization | |
TW201322178A (zh) | 擴增實境的方法及系統 | |
JPWO2014016992A1 (ja) | 3次元ユーザインタフェース装置及び3次元操作方法 | |
JP6344530B2 (ja) | 入力装置、入力方法、及びプログラム | |
JP2021520577A (ja) | 画像処理方法及び装置、電子機器並びに記憶媒体 | |
JP7043601B2 (ja) | 環境モデルを生成するための方法および装置ならびに記憶媒体 | |
US20220230399A1 (en) | Extended reality interaction in synchronous virtual spaces using heterogeneous devices | |
JP2014029656A (ja) | 画像処理装置および画像処理方法 | |
KR20110132260A (ko) | 모니터 기반 증강현실 시스템 | |
JP2018010599A (ja) | 情報処理装置、パノラマ画像表示方法、パノラマ画像表示プログラム | |
WO2018146922A1 (ja) | 情報処理装置、情報処理方法、及びプログラム | |
JP2015184986A (ja) | 複合現実感共有装置 | |
WO2015072091A1 (ja) | 画像処理装置、画像処理方法及びプログラム記憶媒体 | |
JP2012103743A (ja) | 仮想情報付与装置及び仮想情報付与プログラム | |
WO2022163772A1 (ja) | 情報処理方法、情報処理装置および不揮発性記憶媒体 | |
JP5759439B2 (ja) | 映像コミュニケーションシステム及び映像コミュニケーション方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20170314 |
|
RD01 | Notification of change of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7421 Effective date: 20171221 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20171221 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20180508 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180621 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20181106 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20181226 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20190528 |