JP2006209664A - システム、画像処理装置、情報処理方法 - Google Patents

システム、画像処理装置、情報処理方法 Download PDF

Info

Publication number
JP2006209664A
JP2006209664A JP2005023935A JP2005023935A JP2006209664A JP 2006209664 A JP2006209664 A JP 2006209664A JP 2005023935 A JP2005023935 A JP 2005023935A JP 2005023935 A JP2005023935 A JP 2005023935A JP 2006209664 A JP2006209664 A JP 2006209664A
Authority
JP
Japan
Prior art keywords
image
orientation
observer
virtual object
virtual
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2005023935A
Other languages
English (en)
Other versions
JP4553362B2 (ja
JP2006209664A5 (ja
Inventor
Yuichi Sakauchi
祐一 坂内
Hiroyuki Yamamoto
裕之 山本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2005023935A priority Critical patent/JP4553362B2/ja
Priority to EP20060250471 priority patent/EP1686554A3/en
Priority to CNB2006100024317A priority patent/CN100373304C/zh
Priority to US11/340,550 priority patent/US7843470B2/en
Publication of JP2006209664A publication Critical patent/JP2006209664A/ja
Publication of JP2006209664A5 publication Critical patent/JP2006209664A5/ja
Application granted granted Critical
Publication of JP4553362B2 publication Critical patent/JP4553362B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

【課題】 作業者が観察している映像を遠隔地にいる指示者へ伝送し、指示者がこの映像を観察しながら作業者の空間をシームレスに知覚し、三次元的な作業指示を行なえるようにすること。
【解決手段】 表示器23a、23bに表示される画像200には作業者の視点から見える複合現実空間、即ち現実物体42、仮想物体43、スタイラス41a、そしてポインタ41dが写っている。
【選択図】 図2

Description

本発明は、現実空間と仮想空間とを合成した複合現実空間の画像を提供するための技術に関するものである。
近年、現実世界と仮想世界の継ぎ目のない融合を目指した複合現実感(Mixed Reality:MR)に関する技術開発が盛んになっている。MRは従来現実空間と切り離された状況でのみ体験可能であったバーチャルリアリティ(VR)の世界と現実の世界との共存を目的とし、VRを増強する技術として注目されている。
複合現実感を実現する装置として代表的な物は頭部装着型表示装置(HMD=Head Mounted Display)である。すなわち、現実空間と仮想空間をHMDに合成して表示することにより複合現実感を実現するものである。
頭部装着型表示装置(HMD)を用いて遠隔作業支援する技術の例として特許文献1がある。この例では作業者がカメラ付のHMDを装着しこのカメラからの映像を作業者および遠隔にいる指示者にて共有し、指示者の指示をこのカメラ映像に重畳して作業指示を行なう技術が開示されている。この技術では、作業者/指示者ともに同じ立体映像を観察できるように作業者のカメラをステレオにしており、この映像中の作業対象物を指し示す指示者の手をクロマキー合成で切り出してカメラからの映像に合成することが可能である。このシステムでは作業者の空間に座標が設定されていないので、作業対象物以外の仮想物体を作業者空間の任意の位置に配置してポインティングしたりインタラクションしたりすることができない。
また上記公知例と同様にカメラ付光学シースルーHMDを装着した作業者に対して遠隔から作業指示する技術の例としてBlock Partyがある(非特許文献1を参照)。Block Partyでは、作業者が光学シースルーHMDを通して見ている作業空間にCG画像が重畳される機能を有しており、指示者は作業者が頭部に装着しているカメラからの映像で作業者の進捗を把握し、作業対象物の3DモデルのCGを操作しながら作業支援を行なう。このシステムでは作業者のカメラ映像はステレオではなく、またCGの映像も重畳されていない。指示者はデスクトップのモニタ画面にこのカメラ映像を映し出し、CG操作には3D グラフィックスのエディタを用いて操作している。そのため作業者の空間をシームレスな空間として知覚することが困難であることに加え、作業者のカメラ映像に対し三次元的にポインティングする手段を有しない。また作業者がCGをポインティングしたり操作したりする機能も有していない。
ステレオカメラで参加者を撮影し、このステレオ画像を遠隔の他の参加者へ伝送するシステムで、参加者がHMDを装着して参加者間で共有されている仮想物体と共に立体映像を観察/操作できる技術の例として特許文献2がある。この例では参加者を2台のステレオカメラで撮影しその立体映像を他の複数人の参加者が観察することができる。作業者の位置と仮想物体操作のための手の位置が計測されているため仮想物体の操作は可能であるが、参加者が観察しているステレオ映像は、背景が除去された参加者の映像と仮想物体によるVR空間の映像であり、参加者の実空間の情報を有するものではない。
特開2002-132487号公報 USP 6,708,142 Edited by W. Barfield, and T. Caudell, "Fundamentals of Wearable Computers & Augmented Reality" pp557-563, Lawrnce Erlbaum Associates, Publishers. (2001)
本発明は以上の問題に鑑みてなされたものであり、作業者が観察している映像を遠隔地にいる指示者へ伝送し、指示者がこの映像を観察しながら作業者の空間をシームレスに知覚し、三次元的な作業指示を行なえるようにすることを目的とする。
本発明の他の目的は、実物体と仮想物体が位置合わせされている作業者複合現実空間において、作業者が観察しているHMD映像を遠隔地にいる指示者へ伝送し、作業者および指示者がこのHMD映像を観察しながら、作業者複合現実空間の作業対象となる実物体と仮想物体とをシームレスにポインティングする技術を提供することにある。
本発明の目的を達成するために、例えば、本発明のシステムは以下の構成を備える。
即ち、第1の観察者の視点の位置姿勢を取得する第1の取得手段と、
前記第1の取得手段が取得した位置姿勢を有する視点から見える仮想空間の画像を生成する生成手段と、
前記第1の観察者が仮想物体を操作するために使用する第1の操作手段と、
前記第1の観察者が前記仮想物体に対して行う操作を遠隔支援する第2の観察者が前記仮想物体を操作するために使用する第2の操作手段と、
前記視点から見える現実空間の画像を取得する第2の取得手段と、
前記第2の取得手段が取得した画像上に前記生成手段が生成した画像を重畳させて、前記第1の観察者が装着する頭部装着型表示装置、前記第2の観察者が装着する頭部装着型表示装置に出力する出力手段とを備え、
前記生成手段は、前記第1の操作手段、前記第2の操作手段による操作結果が反映された前記仮想空間の画像を生成することを特徴とする。
本発明の目的を達成するために、例えば、本発明の画像処理装置は以下の構成を備える。
即ち、第1の観察者の視点の位置姿勢を取得する第1の取得手段と、
前記第1の取得手段が取得した位置姿勢を有する視点から見える仮想空間の画像を生成する生成手段と、
前記視点から見える現実空間の画像を取得する第2の取得手段と、
前記第2の取得手段が取得した画像上に前記生成手段が生成した画像を重畳させて、前記第1の観察者が装着する頭部装着型表示装置、前記第1の観察者が前記仮想物体に対して行う操作を遠隔支援する第2の観察者が装着する頭部装着型表示装置に出力する出力手段とを備え、
前記生成手段は、前記第1の観察者が仮想物体を操作するために使用する第1の操作手段、前記第2の観察者が前記仮想物体を操作するために使用する第2の操作手段、による操作結果が反映された前記仮想空間の画像を生成することを特徴とする。
本発明の目的を達成するために、例えば、本発明の情報処理方法は以下の構成を備える。
即ち、現実画像と仮想物体を示す仮想画像を合成した立体視合成画像を生成する情報処理方法であって、
第1の観察者の視点からの右目用および左目用の現実画像を取得し、
前記第1の観察者の視点の位置姿勢を取得し、
前記第1の観察者が仮想物体を操作するための第1の指示部の位置姿勢を取得し、
第2の観察者が前記仮想物体を操作するための前記第2の指示部の位置姿勢を取得し、
前記第1または前記第2の指示部の位置姿勢に基づき、前記仮想物体の情報を制御し、
前記制御された仮想物体の情報に基づき、前記第1の観察者の視点の位置姿勢に応じた右目用および左目用の仮想画像を生成し、
前記現実画像と前記仮想画像を合成することにより右目用および左目用の合成画像を生成し、
前記合成画像を前記第1の観察者および前記第2の観察者に提示することを特徴とする。
本発明の構成により、作業者が観察している映像を遠隔地にいる指示者へ伝送し、指示者がこの映像を観察しながら作業者の空間をシームレスに知覚し、三次元的な作業指示を行なえるようにすることができる。
以下添付図面を参照して、本発明を好適な実施形態に従って詳細に説明する。
[第1の実施形態]
<システム構成>
図1は、本実施形態に係るシステムの機能構成を示すブロック図である。同図に示す如く、本実施形態に係るシステムは、図1上部に示す作業者用複合現実感装置10aと図1下部に示す指示者用複合現実感装置10bとで構成されており、それぞれはインターネットやLANなどのネットワークでもって互いにデータ通信が可能な構成となっている。なお、このネットワークは有線、無線は問わない。
また、それぞれの装置10a、10bには頭部装着型表示装置(以下HMD=Head Mounted Displayと呼称する)20a、20bが接続されており、HMD20aは作業者が装着し、HMD20bは指示者が装着する。また、それぞれの装置10a、10bには作業者と指示者とが音声にてコミュニケーションを図るべくスピーカ27a、27b、マイクロフォン28a、28bが接続されている。
また、それぞれの装置10a、10bにはスタイラス41a、41bが接続されており、作業者はスタイラス41aを用いて、指示者はスタイラス41bを用いて後述する仮想物体に対する操作を行う。なお、それぞれのスタイラスには、ボタンや、世界座標系(現実空間中の1点を原点とし、この原点で互いに直交する3軸をそれぞれx軸、y軸、z軸とする座標系)における自身の位置姿勢に応じた磁気変化を計測する為の不図示の磁気センサが備わっている。ボタンの押下/押下の解除を示す信号や、計測した結果(信号)は作業者用複合現実感装置10a(指示者用複合現実感装置10b)に入力される。
次に、作業者用HMD20aについて説明する。作業者用HMD20aには3次元位置姿勢センサ21a、カメラ22、表示器23aが備わっている。
3次元位置姿勢センサ21aは磁気センサであり、周知の計測技術により、世界座標系における自身の位置姿勢に応じた磁気変化を計測する。計測結果(信号)は作業者用複合現実感装置10aに入力される。
カメラ22は本実施形態ではステレオカメラであり、同図では左眼用のカメラをL、右眼用のカメラをRで示している。右目用カメラ、左目用カメラのそれぞれで撮像した画像は作業者用複合現実感装置10aに入力される。
表示器23aはステレオ表示するものであり、同図では左目用の表示器をL、右目用の表示器をRで示している。左目用表示器、右目用表示器のそれぞれに表示する画像は作業者用複合現実感装置10aから出力される。
ここで、3次元位置姿勢センサ21aとカメラ22との位置姿勢関係は固定されており、その固定された位置姿勢関係は予め計測され、バイアスデータとして作業者用複合現実感装置10a側で保持されているものとする。より詳しくはこのバイアスデータは、3次元位置姿勢センサ21aと左目用カメラとの位置姿勢関係を示すバイアスデータ、3次元位置姿勢センサ21aと右目用カメラとの位置姿勢関係を示すバイアスデータとで構成されている。
次に、作業者用複合現実感装置10aについて説明する。作業者用複合現実感装置10aには位置姿勢計測部11a、画像入力部12、画像生成部13、画像合成部15a、仮想物体情報管理部16、スタイラス情報受信部31a、映像符号化部32a、映像送信部33a、音声符号復号化部34a、音声送受信部35aが備わっている。
位置姿勢計測部11aには上記3次元位置姿勢センサ21aから出力された信号とスタイラス41aから出力される信号とが入力されるので、それぞれの信号をA/D変換し、データ(世界座標系における3次元位置姿勢センサ21aの位置姿勢を示すデータ、世界座標系におけるスタイラス41aの位置姿勢を示すデータ、スタイラス41aに備わっているボタンの押下を示すデータ)として仮想物体情報管理部16に出力する。
また、仮想物体情報管理部16には指示者用複合現実感装置10bから出力されたスタイラス情報(スタイラス41bに関する情報)がスタイラス情報受信部31aを介して入力される。
従って仮想物体情報管理部16は、位置姿勢計測部11aから入力されたデータと指示者用複合現実感装置10bからスタイラス情報受信部31aを介して入力したスタイラス情報とを画像生成部13に出力する。
また、仮想物体情報管理部16は、後述する仮想物体毎に、操作権の管理をも行う。
画像生成部13は、位置姿勢計測部11aから入力した「世界座標系における3次元位置姿勢センサ21aの位置姿勢を示すデータ」と上記バイアスデータとを用いて、作業者視点(右目用カメラ、左目用カメラ)から見える仮想空間の画像を生成する。即ち、右目用カメラから見える仮想空間の画像、左目用カメラから見える仮想空間の画像を生成する。所定の位置姿勢を有する視点から見える仮想空間の画像を生成する処理については周知の技術であるので、ここでの説明は省略する。
なお、この仮想空間内には1以上の仮想物体が存在する。詳しくは後述するが、仮想物体に対してはスタイラス41aやスタイラス41bを用いて操作することができる。よって、この1以上の仮想物体のうちスタイラス41a、41bによって操作が成された仮想物体がある場合には、画像生成部13はその操作結果を被操作仮想物体に対して反映させる。
また、この仮想空間には「スタイラス41bを示すポインタ」が配置される。このポインタについては後述する。
そして、画像生成部13は仮想空間の画像を生成すると、これを画像合成部15aに出力する。
画像合成部15aは、画像入力部12を介して入力される「右目用カメラにより撮像された現実空間の画像」上に、画像生成部13から入力される「右目用カメラから見える仮想空間の画像」を重畳させることで、「右目用カメラから見える複合現実空間の画像(右目用複合現実空間画像)」を生成すると共に、画像入力部12を介して入力される「左目用カメラにより撮像された現実空間の画像」上に、画像生成部13から入力される「左目用カメラから見える仮想空間の画像」を重畳させることで、「左目用カメラから見える複合現実空間の画像(左目用複合現実空間画像)」を生成する。
そして生成した左目用複合現実空間画像を表示器23aの左目用表示器に出力すると共に、右目用複合現実空間画像を表示器23aの右目用表示器に出力する。これにより、左目用表示器には左目用カメラから見える複合現実空間の画像が表示されるし、右目用表示器には右目用カメラから見える複合現実空間の画像が表示される。
また、それぞれの画像(左目用複合現実空間画像、右目用複合現実空間画像)は映像符号化部32aでもって圧縮符号化され、映像送信部33aによって指示者用複合現実感装置10bに送信される。なお、この圧縮符号化の方法については特に限定するものではないが、指示者用複合現実感装置10b側に備わっている映像復号化部32bによる復号方法に対応したものを用いる必要がある。
音声符号復号化部34aにはマイクロフォン28aを介して入力される作業者の音声信号が入力されるので、これを指示者用複合現実感装置10b側に送信すべく圧縮符号化し、音声送受信部35aによって指示者用複合現実感装置10bに送信する。また指示者用複合現実感装置10b側からも指示者の音声信号が圧縮符号化して送信されてくるので、音声送受信部35aはこれを受けて音声符号復号化部34aに入力するので、音声符号復号化部34aはこれを復号し、音声信号としてスピーカ27aに出力する。
これにより、作業者はマイクロフォン28aに自身の音声を入力すると、入力された音声は指示者用複合現実感装置10b側に送信することができるし、指示者の音声はスピーカ27aを介して聞くことができるので、作業者と指示者とで会話をすることができる。
次に、指示者用HMD20bについて説明する。指示者用HMD20bには3次元位置姿勢センサ21b、表示器23bが備わっており、それぞれは作業者用HMD20aに備わっている3次元位置姿勢センサ21a、表示器23aと同様のものである。即ち、指示者用HMD20bには現実空間を撮像するカメラは備わっていない。
次に、指示者用複合現実感装置10bについて説明する。作業者用複合現実感装置10aには音声符号復号化部34b、音声送受信部35b、映像復号化部32b、映像受信部33b、位置姿勢計測部11b、スタイラス情報送信部31bが備わっている。
位置姿勢計測部11bは作業者用複合現実感装置10a側の位置姿勢計測部11aと同様の動作を行い、3次元位置姿勢センサ21bからの信号とスタイラス41bに備わっている磁気センサからの信号とを受け、これらの信号を「世界座標系における3次元位置姿勢センサ21bの位置姿勢を示すデータ」、「世界座標系におけるスタイラス41bの位置姿勢を示すデータ」として取得するのであるが、これらを用いて、「3次元位置姿勢センサ21bとスタイラス41bとの位置姿勢関係」を求める。また、位置姿勢計測部11bには、スタイラス41bに備わっているボタンが押下されているのかを示す信号がスタイラス41bから入力されるので、これをデータとして取得する。
そしてスタイラス情報送信部31bは、「スタイラス41bのボタンが押下されたかを示すデータ」と「3次元位置姿勢センサ21bとスタイラス41bとの位置姿勢関係」とをセットにしてスタイラス情報として作業者用複合現実感装置10a側のスタイラス情報受信部31aに出力する。
音声符号復号化部34bは作業者用複合現実感装置10a側の音声符号復号化部34aと同様のものであり、マイクロフォン28bを介して入力される指示者の音声信号が入力されるので、これを作業者用複合現実感装置10a側に送信すべく圧縮符号化し、音声送受信部35bによって作業者用複合現実感装置10aに送信する。また作業者用複合現実感装置10a側からも作業者の音声信号が圧縮符号化して送信されてくるので、音声送受信部35bはこれを受けて音声符号復号化部34bに入力するので、音声符号復号化部34bはこれを復号し、音声信号としてスピーカ27bに出力する。
これにより、指示者はマイクロフォン28bに自身の音声を入力すると、入力された音声は作業者用複合現実感装置10a側に送信することができるし、作業者の音声はスピーカ27bを介して聞くことができるので、作業者と指示者とで会話をすることができる。
映像受信部33bには、作業者用複合現実感装置10a側の映像送信部33aによって送信された左目用複合現実空間画像、右目用複合現実空間画像が圧縮符号化された形式でもって受信されるので、映像復号化部32bはこれを左目用複合現実空間画像、右目用複合現実空間画像として復号し、左目用複合現実空間画像は表示器23bのうち左目用表示器に出力し、右目用複合現実空間画像は表示器23bのうち右目用表示器に出力する。
よって指示者は作業者と同じ画像をHMD20bを介して見ることになる。
<環境>
次に、作業者と指示者とが存在する空間の環境について説明する。図2(a)は、作業者が仮想物体を操作して作業を行っている空間を示す図で、同空間では作業者40が手にスタイラス41aを保持して仮想物体43に対して操作を行っている。作業者40は頭部にHMD20aを装着しているので、作業者40はこのHMD20aを介して眼前に仮想物体43を見ることができる。同図において42は現実物体で、仮想物体43はこの現実物体42を模したものである。
同図に示した空間には、同図に示す如く、所定の1点を原点とし、この原点で互いに直交する3軸をそれぞれx軸、y軸、z軸とする世界座標系が設定されており、同空間内の各位置はこの世界座標系における座標値でもって表現することができる。よって仮想物体43の位置は世界座標系における座標値でもって表現することができる。そして、仮想物体43の位置や姿勢はスタイラス41aでもって変更することができる。スタイラス41aを用いた仮想物体の操作方法については後述する。41cはスタイラス41aの位置を示す仮想物体としてのポインタで、実物体のスタイラス41aに重畳されて表示されていることを示している。
ここで、仮想物体43は作業者だけでなく、指示者によっても操作することができる。指示者はスタイラス41bを操作して仮想物体43を同様に操作することができる。同図において41dはスタイラス41bの位置を示す仮想物体としてのポインタで、これについては図2(b)を用いて説明する。
図2(b)は指示者が存在する空間を示す図である。指示者は遠隔から仮想物体43を操作するのであるが、指示者50は手にスタイラス41bを保持しており、これを用いて仮想物体43を操作する。
指示者50は頭部にHMD20bを装着しており、上述の通り、このHMD20bの表示器23bにはHMD20aの表示器23aに表示されたものと同じものが表示される。200は表示器23a、23bに表示される画像で、この画像200には作業者の視点から見える複合現実空間、即ち現実物体42、仮想物体43、スタイラス41a、そしてポインタ41dが写っている。
指示者50はスタイラス41bの位置姿勢を変更すると、当然、指示者50の視点とスタイラス41bとの位置姿勢関係は変わる。よって、図2(a)に示した空間におけるポインタ41dの配置位置姿勢は、指示者50の視点とスタイラス41bとの相対的位置姿勢関係が、作業者40の視点を基準とした位置姿勢関係と同じになるように決定される。
これにより、作業者40、指示者50の双方は、視点を共有しているので、それぞれが自分の視点から見える複合現実空間内で操作したものを相手にも同じ視点でもって見せることができる。
<仮想物体の操作方法>
上述の通り、仮想物体は作業者、指示者が手に保持しているスタイラスでもって操作することができるのであるが、例えば、スタイラスの先を操作対象の仮想物体に触れるまで移動させ、触れた状態でスタイラスに備わっているボタンを押下する。これにより、仮想物体保持モードとなるので、以降はスタイラスの位置や姿勢を変更すると、それに追従して操作対象の仮想物体の位置姿勢も変化する(例えば操作対象の仮想物体をスタイラスの位置姿勢に配置する)。仮想物体保持モード中にスタイラスに備わっているボタンを押下すると、仮想物体保持モードは解除され、以降はスタイラスの位置姿勢を変更しても、仮想物体の位置姿勢は変わらない。
<作業者用複合現実感装置10aが行う処理>
次に、作業者用複合現実感装置10aが行う処理について、同処理のフローチャートを示す図3を用いて説明する。
先ず、本装置の初期化処理を行う(ステップS100)。この初期化処理では。仮想物体情報管理部16が管理する後述のテーブルの初期化や、仮想空間を構成する仮想物体の配置等がある。
次に、指示者用複合現実感装置10bとのネットワーク接続を開始し、互いにデータ通信が可能な状態にする(ステップS110)。
次に、指示者用複合現実感装置10bとの音声通信を開始し、互いに音声信号の通信が可能な状態にする(ステップS120)。
次に、カメラ22(左目用カメラ、右目用カメラ)により左目用の現実空間の画像、右目用の現実空間の画像を撮像するので、画像入力部12はこれら2つの撮像画像を受け、これを後段の画像合成部15aに出力する(ステップS130)。なお、画像合成部15aは左目用の現実空間の画像、右目用の現実空間の画像をそれぞれ別個に保持する。
次に、3次元位置姿勢センサ21aは自身の世界座標系における位置姿勢に応じた磁気の変化を計測し、計測した結果を示す信号を位置姿勢計測部11aに出力するので、位置姿勢計測部11aはこの信号をデータとして取得する(ステップS140)。このデータは上述の通り、世界座標系における3次元位置姿勢センサ21aの位置姿勢を示すデータであるが、このデータは6パラメータ(x、y、z、α、β、γ)の組としてのデータである。ここでαはx軸周りの回転角度、βはy軸周りの回転角度、γはz軸周りの回転角度を示す。
次に、スタイラス41aに備わっている磁気センサは自身の世界座標系における位置姿勢に応じた磁気変化を計測し、計測した結果を示す信号を位置姿勢計測部11aに出力するので、位置姿勢計測部11aはこの信号をデータとして取得する(ステップS150)。このデータもまた上述の6パラメータの組としてのデータである。
なお、ステップS140,S150で位置姿勢計測部11aが取得したデータ群は仮想物体情報管理部16に出力される。
次に、スタイラス情報受信部31aは、指示者用複合現実感装置10bから送信されたスタイラス情報を受信するので、仮想物体情報管理部16は、このスタイラス情報中の「3次元位置姿勢センサ21bと指示者が使用するスタイラス41bとの位置姿勢関係を示すデータ」を取得する(ステップS160)。
次に、仮想物体情報管理部16は、作業者が仮想物体を操作中であるのか否か、即ち、仮想物体保持モード中であるのか否かを判断する(ステップS170)。仮想物体保持モード中である場合には処理をステップS170を介してステップS180に進め、仮想物体保持モード中ではない場合には処理をステップS170を介してステップS190に進める。
仮想物体保持モード中であるのか否かは、図11に示すテーブルを参照する。図11は、作業者、指示者が仮想物体を操作中であるのか、操作しているのであればどの仮想物体を操作中であるのかといったことを示す情報が登録されたテーブルの構成例を示す図である。同図のテーブルにおいて作業者操作物IDは作業者が操作中である仮想物体に固有のコードを示すものである。同図では作業者操作物IDは「null」となっており、現在作業者はどの仮想物体も操作していないことを示す。一方、指示者操作物IDは指示者が操作中である仮想物体に固有のコードを示すものである。同図では指示者操作物IDは「仮想物体C」となっており、現在指示者は仮想物体Cを操作中であることを示している。
よって、同図のテーブルを参照すれば、ステップS170において、作業者が仮想物体を操作中であるのか否かを判断することができる。
そして現在作業者が仮想物体を操作中である場合には、画像生成部13はステップS150で取得した「作業者が操作するスタイラス41aの世界座標系における位置姿勢を示すデータ」を用いて、スタイラス41aの位置姿勢に操作対象の仮想物体(作業者操作物IDで特定される仮想物体)を配置すると共に、その結果を仮想物体シーングラフの形式で仮想物体情報管理部16に登録する(ステップS180)。
なお、同図のフローチャートでは示していないが、現在指示者が仮想物体を操作中である場合には、画像生成部13は現在のポインタの位置姿勢に操作対象の仮想物体(指示者操作物IDで特定される仮想物体)を配置すると共に、その結果を仮想物体シーングラフの形式で仮想物体情報管理部16に登録する。
次に、作業者の視点、即ち、カメラ22における左目用カメラ、右目用カメラの世界座標系における位置姿勢を求める(ステップS190)。これは、ステップS140で取得した「世界座標系における3次元位置姿勢センサ21aの位置姿勢を示すデータ」と上記バイアスデータとを用いて、左目用カメラの世界座標系における位置姿勢、右目用カメラの世界座標系における位置姿勢を求める。
次に、画像生成部13は、スタイラス41aやスタイラス41bによる操作結果を反映した仮想物体シーングラフに従った各仮想物体が配置され、且つスタイラス41aとスタイラス41bの位置姿勢を示すポインタが配置された仮想空間を、左目用カメラから見た場合に見える画像、右目用カメラから見た場合に見える画像を生成する(ステップS200)。
ポインタ41dの配置については、ステップS160で取得した位置姿勢関係を示すデータを用いて、配置したポインタと作業者の視点との位置姿勢関係が、指示者の視点とスタイラス41bとの位置姿勢関係と同じになるように、ポインタを仮想空間中に配置する。
また、左目用カメラ、右目用カメラの世界座標系における位置姿勢はステップS190で求めたデータを用いて特定されるので、所定の位置姿勢を有する視点から見える仮想空間の画像を生成するという従来技術を用いれば、それぞれのカメラから見える仮想空間の画像を生成することができる。
そして次に、画像合成部15aは、画像入力部12を介して入力される「右目用カメラにより撮像された現実空間の画像」上に、画像生成部13から入力される「右目用カメラから見える仮想空間の画像」を重畳させることで右目用複合現実空間画像を生成して表示器23aの右目用表示器に出力すると共に、画像入力部12を介して入力される「左目用カメラにより撮像された現実空間の画像」上に、画像生成部13から入力される「左目用カメラから見える仮想空間の画像」を重畳させることで左目用複合現実空間画像を生成して表示器23aの左目用表示器に出力する(ステップS210)。これにより、表示器23aに左目用複合現実空間画像、右目用複合現実空間画像を表示することができる。
次に、これら2つの画像(左目用複合現実空間画像、右目用複合現実空間画像)を映像符号化部32aによって圧縮符号化し、映像送信部33aでもって指示者用複合現実感装置10bに送信する(ステップS220)。
次に、本装置に処理終了の旨の指示が入力されていない限りは処理をステップS230を介してステップS130に戻し、以降の処理を繰り返すのであるが、入力された場合には処理をステップS230を介してステップS240に進め、ステップS120で確立したネットワーク接続を切断し(ステップS240)、ステップS110で確立したネットワーク接続を切断する(ステップS250)。
<指示者用複合現実感装置10bが行う処理>
次に、指示者用複合現実感装置10bが行う処理について、同処理のフローチャートを示す図4を用いて説明する。
先ず、本装置の初期化処理を行う(ステップS300)。
次に、作業者用複合現実感装置10aとのネットワーク接続を開始し、互いにデータ通信が可能な状態にする(ステップS310)。
次に、作業者用複合現実感装置10aとの音声通信を開始し、互いに音声信号の通信が可能な状態にする(ステップS320)。
次に、位置姿勢計測部11bは、3次元位置姿勢センサ21bからの信号とスタイラス41bに備わっている磁気センサからの信号とを受け、これらの信号を「世界座標系における3次元位置姿勢センサ21bの位置姿勢を示すデータ」、「世界座標系におけるスタイラス41bの位置姿勢を示すデータ」として取得するのであるが、これらを用いて、「3次元位置姿勢センサ21bとスタイラス41bとの位置姿勢関係」(指示者スタイラス相対位置)を求める(ステップS330)。
ステップS330における処理をより具体的に説明すると、「世界座標系におけるスタイラス41bの位置Xdwを「世界座標系における3次元位置姿勢センサ21bの位置姿勢」を基準にした座標系すなわちカメラ座標系における位置Xdcで表せばよい。これはCG技術で公知のビューイング変換と呼ばれる座標変換で、世界座標のデータXdwにビューイング変換行列Mwoncを乗じて(Xdc=MwoncXdw)求められる。特開2003-279310などにビューイング変換処理が記されているので詳細な説明は省略する。
そして求めた指示者スタイラス相対位置のデータXdcをスタイラス情報受信部31bでもって作業者用複合現実感装置10aに送信する(ステップS340)。
次に、映像受信部33bは作業者用複合現実感装置10aから送信された圧縮符号化済みの左目用複合現実空間画像、右目用複合現実空間画像を受信し、映像復号化部32bに出力する(ステップS350)。映像復号化部32bはこれらを復号してそれぞれ表示器23bの左目用表示器、右目用表示器に出力する(ステップS360)。
次に、本装置に処理終了の旨の指示が入力された場合には処理をステップS370を介してステップS400に進め、ステップS320で確立したネットワーク接続を切断し(ステップS400)、ステップS310で確立したネットワーク接続を切断する(ステップS410)。
一方、本装置に処理週の旨の指示が入力されていない場合には処理をステップS370を介してステップS380に進め、位置姿勢計測部11bにスタイラス41bに備わっているボタンが押下されている旨の信号が入力されている場合には処理をステップS390に進め、スタイラス情報受信部31bは押下されている旨のデータをイベントとして作業者用複合現実感装置10aに送信する(ステップS390)。
<作業者用複合現実感装置10a側のデータ受信処理>
次に、作業者用複合現実感装置10aが指示者用複合現実感装置10bから送信されたデータ(スタイラス情報)の受信処理(受信イベント処理)について、同処理のフローチャートを示す図5を用いて説明する。同図のフローチャートに従った処理は図3のフローチャートに従った処理とは別個にバックグランドで実行されるものである。
先ず、受信したイベントの種類によって処理が分岐する。
<受信したイベントが指示者スタイラス相対位置である場合>
受信したイベントが指示者スタイラス相対位置である場合にはステップS500,S510の処理を実行する。
先ず、スタイラス情報受信部31aが指示者スタイラス相対位置Xdcを受信すると、画像生成部13は、このXdcを作業者の視点(カメラ22における左目用カメラ、右目用カメラ)であるカメラ座標系(xw,yw,zw,αw,βw,γw)の値として、作業者が存在する空間中に配置するために作業者世界座標系のデータXwに変換する。このためXdcに対してステップS330で行なわれたビューイング変換の逆変換を行なうことにより、作業者世界座標系でのデータに変換できる。式で表すとXw=MconwXdc=Mwonc -1Xdcとなる。ここでMconwはビューイング変換の逆変換を行なう行列で、ビューイング変換行列の逆行列Mwonc-1に等しい。この処理も特開2003-279310など公知の技術によって実現される。(ステップS500)。
そしてステップS500で求めた位置姿勢を示すデータを各種の目的に使用するために、仮想物体情報管理部16に格納しておく(ステップS510)。
<受信したイベントがスタイラス41bに備わっているボタンが押下されたことを示すデータである場合>
受信したイベントがスタイラス41bに備わっているボタンが押下されたことを示すデータである場合にはステップS511〜S570の処理を行う。
先ず、ステップS500と同様に、作業者が存在する空間中に配置される「スタイラス41aの位置姿勢を示すポインタ」の位置姿勢を求める(ステップS511)。
次に、図11に示したテーブルを参照して、指示者操作物IDがNULLであるのか否か、即ち、指示者が仮想物体を操作中であるのかを判断し(ステップS520)、操作中である場合には処理をステップS530に進め、仮想物体保持モードを解除すべく、指示者操作物IDをNULLにクリアする(ステップS530)。
一方、操作中ではない場合には処理をステップS540に進め、ステップS511で求めた「現在のポインタの位置姿勢を示すデータ」を用いて、現在のポインタの位置と、仮想物体との距離を計算する(ステップS540)。なお、仮想空間中に複数の仮想物体が存在する場合にはそれぞれの仮想物体との距離を計算する。
そして、ポインタとの距離が所定値以下の仮想物体が存在すれば(ポインタとの距離が所定値以下の仮想物体が複数存在すれば、ポインタとの距離が最も短いものを選ぶ)、処理をステップS550を介してステップS560に進め、ステップS550で特定された「ポインタに最も近い仮想物体」固有のIDと、図11に示したテーブルにおいて作業者操作物IDとが同じものではない場合には処理をステップS560を介してステップS570に進め、指示者操作物IDに、ステップS550で特定された「ポインタに最も近い仮想物体」固有のIDを登録する。
<受信したイベントが上述の何れでもない場合>
受信したイベントが上述の何れでもない、所謂「その他のイベント」である場合にはステップS590における処理、即ち、そのイベントに応じた処理を行う(ステップS590)。
<スタイラス41aが押下されたときの作業者用複合現実感装置10aが行う処理>
スタイラス41aに備わっているボタンが押下された場合に作業者用複合現実感装置10aが行う処理について、同処理のフローチャートを示す図6を用いて説明する。同図のフローチャートに従った処理は図3のフローチャートに従った処理とは別個にバックグランドで実行されるものである。
先ず、図11に示したテーブルを参照して、作業者操作物IDがNULLであるのか否か、即ち、作業者が仮想物体を操作中であるのかを判断し(ステップS600)、操作中である場合には処理をステップS610に進め、仮想物体保持モードを解除すべく、作業者操作物IDをNULLにクリアする(ステップS610)。
一方、操作中ではない場合には処理をステップS620に進め、「現在のスタイラス41aの世界座標系における位置姿勢を示すデータ」を用いて、現在のスタイラス41aの位置と、仮想物体との距離を計算する(ステップS620)。なお、仮想空間中に複数の仮想物体が存在する場合にはそれぞれの仮想物体との距離を計算する。
そして、スタイラス41aとの距離が所定値以下の仮想物体が存在すれば(スタイラス41aとの距離が所定値以下の仮想物体が複数存在すれば、スタイラス41aとの距離が最も短いものを選ぶ)、処理をステップS630を介してステップS640に進め、ステップS630で特定された「スタイラス41aに最も近い仮想物体」固有のIDと、図11に示したテーブルにおいて指示者操作物IDとが同じものではない場合には処理をステップS640を介してステップS650に進め、作業者操作物IDに、ステップS630で特定された「スタイラス41aに最も近い仮想物体」固有のIDを登録する。
なお、上述の通り、図5に示したフローチャートに従った処理、図6に示したフローチャートに従った処理はそれぞれ別プロセス(あるいはスレッド)で動作しており、それぞれ個別に図11に示したテーブルを参照するので、テーブルの書き換え時には他のプロセス(あるいはスレッド)からアクセスされないようにする。このようにして仮想物体それぞれに対する操作権の管理を行なうことができる。
以上の説明により、本実施形態によって、作業者が観察している複合現実空間画像を遠隔地にいる指示者へ伝送し、指示者がこの画像を観察しながら作業者の空間をシームレスに知覚するとともに作業者に対して様々な三次元的な作業指示を行なえるようになり、遠隔からの作業者への作業支援や作業教育などにおいて利便性を提供することができる。
なお、本実施形態では用いたセンサは全て磁気センサとして説明したが、光学式センサや超音波センサなどのセンサを用いるようにしても良い。
また、本実施形態では作業者、指示者は共に自身の頭部にHMDを装着していたが、HMDの代わりに、立体視ディスプレイを用いても良い。偏光式や液晶シャッター式の場合には指示者はHMDの替わりに偏光メガネや液晶シャッターメガネを装着するが、レンチキュラー方式など裸眼で立体視が観察可能な場合にはこれらのメガネは必要ない。またいずれの場合にも頭部の位置姿勢を計測する必要があるので3次元位置姿勢センサは装着する必要がある。
また、本実施形態では、作業者用複合現実感装置10aと指示者用複合現実感装置10bとのネットワーク接続が確立すれば、作業者用複合現実感装置10aと指示者用複合現実感装置10bとは常にデータ通信を行うようにしているが、この通信を行う/行わないを作業者側、若しくは指示者側で切り替えるようにしても良い。
[第2の実施形態]
第1の実施形態ではスタイラス41bの位置姿勢を示すポインタを、3次元位置姿勢センサ21bとスタイラス41bとの相対位置姿勢関係を、作業者の視点からの相対位置姿勢関係に変換した位置姿勢に配置していた。これにより、あたかも自分の視点から手を延ばしてポインティングしているような感覚が得られるが、作業者が頭部の位置姿勢を変化させるとそれに合わせてポインタの位置も移動してしまう。そのため指示者の意図しない部分にポインタが移動するという欠点が生じる可能性がある。
本実施形態ではこのような問題に対処する為に、指示者側でも世界座標系を設定する。図7(a)は作業者が存在する空間を示す図、図7(b)は指示者が存在する空間を示す図である。図7(b)に示す如く、指示者が存在する空間に作業者の世界座標系に対応するような世界座標系を設定する。
よって、本実施形態では、指示者用複合現実感装置10bは、図4に示したフローチャートに従った処理を行うのであるが、ステップS330では、位置姿勢計測部11bは、スタイラス41bに備わっている磁気センサからの信号を受け、この信号を「指示者が存在する空間中に設定された世界座標系におけるスタイラス41bの位置姿勢」を示すデータとして取得し、ステップS340では、このデータを作業者用複合現実感装置10aに対して送信する。
また、作業者用複合現実感装置10aが行う処理については基本的には第1の実施形態と同じであるが、ポインタは、上記ステップS340で送信した位置姿勢でもって配置される。これにより、作業者の頭の動きにかかわらず指示者は同じ位置をポインタで指し示すことができる。
[第3の実施形態]
上述の実施形態では、仮想空間の画像は常に現実空間の画像上に重畳される。よって仮想物体の画像は常に現実物体の手前側に描画されることになる。しかし観察者(作業者、指示者)の視点から見て、現実物体の向こう側に仮想物体(ポインタを含む)が位置する場合、本来ならば仮想物体が現実物体に隠蔽されるところが、上述の処理に起因して、現実物体の手前に仮想物体が描画され、見た目に不具合が生じる。本実施形態では、このような問題に対処するために、予め、現実物体は画像認識技術を用いて認識されているか、形状が各種センサを用いて計測されているかなどの方法により、その3Dモデルがあらかじめ既知であるとする。
図8は、本実施形態に係るシステムの機能構成を示すブロック図である。本実施形態に係るシステムは図1に示した第1の実施形態に係るシステムの構成に3次元位置姿勢センサ45を付加した構成となっている。更に、この3次元位置姿勢センサ45は位置姿勢計測部11aに接続されている。
この3次元位置姿勢センサ45はその他のセンサと同様に磁気センサであり、現実物体の世界座標系における位置姿勢を計測するものである。
先ず、このような構成を有するシステムを構成する作業者用複合現実感装置10aが行う処理について図3のフローチャートを用いて説明する。本実施形態に係る作業者用複合現実感装置10aは基本的には図3のフローチャートに従った処理を行うのであるが、更に、ステップS150では、位置姿勢計測部11aは、3次元位置姿勢センサ45が計測した結果の信号を受け、これをデータとして取得する。取得したデータは上述の通り、世界座標系における現実物体の位置姿勢を示すデータである。このデータは前述したスタイラスデータと同じ6パラメータの組である。
上述の通り、この現実物体の3次元モデルは既に得られていえるので、ステップS150で取得したデータとこの3次元モデルとを世界座標の中にシーングラフとして格納することができる。
そしてステップS200で仮想物体を描画する際には、現実物体との隠蔽関係に基づいて描画する。ここではこの描画に隠面消去処理を用いる。
CGシステムの隠面消去で多く用いられているのがZバッファ法である。Zバッファは表示装置と同じ解像度からなる2次元配列のバッファで、画素ごとの奥行き情報が格納される。
Zバッファを用いて全ての仮想物体を構成するポリゴンについて、視点位置からの透視投影変換を行なって走査変換したそれぞれの画素について奥行き情報であるZ値を求め、既にZバッファに格納されているZ値より小さければ、その画素は最前面にあるのでその画素のZ値を新たにZバッファに格納しその画素の色を対応するフレームバッファに書き込む処理を繰り返していく。
このZバッファ法を基にしたステップS200における隠面処理を用いた仮想物体の描画処理を、同処理のフローチャートを示す図9を用いて説明する。
先ず、現実物体の3次元モデル(現実物体モデル)、ポインタ、その他の仮想物体などすべての走査変換を行い、全ての画素について表示画面に対応するフレームバッファである画像合成部15のバッファ位置との対応付けする走査変換を行なう(ステップS204)。
なお、ステップS204における処理が実行される前に、ステップS130で画像合成部15にはカメラ22からの撮像画像が入力されており、Zバッファには最遠点の値が入っている。
次に、現実物体モデルの画素に対してZ値を求め、Zバッファの値と比較して既にZバッファに格納されているZ値より小さければZ値を新たにZバッファに格納するが、その画素の色を対応するフレームバッファに書き込む処理を省略する(ステップS206)。その結果、Z値は書き換えられるがフレームバッファの内容は書き換えられない。すなわちZバッファに格納されている奥行き値の部分に透明な物体が存在することになる。
次に、ポインタ、その他の仮想物体などについてこれらを構成する全ての画素についてZ値を求め、Zバッファの値と比較して既にZバッファに格納されているZ値より小さければZ値を新たにZバッファに格納して、その画素の色を対応するフレームバッファに書き込む処理を行ない(ステップS208)、隠面処理を終了する。
以上の処理によって作業者/指示者のポインタは作業者複合現実空間にある実物体/仮想物体ともに矛盾なくかつシームレスに指し示すことができるようになる。
[第4の実施形態]
作業者用複合現実感装置10a、指示者用複合現実感装置10bは一般のPC(パーソナルコンピュータ)やWS(ワークステーション)等のコンピュータでもって実行することができる。
図10は、作業者用複合現実感装置10a、指示者用複合現実感装置10bに適用可能なコンピュータのハードウェア構成を示すブロック図である。なお、ここでは説明を簡単にする為に、作業者用複合現実感装置10aと指示者用複合現実感装置10bとで同じ構成を有するコンピュータを用いるものとして説明するが、それぞれに異なる構成を有するコンピュータを適用しても良いことはいうまでもない。
同図において1001はCPUで、RAM1102やROM1003に格納されているプログラムやデータを用いて本コンピュータ全体の制御を行うと共に、本コンピュータを適用した装置が行う処理(例えば上述の各フローチャートに従った処理)を実行する。
1002はRAMで、外部記憶装置1006からロードされたプログラムやデータを一時的に記憶するためのエリア、I/F1007を介して送受信されるデータを一時的に記憶するためのエリア、CPU1001が各種の処理を実行する際に用いるワークエリアなどて適宜提供することができる。
1003はROMで、本コンピュータを適用した装置の設定データや、ブートプログラムなどを格納する。
1004は表示部で、CRTや液晶画面などにより構成されており、CPU1001による処理結果を画像や文字などでもって表示することができる。
1005は操作部で、キーボードやマウスなどにより構成されており、各種の指示をCPU1001に対して入力することができる。なお、上述の各処理において装置に入力すべき指示はこの操作部1005を用いて入力される。
1006は外部記憶装置で、ハードディスクドライブ装置などに代表される大容量情報記憶装置であって、ここにOS(オペレーティングシステム)や、本コンピュータを適用した装置が行うべき上述の各処理をCPU1001に実行させるためのプログラムやデータが保存されており、これらの一部若しくは全部はCPU1001による制御に従って適宜RAM1102にロードされ、CPU1001による処理対象となる。
例えば本コンピュータを第1の実施形態に係る作業者用複合現実感装置10aに適用した場合には、図1において作業者用複合現実感装置10aを構成する各部のそれぞれの機能をCPU1001に実行させるためのプログラムやデータが外部記憶装置1006に保存されているし、本コンピュータを第1の実施形態に係る指示者用複合現実感装置10bに適用した場合には、図1において指示者用複合現実感装置10bを構成する各部のそれぞれの機能をCPU1001に実行させるためのプログラムやデータが外部記憶装置1006に保存されている。また、本コンピュータを第3の実施形態に係る作業者用複合現実感装置10aに適用した場合には、図8において作業者用複合現実感装置10aを構成する各部のそれぞれの機能をCPU1001に実行させるためのプログラムやデータが外部記憶装置1006に保存されているし、本コンピュータを第3の実施形態に係る指示者用複合現実感装置10bに適用した場合には、図8において指示者用複合現実感装置10bを構成する各部のそれぞれの機能をCPU1001に実行させるためのプログラムやデータが外部記憶装置1006に保存されている。
1007はI/Fで、本コンピュータを適用した装置に接続すべきハードウェアがここに接続される。例えば本コンピュータを第1の実施形態に係る作業者用複合現実感装置10aに適用した場合には、HMD20a、マイクロフォン28a、スタイラス41aがこのI/F1007に接続されるし、本コンピュータを第1の実施形態に係る指示者用複合現実感装置10bに適用した場合には、HMD20b、マイクロフォン28b、スタイラス41bがこのI/F1007に接続される。本コンピュータを第3の実施形態に係る作業者用複合現実感装置10aに適用した場合には、更に、3次元位置姿勢センサ45がこのI/F1007に接続される。なお、ここでは様々なデバイスを1つのI/Fに接続するとしたが、デバイス毎に別個にI/Fを設けるようにしても良い。
1008はスピーカで、本コンピュータを作業者用複合現実感装置10aに適用した場合にはこのスピーカ1008はスピーカ27aに相当するし、本コンピュータを指示者用複合現実感装置10bに適用した場合にはこのスピーカ1008はスピーカ27bに相当する。
1009はNIC(ネットワークインターフェース)で、本コンピュータをネットワークに接続するためのものである。よって本コンピュータを作業者用複合現実感装置10a、指示者用複合現実感装置10bに適用した場合には、それぞれのコンピュータはこのNIC1009を介してデータ通信を行うことになる。
1010は上述の各部を繋ぐバスである。
[その他の実施形態]
また、本発明の目的は、前述した実施形態の機能を実現するソフトウェアのプログラムコードを記録した記録媒体(または記憶媒体)を、システムあるいは装置に供給し、そのシステムあるいは装置のコンピュータ(またはCPUやMPU)が記録媒体に格納されたプログラムコードを読み出し実行することによっても、達成されることは言うまでもない。この場合、記録媒体から読み出されたプログラムコード自体が前述した実施形態の機能を実現することになり、そのプログラムコードを記録した記録媒体は本発明を構成することになる。
また、コンピュータが読み出したプログラムコードを実行することにより、前述した実施形態の機能が実現されるだけでなく、そのプログラムコードの指示に基づき、コンピュータ上で稼働しているオペレーティングシステム(OS)などが実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。
さらに、記録媒体から読み出されたプログラムコードが、コンピュータに挿入された機能拡張カードやコンピュータに接続された機能拡張ユニットに備わるメモリに書込まれた後、そのプログラムコードの指示に基づき、その機能拡張カードや機能拡張ユニットに備わるCPUなどが実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。
本発明を上記記録媒体に適用する場合、その記録媒体には、先に説明したフローチャートに対応するプログラムコードが格納されることになる。
本発明の第1の実施形態に係るシステムの機能構成を示すブロック図である。 (a)は、作業者が仮想物体を操作して作業を行っている空間を示す図、指示者が存在する空間を示す図である。 作業者用複合現実感装置10aが行う処理のフローチャートである。 指示者用複合現実感装置10bが行う処理のフローチャートである。 作業者用複合現実感装置10aが指示者用複合現実感装置10bから送信されたデータ(スタイラス情報)の受信処理(受信イベント処理)のフローチャートである。 スタイラス41aに備わっているボタンが押下された場合に作業者用複合現実感装置10aが行う処理のフローチャートである。 (a)は作業者が存在する空間を示す図、(b)は指示者が存在する空間を示す図である。 本発明の第3の実施形態に係るシステムの機能構成を示すブロック図である。 Zバッファ法を基にしたステップS200における隠面処理を用いた仮想物体の描画処理のフローチャートである。 作業者用複合現実感装置10a、指示者用複合現実感装置10bに適用可能なコンピュータのハードウェア構成を示すブロック図である。 作業者、指示者が仮想物体を操作中であるのか、操作しているのであればどの仮想物体を操作中であるのかといったことを示す情報が登録されたテーブルの構成例を示す図である。

Claims (9)

  1. 第1の観察者の視点の位置姿勢を取得する第1の取得手段と、
    前記第1の取得手段が取得した位置姿勢を有する視点から見える仮想空間の画像を生成する生成手段と、
    前記第1の観察者が仮想物体を操作するために使用する第1の操作手段と、
    前記第1の観察者が前記仮想物体に対して行う操作を遠隔支援する第2の観察者が前記仮想物体を操作するために使用する第2の操作手段と、
    前記視点から見える現実空間の画像を取得する第2の取得手段と、
    前記第2の取得手段が取得した画像上に前記生成手段が生成した画像を重畳させて、前記第1の観察者が装着する頭部装着型表示装置、前記第2の観察者が装着する頭部装着型表示装置に出力する出力手段とを備え、
    前記生成手段は、前記第1の操作手段、前記第2の操作手段による操作結果が反映された前記仮想空間の画像を生成することを特徴とするシステム。
  2. 更に、前記第2の操作手段を示す仮想物体を、当該仮想物体と前記第1の観察者の視点との位置姿勢関係が、前記第2の操作者の視点と前記第2の操作手段との位置姿勢関係と略同じになるように前記仮想空間中に配置する配置手段を備えることを特徴とする請求項1に記載のシステム。
  3. 更に、前記第2の観察者が存在する空間内で定義された座標系における前記第2の操作手段の位置姿勢でもって、前記第2の操作手段を示す仮想物体を前記第1の観察者が存在する空間中に配置する配置手段を備えることを特徴とする請求項1に記載のシステム。
  4. 前記第1の操作手段、前記第2の操作手段はそれぞれ前記第1の観察者、前記第2の観察者が手に保持するスタイラスであることを特徴とする請求項1に記載のシステム。
  5. 第1の観察者の視点の位置姿勢を取得する第1の取得手段と、
    前記第1の取得手段が取得した位置姿勢を有する視点から見える仮想空間の画像を生成する生成手段と、
    前記視点から見える現実空間の画像を取得する第2の取得手段と、
    前記第2の取得手段が取得した画像上に前記生成手段が生成した画像を重畳させて、前記第1の観察者が装着する頭部装着型表示装置、前記第1の観察者が前記仮想物体に対して行う操作を遠隔支援する第2の観察者が装着する頭部装着型表示装置に出力する出力手段とを備え、
    前記生成手段は、前記第1の観察者が仮想物体を操作するために使用する第1の操作手段、前記第2の観察者が前記仮想物体を操作するために使用する第2の操作手段による操作結果が反映された前記仮想空間の画像を生成することを特徴とする画像処理装置。
  6. 現実画像と仮想物体を示す仮想画像を合成した立体視合成画像を生成する情報処理方法であって、
    第1の観察者の視点からの右目用および左目用の現実画像を取得し、
    前記第1の観察者の視点の位置姿勢を取得し、
    前記第1の観察者が仮想物体を操作するための第1の指示部の位置姿勢を取得し、
    第2の観察者が前記仮想物体を操作するための前記第2の指示部の位置姿勢を取得し、
    前記第1または前記第2の指示部の位置姿勢に基づき、前記仮想物体の情報を制御し、
    前記制御された仮想物体の情報に基づき、前記第1の観察者の視点の位置姿勢に応じた右目用および左目用の仮想画像を生成し、
    前記現実画像と前記仮想画像を合成することにより右目用および左目用の合成画像を生成し、
    前記合成画像を前記第1の観察者および前記第2の観察者に提示することを特徴とする情報処理方法。
  7. 前記第1の指示部の位置姿勢は世界座標系における位置姿勢であり、
    前記第2の指示部の位置姿勢は、前記第2の観察者の視点に対する相対的な位置姿勢を、前記第1の観察者の視点の位置姿勢に基づき前記世界座標系における位置姿勢に変換することにより求められ、
    前記仮想物体の情報の制御は、前記世界座標系における前記第1の指示部の位置姿勢および前記世界座標系における前記第2の指示部の位置姿勢に基づき行われることを特徴とする請求項6記載の情報処理方法。
  8. さらに、前記第1の指示部の位置姿勢に基づく第1指示部仮想画像および前記第2の指示部の位置姿勢に基づく第2指示部仮想画像を生成し、
    前記第1指示部仮想画像、前記第2指示部仮想画像および前記仮想物体の仮想画像を前記現実画像に合成することにより、前記合成画像を生成することを特徴とする請求項6または請求項7記載の情報処理方法。
  9. コンピュータに請求項6乃至請求項8の何れか1項に記載の情報処理方法を実行させることを特徴とするプログラム。
JP2005023935A 2005-01-31 2005-01-31 システム、画像処理装置、情報処理方法 Active JP4553362B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2005023935A JP4553362B2 (ja) 2005-01-31 2005-01-31 システム、画像処理装置、情報処理方法
EP20060250471 EP1686554A3 (en) 2005-01-31 2006-01-27 Virtual space generating system, image processing apparatus and information processing method
CNB2006100024317A CN100373304C (zh) 2005-01-31 2006-01-27 系统、图像处理装置及信息处理方法
US11/340,550 US7843470B2 (en) 2005-01-31 2006-01-27 System, image processing apparatus, and information processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005023935A JP4553362B2 (ja) 2005-01-31 2005-01-31 システム、画像処理装置、情報処理方法

Publications (3)

Publication Number Publication Date
JP2006209664A true JP2006209664A (ja) 2006-08-10
JP2006209664A5 JP2006209664A5 (ja) 2008-02-28
JP4553362B2 JP4553362B2 (ja) 2010-09-29

Family

ID=36907638

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005023935A Active JP4553362B2 (ja) 2005-01-31 2005-01-31 システム、画像処理装置、情報処理方法

Country Status (2)

Country Link
JP (1) JP4553362B2 (ja)
CN (1) CN100373304C (ja)

Cited By (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008108246A (ja) * 2006-10-23 2008-05-08 Internatl Business Mach Corp <Ibm> 閲覧者の位置に従って仮想画像を生成するための方法、システム、およびコンピュータ・プログラム
JP2010211586A (ja) * 2009-03-11 2010-09-24 Sharp Corp 情報処理システム、情報処理装置、情報処理方法、制御プログラム、記録媒体
JP2011508321A (ja) * 2007-12-21 2011-03-10 シマンテック コーポレーション 遠隔支援のための画像ベースの案内の提供
JP2012521039A (ja) * 2009-03-20 2012-09-10 マイクロソフト コーポレーション 仮想オブジェクトの操作
JP2013520757A (ja) * 2010-02-24 2013-06-06 アイピープレックス ホールディングス コーポレーション 視覚障害者支援用拡張現実パノラマ
JP2013206393A (ja) * 2012-03-29 2013-10-07 Fujitsu Ltd 3d入力装置および3d入力方法
JP2014071757A (ja) * 2012-09-28 2014-04-21 Brother Ind Ltd 作業補助システムおよびプログラム
JP2014182597A (ja) * 2013-03-19 2014-09-29 Yasuaki Iwai 仮想現実提示システム、仮想現実提示装置、仮想現実提示方法
WO2015173882A1 (ja) * 2014-05-13 2015-11-19 株式会社日立製作所 コンテンツ生成方法および管理装置
JP2015215745A (ja) * 2014-05-09 2015-12-03 シャープ株式会社 テレコミュニケーションシステム
JP2016197364A (ja) * 2015-04-06 2016-11-24 日本電信電話株式会社 操作支援装置、及びプログラム
JP2017045443A (ja) * 2015-08-28 2017-03-02 株式会社タカラトミー 頭部装着型ディスプレイを備えた情報処理装置
WO2017099134A1 (ja) * 2015-12-07 2017-06-15 株式会社電通 情報処理システム、プログラム及び情報処理方法
JP2017134771A (ja) * 2016-01-29 2017-08-03 キヤノン株式会社 情報処理装置、情報処理方法、プログラム
CN107045812A (zh) * 2017-06-08 2017-08-15 武汉览山科技有限公司 一种基于vr技术的实训教学系统
WO2018092384A1 (ja) * 2016-11-21 2018-05-24 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム
WO2018173286A1 (ja) * 2017-03-24 2018-09-27 楽天株式会社 情報処理システム
JP2019149202A (ja) * 2013-01-03 2019-09-05 メタ ビュー,インコーポレイテッド エクストラミッシブ空間撮像デジタル眼鏡装置または拡張介在ビジョン
WO2020115815A1 (ja) * 2018-12-04 2020-06-11 マクセル株式会社 ヘッドマウントディスプレイ装置
JP2021047610A (ja) * 2019-09-18 2021-03-25 五洋建設株式会社 状況把握支援システム
WO2023058680A1 (ja) * 2021-10-05 2023-04-13 川崎重工業株式会社 作業支援システム

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5573238B2 (ja) * 2010-03-04 2014-08-20 ソニー株式会社 情報処理装置、情報処理法方法およびプログラム
CN103202010B (zh) * 2010-11-09 2014-12-03 富士胶片株式会社 增强现实感提供设备
US9330502B2 (en) * 2012-09-12 2016-05-03 Eidgenoessische Technische Hochschule Zurich (Eth Zurich) Mixed reality simulation methods and systems
KR20140045801A (ko) * 2012-10-09 2014-04-17 삼성전자주식회사 투명 디스플레이 장치 및 그 제어 방법
US9443346B2 (en) * 2013-07-23 2016-09-13 Mako Surgical Corp. Method and system for X-ray image generation
JP6288988B2 (ja) * 2013-08-21 2018-03-07 キヤノン株式会社 リモート支援装置、電子装置、リモート支援方法及びコンピュータプログラム
CN105759960A (zh) * 2016-02-02 2016-07-13 上海尚镜信息科技有限公司 一种结合3d摄像头的增强现实远程指导方法和系统
CN106409018A (zh) * 2016-10-12 2017-02-15 北京微视酷科技有限责任公司 一种基于虚拟现实的防灾培训系统及方法
CN207117844U (zh) * 2016-11-02 2018-03-16 大辅科技(北京)有限公司 多vr/ar设备协同系统
CN106528285A (zh) * 2016-11-11 2017-03-22 上海远鉴信息科技有限公司 虚拟现实中多个合作调度方法及系统
CN107656991A (zh) * 2017-09-14 2018-02-02 触景无限科技(北京)有限公司 一种远程指导方法、装置及系统
CN112102682B (zh) * 2020-11-09 2021-05-18 中电科芜湖通用航空产业技术研究院有限公司 基于5g通信的飞行器驾驶培训系统和方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000184397A (ja) * 1998-12-15 2000-06-30 Sony Corp 仮想画像立体合成通信システム及び仮想画像立体合成通信方法
JP2004213673A (ja) * 2002-12-30 2004-07-29 Abb Res Ltd 強化現実システム及び方法

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5682196A (en) * 1995-06-22 1997-10-28 Actv, Inc. Three-dimensional (3D) video presentation system providing interactive 3D presentation with personalized audio responses for multiple viewers
NL1004648C2 (nl) * 1996-11-11 1998-05-14 Johan Michiel Schaaij Computerspelsysteem.
US6025839A (en) * 1997-06-06 2000-02-15 International Business Machines Corp. Method for displaying information in a virtual reality environment
IL121178A (en) * 1997-06-27 2003-11-23 Nds Ltd Interactive game system
US6409599B1 (en) * 1999-07-19 2002-06-25 Ham On Rye Technologies, Inc. Interactive virtual reality performance theater entertainment system
JP4288843B2 (ja) * 2000-10-25 2009-07-01 沖電気工業株式会社 遠隔作業支援システム

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000184397A (ja) * 1998-12-15 2000-06-30 Sony Corp 仮想画像立体合成通信システム及び仮想画像立体合成通信方法
JP2004213673A (ja) * 2002-12-30 2004-07-29 Abb Res Ltd 強化現実システム及び方法

Cited By (34)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008108246A (ja) * 2006-10-23 2008-05-08 Internatl Business Mach Corp <Ibm> 閲覧者の位置に従って仮想画像を生成するための方法、システム、およびコンピュータ・プログラム
JP2011508321A (ja) * 2007-12-21 2011-03-10 シマンテック コーポレーション 遠隔支援のための画像ベースの案内の提供
JP2010211586A (ja) * 2009-03-11 2010-09-24 Sharp Corp 情報処理システム、情報処理装置、情報処理方法、制御プログラム、記録媒体
US9256282B2 (en) 2009-03-20 2016-02-09 Microsoft Technology Licensing, Llc Virtual object manipulation
JP2012521039A (ja) * 2009-03-20 2012-09-10 マイクロソフト コーポレーション 仮想オブジェクトの操作
US11348480B2 (en) 2010-02-24 2022-05-31 Nant Holdings Ip, Llc Augmented reality panorama systems and methods
US10535279B2 (en) 2010-02-24 2020-01-14 Nant Holdings Ip, Llc Augmented reality panorama supporting visually impaired individuals
JP2013520757A (ja) * 2010-02-24 2013-06-06 アイピープレックス ホールディングス コーポレーション 視覚障害者支援用拡張現実パノラマ
JP2013206393A (ja) * 2012-03-29 2013-10-07 Fujitsu Ltd 3d入力装置および3d入力方法
JP2014071757A (ja) * 2012-09-28 2014-04-21 Brother Ind Ltd 作業補助システムおよびプログラム
JP2019149202A (ja) * 2013-01-03 2019-09-05 メタ ビュー,インコーポレイテッド エクストラミッシブ空間撮像デジタル眼鏡装置または拡張介在ビジョン
US11073916B2 (en) 2013-01-03 2021-07-27 Meta View, Inc. Extramissive spatial imaging digital eye glass apparatuses, methods and systems for virtual or augmediated vision, manipulation, creation, or interaction with objects, materials, or other entities
US11334171B2 (en) 2013-01-03 2022-05-17 Campfire 3D, Inc. Extramissive spatial imaging digital eye glass apparatuses, methods and systems for virtual or augmediated vision, manipulation, creation, or interaction with objects, materials, or other entities
JP2014182597A (ja) * 2013-03-19 2014-09-29 Yasuaki Iwai 仮想現実提示システム、仮想現実提示装置、仮想現実提示方法
JP2015215745A (ja) * 2014-05-09 2015-12-03 シャープ株式会社 テレコミュニケーションシステム
WO2015173882A1 (ja) * 2014-05-13 2015-11-19 株式会社日立製作所 コンテンツ生成方法および管理装置
JP2016197364A (ja) * 2015-04-06 2016-11-24 日本電信電話株式会社 操作支援装置、及びプログラム
JP2017045443A (ja) * 2015-08-28 2017-03-02 株式会社タカラトミー 頭部装着型ディスプレイを備えた情報処理装置
WO2017099134A1 (ja) * 2015-12-07 2017-06-15 株式会社電通 情報処理システム、プログラム及び情報処理方法
JP2017134771A (ja) * 2016-01-29 2017-08-03 キヤノン株式会社 情報処理装置、情報処理方法、プログラム
WO2018092384A1 (ja) * 2016-11-21 2018-05-24 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム
US11043033B2 (en) 2016-11-21 2021-06-22 Sony Corporation Information processing device and information processing method capable of deciding objects arranged in virtual space generated based on real space
JPWO2018092384A1 (ja) * 2016-11-21 2019-10-10 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム
WO2018173286A1 (ja) * 2017-03-24 2018-09-27 楽天株式会社 情報処理システム
JP6427298B1 (ja) * 2017-03-24 2018-11-21 楽天株式会社 情報処理システム
CN107045812A (zh) * 2017-06-08 2017-08-15 武汉览山科技有限公司 一种基于vr技术的实训教学系统
JPWO2020115815A1 (ja) * 2018-12-04 2021-09-30 マクセル株式会社 ヘッドマウントディスプレイ装置
WO2020115815A1 (ja) * 2018-12-04 2020-06-11 マクセル株式会社 ヘッドマウントディスプレイ装置
JP7148634B2 (ja) 2018-12-04 2022-10-05 マクセル株式会社 ヘッドマウントディスプレイ装置
US11582441B2 (en) 2018-12-04 2023-02-14 Maxell, Ltd. Head mounted display apparatus
US11956415B2 (en) 2018-12-04 2024-04-09 Maxell, Ltd. Head mounted display apparatus
JP2021047610A (ja) * 2019-09-18 2021-03-25 五洋建設株式会社 状況把握支援システム
JP7315422B2 (ja) 2019-09-18 2023-07-26 五洋建設株式会社 状況把握支援システム
WO2023058680A1 (ja) * 2021-10-05 2023-04-13 川崎重工業株式会社 作業支援システム

Also Published As

Publication number Publication date
CN1815409A (zh) 2006-08-09
JP4553362B2 (ja) 2010-09-29
CN100373304C (zh) 2008-03-05

Similar Documents

Publication Publication Date Title
JP4553362B2 (ja) システム、画像処理装置、情報処理方法
US7843470B2 (en) System, image processing apparatus, and information processing method
KR102517876B1 (ko) 증강 현실 데이터를 레코딩하기 위한 기술
JP4738870B2 (ja) 情報処理方法、情報処理装置および遠隔複合現実感共有装置
JP4677269B2 (ja) 情報処理方法およびシステム
US7782320B2 (en) Information processing method and information processing apparatus
JP2008146109A (ja) 画像処理方法、画像処理装置
US11204502B2 (en) Image generation apparatus, head mounted display, image generation system, image generation method, and program
US20210368152A1 (en) Information processing apparatus, information processing method, and program
US11003408B2 (en) Image generating apparatus and image generating method
JP2006285609A (ja) 画像処理方法、画像処理装置
EP3665656B1 (en) Three-dimensional video processing
JP2005339377A (ja) 画像処理方法、画像処理装置
JP4889036B2 (ja) 画像処理装置、画像処理方法
JP4689344B2 (ja) 情報処理方法、情報処理装置
JP2005251118A (ja) 画像処理方法、画像処理装置
WO2020262391A1 (ja) 表示制御装置、表示制御方法、及びプログラム
JP2005011275A (ja) 立体画像表示システム及び立体画像表示プログラム
JP5647813B2 (ja) 映像提示システム、プログラム及び記録媒体
JP2006252059A (ja) 画像処理方法、画像処理装置
JP2021086287A (ja) 情報処理システム、情報処理装置、及び情報処理方法
JP2012242930A (ja) 映像提示システム、映像提示方法、プログラム及び記録媒体
JP2019040356A (ja) 画像処理装置、画像処理方法、コンピュータプログラム
JP2005077808A (ja) 画像表示装置および画像表示方法ならびに画像表示システム
JP2006268351A (ja) 画像処理方法、画像処理装置

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080111

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080111

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100416

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100423

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100617

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100709

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100712

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130723

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4553362

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150