JP2006293605A - Information processing method and system - Google Patents
Information processing method and system Download PDFInfo
- Publication number
- JP2006293605A JP2006293605A JP2005112109A JP2005112109A JP2006293605A JP 2006293605 A JP2006293605 A JP 2006293605A JP 2005112109 A JP2005112109 A JP 2005112109A JP 2005112109 A JP2005112109 A JP 2005112109A JP 2006293605 A JP2006293605 A JP 2006293605A
- Authority
- JP
- Japan
- Prior art keywords
- instructor
- virtual object
- worker
- mode
- viewpoint
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Processing Or Creating Images (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
Description
本発明は、異なる場所に居る複数のユーザが複合現実空間を共有して協調作業を行うためのものに関する。 The present invention relates to a case where a plurality of users in different places share a mixed reality space and perform cooperative work.
近年、現実世界と仮想世界の継ぎ目のない融合を目指した複合現実感(Mixed Reality:MR)に関する技術開発が盛んになっている。MRは従来現実空間と切り離された状況でのみ体験可能であったバーチャルリアリティ(VR)の世界と現実の世界との共存を目的とし、VRを増強する技術として注目されている。 In recent years, technological development relating to mixed reality (MR) aimed at seamless integration of the real world and the virtual world has become active. MR is attracting attention as a technology for enhancing VR for the purpose of coexistence between the virtual reality (VR) world and the real world, which can only be experienced in a situation separated from the real space.
複合現実感を実現する装置として代表的な物は頭部装着型表示装置(HMD=Head Mounted Display)である。すなわち、現実空間と仮想空間とをHMDに合成して表示することにより複合現実感を実現するものである。 A typical device that realizes mixed reality is a head-mounted display device (HMD = Head Mounted Display). That is, the mixed reality is realized by combining the real space and the virtual space with the HMD and displaying it.
VRを用いて遠隔の参加者間で会議や様々な協調作業を支援するシステムでは、上述したようにコンピュータ内に現実世界と切り離された世界を構築して共有するのに対し、MRでの遠隔作業支援システムは現実世界をもとに仮想世界を重ね合わせた作業空間での作業を支援することが可能である。 In a system that supports conferences and various collaborative work among remote participants using VR, a world separated from the real world is built and shared in a computer as described above, whereas remote in MR The work support system can support work in a work space in which a virtual world is superimposed based on the real world.
頭部装着型表示装置(HMD)を用いて参加者間で共有されている仮想物体と共にステレオカメラで撮影された参加者の立体映像を観察/操作できる技術の例が提案されている。例えば、参加者を2台のカメラで撮影し人物部分のみを切り出したステレオ映像をネットワークで伝送し、その立体映像を他の複数人の参加者が観察することができる。作業者の位置と仮想物体操作のための手の位置が計測されているため仮想物体の操作は可能であるが、参加者が観察しているステレオ映像は、背景が除去された参加者の映像と仮想物体によるVR空間の映像であり、参加者の実空間の情報を有するものではない。 There has been proposed an example of a technique capable of observing / manipulating a stereoscopic image of a participant photographed by a stereo camera together with a virtual object shared between the participants using a head-mounted display device (HMD). For example, a stereoscopic video in which a participant is photographed with two cameras and only a person portion is cut out can be transmitted over a network, and the other multiple participants can observe the stereoscopic video. The virtual object can be operated because the position of the worker and the position of the hand for virtual object operation are measured, but the stereo image that the participant is observing is the image of the participant with the background removed The VR space is an image of the virtual object and does not have information on the real space of the participant.
また作業者のHMD映像をもとに遠隔作業支援する技術の例が提案されている(特許文献1)。この例では作業者がカメラ付のHMDを装着しこのカメラからの映像を作業者および遠隔にいる指示者にて共有し、指示者の指示をこのカメラ映像に重畳して作業指示を行なう技術が開示されている。作業者のカメラをステレオにして、作業者/指示者ともに同じ立体映像を観察可能であり、この映像中の作業対象物を指し示す指示者の手をクロマキー合成で切り出してカメラからの映像に合成する技術が述べられている。このシステムでは作業者の空間に座標が設定されていないので、作業対象物以外の仮想物体を作業者空間の任意の位置に配置してポインティングしたりインタラクションしたりすることができない。また作業者の視点位置が移動すると指示者が手を動かしていなくとも手の画像が移動してしまう問題があった。
このように、従来技術は、指示者視点が作業者の視点に拘束されるため円滑に作業指示が行なえなかった。 As described above, according to the prior art, the instruction point of view is restricted to the worker's point of view, so that the work instruction cannot be performed smoothly.
本発明は、指示者視点が作業者の視点に拘束されないモードを備えることにより、上記課題を解決し、円滑に作業指示が行なえるようにすることを目的とする。 It is an object of the present invention to solve the above-described problems and provide a work instruction smoothly by providing a mode in which the instructor's viewpoint is not constrained by the operator's viewpoint.
上述した目的を達成するために、本発明は以下の構成を有する。 In order to achieve the above-described object, the present invention has the following configuration.
本願請求項1記載の情報処理方法は、第1のユーザが存在する空間に仮想物体を重畳表示する複合現実空間画像を、第2のユーザが共有する情報処理方法であって、前記第1のユーザが装着している第1撮像部の映像と、前記第1撮像部の位置姿勢に基づく仮想物体画像とに基づく複合現実空間画像を取得する複合現実空間画像取得工程と、前記第1のユーザによって行われた前記仮想物体に対するイベント情報を取得するイベント情報取得工程と、前記第2のユーザの視点位置姿勢情報を取得する第2ユーザ指定位置姿勢情報取得工程と、前記第2のユーザの視点位置姿勢情報に基づき、前記イベント情報に応じた仮想物体画像を生成する生成工程とを有し、前記第1画像を前記第2のユーザに提示する第1モードと、前記仮想物体画像を前記第2のユーザに提示する第2モードとを有することを特徴とする。
The information processing method according to
本願請求項4記載の発明は、作業者が存在する空間に仮想物体を重畳表示する作業者複合現実空間を遠隔から共有する情報処理システムであって、作業者の視点からの前記作業者複合現実空間のステレオ映像を指示者に伝送するステレオ映像伝送手段、前記仮想物体を前記作業者と前記指示者で共有する仮想物体共有手段、作業者と指示者がステレオ映像を立体視できる立体視手段とを備え、前記指示者が、前記作業者視点からのステレオ映像を共有するモードと、前記作業者視点と独立した視点で前記仮想物体を操作するモードを有することを特徴とする。
The invention according to
本発明によれば、円滑な作業支援が可能となり、遠隔地間での協調作業の利便性を向上させることができる。 According to the present invention, smooth work support is possible, and the convenience of cooperative work between remote locations can be improved.
(第一の実施形態)
以下添付図面を参照して、実施形態に従って詳細に説明する。
(First embodiment)
Hereinafter, with reference to an accompanying drawing, it explains in detail according to an embodiment.
図1に本実施形態における遠隔複合現実感共有システムの機能構成を示す。構成は図1上部に示す作業者用複合現実感装置10aと図1下部に示す指示者用複合現実感装置10bとからなり、それぞれは管理サーバ60を介してネットワークで接続されているものとする。それぞれの装置は頭部装着型装置(HMD=Head Mounted Display)20a,20bを持ち作業者、指示者ともにHMDを通して作業者のいる空間の複合現実感映像を見ることができる。また両者間で会話を行なうためのマイクロフォン28a,28b、スピーカ27a,27bを具備する。 FIG. 1 shows a functional configuration of the remote mixed reality sharing system in the present embodiment. The configuration is composed of an operator mixed reality apparatus 10a shown in the upper part of FIG. 1 and an instructor mixed reality apparatus 10b shown in the lower part of FIG. 1, which are connected via a management server 60 via a network. . Each device has a head-mounted device (HMD = Head Mounted Display) 20a, 20b, and both the worker and the instructor can see a mixed reality image of the space where the worker is located through the HMD. Further, microphones 28a and 28b and speakers 27a and 27b for carrying out a conversation between the two are provided.
作業者用HMD20aは、磁気を利用してHMDの位置姿勢を計測する3次元位置姿勢センサ21a、現実空間を撮像し画像を得ることのできるステレオカメラ22(左眼用をL、右眼用をRで示してある。)、画像を表示することのできるステレオ表示器23a(左眼用をL、右眼用をRで示してある。)からなり、3次元位置姿勢センサ21aとカメラ22の位置関係はあらかじめ計測され固定しているとする。3次元位置姿勢センサ21aからは計測結果である位置姿勢信号が後述の位置姿勢計測部11aへ出力され、カメラ22からは撮像結果が後述する画像入力部12へ出力される。表示器23aは、画像合成部15から入力として左眼用と右眼用の画像信号を受け画像をそれぞれ左眼用23aLと右眼用の表示装置23aRに表示する。
The worker HMD 20a includes a three-dimensional position and orientation sensor 21a that measures the position and orientation of the HMD using magnetism, and a stereo camera 22 that can capture a real space and obtain an image (L for the left eye and L for the right eye). R), and a
作業者用複合現実感装置10a内にある位置姿勢計測部11aはHMD20aの3次元位置姿勢センサ21aから出力される3次元位置姿勢信号、および複合現実空間の3次元ポインティングデバイスであるスタイラスの3次元位置姿勢信号の信号を受けて、これらのデータを仮想物体管理部16aへ出力する。仮想物体管理部16aでは、作業者スタイラスおよびHMDの位置姿勢のデータを位置姿勢制御部11aから受け取り、作業に用いられる全ての仮想物体のデータと共に蓄積する。仮想物体送受信部31aでは、指示者用複合現実感装置10bとの間で共有する全ての仮想物体情報を管理サーバ60との間で送受信する。管理サーバ60から受信した仮想物体へのイベント情報は仮想物体管理部16aへ送られここに蓄積されている仮想物体のシーングラフの変更が行なわれる。また画像生成部13では、仮想物体管理部10aに蓄積されているすべての仮想物体のシーングラフを作業者視点情報(HMD位置姿勢情報)から見た左眼用と右眼用の仮想空間CGを描画し画像を生成する。 The position / orientation measurement unit 11a in the mixed reality apparatus 10a for the worker includes a three-dimensional position / orientation signal output from the three-dimensional position / orientation sensor 21a of the HMD 20a and a three-dimensional stylus that is a three-dimensional pointing device in the mixed reality space. In response to the position and orientation signal, these data are output to the virtual object manager 16a. The virtual object management unit 16a receives worker stylus and HMD position / orientation data from the position / orientation control unit 11a and accumulates them together with data of all virtual objects used in the work. The virtual object transmission / reception unit 31a transmits / receives all virtual object information shared with the instructor mixed reality apparatus 10b to / from the management server 60. The event information for the virtual object received from the management server 60 is sent to the virtual object management unit 16a, and the scene graph of the virtual object stored therein is changed. In addition, the image generation unit 13 creates virtual spaces CG for the left eye and the right eye as viewed from the worker viewpoint information (HMD position / orientation information) of the scene graphs of all virtual objects stored in the virtual object management unit 10a. Draw and generate an image.
15は画像合成部であり、左眼用カメラ22Lと右眼用カメラ22Rからの撮像画像を画像入力部12を通して入力し、この入力画像上に画像生成部13aにより生成された左眼用と右眼用の仮想空間CG画像と合成する。その結果、表示器23aの左眼用と右眼用の表示装置各々には、カメラから撮像された画像の上に作業者視点からの仮想空間のデータが重畳表示される。またこの重畳画像は映像符号化部32aで圧縮符号化されて映像送信部33aを通して管理サーバ60へ伝送される。
Reference numeral 15 denotes an image synthesis unit, which inputs captured images from the left-eye camera 22L and the right-eye camera 22R through the image input unit 12, and generates the left-eye and right-eye images generated by the image generation unit 13a on the input image. It combines with the virtual space CG image for eyes. As a result, in the display device for the left eye and the right eye of the
指示者用複合現実感装置10bの構成は、作業者用複合現実感装置10aとほぼ同じであるが、HMD20bにはカメラが装着されておらずカメラからの画像入力がない点が異なる。作業者空間の複合現実感映像は作業者HMDのカメラからのステレオ映像が、管理サーバ60を介して映像受信部33bで受信され映像復号化部32bで復号化され表示器23bの左眼用23bLと右眼用23bRの表示装置に表示される。指示者のHMDの位置姿勢は3次元位置姿勢センサ21bから取得され、スタイラス41bの3次元位置姿勢とともに位置姿勢計測部11bに入力され、仮想物体管理部16bへ送られる。仮想物体16bは、作業者用複合現実感装置10bの仮想物体管理部16aと同様に、作業者指示者間で共有される全ての仮想物体データが蓄積されている。指示者側からの仮想物体に対するイベントは仮想物体送受信部31bを通して管理サーバ60へ送られ、管理サーバ60から送られてくる仮想物体へのイベントはここを通して仮想物体管理部16bへ送られシーングラフの変更が行なわれる。画像生成部13bの機能は13aと同じなので説明は省略する。画像出力部17は、映像符号化部32bから送られてくる作業者複合現実感映像と、画像生成部13bから送られてくる仮想物体CG画像を選択的に切替えて表示機23bへ出力する。
The configuration of the mixed reality apparatus 10b for the instructor is almost the same as that of the mixed reality apparatus 10a for the worker, except that the HMD 20b is not equipped with a camera and no image is input from the camera. As for the mixed reality video in the worker space, a stereo video from the camera of the worker HMD is received by the video receiving unit 33b via the management server 60, decoded by the video decoding unit 32b, and 23bL for the left eye of the
また作業者用複合現実感装置と指示者用複合現実感装置のコネクションが確立した後には、映像通信モジュールと音声通信モジュールが起動され、作業者複合現実空間映像は映像送信部33aから映像受信部33bへ一方向通信で伝送され、音声情報は双方向の音声データがやり取りされる。この結果作業者は27aのスピーカと27bマイクロフォンを用いて、指示者は28aのスピーカと28bマイクロフォンを用いて会話を行なうことができる。 Further, after the connection between the mixed reality device for the worker and the mixed reality device for the instructor is established, the video communication module and the audio communication module are activated, and the worker mixed reality space video is transmitted from the video transmission unit 33a to the video reception unit. One-way communication is transmitted to 33b, and bidirectional audio data is exchanged as audio information. As a result, the operator can talk using the 27a speaker and the 27b microphone, and the instructor can talk using the 28a speaker and the 28b microphone.
60は管理サーバであり、仮想物体情報の管理を行なう。仮想物体通信管理部61では、作業者用複合現実感装置と指示者用複合現実感装置との間でやりとりされる情報通信管理を行なう。仮想物体管理部62では、作業者と指示者スタイラスやHMDを含む共有仮想物体のシーングラフの情報と、共有仮想物体の操作権の管理を行なう。作業者または指示者からの仮想物体情報の変更は全てイベントとして仮想物体管理部62へ送信されここで共有のシーングラフの変更を行なった後、指示者複合現実感装置10a、指示者用複合現実感装置10bへ同じイベントが配信され、それぞれの装置に蓄積されている仮想物体シーングラフが変更される。 Reference numeral 60 denotes a management server that manages virtual object information. The virtual object communication management unit 61 performs information communication management exchanged between the mixed reality device for the worker and the mixed reality device for the instructor. The virtual object management unit 62 manages the scene graph information of the shared virtual object including the operator and the instructor stylus and the HMD and the operation right of the shared virtual object. All changes in the virtual object information from the operator or the instructor are transmitted to the virtual object management unit 62 as events, and after changing the shared scene graph, the instructor mixed reality apparatus 10a and the mixed reality for the instructor are performed. The same event is distributed to the sensing device 10b, and the virtual object scene graph stored in each device is changed.
以上述べた構成での動作例を図2を用いて説明する。図2(1)はHMDを装着した作業者40が複合現実空間で作業を行なう様子が示されている。42は実物の作業対象物であり、43は作業対象物の3DモデルであるCGが立体視表示されている。43の仮想物体は指示者と共有されており指示者からの作業指示や作業の例示がこの仮想物体43を通して行なわれる。作業者のいる現実空間に対して図示するような世界座標系(x,y,z)が設定されており、この座標系に置かれた例示モデルとしての仮想物体43はHMDを通して観察すると実物の作業対象物42の隣に置かれたような位置関係で表示される。磁気センサが装着されたスタイラスを用いることによってこれらの仮想物体の一部を選択して移動させたりするインタラクションが可能である。41aは作業者用のスタイラスにCGを重畳したポインタを示し41bは指示者のスタイラスをCGで表現したものである。
An operation example with the above-described configuration will be described with reference to FIG. FIG. 2A shows a situation where the
図2(2)は、遠隔にいる指示者の空間を示している。指示者50はHMD20bを装着しており、HMD20bの表示器には23bのように作業対象物42とその3DモデルのCG43の映像が立体視で映し出されている。これは作業者40が見ている映像と全く同じ物である。41aは作業者のスタイラスの位置を示すポインタ、41bは指示者のスタイラスの位置を示すポインタである。指示者が存在する空間にも作業者複合現実空間の世界座標系に対応する指示者世界座標系(x,y,z)を図2(2)に示すように設定する。これら2つのの世界座標系において仮想物体の位置姿勢は作業者/指示者共通の座標値で表される。指示者のHMD20bとスタイラス41bには磁気センサが装着されているので、視点位置と手に持っているスタイラスの相対的な位置関係が測定できる。この位置関係を作業者視点からの位置関係に変換して、作業者視点からの指示者のスタイラスの位置を決めることができるので、指示者はあたかも作業者の視点からポインタを操作するような感覚を与えることができる。このように作業者視点複合現実感映像を作業者/指示者間で共有し、指示者のポインタを作業者視点位置を基準に表示する状態を作業空間モードと呼ぶことにする。
FIG. 2 (2) shows the space of the remote instructor. The
指示者50は作業者と同じ映像23bを見ながら仮想物体43をポインタ41bで指したり,または仮想物体の部品を移動させたりすることにより作業者への作業指示を行なう。
The
仮想物体の移動はスタイラス41bを仮想物体に触れる位置まで移動し、図3に示すスタイラスの第一ボタン47を押下する。これにより仮想物体の把持モードとなり、把持された仮想物体はスタイラスと共に移動する。上記把持モードの時にスタイラスのボタンを押下すると把持モードが終了し仮想物体がリリースされる。作業者も同様な操作で仮想物体を操作することができる。但し作業者のスタイラスはボタンが1つだけ装着されている(図示せず)。作業者と指示者の操作が同時に発生しないようにどちらか一方のみが把持モードに入り仮想物体を移動することができる。
The movement of the virtual object moves the
この作業者空間モードにおいて、指示者のポインタを作業者の複合現実空間に表示する位置として、指示者の頭部位置と手に持ったスタイラスの相対位置関係を、作業者の頭の位置姿勢からの相対位置関係に変換して表示することにより、あたかも自分の視点から手を延ばしてポインティングしているような感覚が得られるが、作業者が頭部の位置姿勢を変化させるとそれに合わせてポインタの位置も移動してしまう。そのため指示者の意図しない部分にポインタが移動する欠点が生じる可能性がある。そこで指示者が図3のスタイラス第二ボタン48を押下することで指示者視点からの仮想物体だけから構成される仮想空間(図4(2))が表示器23bに表示される。この例では仮想物体43と作業者ポインタ41a、指示者ポインタ41bからなる仮想空間が指示者視点から表示されている。この空間を見ながら仮想物体へのポインティングや移動などの操作を行なってその結果を作業者用複合現実感装置へ反映させ、作業者との仮想物体の共有が可能になる。すなわち指示者は作業者の頭の動きに関係なく自分の視点から仮想物体を見て操作することができる。この状態を共有仮想モードと呼ぶことにする。この時作業者は指示者により変更された仮想物体が重畳された複合現実空間を見ていることになる。
In this worker space mode, the relative position relationship between the head position of the indicator and the stylus held in the hand is determined from the position and orientation of the operator's head as the position where the pointer of the indicator is displayed in the mixed reality space of the operator. By converting and displaying the relative positional relationship, you can feel as if you are pointing and extending your hand from your point of view, but if the operator changes the position and orientation of the head, the pointer changes accordingly. The position of will also move. For this reason, there is a possibility that the pointer moves to a part not intended by the instructor. Therefore, when the instructor presses the stylus second button 48 in FIG. 3, a virtual space (FIG. 4B) composed only of the virtual object from the instructor's viewpoint is displayed on the
さらにこの共有仮想モードで指示者がスタイラス第二ボタン48を押下すると、図4(3)に示す単独仮想モードの映像が表示される。この状態では仮想物体43は作業者と共有されておらずポインタも指示者ポインタ41bが表示されているのみである。この状態では、指示者のポインティングや仮想物体への変更は指示者用複合現実感装置のみで行なわれ作業者用複合現実感装置には反映されない。指示者は単独で仮想物体の操作を試行錯誤することができる。このモードで指示者がスタイラス第二ボタンを押下すると、単独仮想モードで編集された仮想物体が管理サーバへアップロードされ、さらに作業者複合現実感装置へダウンロードされて、その結果が反映された図4(1)のような映像が指示者HMD表示装置に表示され、最初に説明した作業空間モードへ復帰する。このように指示者は指示内容によって適宜モードを切替えることにより効率的な作業指示が行なえるようになる。
Further, when the instructor presses the stylus second button 48 in this shared virtual mode, the video in the single virtual mode shown in FIG. 4 (3) is displayed. In this state, the
図5は、複合現実感作業空間で作業を行なうための作業者用複合現実感装置10aの動作を説明するフローチャートである。図2では図示されていないが本装置10aは、作業者のHMD20aやスタイラス41aと接続できる位置にあり、管理サーバ60を介して指示者用複合現実感装置10bとネットワーク接続されているとする。 FIG. 5 is a flowchart for explaining the operation of the mixed reality apparatus 10a for workers for performing work in the mixed reality workspace. Although not shown in FIG. 2, it is assumed that the present apparatus 10 a is in a position where it can be connected to the worker's HMD 20 a and stylus 41 a and is connected to the instructor mixed reality apparatus 10 b through the management server 60 via a network.
ステップS100では、作業者用複合現実感装置10aの初期化を行なう。このステップでは、複合現実感作業空間の世界座標系が設定される。後述するセンサからの出力はこの座標系における6パラメータの組としてのデータ(x,y,z,α,β,γ)として表現される。ここでαはx軸中心の回転角、βはy軸中心の回転角、γはz軸中心の回転角を表す。また実物体42のリファレンスとなる仮想物体43の初期データがこの世界座標系に配置され、シーングラフデータとして仮想物体管理部16aに蓄積される。
In step S100, the worker mixed reality apparatus 10a is initialized. In this step, the world coordinate system of the mixed reality workspace is set. An output from a sensor, which will be described later, is expressed as data (x, y, z, α, β, γ) as a set of six parameters in this coordinate system. Here, α represents a rotation angle about the x axis, β represents a rotation angle about the y axis, and γ represents a rotation angle about the z axis. In addition, initial data of the
次のステップS110では、管理サーバ60との間でネットワーク接続を確立し両装置でデータの送受信が可能な状態にして、ステップS100で設定された仮想物体の情報を仮想物体送受信部31aを介して管理サーバへアップロードする。 In the next step S110, a network connection is established with the management server 60 so that both devices can transmit and receive data, and the virtual object information set in step S100 is transmitted via the virtual object transmitting / receiving unit 31a. Upload to the management server.
ステップS120では、作業者用複合現実感装置10aと指示者用複合現実感装置10bとの間で音声通信のコネクションを開始する。音声通信コネクションが設定後、音声出力はそれぞれスピーカ27a,27bから、音声入力はそれぞれマイクロフォン28a,28bから行なわれる。これにより作業者と指示者の間で音声による会話が可能となる。また映像通信のためのコネクションも設定され映像送信部33aから映像受信部33bへの映像送信が可能な状態になる。 In step S120, a voice communication connection is started between the worker mixed reality device 10a and the instructor mixed reality device 10b. After the voice communication connection is set, voice output is performed from the speakers 27a and 27b, and voice input is performed from the microphones 28a and 28b, respectively. This enables voice conversation between the worker and the instructor. Also, a connection for video communication is set, and video transmission from the video transmission unit 33a to the video reception unit 33b is enabled.
ステップS130では、作業者HMDに装着されているカメラ22からの映像を画像入力部12を経て画像合成部15へ取り込む処理を行なう。カメラ22は作業者の両目に対応する左眼用(L)と右眼用(R)2台のカメラから構成されており、それぞれの映像が画像合成部15の別のバッファへ格納される。 In step S130, processing is performed to capture the video from the camera 22 attached to the worker HMD into the image composition unit 15 via the image input unit 12. The camera 22 includes two left-eye (L) and right-eye (R) cameras corresponding to the eyes of the worker, and each video is stored in a separate buffer of the image composition unit 15.
次のステップS140では作業者の頭部の位置姿勢がHMD3次元位置センサ21aからの値として位置姿勢計測部11aに入力され、世界座標系における6パラメータの組としてのデータが生成される。 In the next step S140, the position and orientation of the operator's head is input to the position and orientation measurement unit 11a as a value from the HMD three-dimensional position sensor 21a, and data as a set of six parameters in the world coordinate system is generated.
次のステップS150では作業者のスタイラス41aの3次元位置姿勢情報が上記のHMD3次元位置センサからのデータと同じ形式で位置姿勢計測部11aに入力され仮想物体管理部16aに保持される。 In the next step S150, the three-dimensional position / orientation information of the worker's stylus 41a is input to the position / orientation measurement unit 11a in the same format as the data from the HMD three-dimensional position sensor and is held in the virtual object management unit 16a.
ステップS160ではステップS150で求められた作業者HMDとスタイラスの位置姿勢情報をイベントとして仮想物体送受信部31bを通して管理サーバ60へ送信する。 In step S160, the worker HMD and the stylus position and orientation information obtained in step S150 are transmitted as events to the management server 60 through the virtual object transmitting / receiving unit 31b.
ステップS170では作業者スタイラスのボタンが押下されたかをチェックしボタンが押下されたならばステップS180へそうでなければステップS190へ進む。 In step S170, it is checked whether the operator stylus button is pressed. If the button is pressed, the process proceeds to step S180. Otherwise, the process proceeds to step S190.
ステップS180では、押下されたボタンイベントを仮想物体送受信部31aを通して管理サーバ60へ送信する。 In step S180, the pressed button event is transmitted to the management server 60 through the virtual object transmitting / receiving unit 31a.
ステップS190では、作業者ポインタ、指示者ポインタ、仮想物体の変更に関する情報が管理サーバ60からのイベントとして仮想物体送受信部31aを通して受信される。 In step S190, information regarding the change of the worker pointer, the pointer pointer, and the virtual object is received as an event from the management server 60 through the virtual object transmitting / receiving unit 31a.
ステップS210では、ステップS190で得られた変更情報を基に仮想物体管理部16aに格納されているシーングラフを変更する。 In step S210, the scene graph stored in the virtual object management unit 16a is changed based on the change information obtained in step S190.
ステップS220では、画像生成部13aにおいて操作結果を反映した仮想物体、作業者ポインタ41a、および指示者ポインタ41bのシーングラフから、作業者HMD位置姿勢のビューからの左眼用CG画像と右眼用CG画像をそれぞれ作成する。
In step S220, the left eye CG image and the right eye CG image from the view of the worker HMD position and orientation are obtained from the scene graph of the virtual object reflecting the operation result in the image generation unit 13a, the worker pointer 41a, and the
次のステップS240では、ステップ220で生成された左眼用CG画像と右眼用CG画像を画像合成部15のカメラからの左眼用撮像画像と右眼用撮像画像にそれぞれ上書きすることにより仮想物と現実の合成画像が得られる。3次元位置姿勢センサ21aと左眼用カメラ22Lと右眼用カメラ22Rの位置関係は固定されておりあらかじめキャリブレーションを行なって変換式を求めておくことができるので、この式を用いてカメラ視点の位置姿勢が決まる。この左眼用合成画像と右眼用合成画像が作業者HMDの左眼用表示器23aLと右眼用表示器23aRにそれぞれ表示される。 In the next step S240, the left-eye CG image and the right-eye CG image generated in step 220 are overwritten on the left-eye captured image and the right-eye captured image from the camera of the image composition unit 15, respectively. A composite image of an object and an actual image can be obtained. The positional relationship among the three-dimensional position / orientation sensor 21a, the left-eye camera 22L, and the right-eye camera 22R is fixed, and a conversion equation can be obtained by performing calibration in advance. Is determined. The left-eye composite image and the right-eye composite image are displayed on the left-eye display 23aL and the right-eye display 23aR of the worker HMD, respectively.
ステップS250では作業者HMD表示器23aに表示されたのと同じ両眼画像が、画像符号化部32aで符号化され、映像送信部33aを通して指示者用複合現実感装置の映像受信部33bへ送信される。
In step S250, the same binocular image displayed on the
次のステップS260では、作業者用複合現実感装置の終了コマンドが入力されていればステップS270の音声通信終了処理に進みそうでなければステップS130へ戻る。 In the next step S260, if the termination command for the mixed reality apparatus for workers has been input, the process returns to step S130 if the voice communication termination process is not proceeded to in step S270.
ステップS270では音声通信処理を終了し音声コネクションを切断し、映像通信コネクションも切断する。 In step S270, the audio communication process is terminated, the audio connection is disconnected, and the video communication connection is also disconnected.
ステップS280では管理サーバ60との通信を切断して処理を終了する。 In step S280, the communication with the management server 60 is disconnected and the process ends.
図6は、複合現実感作業空間での作業を指示/支援する指示者用複合現実感装置10bの動作を説明するフローチャートである。最初に作業空間モードの処理がステップ300から実行される。
FIG. 6 is a flowchart for explaining the operation of the instructor mixed reality apparatus 10b that instructs / supports work in the mixed reality workspace. First, processing in the work space mode is executed from
ステップS300では、指示者用複合現実感装置10bの初期化を行なう。このステップでは、指示者が存在する空間の世界座標系が位置姿勢計測部11bにおいて設定され、後述する3次元センサからの出力は前述した作業者用複合現実感装置10aと同じように6パラメータの組のデータとして表現される。また後述する指示者操作物IDのテーブルがクリアされる。 In step S300, the mixed reality apparatus 10b for the instructor is initialized. In this step, the world coordinate system of the space in which the instructor exists is set in the position / orientation measurement unit 11b, and the output from the three-dimensional sensor described later is a six-parameter output similar to the above-described mixed reality apparatus for workers 10a. Expressed as a set of data. In addition, a table of an instructioner operation article ID, which will be described later, is cleared.
次のステップS302では、管理サーバ60とのネットワーク接続を確立し両装置でデータの送受信が可能な状態にし、仮想物体情報などのデータが仮想物体送受信部31bを通してダウンロードされ、仮想物体管理部16bに蓄積される。 In the next step S302, a network connection with the management server 60 is established so that data can be transmitted / received between both devices, and data such as virtual object information is downloaded through the virtual object transmitting / receiving unit 31b and is transmitted to the virtual object managing unit 16b. Accumulated.
ステップS304では、作業者用複合現実感装置10aとの間で音声通信コネクションと映像通信コネクションを設定し、音声通信を開始する。指示者の音声出力はスピーカ27bから音声入力はマイクロフォン28bから行なわれる。これにより作業中音声による会話が可能となる。作業者用複合現実感装置からの映像は映像受信部33bを介して可能になる。 In step S304, an audio communication connection and a video communication connection are set with the worker mixed reality apparatus 10a, and audio communication is started. The voice of the instructor is output from the speaker 27b and the voice is input from the microphone 28b. As a result, a conversation by voice during work becomes possible. Video from the mixed reality device for workers is made possible via the video receiver 33b.
ステップS306では、指示者のスタイラス41bの3次元位置姿勢情報(xs,ys,zs,αs,βs,γs)が読み出され位置姿勢計測部11bに入力され仮想物体管理部16bに保持される。
In step S306, the three-dimensional position / orientation information (x s , y s , z s , α s , β s , γ s ) of the instructor's
ステップS308では、HMD3次元位置センサ21bから指示者の視点の位置姿勢(xh,yh,zh,αh,βh,γh)が読み出され位置姿勢計測部11bに入力され仮想物体管理部16bに保持される。 In step S308, the position / posture (x h , y h , z h , α h , β h , γ h ) of the viewpoint of the instructor is read from the HMD three-dimensional position sensor 21b and input to the position / posture measurement unit 11b. It is held in the management unit 16b.
ステップS310では、ステップ306、308で得られたスタイラスとHMDの3次元位置姿勢データを管理サーバ60へ送信する。 In step S310, the stylus and HMD three-dimensional position and orientation data obtained in steps 306 and 308 are transmitted to the management server 60.
ステップS312では、作業者複合現実感装置の映像送信部33aから左右両眼の映像を映像受信部33bで受信して左眼用と右眼用画像をそれぞれ映像復号化部32bで復号する。 In step S312, the left and right eye images are received by the image receiving unit 33b from the image transmitting unit 33a of the worker mixed reality apparatus, and the left and right eye images are respectively decoded by the image decoding unit 32b.
ステップS314では、復号された左眼用と右眼用画像を画像出力部17へ書き込んで、指示者HMD20bの左眼用23bLと右眼用表示器23bRにそれぞれ表示する。 In step S314, the decoded left-eye and right-eye images are written into the image output unit 17 and displayed on the left-eye 23bL and the right-eye display 23bR of the instructor HMD 20b, respectively.
次のステップS316では、指示者用複合現実感装置の終了コマンドが入力されていればステップS318の音声通信終了処理に進みそうでなければステップS306へ戻り処理を繰り返す。 In the next step S316, if the end command of the mixed reality device for the instructor is input, the process returns to step S306, and the process is repeated unless the process proceeds to the voice communication end process in step S318.
ステップS318では、音声通信コネクション、映像通信コネクションを切断し、音声処理を終了する。ステップS320では管理サーバ60との通信を切断して処理を終了する。 In step S318, the audio communication connection and the video communication connection are disconnected, and the audio processing ends. In step S320, the communication with the management server 60 is disconnected and the process ends.
この作業空間モードで指示者のスタイラスのボタンが押下されたときのボタンイベント処理を図7(1)に示す。スタイラスの第一ボタン47が押下によりステップS400が起動される。ステップS400では、指示者のスタイラス、HMDの位置姿勢を仮想物体管理部10bより読み出して管理サーバ60へ送信して、図6作業空間モードのフローに戻る。またスタイラスの第二ボタン48が押下されたときは、後述する共有仮想モードの処理に進む。共有仮想モードの処理を図6(2)のフローチャートで説明する。
FIG. 7A shows button event processing when the stylus button of the instructor is pressed in this workspace mode. Step S400 is activated when the
ステップS330では、指示者のスタイラス41bの3次元位置姿勢情報(xs,ys,zs,αs,βs,γs)が読み出され位置姿勢計測部11bに入力され仮想物体管理部10bに保持される。
In step S330, the three-dimensional position / orientation information (x s , y s , z s , α s , β s , γ s ) of the instructor's
ステップS334では、ステップ330、332で得られたスタイラスの3次元位置姿勢データを管理サーバ60へ送信する。
In step S334, the stylus three-dimensional position and orientation data obtained in
ステップS336では、作業者ポインタ、指示者ポインタ、仮想物体の変更に関する情報が管理サーバ60からのイベントとして仮想物体送受信部31bを通して受信される。 In step S336, information regarding the change of the worker pointer, the instructor pointer, and the virtual object is received as an event from the management server 60 through the virtual object transmitting / receiving unit 31b.
ステップS338では、ステップS336で得られた変更情報を基に仮想物体管理部16bに格納されているシーングラフを変更する。 In step S338, the scene graph stored in the virtual object management unit 16b is changed based on the change information obtained in step S336.
ステップS340では、ステップS338で変更されたシーングラフを指示者視点(指示者HMD位置姿勢)からの左眼用CG画像と右眼用CG画像を画像生成部13bで生成して画像出力部17へ出力することにより表示器23に表示される。次にステップS330に戻る。 In step S340, a left-eye CG image and a right-eye CG image from the instructor viewpoint (instructor HMD position and orientation) are generated by the image generation unit 13b from the scene graph changed in step S338, and the image output unit 17 is processed. The output is displayed on the display 23. Next, the process returns to step S330.
以上の処理によって指示者視点による仮想物体だけからなる仮想空間映像が指示者HMDに表示される。この共有仮想モードで指示者のスタイラスボタンが押下された際の処理を図7(2)に示す。 Through the above processing, a virtual space image consisting only of a virtual object from the instructor's viewpoint is displayed on the instructor HMD. FIG. 7B shows the processing when the stylus button of the instructor is pressed in this shared virtual mode.
スタイラスの第一ボタン47が押下によりステップS410が起動される。ステップS410では、指示者のスタイラスの位置姿勢を仮想物体管理部10bより読み出して管理サーバ60へ送信して、図6(2)共有仮想モードのフローに戻る。またスタイラスの第二ボタン48が押下されたときは、ステップS420で、管理サーバの仮想物体管理部62に格納されている指示者操作物IDテーブルの該当欄をクリアするリクエストを管理サーバへ送信して、後述する単独仮想モードの処理に進む。
Step S410 is activated when the
単独仮想モードの処理を図6(3)のフローチャートで説明する。 The processing in the single virtual mode will be described with reference to the flowchart of FIG.
ステップS350では、指示者のスタイラス41bの3次元位置姿勢情報(xs,ys,zs,αs,βs,γs)が読み出され位置姿勢計測部11bに入力され仮想物体管理部10bに保持される。
In step S350, the three-dimensional position / orientation information (x s , y s , z s , α s , β s , γ s ) of the instructor's
ステップS352では、HMD3次元位置センサ21bから指示者の視点の位置姿勢(xh,yh,zh,αh,βh,γh)が読み出され位置姿勢計測部11bに入力され仮想物体管理部10bに保持される。 In step S352, the position and orientation (x h , y h , z h , α h , β h , γ h ) of the instructor's viewpoint is read from the HMD three-dimensional position sensor 21b and input to the position / orientation measurement unit 11b. It is held in the management unit 10b.
ステップS354では、現在指示者が仮想物体を操作中か否かを、図13に示す指示者操作物IDテーブルをチェックして判定する。この表は作業者複合現実感装置の仮想物体管理部16bに保持されており、指示者がどの仮想物体を操作中かを示す値が格納されている。図13の例では仮想物体Aを作業者が操作中であることを示している。操作中の仮想物体がない場合にはnullが格納されている。このテーブルをチェックして仮想物体を操作中の場合にはステップS356へそうでなければステップS358へ進む。 In step S354, it is determined whether or not the instructor is currently operating the virtual object by checking the instructor operation article ID table shown in FIG. This table is held in the virtual object management unit 16b of the worker mixed reality device, and stores a value indicating which virtual object is being operated by the instructor. In the example of FIG. 13, the operator is operating the virtual object A. If there is no virtual object being operated, null is stored. If this table is checked and the virtual object is being operated, the process proceeds to step S356; otherwise, the process proceeds to step S358.
ステップS356では、指示者のスタイラス位置へ仮想物体を移動するイベントを発行する。 In step S356, an event for moving the virtual object to the stylus position of the instructor is issued.
ステップS358では、指示者のスタイラス位置や仮想物体の変更がある場合にはそれをシーングラフへ反映させ、HMDの位置姿勢データを視点位置とする。 In step S358, if there is a change in the stylus position or virtual object of the instructor, it is reflected in the scene graph, and the position and orientation data of the HMD is set as the viewpoint position.
ステップS360では、シーングラフのデータを画像生成部13bにて左眼用CGと右眼用CGを生成し画像出力部17へ書き込んでこれらのCGを表示器23bへ表示させる。
In step S360, the left-eye CG and the right-eye CG are generated by the image generation unit 13b in the image graph generation unit 13b and written to the image output unit 17, and these CGs are displayed on the
また指示者用複合現実感装置10bでは、上記のフローの他にバックグラウンドで管理サーバからのイベントを受信して適宜シーングラフの変更などが行なわれるものとする。 In addition, in the mixed reality apparatus 10b for the instructor, in addition to the above flow, an event from the management server is received in the background, and a scene graph is appropriately changed.
この単独仮想モードで指示者のスタイラスボタンが押下された際の処理を図7(3)に示す。スタイラスの第一ボタン47の押下によりステップS430が起動される。ステップ430では、指示者が仮想物体を操作中か否かを図13の指示者操作物IDテーブルをチェックして判定する。仮想物体を操作中の場合にはステップS432へ進み、そうでなければステップS434へ進む。
FIG. 7 (3) shows processing when the stylus button of the instructor is pressed in this single virtual mode. Step S430 is activated when the
ステップS432では、図13の指示者操作物IDテーブルをクリアしnullを格納して、図6(3)の単独仮想モードのフローに戻る。 In step S432, the instructor operation article ID table of FIG. 13 is cleared, null is stored, and the flow returns to the single virtual mode flow of FIG.
ステップS434では指示者のスタイラス位置と仮想空間に存在する全ての仮想物体との距離を比較して次のステップS436へ進む。 In step S434, the distance between the stylus position of the instructor and all the virtual objects existing in the virtual space is compared, and the process proceeds to the next step S436.
ステップS436では、距離がある閾値以下の仮想物体が存在すれば(複数の場合距離の短い方を選ぶ)その仮想物体を操作対象物としてステップS438に進み、存在しなければ図6(3)の単独仮想モードのフローに戻る。 In step S436, if there is a virtual object whose distance is equal to or smaller than a certain threshold (select a shorter distance in a plurality of cases), the process proceeds to step S438 using that virtual object as an operation target. Return to the single virtual mode flow.
ステップS438では、ステップS436で求められた操作対象物IDを図13の指示者操作物IDテーブルへ書き込み第一ボタンイベント処理を終了する。 In step S438, the operation object ID obtained in step S436 is written into the instructor operation object ID table in FIG. 13 and the first button event process is terminated.
スタイラスの第二ボタン48の押下によりステップS440が起動される。ステップS440では。図13の指示者操作物IDテーブルをクリアしてnullを格納する。 Step S440 is activated by pressing the second button 48 of the stylus. In step S440. The instructor operation article ID table in FIG. 13 is cleared and null is stored.
ステップS442では、仮想物体管理部16bに格納されている仮想物体のシーングラフ全体を管理サーバの仮想物体管理部62へアップロードするリクエストを管理サーバへ送り、データをアップロードして、作業空間モードのフローのステップS306からの処理を行なっていく。 In step S442, a request to upload the entire scene graph of the virtual object stored in the virtual object management unit 16b to the virtual object management unit 62 of the management server is sent to the management server, the data is uploaded, and the flow of the workspace mode The process from step S306 is performed.
次に管理サーバ60での処理を図8のフローチャートを用いて説明する。管理サーバでは作業者複合現実感装置10aと指示者複合現実感装置10bからのリクエストやイベントを受付けてその処理を行なう。 Next, processing in the management server 60 will be described with reference to the flowchart of FIG. The management server accepts requests and events from the worker mixed reality apparatus 10a and the instructor mixed reality apparatus 10b and processes them.
作業者スタイラス処理は、作業者複合現実感装置からスタイラス/HMD位置イベントを受信した際に起動される。ステップS500では、作業者スタイラス/HMDの位置姿勢を仮想物体管理部62に格納されているシーングラフに反映させる。 The worker stylus processing is activated when a stylus / HMD position event is received from the worker mixed reality device. In step S500, the position / orientation of the worker stylus / HMD is reflected in the scene graph stored in the virtual object management unit 62.
ステップS502では作業者が仮想物体を操作中か否かを図12の作業者/指示者操作物IDテーブルをチェックして判定する。作業者/指示者操作物IDテーブルは仮想物体管理部62にあり、作業者の操作している仮想物体と指示者が操作している仮想物体のIDが格納されている。図12の例では、作業者はどの仮想物体も操作していないのでnullが格納されており、指示者は仮想物体Cを操作している。作業者操作物IDに仮想物体IDがあればステップS504へそうでなければステップS506へ進む。 In step S502, it is determined whether or not the operator is operating the virtual object by checking the operator / instructor operation article ID table of FIG. The operator / instructor operation article ID table is in the virtual object management unit 62, and stores the virtual object operated by the operator and the ID of the virtual object operated by the instructor. In the example of FIG. 12, since the operator does not operate any virtual object, null is stored, and the instructor operates the virtual object C. If the operator operation article ID has a virtual object ID, the process proceeds to step S504. Otherwise, the process proceeds to step S506.
ステップS504では、ステップ500で更新されたスタイラス位置へ操作中の仮想物体を移動させ、仮想物体管理部62に格納されているシーングラフを変更して、ステップS506へ進む。 In step S504, the virtual object being operated is moved to the stylus position updated in step 500, the scene graph stored in the virtual object management unit 62 is changed, and the process proceeds to step S506.
ステップS506では、更新された作業者スタイラス、HMDと仮想物体の情報を作業者ホストへ送信して、作業者スタイラス処理を終了する。 In step S506, the updated worker stylus, HMD, and virtual object information are transmitted to the worker host, and the worker stylus processing ends.
作業者ボタン処理は、作業者がスタイラスのボタンを押下したときに起動される処理で、ステップS510では、現在作業者が仮想物体を操作中か否かを図12の作業者操作物IDを調べて、nullであれば操作中でないと判定しステップS514に進み、作業者操作物IDが格納されていれば操作中と判定してステップS512に進む。 The worker button process is started when the worker presses the stylus button. In step S510, the operator operation object ID in FIG. 12 is checked to determine whether or not the worker is currently operating the virtual object. If it is null, it is determined that the operation is not being performed, and the process proceeds to step S514. If the operator operation article ID is stored, it is determined that the operation is being performed and the process proceeds to step S512.
ステップS512では、図12の作業者操作物IDの内容をnullに置き換え作業者ボタンイベントの処理を終了する。 In step S512, the content of the worker operation item ID in FIG. 12 is replaced with null, and the processing of the worker button event ends.
ステップS514では送信されてきた現在の作業者のスタイラス位置と作業者複合現実空間全ての仮想物体の位置を比較して次のステップに進む。 In step S514, the current stylus position of the transmitted worker and the positions of all virtual objects in the worker mixed reality space are compared, and the process proceeds to the next step.
ステップS516では、距離がある閾値以下の仮想物体が存在すれば(複数の場合距離の短い方を選ぶ)その仮想物体を操作対象物としてステップS518に進み、存在しなければ作業者ボタンイベントの処理を終了する。 In step S516, if there is a virtual object whose distance is equal to or smaller than a certain threshold (in the case of multiple virtual objects, the shorter distance is selected), the virtual object is set as the operation target, and the process proceeds to step S518. Exit.
ステップS518では、前ステップで求められた操作対象物IDと図12の指示者操作物IDを調べ、同じであれば操作対象物は指示者が操作中と判定し作業者ボタンイベント処理を終了し、同じでなければステップS520に進む。 In step S518, the operation object ID obtained in the previous step and the instructor operation object ID in FIG. 12 are checked. If they are the same, it is determined that the operation object is being operated by the instructor, and the operator button event process is terminated. If not, the process proceeds to step S520.
ステップS520では、ステップS516で求められた操作対象物IDを図12の作業者操作物IDへ書き込み作業者ボタンイベント処理を終了する。 In step S520, the operation object ID obtained in step S516 is written in the worker operation object ID of FIG. 12, and the worker button event process is terminated.
指示者スタイラス処理Iは、図6(1)作業空間モードのステップ310にて送信されたイベント処理フローである。ステップS530では、指示者の視点位置であるHMD3次元位置センサ21bからの位置姿勢(xh,yh,zh,αh,βh,γh)と指示者のスタイラス41bの3次元位置姿勢情報(xs,ys,zs,αs,βs,γs)が受信される。これらは指示者の存在する空間の世界座標系での値であるので、スタイラスの位置姿勢を視点位置姿勢からの相対位置に変換して指示者スタイラス相対位置(xd,yd,zd,αd,βd,γd)=(xs−xh,ys−yh,zs−zh,αs−αh,βs−βh,γs−γh)を計算する。
The instructor stylus processing I is an event processing flow transmitted in
ステップS532では、前ステップで計算された指示者スタイラス相対位置を新たなスタイラスイベントとして仮想物体管理部62のシーングラフを変更する。 In step S532, the scene graph of the virtual object management unit 62 is changed using the relative position of the instructor stylus calculated in the previous step as a new stylus event.
ステップS534では指示者が仮想物体を操作中か否かを図12の作業者/指示者操作物IDテーブルの指示者操作物IDをチェックして判定する。指示者操作物IDがnullの場合には仮想物体を操作中でないと判定し、ステップS538へ、そうでなければ稼動物体を操作中と判定しステップS536へ進む。 In step S534, it is determined whether or not the instructor is operating the virtual object by checking the instructor operation object ID in the worker / instructor operation object ID table of FIG. If the instructor operation article ID is null, it is determined that the virtual object is not being operated, and the process proceeds to step S538. Otherwise, it is determined that the operating object is being operated, and the process proceeds to step S536.
ステップS536では、ステップ532で更新されたスタイラス位置へ操作中の仮想物体を移動させ、仮想物体管理部62に格納されているシーングラフを変更して、ステップS538へ進む。 In step S536, the virtual object being operated is moved to the stylus position updated in step 532, the scene graph stored in the virtual object management unit 62 is changed, and the process proceeds to step S538.
ステップS538では、更新された指示者スタイラス、HMDと仮想物体の情報を作業者用複合現実感装置10a送信して、指示者スタイラス処理Iを終了する。 In step S538, the updated instructor stylus, HMD, and virtual object information are transmitted to the worker mixed reality apparatus 10a, and the instructor stylus processing I is terminated.
指示者スタイラス処理IIは、図6(2)共有仮想モードのステップ334にて送信されたイベント処理フローである。ステップS540では、指示者の視点位置であるHMD3次元位置センサ21bからの位置姿勢と指示者のスタイラス41bの3次元位置姿勢情報イベントが受信され、この情報をもとに仮想物体管理部62のシーングラフを変更する。
The instructor stylus processing II is an event processing flow transmitted in
ステップS542では指示者が仮想物体を操作中か否かを図12の作業者/指示者操作物IDテーブルの指示者操作物IDをチェックして判定する。指示者操作物IDがnullの場合には仮想物体を操作中でないと判定し、ステップS546へ、そうでなければ稼動物体を操作中と判定しステップS544へ進む。 In step S542, it is determined whether or not the instructor is operating the virtual object by checking the instructor operation object ID in the worker / instructor operation object ID table of FIG. If the instructor operation article ID is null, it is determined that the virtual object is not being operated, and the process proceeds to step S546. Otherwise, it is determined that the operating object is being operated, and the process proceeds to step S544.
ステップS544では、ステップ540で更新されたスタイラス位置へ操作中の仮想物体を移動させ、仮想物体管理部62に格納されているシーングラフを変更して、ステップS546へ進む。 In step S544, the virtual object being operated is moved to the stylus position updated in step 540, the scene graph stored in the virtual object management unit 62 is changed, and the process proceeds to step S546.
ステップS546では、更新された指示者スタイラスと仮想物体の情報を作業者用複合現実感装置10aと指示者用複合現実感装置10bへ送信して、指示者スタイラス処理IIを終了する。 In step S546, the updated information on the instructor stylus and the virtual object is transmitted to the worker mixed reality apparatus 10a and the instructor mixed reality apparatus 10b, and the instructor stylus processing II is terminated.
指示者第一ボタンI処理は、指示者が作業空間モードでスタイラス第一ボタンを押下した時に起動される図7(1)のステップS400処理によってサーバに送信されるイベント処理である。ステップS550では、指示者の視点位置であるHMD3次元位置センサ21bからの位置姿勢(xh,yh,zh,αh,βh,γh)と指示者のスタイラス41bの3次元位置姿勢情報(xs,ys,zs,αs,βs,γs)が受信される。これらは指示者の存在する空間の世界座標系での値であるので、スタイラスの位置姿勢を視点位置姿勢からの相対位置に変換して指示者スタイラス相対位置(xd,yd,zd,αd,βd,γd)=(xs−xh,ys−yh,zs−zh,αs−αh,βs−βh,γs−γh)を計算する。
The instructor first button I process is an event process transmitted to the server by the process of step S400 in FIG. 7A that is started when the instructor presses the first stylus button in the work space mode. In step S550, the position / posture (x h , y h , z h , α h , β h , γ h ) from the HMD three-dimensional position sensor 21b that is the viewpoint position of the instructor and the three-dimensional position / posture of the instructor's
ステップS552では、現在指示者が仮想物体を操作中か否かを図12の指示者操作物IDを調べて、nullであれば操作中でないと判定しステップS556に進み、指示者操作物IDが格納されていれば操作中と判定してステップS554に進む。 In step S552, it is determined whether or not the instructor is currently operating the virtual object by checking the instructor operation article ID in FIG. 12, and if it is null, it is determined that the operation is not in progress, and the process proceeds to step S556. If it is stored, it is determined that the operation is being performed, and the process proceeds to step S554.
ステップS554では、図12の指示者操作物IDの内容をnullに置き換え作業者ボタンイベントの処理を終了する。 In step S554, the content of the instructor operation article ID in FIG. 12 is replaced with null, and the processing of the operator button event ends.
ステップS556では仮想物体管理部62に格納されている指示者の現在のスタイラス位置と作業者複合現実空間全ての仮想物体の位置を比較して次のステップに進む。 In step S556, the current stylus position of the instructor stored in the virtual object management unit 62 is compared with the positions of the virtual objects in all worker mixed reality spaces, and the process proceeds to the next step.
ステップS558では、距離がある閾値以下の仮想物体が存在すれば(複数の場合距離の短い方を選ぶ)その仮想物体を操作対象物としてステップS560に進み、存在しなければ作業者ボタンイベントの処理を終了する。 In step S558, if there is a virtual object whose distance is equal to or smaller than a certain threshold value (if a plurality of virtual objects are selected, the shorter distance is selected), the virtual object is set as the operation target, and the process proceeds to step S560. Exit.
ステップS560では、前ステップで求められた操作対象物IDと図12の作業者操作物IDを調べ、同じであれば操作対象物は作業者が操作中と判定し指示者ボタンイベント処理Iを終了し、同じでなければステップS562に進む。 In step S560, the operation object ID obtained in the previous step and the operator operation object ID in FIG. 12 are checked. If they are the same, the operation object is determined to be in operation by the operator, and the instructor button event process I ends. If not, the process proceeds to step S562.
ステップS562では、ステップS558で求められた操作対象物IDを図12の指示者操作物IDへ書き込み指示者ボタンイベント処理Iを終了する。 In step S562, the operation object ID obtained in step S558 is written into the instructor operation object ID in FIG. 12, and the instructor button event process I is terminated.
指示者第一ボタンII処理は、指示者が共有仮想モードでスタイラス第一ボタンを押下した時に起動される図7(2)のステップS410処理によってサーバに送信されるイベント処理である。ステップS570では、現在指示者が仮想物体を操作中か否かを図12の指示者操作物IDを調べて、nullであれば操作中でないと判定しステップS574に進み、指示者操作物IDが格納されていれば操作中と判定してステップS572に進む。 The instructor first button II process is an event process transmitted to the server by the process of step S410 in FIG. 7B that is started when the instructor presses the first stylus button in the shared virtual mode. In step S570, it is determined whether or not the instructor is currently operating the virtual object by checking the instructor operation object ID in FIG. 12, and if it is null, it is determined that the operation is not in progress, and the process proceeds to step S574. If it is stored, it is determined that the operation is in progress, and the process proceeds to step S572.
ステップS572では、図12の指示者操作物IDの内容をnullに置き換え作業者ボタンイベントの処理を終了する。 In step S572, the content of the instructor operation article ID in FIG. 12 is replaced with null, and the processing of the operator button event ends.
ステップS574では送信されてきた現在の指示者のスタイラス位置と作業者複合現実空間全ての仮想物体の位置を比較して次のステップに進む。 In step S574, the transmitted current stylus position of the instructor is compared with the positions of all virtual objects in the worker mixed reality space, and the process proceeds to the next step.
ステップS576では、距離がある閾値以下の仮想物体が存在すれば(複数の場合距離の短い方を選ぶ)その仮想物体を操作対象物としてステップS578に進み、存在しなければ作業者ボタンイベントの処理を終了する。 In step S576, if there is a virtual object whose distance is equal to or smaller than a certain threshold value (in the case of a plurality of objects, the shorter distance is selected), the virtual object is set as the operation target, and the process proceeds to step S578. Exit.
ステップS578では、前ステップで求められた操作対象物IDと図12の作業者操作物IDを調べ、同じであれば操作対象物は作業者が操作中と判定し指示者ボタンイベント処理IIを終了し、同じでなければステップS580に進む。 In step S578, the operation object ID obtained in the previous step and the operator operation object ID in FIG. 12 are checked. If they are the same, it is determined that the operation object is being operated by the operator, and the instructor button event process II is terminated. If not, the process proceeds to step S580.
ステップS580では、ステップS576で求められた操作対象物IDを図12の指示者操作物IDへ書き込み指示者ボタンイベント処理IIを終了する。 In step S580, the operation object ID obtained in step S576 is written into the instructor operation object ID in FIG. 12, and the instructor button event process II is terminated.
指示者操作物IDクリア処理は、指示者が共有仮想モードでスタイラス第二ボタンを押下した時に起動される図7(2)のステップS420処理によってサーバに送信されるイベント処理である。ステップS584では、仮想物体管理部62に格納されている指示者/作業者操作物IDテーブルの指示者操作物IDの内容をnullに置き換えて指示者操作物IDクリア処理を終了する。 The instructor operation article ID clear process is an event process transmitted to the server by the process of step S420 in FIG. 7B that is started when the instructor presses the stylus second button in the shared virtual mode. In step S584, the content of the instructor operation article ID in the instructor / worker operation article ID table stored in the virtual object management unit 62 is replaced with null, and the instructor operation article ID clear process ends.
指示者シーングラフアップロード処理は、指示者が単独仮想モードでスタイラス第二ボタンを押下した時に起動される図7(3)のステップS442処理によってサーバに送信されるイベント処理である。ステップS588では、指示者複合現実感装置からアップロードされてきた仮想物体のシーングラフで仮想物体管理部62に蓄積されているシーングラフを置き換える。ステップS590では、置き換えられたシーングラフの情報を作業者複合現実感装置へダウンロードして、処理を終了する。 The instructor scene graph upload process is an event process transmitted to the server by the process of step S442 in FIG. 7 (3) that is started when the instructor presses the stylus second button in the single virtual mode. In step S588, the scene graph stored in the virtual object management unit 62 is replaced with the virtual object scene graph uploaded from the instructor mixed reality apparatus. In step S590, the replaced scene graph information is downloaded to the worker mixed reality apparatus, and the process ends.
本実施形態では、作業者のモード切替えボタンを図3の48に示すスタイラスの第二ボタンとしたがこれに限るものではなく、これを次モードに移る、前モードに戻るの二つのボタンに割り当ててもよいし、モードの数だけボタンを準備してそれぞれのモードに進む機能を割り当てても良い。 In the present embodiment, the operator's mode switching button is the second button of the stylus shown in 48 of FIG. 3, but is not limited to this, and is assigned to two buttons for moving to the next mode and returning to the previous mode. Alternatively, buttons may be prepared for the number of modes and a function of proceeding to each mode may be assigned.
また指示者が共有仮想モードの時に作業者に提示される表示器には、図4(2)に示すような仮想物体を仮想空間の背景に配置した映像が映されるが、指示者が共有仮想モードに入る瞬間の作業者複合現実空間の映像(例えば図4(1)に示すような映像)をフリーズした背景を用いても良い。この場合作業者が視点を変えても背景映像は変化しないが、共有仮想物体の視点は自由に変更できるので発明の趣旨は損なわれない。 In addition, the display device presented to the operator when the instructor is in the shared virtual mode displays a video in which a virtual object as shown in FIG. 4 (2) is arranged in the background of the virtual space. You may use the background which freezes the image | video (for example, image | video as shown in FIG. 4 (1)) of the worker mixed reality space at the moment of entering virtual mode. In this case, even if the worker changes the viewpoint, the background video does not change, but since the viewpoint of the shared virtual object can be freely changed, the gist of the invention is not impaired.
(第二の実施形態)
第一の実施形態において、指示者は任意の時点で作業空間モード、共有仮想モード、単独仮想モードへ移行できる。しかしながら作業者表示装置23aの映像は、指示者のモード変化を反映しない。このため作業者にとっては、指示者がどのモードにいるのかが判断できないので、コミュニケーションが円滑に行なわれない可能性がある。そこで第二の実施形態では、作業者が作業者複合現実感映像を見ながら、指示者のモードを示す識別できるようにする。具体的には、指示者のポインタ41bの色をモードによって変えるようにする。例えば図2(1)で、指示者が作業視点モードの場合には、指示者ポインタ41bを緑色にし、共有仮想モードの場合には指示者ポインタ41bを青色にし、単独仮想モードの場合には指示者ポインタ41bを茶色にする。このようにする事で、作業者は作業者複合現実空間の中で指示者のポインタの色により指示者がどのモードであるかを判断することができる。この動作の具体的処理を以下に記述する。
(Second embodiment)
In the first embodiment, the instructor can shift to the work space mode, the shared virtual mode, and the single virtual mode at any time. However, the image on the
図6に示す指示者処理フローのステップS300初期化処理の時点で作業空間モードでのポインタの色が設定されているとする。上述の例では青色が設定されている。図7に示す各モードで作業者がスタイラスの第二ボタンを押した際に起動される第二ボタン処理が第一の実施例と異なるので、図9で説明する。作業空間モードでの第二ボタン処理を図9(1)に示す。作業者ポインタの色変更イベント(上述の例の場合緑色への変更イベント)を管理サーバへ送信するステップS402が第一の実施例に加わっている。同様に共有仮想モードの第二ボタン処理ではステップS422(上述の例の場合茶色への変更イベント送信)処理が、単独仮想モードではステップS444(上述の例の場合青色への変更イベント送信)の処理が加わっている。また管理サーバで色変更処理を受信した場合の処理を図9(4)に示す。ステップS592では仮想物体管理部62に蓄積されているシーングラフ中のポインタを指定された色へ変更し、次のステップS594でこの色変更イベントを作業者複合現実感装置と指示者複合現実感装置へ送信する。作業者複合現実感装置と指示者複合現実感装置ではこの色変更イベントによりそれぞれに蓄積されているシーングラフ中の指示者ポインタ41bの色を変更する。これらの処理によって作業者のモードごとに異なる色の作業者ポインタを表示することができる。
Assume that the pointer color in the work space mode is set at the time of the initialization process in step S300 of the instructor process flow shown in FIG. In the above example, blue is set. The second button process activated when the operator presses the second button of the stylus in each mode shown in FIG. 7 is different from that in the first embodiment, and will be described with reference to FIG. The second button process in the workspace mode is shown in FIG. Step S402 for transmitting an operator pointer color change event (change event to green in the above example) to the management server is added to the first embodiment. Similarly, in the second button process in the shared virtual mode, the process of step S422 (change event transmission to brown in the above example) is performed, and in the single virtual mode, the process of step S444 (change event transmission to blue in the above example) is performed. Is added. FIG. 9 (4) shows the process when the management server receives the color change process. In step S592, the pointer in the scene graph stored in the virtual object management unit 62 is changed to the designated color, and in the next step S594, the color change event is changed to the worker mixed reality device and the instructor mixed reality device. Send to. The worker mixed reality device and the instructor mixed reality device change the color of the
本実施形態では指示者ポインタの色で、作業者が指示者のモードを識別できるようにしたが色に限定されず、ポインタの形状など視覚的に識別できるものであれば構わない。 In the present embodiment, the color of the pointer pointer allows the operator to identify the mode of the pointer. However, the present invention is not limited to the color, and any pointer can be used as long as it can be visually identified.
(第三の実施形態)
第一の実施形態において、指示者が作業者空間モードの時には作業者の視点を両者が共有しているが、指示者が共有仮想モードの時には作業者、指示者がそれぞれ独立した視点で動作することになる。この時お互いのポインタは各々が見ている表示器の映像に写っているが、お互いの視点位置を知ることができない。このような状況では、共有仮想物体をまったく異なった視点で眺めながら作業指示することもあるため、お互いのコミュニケーションに誤解を生じる可能性もある。そこで第三の実施形態では、指示者が共有仮想モードの時に作業者の表示器23aに指示者の視点を、指示者の表示器23bに作業者の視点を表示することにより、お互いの視点を確認できるようにする。図10は、指示者が共有仮想モード時の表示器の画面例である。(1)は作業者表示装置23aの画面で仮想物体43と作業者ポインタ41a、指示者ポインタ41bに加えて指示者の視点が55bとして示されている。また図9(2)には同様に作業者の視点55aが示されている。このようにして両者がお互いの視点を確認することができる。この動作の具体的処理を第一の実施形態と異なる処理を以下に記述する。
(Third embodiment)
In the first embodiment, when the instructor is in the worker space mode, the both viewpoints of the operator are shared. However, when the instructor is in the shared virtual mode, the operator and the instructor operate from independent viewpoints. It will be. At this time, the pointers of each other are shown in the video images of the display devices that are being viewed, but the viewpoint positions of each other cannot be known. In such a situation, work instructions may be given while looking at the shared virtual object from a completely different viewpoint, which may cause misunderstanding of mutual communication. Therefore, in the third embodiment, when the instructor is in the shared virtual mode, the viewpoint of the instructor is displayed on the
指示者用仮想現実感装置における指示者処理フローのうち図6(2)に示す共有仮想モードの処理が図11(1)のようになる。異なる部分はステップS332でHMDの3次元位置姿勢を位置姿勢計測部11bより取得する。またステップS335では、ステップS332で得られたスタイラスの位置姿勢とステップ335で得られたHMDの位置姿勢のイベントを管理サーバ60へ送信する。またステップS336では、ポインタの情報に加えて、HMDの情報も受信することにより図10に示すような視点を示すCGを表示することができる。また図5に示す作業者用複合現実感装置における作業者処理フローのステップS190でポインタ、仮想物体の情報に加えてHMDの情報も受信することにより視点を表示するCGを表示することができる。管理サーバ60での処理は図8(4)に示す指示者スタイラス処理II処理が図11(2)のように変更される。ステップS541は図8(4)のステップ540の処理に加えて指示者のHMDの3次元位置姿勢を取得する処理が必要になる。またステップS547では、図8(4)のステップS546に加えて指示者のHMDの情報も送信することになる。また図8(7)の指示者操作物IDクリア処理は図11(3)のように変更になる。ステップS596では、仮想物体管理部62に格納されている指示者/作業者操作物IDテーブルの指示者操作物IDの内容をnullに置き換え、指示者/作業者の視点を表すCGをシーングラフから削除する。ステップS598では、この指示者/作業者視点CGクリアイベントを作業者用複合現実感装置と指示者用複合現実感装置へ送信して処理を終了する。
In the instructor process flow in the instructor virtual reality apparatus, the process in the shared virtual mode shown in FIG. 6B is as shown in FIG. For the different part, in step S332, the three-dimensional position and orientation of the HMD are acquired from the position and orientation measurement unit 11b. In step S335, the stylus position and orientation obtained in step S332 and the HMD position and orientation event obtained in
本実施形態では視点を示す画像として顔をあらわすCGを用いたが、視線を示す矢印を用いたり、作業者・指示者の実写映像を用いたりすることも可能で、視点位置が視覚的に認識されれば本発明の趣旨は達成できる。 In this embodiment, a CG representing a face is used as an image indicating a viewpoint. However, an arrow indicating a line of sight or a live-action image of an operator / instructor can be used to visually recognize a viewpoint position. Then, the gist of the present invention can be achieved.
Claims (8)
前記第1のユーザが装着している第1撮像部の映像と、前記第1撮像部の位置姿勢に基づく仮想物体画像とに基づく複合現実空間画像を取得する複合現実空間画像取得工程と、
前記第1のユーザによって行われた前記仮想物体に対するイベント情報を取得するイベント情報取得工程と、
前記第2のユーザの視点位置姿勢情報を取得する第2ユーザ指定位置姿勢情報取得工程と、
前記第2のユーザの視点位置姿勢情報に基づき、前記イベント情報に応じた仮想物体画像を生成する生成工程とを有し、
前記第1画像を前記第2のユーザに提示する第1モードと、前記仮想物体画像を前記第2のユーザに提示する第2モードとを有することを特徴とする情報処理方法。 An information processing method in which a second user shares a mixed reality space image in which a virtual object is superimposed and displayed in a space where the first user exists,
A mixed reality space image acquisition step of acquiring a mixed reality space image based on a video of the first imaging unit worn by the first user and a virtual object image based on a position and orientation of the first imaging unit;
An event information acquisition step of acquiring event information for the virtual object performed by the first user;
A second user-specified position / orientation information acquisition step of acquiring viewpoint position / orientation information of the second user;
Generating a virtual object image corresponding to the event information based on the viewpoint position and orientation information of the second user,
An information processing method comprising: a first mode for presenting the first image to the second user; and a second mode for presenting the virtual object image to the second user.
作業者の視点からの前記作業者複合現実空間のステレオ映像を指示者に伝送するステレオ映像伝送手段、
前記仮想物体を前記作業者と前記指示者で共有する仮想物体共有手段、
作業者と指示者がステレオ映像を立体視できる立体視手段とを備え、
前記指示者が、前記作業者視点からのステレオ映像を共有するモードと、前記作業者視点と独立した視点で前記仮想物体を操作するモードを有することを特徴とする情報処理システム。 An information processing system for remotely sharing a worker mixed reality space in which a virtual object is superimposed and displayed in a space where a worker exists,
Stereo video transmission means for transmitting a stereo video of the worker mixed reality space from the worker's viewpoint to the instructor,
Virtual object sharing means for sharing the virtual object between the operator and the instructor;
A stereoscopic means for enabling the operator and the instructor to stereoscopically view the stereoscopic video;
An information processing system comprising: a mode in which the instructor shares a stereo video from the worker viewpoint; and a mode in which the virtual object is operated from a viewpoint independent of the worker viewpoint.
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005112109A JP4677269B2 (en) | 2005-04-08 | 2005-04-08 | Information processing method and system |
EP20060250471 EP1686554A3 (en) | 2005-01-31 | 2006-01-27 | Virtual space generating system, image processing apparatus and information processing method |
US11/340,550 US7843470B2 (en) | 2005-01-31 | 2006-01-27 | System, image processing apparatus, and information processing method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005112109A JP4677269B2 (en) | 2005-04-08 | 2005-04-08 | Information processing method and system |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2006293605A true JP2006293605A (en) | 2006-10-26 |
JP4677269B2 JP4677269B2 (en) | 2011-04-27 |
Family
ID=37414128
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2005112109A Expired - Fee Related JP4677269B2 (en) | 2005-01-31 | 2005-04-08 | Information processing method and system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4677269B2 (en) |
Cited By (29)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008287588A (en) * | 2007-05-18 | 2008-11-27 | Canon Inc | Image processor and image processing method |
JP2010217719A (en) * | 2009-03-18 | 2010-09-30 | Ricoh Co Ltd | Wearable display device, and control method and program therefor |
WO2012063542A1 (en) * | 2010-11-09 | 2012-05-18 | 富士フイルム株式会社 | Device for providing augmented reality |
JP2012242930A (en) * | 2011-05-17 | 2012-12-10 | Sharp Corp | Video presentation system, video presentation method, program and recording medium |
JP2015215745A (en) * | 2014-05-09 | 2015-12-03 | シャープ株式会社 | Telecommunication system |
JP2016071900A (en) * | 2014-09-30 | 2016-05-09 | キヤノンマーケティングジャパン株式会社 | Information processing system and control method of the same, and program |
JP2016224810A (en) * | 2015-06-02 | 2016-12-28 | キヤノン株式会社 | System and method for controlling system |
JP2017033299A (en) * | 2015-07-31 | 2017-02-09 | キヤノンマーケティングジャパン株式会社 | Information processing device, information processing system, control method and program thereof |
JP2018055196A (en) * | 2016-09-26 | 2018-04-05 | キヤノン株式会社 | Composite reality presentation system, information processing unit, and control method thereof |
WO2018073969A1 (en) * | 2016-10-21 | 2018-04-26 | サン電子株式会社 | Image display device and image display system |
JP2018522324A (en) * | 2015-05-14 | 2018-08-09 | マジック リープ, インコーポレイテッドMagic Leap,Inc. | Privacy-sensitive consumer camera combined with augmented reality system |
WO2018225806A1 (en) * | 2017-06-08 | 2018-12-13 | ナーブ株式会社 | Information management system and information management method |
JP2019164650A (en) * | 2018-03-20 | 2019-09-26 | 東芝インフォメーションシステムズ株式会社 | Display control device, display control system, display control method, and display control program |
WO2019220803A1 (en) * | 2018-05-18 | 2019-11-21 | 株式会社ワコム | Position indication device and information processing device |
JP2019215933A (en) * | 2011-10-28 | 2019-12-19 | マジック リープ, インコーポレイテッドMagic Leap,Inc. | System and method for augmented and virtual reality |
WO2020017261A1 (en) * | 2018-07-20 | 2020-01-23 | ソニー株式会社 | Information processing device, information processing method, and program |
WO2020049838A1 (en) * | 2018-09-07 | 2020-03-12 | ソニー株式会社 | Information processing device, information processing method, and program |
JP2020074066A (en) * | 2019-09-09 | 2020-05-14 | キヤノン株式会社 | Image display device and control method of image display device |
JP2020086630A (en) * | 2018-11-19 | 2020-06-04 | 株式会社ポケット・クエリーズ | Work assisting system and program |
JP2020523672A (en) * | 2017-06-06 | 2020-08-06 | ノキア テクノロジーズ オーユー | Rendering intermediary content |
JP2020537230A (en) * | 2017-10-20 | 2020-12-17 | レイセオン カンパニー | Augmented reality limited by field of view (FOV) and keycodes to enforce compliance for data capture and transmission |
CN112188152A (en) * | 2019-07-01 | 2021-01-05 | 株式会社日立制作所 | Remote operation support system |
WO2021033400A1 (en) * | 2019-08-21 | 2021-02-25 | ソニー株式会社 | Information processing device, information processing method, and recording medium |
JP2021033364A (en) * | 2019-08-14 | 2021-03-01 | 株式会社デンソー | Work activity support system |
WO2021177186A1 (en) * | 2020-03-06 | 2021-09-10 | ソニーグループ株式会社 | Information processing device, information processing method, and information processing program |
WO2023017584A1 (en) * | 2021-08-11 | 2023-02-16 | 株式会社Abal | Virtual space experience system and complex space experience system |
US11696011B2 (en) | 2021-10-21 | 2023-07-04 | Raytheon Company | Predictive field-of-view (FOV) and cueing to enforce data capture and transmission compliance in real and near real time video |
US11700448B1 (en) | 2022-04-29 | 2023-07-11 | Raytheon Company | Computer/human generation, validation and use of a ground truth map to enforce data capture and transmission compliance in real and near real time video of a local scene |
US11792499B2 (en) | 2021-10-21 | 2023-10-17 | Raytheon Company | Time-delay to enforce data capture and transmission compliance in real and near real time video |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2024147391A1 (en) * | 2023-01-06 | 2024-07-11 | 엘지전자 주식회사 | Extended reality device and method for controlling same |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000353248A (en) * | 1999-06-11 | 2000-12-19 | Mr System Kenkyusho:Kk | Composite reality feeling device and composite reality feeling presenting method |
JP2004139231A (en) * | 2002-10-16 | 2004-05-13 | Canon Inc | Image processor and image processing method |
JP2005049996A (en) * | 2003-07-30 | 2005-02-24 | Canon Inc | Image display method and device |
-
2005
- 2005-04-08 JP JP2005112109A patent/JP4677269B2/en not_active Expired - Fee Related
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000353248A (en) * | 1999-06-11 | 2000-12-19 | Mr System Kenkyusho:Kk | Composite reality feeling device and composite reality feeling presenting method |
JP2004139231A (en) * | 2002-10-16 | 2004-05-13 | Canon Inc | Image processor and image processing method |
JP2005049996A (en) * | 2003-07-30 | 2005-02-24 | Canon Inc | Image display method and device |
Cited By (42)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008287588A (en) * | 2007-05-18 | 2008-11-27 | Canon Inc | Image processor and image processing method |
JP2010217719A (en) * | 2009-03-18 | 2010-09-30 | Ricoh Co Ltd | Wearable display device, and control method and program therefor |
WO2012063542A1 (en) * | 2010-11-09 | 2012-05-18 | 富士フイルム株式会社 | Device for providing augmented reality |
JP5303685B2 (en) * | 2010-11-09 | 2013-10-02 | 富士フイルム株式会社 | Augmented reality providing device |
US9001155B2 (en) | 2010-11-09 | 2015-04-07 | Fujifilm Corporation | Augmented reality providing apparatus |
JP2012242930A (en) * | 2011-05-17 | 2012-12-10 | Sharp Corp | Video presentation system, video presentation method, program and recording medium |
JP2019215933A (en) * | 2011-10-28 | 2019-12-19 | マジック リープ, インコーポレイテッドMagic Leap,Inc. | System and method for augmented and virtual reality |
JP2015215745A (en) * | 2014-05-09 | 2015-12-03 | シャープ株式会社 | Telecommunication system |
JP2017120650A (en) * | 2014-09-30 | 2017-07-06 | キヤノンマーケティングジャパン株式会社 | Information processing system, control method thereof, program, information processor, control method thereof, and program |
JP2016071900A (en) * | 2014-09-30 | 2016-05-09 | キヤノンマーケティングジャパン株式会社 | Information processing system and control method of the same, and program |
JP2018522324A (en) * | 2015-05-14 | 2018-08-09 | マジック リープ, インコーポレイテッドMagic Leap,Inc. | Privacy-sensitive consumer camera combined with augmented reality system |
JP2016224810A (en) * | 2015-06-02 | 2016-12-28 | キヤノン株式会社 | System and method for controlling system |
JP2017033299A (en) * | 2015-07-31 | 2017-02-09 | キヤノンマーケティングジャパン株式会社 | Information processing device, information processing system, control method and program thereof |
JP2018055196A (en) * | 2016-09-26 | 2018-04-05 | キヤノン株式会社 | Composite reality presentation system, information processing unit, and control method thereof |
WO2018073969A1 (en) * | 2016-10-21 | 2018-04-26 | サン電子株式会社 | Image display device and image display system |
JPWO2018073969A1 (en) * | 2016-10-21 | 2019-08-08 | サン電子株式会社 | Image display device and image display system |
JP2020523672A (en) * | 2017-06-06 | 2020-08-06 | ノキア テクノロジーズ オーユー | Rendering intermediary content |
US11244659B2 (en) | 2017-06-06 | 2022-02-08 | Nokia Technologies Oy | Rendering mediated reality content |
JPWO2018225806A1 (en) * | 2017-06-08 | 2019-07-25 | ナーブ株式会社 | Information management system and information management method |
WO2018225806A1 (en) * | 2017-06-08 | 2018-12-13 | ナーブ株式会社 | Information management system and information management method |
JP2020537230A (en) * | 2017-10-20 | 2020-12-17 | レイセオン カンパニー | Augmented reality limited by field of view (FOV) and keycodes to enforce compliance for data capture and transmission |
JP2019164650A (en) * | 2018-03-20 | 2019-09-26 | 東芝インフォメーションシステムズ株式会社 | Display control device, display control system, display control method, and display control program |
WO2019220803A1 (en) * | 2018-05-18 | 2019-11-21 | 株式会社ワコム | Position indication device and information processing device |
JPWO2019220803A1 (en) * | 2018-05-18 | 2021-06-10 | 株式会社ワコム | Position indicator and information processing device |
WO2020017261A1 (en) * | 2018-07-20 | 2020-01-23 | ソニー株式会社 | Information processing device, information processing method, and program |
JPWO2020017261A1 (en) * | 2018-07-20 | 2021-08-26 | ソニーグループ株式会社 | Information processing equipment, information processing methods and programs |
JP7338626B2 (en) | 2018-07-20 | 2023-09-05 | ソニーグループ株式会社 | Information processing device, information processing method and program |
US11250636B2 (en) | 2018-07-20 | 2022-02-15 | Sony Corporation | Information processing device, information processing method, and program |
WO2020049838A1 (en) * | 2018-09-07 | 2020-03-12 | ソニー株式会社 | Information processing device, information processing method, and program |
US11481179B2 (en) | 2018-09-07 | 2022-10-25 | Sony Corporation | Information processing apparatus and information processing method |
JP2020086630A (en) * | 2018-11-19 | 2020-06-04 | 株式会社ポケット・クエリーズ | Work assisting system and program |
CN112188152A (en) * | 2019-07-01 | 2021-01-05 | 株式会社日立制作所 | Remote operation support system |
US11544030B2 (en) | 2019-07-01 | 2023-01-03 | Hitachi, Ltd. | Remote work-support system |
JP7318918B2 (en) | 2019-08-14 | 2023-08-01 | 株式会社デンソー | Work activity support system |
JP2021033364A (en) * | 2019-08-14 | 2021-03-01 | 株式会社デンソー | Work activity support system |
WO2021033400A1 (en) * | 2019-08-21 | 2021-02-25 | ソニー株式会社 | Information processing device, information processing method, and recording medium |
JP2020074066A (en) * | 2019-09-09 | 2020-05-14 | キヤノン株式会社 | Image display device and control method of image display device |
WO2021177186A1 (en) * | 2020-03-06 | 2021-09-10 | ソニーグループ株式会社 | Information processing device, information processing method, and information processing program |
WO2023017584A1 (en) * | 2021-08-11 | 2023-02-16 | 株式会社Abal | Virtual space experience system and complex space experience system |
US11696011B2 (en) | 2021-10-21 | 2023-07-04 | Raytheon Company | Predictive field-of-view (FOV) and cueing to enforce data capture and transmission compliance in real and near real time video |
US11792499B2 (en) | 2021-10-21 | 2023-10-17 | Raytheon Company | Time-delay to enforce data capture and transmission compliance in real and near real time video |
US11700448B1 (en) | 2022-04-29 | 2023-07-11 | Raytheon Company | Computer/human generation, validation and use of a ground truth map to enforce data capture and transmission compliance in real and near real time video of a local scene |
Also Published As
Publication number | Publication date |
---|---|
JP4677269B2 (en) | 2011-04-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4677269B2 (en) | Information processing method and system | |
JP4738870B2 (en) | Information processing method, information processing apparatus, and remote mixed reality sharing apparatus | |
JP4553362B2 (en) | System, image processing apparatus, and information processing method | |
EP1686554A2 (en) | Virtual space generating system, image processing apparatus and information processing method | |
JP4869430B1 (en) | Image processing program, image processing apparatus, image processing system, and image processing method | |
US8902298B2 (en) | Storage medium having stored therein stereoscopic image display program, stereoscopic image display device, stereoscopic image display system, and stereoscopic image display method | |
JP5739674B2 (en) | Information processing program, information processing apparatus, information processing system, and information processing method | |
JP5689707B2 (en) | Display control program, display control device, display control system, and display control method | |
JP5814532B2 (en) | Display control program, display control apparatus, display control system, and display control method | |
EP2365427A2 (en) | Computer-readable storage medium having stored therein display control program, display control apparatus, display control system, and display control method | |
WO2020017261A1 (en) | Information processing device, information processing method, and program | |
JP5808985B2 (en) | Information processing program, information processing apparatus, information processing system, and information processing method | |
KR101444858B1 (en) | Telepresence apparatus | |
JP5602702B2 (en) | Image processing program, image processing apparatus, image processing system, and image processing method | |
JP2012141939A (en) | Display control program, display control device, display control system and display control method | |
JP2005174021A (en) | Method and device for presenting information | |
WO2017191700A1 (en) | Image generation device, image generation method, and program | |
EP3287868A1 (en) | Content discovery | |
KR20180000009A (en) | Augmented reality creaing pen and augmented reality providing system using thereof | |
JPWO2018193509A1 (en) | REMOTE WORK SUPPORT SYSTEM, REMOTE WORK SUPPORT METHOD, AND PROGRAM | |
WO2019106862A1 (en) | Operation guiding system | |
JP6563592B2 (en) | Display control apparatus, display control method, and program | |
WO2018216327A1 (en) | Information processing device, information processing method, and program | |
JPH08336166A (en) | Video viewing device | |
US20240205513A1 (en) | Video display system, information processing device, information processing method, and recording medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20080408 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20100201 |
|
RD01 | Notification of change of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7421 Effective date: 20100630 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20100723 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20100803 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20101001 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20101102 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20101221 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20110125 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20110131 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140204 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |