JP5050919B2 - Remote conference system and control method thereof - Google Patents
Remote conference system and control method thereof Download PDFInfo
- Publication number
- JP5050919B2 JP5050919B2 JP2008044681A JP2008044681A JP5050919B2 JP 5050919 B2 JP5050919 B2 JP 5050919B2 JP 2008044681 A JP2008044681 A JP 2008044681A JP 2008044681 A JP2008044681 A JP 2008044681A JP 5050919 B2 JP5050919 B2 JP 5050919B2
- Authority
- JP
- Japan
- Prior art keywords
- information
- virtual space
- virtual
- real space
- server
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Information Transfer Between Computers (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
- Processing Or Creating Images (AREA)
Description
本発明は、仮想空間内に実空間に対応する仮想オブジェクトを描画する遠隔会議システム及びその制御方法に関する。 The present invention relates to a remote conference system that draws a virtual object corresponding to a real space in a virtual space, and a control method thereof.
従来の遠隔会議システムとしては、例えば「各ユーザー・ステーション2〜14において、出席者を表すアバターを含む3次元コンピュータモデルの画像が表示される。一対のカメラ26、28を使用して、ボディ・マーカー70、72とライト56〜64が取り付けられたヘッドホン30を着用したユーザーの画像データを処理して、ユーザーの動きと注視している表示画像中の点とを決定する。この情報はその他のユーザー・ステーションへ伝送され、アバターの頭部の動きがユーザーの頭部の換算された動きに対応するようにアニメ化される。」ものが提案されている(例えば、特許文献1参照)。 As a conventional remote conference system, for example, “In each user station 2-14, an image of a three-dimensional computer model including an avatar representing an attendee is displayed. The image data of the user wearing the headphones 30 with the markers 70 and 72 and the lights 56 to 64 is processed to determine the user's movement and the point in the display image being watched. It is transmitted to the user station, and the movement of the head of the avatar is animated so as to correspond to the converted movement of the head of the user. ”(For example, see Patent Document 1).
近年情報通信ネットワークの発達を受けて、通信技術を用いて遠隔地に存在する人が会議に参加できるようにする遠隔会議システムが開発されている。 2. Description of the Related Art In recent years, with the development of information communication networks, remote conference systems have been developed that allow people in remote locations to participate in conferences using communication technology.
そのような遠隔会議システムの中でも、例えば上記特許文献1のように、サーバによって管理される仮想空間に、遠隔地に存在する会議参加者がネットワークを介して情報を通信することで、仮想空間内にアバターとして存在する自身のキャラクターを動作させることができ、仮想空間内の会議場を参加者のアバターで共有することにより、遠隔会議の臨場感を高めたり、通常のビデオのみの会議で発生しがちな視線が共有できないなどの問題を回避することができるというシステムが開発されている。
ここで、アバターとは会議の参加者(以下「ユーザ」ともいう。)の身体的な動きや、装置に対する指示入力によって動作する、仮想空間内に存在するユーザを表現するモデルである。アバターは通常3次元モデルで表現されることが多い。
Among such remote conference systems, for example, as in
Here, an avatar is a model that represents a user who exists in a virtual space and operates by physical movements of conference participants (hereinafter also referred to as “users”) or by inputting instructions to the apparatus. Avatars are often represented by a three-dimensional model.
上記のようなシステムを利用して遠隔に離れた場所同士で遠隔会議を行う場合、実空間にある程度類似した部屋や設備などを用意し、それらの部屋や設備に似せた内容の仮想空間を作成し、その仮想空間にアクセスすることで会議に参加して、現実に会議室に集まって会議を行う状況と類似した会議環境を得ることができると考えられる。
またさらに、実空間に存在している物体を、仮想空間内に仮想オブジェクトとして対応付けるようにすることで、より類似した会議環境を得ることができると考えられる。
When using a system such as the one above to conduct a remote conference between remote locations, prepare a room or facility that is somewhat similar to the real space, and create a virtual space that resembles the room or facility. Then, it is considered that by accessing the virtual space, it is possible to obtain a conference environment similar to the situation in which the user participates in the conference and actually gathers in the conference room and performs the conference.
Furthermore, it is considered that a more similar conference environment can be obtained by associating an object existing in the real space as a virtual object in the virtual space.
しかしながら、上記のような構成を実現する場合、仮想空間内で動かされた仮想オブジェクトと実際に実空間に存在する物体の位置や姿勢(向き)とが相違(以下「矛盾」ともいう。)する場合があり、違和感を感じる場合ある、という問題点があった。 However, when realizing the above configuration, the virtual object moved in the virtual space and the position and orientation (orientation) of the object actually existing in the real space are different (hereinafter also referred to as “contradiction”). In some cases, there was a problem that it felt uncomfortable.
この矛盾を生じさせない方法として、例えば、仮想空間内のデータ(仮想オブジェクト)を完全に実空間に従って決定されるものとしてシステムを構成し、実空間で実際に物を動かし、そのセンシング結果のみによって、仮想空間内のデータを動かすような構成とする方法が考えられる。 As a method that does not cause this contradiction, for example, a system is configured so that data (virtual object) in virtual space is completely determined according to real space, an object is actually moved in real space, and only by the sensing result, A method of moving the data in the virtual space can be considered.
しかしながら、このような構成とすると、例えばクライアント(PC)上でのマウス操作による簡便な操作によって仮想空間上の物体を動かすなど、仮想空間を用いたシステムならではの操作が利用できなくなる、という問題点があった。 However, with such a configuration, for example, an operation unique to a system using a virtual space such as moving an object on the virtual space by a simple operation by a mouse operation on a client (PC) cannot be used. was there.
したがって、仮想空間内で動かされた仮想オブジェクトと実空間に存在する物体との位置や姿勢(向き)の相違を軽減することができる遠隔会議システム及びその制御方法が望まれていた。 Therefore, a teleconference system and a control method therefor have been desired that can reduce the difference in position and orientation (orientation) between a virtual object moved in the virtual space and an object existing in the real space.
本発明に係る遠隔会議システムは、複数のクライアントが通信回線を介してサーバに接続され、前記サーバにより定義される仮想空間内に、実空間の任意の物体に対応する仮想オブジェクトを描画して、各クライアントに表示し、前記クライアントからの操作情報により前記仮想オブジェクトの描画位置又は方向を変更する遠隔会議システムであって、少なくとも2以上の前記物体間の相対位置及び/又は相対方向に関する実空間情報を検出する物体検出手段と、前記サーバからの動作指令に基づいて前記物体の少なくとも1つを移動させる物体移動手段とを備え、前記サーバは、前記実空間情報に基づき、前記物体間の相対位置及び/又は相対方向と、当該物体に対応する前記仮想オブジェクト間の相対位置及び/又は相対方向との相違量が所定量以上であるか否かを検出する矛盾検出部と、前記相違量が所定量以上のとき、当該相違量が所定量未満となるように前記物体を移動させる前記動作指令を求める制御部とを有するものである。 In the remote conference system according to the present invention, a plurality of clients are connected to a server via a communication line, and a virtual object corresponding to an arbitrary object in the real space is drawn in a virtual space defined by the server, A teleconferencing system that displays on each client and changes the drawing position or direction of the virtual object according to operation information from the client, wherein the real space information relates to the relative position and / or relative direction between at least two or more of the objects And an object moving means for moving at least one of the objects based on an operation command from the server, the server based on the real space information, the relative position between the objects And / or the difference between the relative direction and the relative position and / or relative direction between the virtual objects corresponding to the object. A contradiction detection unit that detects whether or not the difference amount is greater than or equal to a predetermined amount; and a control unit that obtains the operation command to move the object so that the difference amount is less than the predetermined amount when the difference amount is equal to or greater than the predetermined amount; It is what has.
本発明に係る遠隔会議システムの制御方法は、複数のクライアントが通信回線を介してサーバに接続され、前記サーバにより定義される仮想空間内に、実空間の任意の物体に対応する仮想オブジェクトを描画して、各クライアントに表示し、前記クライアントからの操作情報により前記仮想オブジェクトの描画位置又は方向を変更する遠隔会議システムの制御方法であって、少なくとも2以上の前記物体間の相対位置及び/又は相対方向に関する実空間情報を検出するステップと、前記実空間情報に基づき、前記物体間の相対位置及び/又は相対方向と、当該物体に対応する前記仮想オブジェクト間の相対位置及び/又は相対方向との相違量が所定量以上であるか否かを検出するステップと、前記相違量が所定量以上のとき、当該相違量が所定量未満となるように前記物体を移動させる前記動作指令を求めるステップと、前記物体の少なくとも1つを移動する物体移動手段を、前記動作指令に基づいて動作させるステップとを有するものである。 In the remote conference system control method according to the present invention, a plurality of clients are connected to a server via a communication line, and a virtual object corresponding to an arbitrary object in the real space is drawn in the virtual space defined by the server. Then, a remote conference system control method for displaying on each client and changing the drawing position or direction of the virtual object according to operation information from the client, the relative position between at least two or more objects and / or Detecting real space information regarding a relative direction; based on the real space information; a relative position and / or relative direction between the objects; and a relative position and / or relative direction between the virtual objects corresponding to the object; Detecting whether or not the difference amount is greater than or equal to a predetermined amount, and when the difference amount is greater than or equal to the predetermined amount, And determining the operation command for moving the object to be less than the amount, the object moving means for moving at least one of the object, in which a step of operating on the basis of the operation command.
本発明は、物体間の相対位置及び/又は相対方向と、当該物体に対応する前記仮想オブジェクト間の相対位置及び/又は相対方向との相違量が所定量以上のとき、当該相違量が所定量未満となるように物体を移動させるので、仮想空間内の仮想オブジェクトと実空間に存在する物体との位置や向きの相違を軽減することができる。 In the present invention, when the amount of difference between the relative position and / or relative direction between objects and the relative position and / or relative direction between the virtual objects corresponding to the object is equal to or greater than a predetermined amount, the difference amount is a predetermined amount. Since the object is moved so as to be less than the difference, the difference in position and orientation between the virtual object in the virtual space and the object existing in the real space can be reduced.
実施の形態1.
実施の形態1における遠隔会議システムは、コンピュータを利用して構築された仮想空間をネットワーク経由で利用して会議を行う遠隔会議システムに関するもので、仮想空間と実空間に同時に存在する会議資料やマイクなどの物体を仮想空間上での動作に同期させ、ロボットを用いて実空間でも動作させるものである。そして、実空間に存在する物体と共通する仮想オブジェクトを持つ仮想空間を利用し、実空間と仮想空間との物体の矛盾を検知することができ、実空間に存在する物体の少なくとも1つを動かすことができる物体移動手段を持ち、また上記物体移動手段が上記物体を動かせないことを検知でき、ユーザに矛盾が生じている旨を通知でき、ユーザに上記物体の矛盾を解消するための情報を通知できるものである。
The remote conference system according to the first embodiment relates to a remote conference system that performs a conference using a virtual space constructed by using a computer via a network, and conference materials and microphones that exist simultaneously in the virtual space and the real space. Such an object is synchronized with the movement in the virtual space, and is also operated in the real space using a robot. Then, using a virtual space having a virtual object in common with an object existing in the real space, it is possible to detect a contradiction between the real space and the virtual space, and move at least one of the objects existing in the real space. An object moving means capable of detecting that the object moving means cannot move the object, notifying the user that a contradiction has occurred, and providing the user with information for resolving the contradiction of the object. It can be notified.
図1は実施の形態1に係る遠隔会議システムの構成図である。図1において、遠隔会議システムは、ネットワーク101、仮想空間提供サーバ102、クライアント103、ロボット104から構成される。この遠隔会議システムは、クライアント103がネットワーク101を介して仮想空間提供サーバ102に接続され、仮想空間提供サーバ102により定義される仮想空間内に、実空間の任意の物体1019又はユーザに対応する、オブジェクト又はアバター(以下、総称して「仮想オブジェクト」ともいう)を描画して、クライアント103に表示し、クライアント103からの操作情報により仮想オブジェクトの描画位置又は方向を変更するものである。尚、クライアント103、ロボット104及び物体1019は複数存在する構成が一般的だが、図1においては図示は省略する。
FIG. 1 is a configuration diagram of a remote conference system according to the first embodiment. In FIG. 1, the remote conference system includes a
仮想空間提供サーバ102は、仮想空間データ作成部105、制御部106、データ通信部107、仮想空間データ108、矛盾検出部109から構成され、クライアント103と各種データを送受信して、仮想空間上でのサービスを提供する。
The virtual
仮想空間データ作成部105は、制御部106からの指令を受けて仮想空間データ108を作成し、更新する。
The virtual space
制御部106は、仮想空間提供サーバ102内の各構成部と通信し、各部に指令を伝えるものである。また制御部106は、仮想空間データ作成部105と通信して仮想空間データ108の作成、更新を指令したり、データ通信部107と通信して仮想空間データ108をクライアント103に送信したり、クライアント103又はロボット104から受信した各種データから、仮想空間データ108の更新を指令する。また、制御部106は、後述する動作により、ロボット104から取得した物体1019の位置、姿勢(向き)に関する実空間データと、仮想空間での位置、姿勢に関するデータとから、実空間における物体1019と仮想空間における仮想オブジェクトとを対応させるために必要となる、ロボット104への動作指令を作成する。
The
データ通信部107は、ネットワーク101を介してロボット104、クライアント103と通信してデータの送受信を行う。データ通信部107から送受信されるデータは複数種類のデータを含む。例を挙げると、クライアント103から送信され、仮想空間提供サーバ102を経由して他クライアント103へ送信されるデータには、仮想空間データ108に加え、会議を構成するのに必要な音声、映像ストリーミングデータ等が含まれる。
The
仮想空間データ108は、仮想空間を構成する要素の位置、大きさ及び外形の情報、仮想空間内に存在する各ユーザのアバターの位置、姿勢及び外形の情報、並びに仮想空間内に存在する各物体1019の位置、姿勢及び外形の情報などを含むものである。この仮想空間データ108は、クライアント103が仮想空間を表示したり、ロボット104が仮想空間内に配置された物体1019の位置を知ったりするのに必要なデータである。実際のデータ形式は利用される3DCG(3 Dimensional Computer Graphics)の技術等によって変化するが、既存の一般的な技術を利用することすることができる。
The
矛盾検出部109は、ロボット104から送信された物体1019の実空間情報と仮想空間上で表現されている仮想オブジェクトの情報とを比較し、その結果から、実空間と仮想空間との矛盾を検出する。
The
物体1019は、例えば遠隔会議を行う会議室に設置された机や椅子、クライアント103のマイクやカメラなど、実空間上に存在するものであって、また仮想空間内にもデータとして存在する要素である。
The
クライアント103は、データ通信部1010、制御部1011、情報入力部1012、情報提示部1013から構成される。このクライアント103は、ユーザの指示によって又は自動的に仮想空間提供サーバ102と通信し、ユーザに対し仮想空間を利用した遠隔会議環境を提供するためのものである。ユーザはこのクライアント103を用いて仮想空間提供サーバ102にアクセスし、仮想空間内のアバターや物体を操作したり、音声や映像を送信したりする。
The
データ通信部1010は、仮想空間提供サーバ102と通信して、後述する各種データを送受信する。
The
制御部1011は、データ通信部1010、情報入力部1012、情報提示部1013と通信し、情報入力部1012からのユーザの入力を受け付けてデータ通信部1010に対して仮想空間データ更新用データ(後述)を仮想空間提供サーバ102に送信させる。また、データ通信部1010経由で受信した仮想空間表示用データ(後述)を情報提示部1013に送信して情報を提示させる。
The
情報入力部1012は、例えばキーボードやマウスなどユーザの入力を受け付ける装置や、モーションキャプチャなどのユーザの身体動作を常時計測してその結果を入力とすることができる装置等から構成される。この情報入力部1012により、クライアント103を利用するユーザからの情報入力を受け付けて、例えば仮想空間上のアバターを動作させる。また情報入力部1012は、ユーザの音声または映像を取得するマイクやカメラなどを要素として持ち、ユーザの映像や音声を仮想空間提供サーバ102経由で別クライアントに送信できる形式で送信する。
The
情報提示部1013は、例えばディスプレイやスピーカなどから構成され、仮想空間提供サーバ102から受信した仮想空間表示用データ(後述)や、音声データ、映像データ等を提示するものである。またヘッドマウントディスプレイのようにユーザが装着して使用するような構成も可能である。
The
図2は実施の形態1に係るロボットの外形図である。
ロボット104は、図1に示すように、少なくとも、データ通信部1014、制御部1015、センサ部1016、情報提示部1017、駆動部1018から構成される。このロボット104は、例えば図2に示す形態を有し、後述する動作により、実空間に存在する物体1019を動かしたり、またはユーザに対して物体1019を動作させるように促す情報を提示したりして、実空間の物体1019と仮想空間内の仮想オブジェクトとの位置や向きの矛盾を軽減するものである。尚、本実施の形態1におけるロボット104は、机上や床上を走行して、実空間に存在する少なくとも1つの物体1019を、例えば「押す」ことによって移動させることが可能なものである。
FIG. 2 is an external view of the robot according to the first embodiment.
As shown in FIG. 1, the
尚、制御部1015及びセンサ部1016は本発明における物体検出手段に相当し、情報提示部1017は本発明における情報提示手段に相当し、制御部1015及び駆動部1018は本発明における物体移動手段に相当する。
The
データ通信部1014は、ネットワーク101を介して仮想空間提供サーバ102と通信して各種データの送受信を行う。
The
制御部1015は、データ通信部1014経由で仮想空間提供サーバ102から送信されてきた動作指令を受信して、駆動部1018に動作命令を送信する。また実空間データの送信指令を受信したとき、センサ部1016により取得した物体1019の位置、姿勢に関する情報を加工して送信できる形にして送る。
The
センサ部1016は、制御部1015からの指令を受けて、実空間に存在する物体1019の位置、姿勢(向き)を取得できる機能を有するものである。このセンサ部1016は、例えば赤外線センサ、レーザレンジファインダ、又は画像計測装置などを用いて実装することが可能である。
The
情報提示部1017は、制御部1015からの指令を受けて、物体1019の位置、姿勢が仮想空間と実空間とで一致しておらず矛盾が生じている旨の情報、及び矛盾を解消するために、物体1019の位置、姿勢をユーザが修正するべきであることをユーザに対して提示する。
In response to an instruction from the
駆動部1018は、例えばモータで駆動される車輪や足状の機構から構成され、制御部1015からの動作指令によって動作する。ロボット104を実空間のなかで動作させたり、その動作によって実空間の中にある物体1019を移動させたりする。
The
次に、本実施の形態1における遠隔会議システムを利用して、遠隔に離れた場所同士で遠隔会議を行う場合に、仮想空間提供サーバ102とクライアント103との間で送受信されるデータの例について図3を用いて説明する。
Next, an example of data that is transmitted and received between the virtual
図3は実施の形態1に係る送受信データの構造を示す図である。図3(a)は仮想空間表示用データを示しており、仮想空間提供サーバ102から送信され、クライアント103で仮想空間を表示するのに必要なデータである。図3(b)音声データを示し、図3(c)映像データを示しており、仮想空間提供サーバ102を介して各クライアント103間で送受信され、ユーザの音声や映像を遠隔に離れた場所のユーザに提供するためのデータである。図3(d)は仮想空間データ更新用データを示しており、クライアント103から送信され、仮想空間提供サーバ102で仮想空間データ108を更新するのに必要とされるものである。このデータには、各クライアント103でユーザが操作するアバターの位置、姿勢、表情、外形などを変更するのに必要な各種変更データが含まれる。
FIG. 3 is a diagram showing a structure of transmission / reception data according to the first embodiment. FIG. 3A shows virtual space display data, which is data transmitted from the virtual
ここで、ObjectIDとは、仮想空間内に存在する物体1019(オブジェクト)を識別するためのIDである。仮想空間を構成する外壁等も物体の一種として統一的に扱うことができる。また、AvatarIDとは、各アバターのIDである。また、UserIDとは、クライアント103を操作するユーザを一意に識別するためのIDである。また、操作IDとは、ObjectIDに関連付けられた仮想空間内の物体に対して実行することが可能な操作を示すIDである。
Here, the ObjectID is an ID for identifying an object 1019 (object) existing in the virtual space. The outer walls that make up the virtual space can also be handled as a kind of object. Moreover, AvatarID is ID of each avatar. The UserID is an ID for uniquely identifying a user who operates the
上記仮想空間データ更新用データにより、仮想空間上のアバター又はオブジェクトを動作させることができる。例えばオブジェクトを動作させる場合、ObjectIDに操作IDを送信することで、そのオブジェクトの仮想空間内での状態(位置や向き)を変更することができる。具体的な例としては、ユーザ(UserID=userA)が、仮想会議室内に存在するキャビネット(ObjectID=cabinet1)に対して“開ける”(操作ID=open)操作を実行すると、仮想空間提供サーバ102に対して、図3(e)に示すような仮想空間データ更新用データが送信され、これを受信した仮想空間提供サーバ102により仮想空間データが更新され、仮想空間内でキャビネットが開くことになる。
The avatar or object in the virtual space can be operated by the virtual space data update data. For example, when an object is operated, the state (position and orientation) of the object in the virtual space can be changed by transmitting the operation ID to the ObjectID. As a specific example, when the user (UserID = userA) performs an “open” (operation ID = open) operation on a cabinet (ObjectID = cabinet1) existing in the virtual conference room, the virtual
図4は実施の形態1に係る遠隔会議システムの動作説明図、図5は実施の形態1に係る動作フローチャート、図6は実施の形態1に係る動作指令の生成方法を示す図、図7は実施の形態1に係るロボットが物体を動作させられない場合を示す図である。以下、本実施の形態1における動作について図を参照しながら説明する。
4 is an operation explanatory diagram of the remote conference system according to the first embodiment, FIG. 5 is an operation flowchart according to the first embodiment, FIG. 6 is a diagram illustrating a method for generating an operation command according to the first embodiment, and FIG. It is a figure which shows the case where the robot which concerns on
まず、図4を用いて動作の概略を説明する。
図4(a)に示されるように、上述した音声データや仮想空間表示用データを、仮想空間提供サーバ102とクライアント103とで送受信することで、例えば、実空間地点1に存在するユーザA,Bと、実空間地点2に存在するユーザC,Dとが、共有仮想空間V内にアバターA’B’C’D’として存在しているかのように、クライアント103の情報提示部1013に情報が提示される。このような表示により、各ユーザは実空間上では離れた位置にいるユーザとも、臨場感をもってコミュニケーションすることが可能となる。尚、このような仮想空間の生成及び表示の動作については一般的な仮想空間提供装置と同様の構成であるため、詳細な説明は省略する。
First, an outline of the operation will be described with reference to FIG.
As shown in FIG. 4A, by transmitting and receiving the above-described audio data and virtual space display data between the virtual
次に仮想空間と実空間との間で生じる矛盾を解消する動作の概略について説明する。
図4において、実空間地点1及び地点2の机上にはそれぞれ、情報入力部1012のひとつとして、ユーザの音声を入力するマイクが設置されている。ここでマイクは物体1019の一つであり共有仮想空間V上にも仮想オブジェクトとして存在している。
Next, an outline of the operation for eliminating the contradiction that occurs between the virtual space and the real space will be described.
In FIG. 4, microphones for inputting the user's voice are installed on the desks at the
図4(a)に示すように、例えばユーザCがクライアント103を操作して、共有仮想空間V上でのマイクの位置を実空間2の机上と同様の状態に変更したとする。この場合、共有仮想空間Vと実空間地点2とにおけるマイクの位置は一致する。しかし実空間地点1では、実空間でのマイクの位置と仮想空間での位置とに矛盾が生じる。つまり、共有仮想空間V上では、マイクは机上におけるユーザA’の前方に配置されているのに対し、実空間地点1では、マイクは机上におけるユーザBの左前方に配置されており、実空間地点1における机及びユーザとマイクとの相対位置と、仮想空間上の机及びユーザとマイクとの相対位置とが対応していないことになる。尚、例えば仮想空間上でのマイクの姿勢(向き)を変更した場合も、同様に実空間と仮想空間との間に矛盾が生じることとなる。
As shown in FIG. 4A, for example, it is assumed that the user C operates the
遠隔会議システムはこの状態を検知し、実空間地点1に存在するロボット104を動作させて矛盾を軽減させるように動作する。矛盾軽減の動作としては、ロボット104がマイクを動作させられる場合、図4(b)に示すように、ロボット104が机上を移動してマイクを押すことで共有仮想空間Vと一致する位置に動かす。また、マイクが重過ぎてロボット104が動作させられないような場合や、マイクの位置によっては動作させられないような場合には、図4(c)示すように、実空間でのマイクのあるべき位置を、ロボット104の情報提示部1017を用いて実空間上に投射し、ユーザに対してマイクの位置の変更を促す。これによりユーザはロボット104からの情報提示をうけて実空間でのマイクの位置の変更を行う。このような動作によって実空間と仮想空間での矛盾が軽減される。
The teleconference system detects this state and operates the
このような動作の詳細について図5に基づき、図6及び図7を参照しつつ説明する。尚、図5においては、左側が仮想空間提供サーバ102の動作、右側がクライアント103及びロボット104の動作を示している。
Details of such an operation will be described with reference to FIGS. 6 and 7 based on FIG. In FIG. 5, the left side shows the operation of the virtual
ステップS3001でユーザが例えばマウスなどの情報入力部1012を用いて仮想空間内の物体を動かすなどの操作を行うと、クライアント103の制御部1011は仮想空間データ更新用データを作成し、ステップS3002で仮想空間提供サーバ102へ送信する。
When the user performs an operation such as moving an object in the virtual space using the
ステップS301で仮想空間提供サーバ102はクライアント103からの仮想空間データ更新用データを受信する。ステップS302で仮想空間データ作成部105は仮想空間データ更新用データに応じて仮想空間データ108を変更する。ついで仮想空間提供サーバ102は、ステップS303で実空間データ送信指令をロボット104に対して送信する。
In step S <b> 301, the virtual
ステップS304でロボット104は実空間データ送信指令を受信する。ステップS305で、センサ部1016は、位置や姿勢(向き)を計測すべき実空間上の物体1019、例えばマイクの位置や姿勢を計測する。ステップS306でロボット104は仮想空間提供サーバ102に対して、計測した物体1019の位置や姿勢に関する実空間データを送信する。
In step S304, the
ステップS307で仮想空間提供サーバ102は実空間データを受信し、ステップS308で実空間と仮想空間との物体のデータを比較し、距離を計算する。そしてステップS309で矛盾検出部109は、距離の値が一定値以上かを判定する。
In step S307, the virtual
このロボット104の計測動作と仮想空間提供サーバ102の比較動作の一例として、例えば物体1019及び仮想オブジェクトの位置データを平面状の座標で表し、仮想空間と実空間との二つの位置のユークリッド距離を計算する場合には、次のような動作を行う。
As an example of the measurement operation of the
ロボット104は、実空間における机の任意位置(例えば縁端部)を原点とする2次元又は3次元座標を定義し、当該原点位置、及びマイク上の任意の計測点までの距離をそれぞれ計測し、計測した距離に応じた座標を付す。ここでは簡単化のために運動が平面状に限られているとする。そしてロボット104の移動可能範囲は机上に限るものとする。この場合、例えばロボット104は、図6に示すように、計測した原点位置を基準として、机上の平面を碁盤上に区切り、図示されるようにxy方向の座標値を割り当てる。そして計測した原点位置及びマイクの距離に応じた座標値を、マイク位置の座標値として付する。例えば図6(a)の場合、マイク位置は(x,y)=(2,2)である。そしてロボット104は当該座標情報を実空間データとして仮想空間提供サーバ102に送信する。
The
仮想空間提供サーバ102の矛盾検出部109は、仮想空間データ108を参照して、仮想空間内での上記原点位置、つまり上記例では机の仮想オブジェクトの縁端部を原点とする座標を定義して、上記と同様に原点位置を基準として、机上の平面を碁盤上に区切り、xy方向の座標値を割り当てる。そして、仮想空間上におけるマイクの計測点での座標を求める。
The
次に矛盾検出部109は、実空間データが示すマイクの座標と、仮想空間でのマイクの座標とを比較することにより、両者の距離の相違量が所定量以上であるか否かを判断し、所定量以上である場合は実空間と仮想空間とに矛盾が生じていると判断する。本実施の形態では、上述した碁盤上に区切った座標内であるか否かにより矛盾が生じているか否かを判断するものとする。尚、座標間隔はこれに限らず、より細目な座標を付しても良い。
尚、マイクの姿勢(向き)を計測する場合には、上述したマイクの計測点を2以上とし、当該複数の計測点を比較することにより、姿勢の矛盾を検知することができる。例えば、マイクが地面に接する足の部分の1点とマイクの風除け部分の1点を計測点として計測し、これら2点間を結んだ直線の角度と、仮想空間内での物体の角度とを比較することで姿勢の矛盾を検知することができる。
Next, the
When measuring the posture (orientation) of the microphone, it is possible to detect a contradiction in posture by setting the above-described microphone measurement points to 2 or more and comparing the plurality of measurement points. For example, one point of the foot part where the microphone is in contact with the ground and one point of the windbreak part of the microphone are measured as measurement points, and the angle of a straight line connecting these two points and the angle of the object in the virtual space are calculated. Comparing postures can be detected by comparison.
次に仮想空間提供サーバ102の制御部106は、上記ステップS309により矛盾が生じていると判断した場合には、ステップS310で、実空間及び仮想空間における上記の二つの座標値からロボット104に対する動作指令を作成し、ステップS311でロボット104に対し送信する。
Next, when the
この動作指令の作成方法について図6を用いて説明する。
今、図6(a)でロボット104の移動対象となる物体であるマイク(情報入力部1012)が、実空間上の座標位置(2,2)に存在し、仮想空間内でのマイクの位置、すなわちマイクが移動するべき位置が(3,2)であらわされているとする。
A method for creating this operation command will be described with reference to FIG.
Now, the microphone (information input unit 1012) that is the object to be moved by the
座標をベクトルと考え、二つのベクトルの減算を行うと、
(3,2)−(2,2)=(1,0)
となり、(1,0)という値が得られる。
Considering coordinates as a vector and subtracting two vectors,
(3,2)-(2,2) = (1,0)
And a value of (1, 0) is obtained.
これがそのままロボット104に対する動作指令となる。ロボット104はマイクを現在の位置から、x座標で1つ分増加する方向へ動作させればよい。これにより、上述した距離の相違量が所定量未満となるようマイクを移動させる動作指令を求めることができる。
This is an operation command for the
また、物体の向きを計測する場合には、例えば上述した物体の計測点の2点間を結ぶ直線と座標軸との角度を、例えば45°刻みの精度で求め、仮想空間での角度から実空間での物体角度を減算することにより、回転動作指令を求めることができる。例えば仮想オブジェクトの角度がx軸に対して45°であり、実空間での計測点間角度が90°(y軸と並行)の場合、回転動作指令は−45°となる。 When measuring the orientation of an object, for example, the angle between a straight line connecting two measurement points of the object described above and the coordinate axis is obtained with an accuracy of, for example, 45 °, and the real space is calculated from the angle in the virtual space. The rotation operation command can be obtained by subtracting the object angle at. For example, when the angle of the virtual object is 45 ° with respect to the x-axis and the angle between measurement points in the real space is 90 ° (parallel to the y-axis), the rotation operation command is −45 °.
尚、減算の結果が一定値以下の場合には、例えば(0,0)の場合にはそのままステップS312で終了する。 If the subtraction result is equal to or smaller than a certain value, for example, (0, 0), the process ends in step S312.
ステップS313でロボット104は動作指令を受信し、駆動部1018を動作させステップS314で動作を試みる。動作終了後、ステップS315で、再び物体の位置をセンサ部1016で計測し、ステップS316で、予定した位置へ移動させることができたかを確認する。移動できた場合はステップS318で終了し、移動できなかった場合は、ステップS317で、情報提示部1017により、ユーザにマイク(物体)を動かすべき位置、つまり矛盾が解消するマイク位置に関する情報を提示して、矛盾の解消を促す。例えば、情報提示部1017として備えたプロジェクタを用いて、実空間でマイクを動かすべき位置にマイク画像を投影する。尚、情報の提示はこれに限らず、音声によりマイク(物体)を動かすべき位置の情報を提示しても良い。
In step S313, the
次に、ロボット104が物体を移動させることができない場合の例について図7を用いて説明する。図7に示されるように物体(マイク)が座標位置(3,1)に存在して、動かすべき位置が(3,2)である場合であって、ロボット104に物体を引く機能がない場合には、ロボット104の動作によっては物体を(3,2)に移動させることができない。このような場合、ロボット104は、矛盾の解消を促す情報として、座標位置(3,2)が物体を動かすべき場所であることを示す情報を提示する。
Next, an example in which the
尚、上記説明では、ロボット104がステップS316で移動できたか否かを判断したが、これに限らず、仮想空間提供サーバ102が、ステップS311の動作指令を送信して所定時間経過後、再度、実空間データを取得して、ステップS316で移動できたか否かを判断するようにしても良い。これによりロボット104の構成を簡素化することができる。
In the above description, it is determined whether or not the
また、上記説明では、ロボット104の情報提示部1017に物体を動かすべき情報を提示する場合を説明したが、これに限らず、クライアント103の情報提示部1013に当該情報を提示するようにしても良い。
Further, in the above description, the case where the information for moving the object is presented to the
尚、本実施の形態1では、ロボット104が物体を移動させることができない場合に、矛盾の解消を促す情報を提示する場合を説明したが、これに限らず、矛盾検出部109が矛盾の発生を検知したときに、ユーザに対し、実空間と仮想空間との間に矛盾が生じている旨の情報を提示するようにしても良い。
In the first embodiment, the case where the
以上のように本実施の形態においては、実空間と仮想空間との間で、物体の配置の矛盾を検知して、矛盾が生じている場合に、ロボット104を用いて物体を移動することにより、仮想空間内の仮想オブジェクトと実空間に存在する物体との位置や向きの相違を軽減することができる。
As described above, in the present embodiment, by detecting a contradiction in the arrangement of an object between the real space and the virtual space and moving the object using the
また、ロボット104が移動対象となる物体を動かすことができない場合であっても、矛盾の解消を促す情報をユーザに提示するので、ユーザは当該情報に従い、仮想空間内の仮想オブジェクトと実空間に存在する物体との位置や向きの相違を軽減することができる。
Even if the
また、仮想空間内の仮想オブジェクトと実空間に存在する物体との位置や向きの相違を軽減することにより、多様な要素(物体、ユーザ等)の仮想空間と実空間への同期的な配置を可能とし、各ユーザは実空間上では離れた位置にいるユーザとも、臨場感をもってコミュニケーションすることが可能となる。 In addition, by reducing the difference in position and orientation between virtual objects in the virtual space and objects existing in the real space, various elements (objects, users, etc.) can be placed synchronously in the virtual space and the real space. Each user can communicate with a user at a distant location in real space with a sense of reality.
実施の形態2.
上記実施の形態1においては、ロボット104が実際に実空間にある物体を動かす動作を試みてから、物体の動作の可否を確認したため、矛盾を解消するために時間を要した。本実施の形態2においては、物体の重さ、大きさに関係する値を送信することができるIDタグを実空間にある物体に備え、またロボットにIDタグを読み取る機能を付加することで、実空間にある物体がロボットに動かせるか否かを実際に動作を試みること無しに確認でき、より迅速に実空間と仮想空間との矛盾を解消できるものである。
In the first embodiment, since the
図8は実施の形態2に係る遠隔会議システムの構成図である。図8を用いて本実施の形態の遠隔会議システムの構成について説明する。尚、上記実施の形態1と同様の構成には同じ符号を付し、詳細な説明は省略する。また、仮想空間提供サーバ102及びクライアント103は図8においては図示は省略する。
FIG. 8 is a configuration diagram of the remote conference system according to the second embodiment. The configuration of the remote conference system according to this embodiment will be described with reference to FIG. In addition, the same code | symbol is attached | subjected to the structure similar to the said
本実施の形態2に係る遠隔会議システムのロボット401は、新たにタグ読み取り部402を備え、実空間上の物体404に備えられたタグ403から、当該物体の重さ、大きさに関する値を読み取ることができるものである。
The
タグ読み取り部402は、タグ403から重さ、大きさ、動かしにくさに関する値を読み取ることができるものである。またタグ読み取りを試みてそれが失敗した場合、その状態を検知できるものである。
The
情報タグであるタグ403は、例えば、RFID(Radio Frequency IDentification)、バーコード、二次元コードなどで実現され、タグ403を備える物体の重さ、大きさ、ロボットによる動かしにくさに関する情報が記録される。そして当該情報をタグ読み取り部402に送信するものである。尚、ロボットによる動かしにくさに関する情報としては、例えば物体表面の材質(摩擦係数等)や形状などの情報が挙げられる。
The
物体404は、上記実施の形態1と同様に、実空間上に存在するものであって、仮想空間内にもデータとして存在する要素である。さらに物体404には、タグ403を備えている。
Similar to the first embodiment, the
図9は実施の形態2に係る動作フローチャートである。以下、図9を用いて本実施の形態の動作について説明する。尚、上記実施の形態1と同様の動作については同一の符号を付して示し、説明を省略する。 FIG. 9 is an operation flowchart according to the second embodiment. Hereinafter, the operation of the present embodiment will be described with reference to FIG. The same operations as those in the first embodiment are denoted by the same reference numerals, and the description thereof is omitted.
上述した実施の形態1と同様にステップS301〜S314の動作(図5)の後、ステップS501でロボット401は、タグ読み取り部402を用いて、動作対象の物体404に設けられたタグ403が読めるかを確認する。読めない場合にはステップS504で動作指令に基づく移動動作をし、再度ステップS501に戻る。
After the operations of Steps S301 to S314 (FIG. 5) as in
読める場合にはステップS502でタグを読み取り、当該タグ403に記録された重さ、大きさ、ロボットによる動かしにくさに関する値を得る。
If it can be read, the tag is read in step S502, and values relating to the weight, size, and difficulty of movement by the robot recorded in the
ステップS503で、ロボット401は、あらかじめ定められた当該ロボット401が動作可能な物体の重さ、大きさ、動かしにくさに関する値との差から、移動対象の物体404が動作させることができるか否かを判定する。この判断は、例えばタグ情報に対応する各値に閾値を定め、当該閾値を超えた場合は動作不可と判断することができる。
In step S503, the
動作できると判断した場合は、上記実施の形態1と同様に、ステップS314で動作を実施し、ステップS315で実空間データの計測をした後、ステップS316で移動させることができたかを確認する。一方、動作できないと判断した場合には、ステップS317で上記実施の形態1と同様に、実空間に対して情報提示を行う。 If it is determined that the operation can be performed, the operation is performed in step S314 as in the first embodiment, the real space data is measured in step S315, and then it is confirmed whether the movement can be performed in step S316. On the other hand, if it is determined that the operation is not possible, information is presented to the real space in step S317 as in the first embodiment.
以上のように本実施の形態においては、物体404に備えられたタグ403を読み取ることにより、ロボット401がタグ403を備えた物体404を動かすことができない場合に早期の判断をし、ユーザに対する情報提示を実施するので、実際に物体に対する動作を試みる必要が無く、より迅速に実空間と仮想空間との矛盾を軽減できる。
As described above, in the present embodiment, by reading the
実施の形態3.
上記実施の形態1及び2においては、ロボットは単純な駆動部を持ち、実空間上の物体を押すなど単純な動作だけが可能であった。一方、ロボットをアームやグリッパなど物体に働きかけができる複雑な駆動部を持つ構成とした場合、ロボットが扱える物体と、物体に対して可能な動作の種類が増えるという利点があるが、どの物体に対してどの種類の操作を行うかをロボット単体で判断させることは困難であった。つまり、握る、持ち上げるなどロボットの機構で可能な動作が複数ある場合であっても、厚みが薄い物体は握ることが難しく、重量が重い物体は持ち上げることが難しいなど、物体によって許容される動作には制限があるため、物体によってどういった動作を行うべきかを決めることが困難である。
In the first and second embodiments, the robot has a simple drive unit and can only perform simple operations such as pushing an object in real space. On the other hand, when the robot is configured with a complex drive unit that can work on objects such as arms and grippers, there are advantages that the robot can handle objects and the types of motion that can be performed on the objects increase. On the other hand, it is difficult for the robot alone to determine what kind of operation is performed on the robot. In other words, even if there are multiple actions that can be performed by the robot mechanism, such as grasping and lifting, it is difficult to grasp an object with a thin thickness, and it is difficult to lift an object with a heavy weight. Because there are limitations, it is difficult to determine what action should be performed depending on the object.
本実施の形態3においては、仮想空間提供サーバ102上にタグによって指定される物体の種類とロボットの可能な動作指令とを関係付けるためのデータベースを配置し、ネットワークを介してロボットに、操作の対象となる物体に対して可能な動作を指示するためのデータを送信することで、ロボットが複雑な構造をしていても実施を試みるべき動作を決定することができるものである。
In the third embodiment, a database for associating the type of object specified by the tag and the possible operation command of the robot is arranged on the virtual
図10は実施の形態3に係る遠隔会議システムの構成図である。図10を用いて本実施の形態の遠隔会議システムの構成について説明する。尚、上記実施の形態1と同様の構成には同じ符号を付し、詳細な説明は省略する。
FIG. 10 is a configuration diagram of the remote conference system according to the third embodiment. The configuration of the remote conference system according to this embodiment will be described with reference to FIG. In addition, the same code | symbol is attached | subjected to the structure similar to the said
仮想空間提供サーバ601は、オブジェクト動作データベース602を新たに備え、ロボット603から送られてくる物体404のID(識別情報)を用いて、オブジェクト動作データベース602を検索し、物に対応するロボット603が可能な動作データを送信する機能を更に有するものである。
The virtual
オブジェクト動作データベース602は、ロボット603の動作内容に関する動作データが、物体のID(識別情報)及びロボット603のID(識別情報)に応じて記録された動作情報データベースである。
The
ロボット603は例えば図2(b)に示す形態を有し、物体を握る、持ち上げるなどの機構を備えるものである。ロボット603の制御部604は、上記実施の形態1又は2の動作に加え、タグ読み取り部402が読み取った物体ID及び当該ロボット603のIDをネットワーク101経由で仮想空間提供サーバ601に対して送信し、仮想空間提供サーバ601から、物体404に対してロボット603が可能な動作データを受信するものである。
The
情報タグであるタグ606は、例えば、RFID、バーコード、二次元コードなどで実現され、タグ606を備える物体404を一意に検出するためのID情報が記録される。そして当該情報をタグ読み取り部402に送信するものである。
The
タグ読み取り部402は、タグ606から物体404のIDを読み取ることができるものである。またタグ読み取りを試みてそれが失敗した場合、その状態を検知できるものである。
The
図11は実施の形態3に係る動作フローチャート、図12は実施の形態3に係る送受信データの構造を示す図、図13は実施の形態3に係るロボットの動作を示す図である。以下、図11〜図13を用いて動作の具体例と送受信するデータ構造について説明する。尚、上記実施の形態1又は2と同様の動作については同一の符号を付し、詳細な説明は省略する。
FIG. 11 is an operation flowchart according to the third embodiment, FIG. 12 is a diagram illustrating a structure of transmission / reception data according to the third embodiment, and FIG. 13 is a diagram illustrating an operation of the robot according to the third embodiment. Hereinafter, a specific example of operation and a data structure to be transmitted / received will be described with reference to FIGS. In addition, the same code | symbol is attached | subjected about the operation | movement similar to the said
上述した実施の形態1,2と同様にステップS301〜S314の動作(図5)の後、ステップS501でロボット603は、タグ読み取り部402を用いて、動作対象の物体404に設けられたタグ606が読めるかを確認する。読めない場合にはステップS504で動作指令に基づく移動動作をし、再度ステップS501に戻る。読める場合にはステップS502でタグを読みとり、当該タグ606に記録されたIDを得る。
After the operations in steps S301 to S314 (FIG. 5) as in the first and second embodiments described above, in step S501, the
ステップS701で、ロボット603は仮想空間提供サーバ601に対して、読み取ったタグのIDを含んだデータを送信する。送信されるデータは少なくとも図12(a)に示すようなデータを含むものとする。ここで、図12(a)において、ロボットIDとはロボット603の種類を一意に示すためのデータである。このIDによって機構などロボットのもつ特徴に適したデータを検索することができる。
In step S701, the
ステップS702で、仮想空間提供サーバ601は、ロボット603から受信したタグのIDと、ロボットIDを用いて、オブジェクト動作データベース602を検索し、当該ロボットIDをもつロボットがタグのIDをもつ物体に対して可能な動作データを取得する。
In step S702, the virtual
ここで、オブジェクト動作データベース602内のレコードは少なくとも図12(b)に示すようなデータを含むものとする。図12(b)において、一つのオブジェクトIDは複数個のロボットIDとそれに関連付けられる複数の動作データレコードを含む。動作データは物体を持ち上げる、引くなどというロボットに対する命令のレベルで表現されていてもかまわないし、具体的にロボットの関節角度を指定する数値データのようなレベルで表現されていてもかまわない。
Here, the record in the
ステップS703で、制御部604は、オブジェクト動作データベース602から取得したこれらの動作データを用いて、ロボット603への動作指令となる、動作のためのデータを作成する。すなわち物体を操作するために、つかむ、持ち上げるなどの操作を含めて動作データを作成する。
In step S <b> 703, the
動作データの生成の方法について図13を用いて説明する。
図13に示されるように物体(マイク)が座標位置(3,1)に存在して、動かすべき位置が(3,2)である場合を考える。本実施の形態のロボット603は、例えば物体404を持ち上げる、下ろすという動作が可能であることがオブジェクト動作データベース602に記載されているものとする。上記実施の形態1(図5)のステップS310と同様にベクトル計算を行い、さらにオブジェクト動作データベース602に記載されている動作データを用いることにより、実施の形態1の単純な構成のロボット104とは異なり、本実施の形態3のロボット603は、物体(マイク)に対し、座標位置(3,1)で物体を持ち上げ、その後座標位置(3,2)に移動させ、物体をおろすという動作データを生成することが可能になる。尚、これらのデータ生成にはロボット工学の分野で利用される既存技術である軌道生成技術を用いることができる。
A method of generating operation data will be described with reference to FIG.
Consider a case in which an object (microphone) exists at the coordinate position (3, 1) and the position to be moved is (3, 2) as shown in FIG. It is assumed that the
ステップS704で、仮想空間提供サーバ601は作成した動作データをロボット603に対して送信する。この際に送信されるデータは一つまたは複数あるものとする。
In step S704, the virtual
ステップS705で、ロボット603は動作データを受信し、ステップS706で複数ある動作データから一つを選び出し、上記実施の形態1と同様に、ステップS314で動作を実施し、ステップS315で実空間データの計測を行う。
In step S705, the
ステップS316で上記実施の形態1と同様に、計画した通りの動作が可能であったかを判定する。動作できていないと判断した場合には、ステップS707に進み、実施したデータ以外に他の動作データが残っているかを確認し、残っている場合にはステップS705に戻る。他の動作データが残っていない場合には、ロボットの動作による矛盾の解決を断念し、ステップS317に進み、上記実施の形態1と同様に実空間に対して情報提示を行う。 In step S316, as in the first embodiment, it is determined whether the planned operation is possible. If it is determined that the operation is not possible, the process proceeds to step S707, where it is confirmed whether other operation data other than the executed data remains. If remaining, the process returns to step S705. If no other motion data remains, the resolution of the contradiction caused by the robot motion is abandoned, the process proceeds to step S317, and information is presented to the real space as in the first embodiment.
以上のように本実施の形態においては、移動させる物体404のIDとロボット603のIDとに対応する動作データをオブジェクト動作データベース602から取得し、取得したデータに基づいてロボット603を動作させることにより、多様な物体404(要素)の形状性質に対応するべく、ロボット603の構造が複雑である場合でも、仮想空間と実空間との間の矛盾を軽減することができる。
As described above, in the present embodiment, motion data corresponding to the ID of the
尚、上記の動作データの生成は、仮想空間提供サーバ102でなく、ロボット603側で行ってもかまわない。その場合には仮想空間データ108及びオブジェクト動作データベース602のデータをロボット603に転送する必要がある。
The generation of the operation data may be performed not on the virtual
尚、上記実施の形態1〜3において、例として示したデータ構造は一例に過ぎず、同様の機能を実現する他の構造でもかまわない。 In the first to third embodiments, the data structure shown as an example is merely an example, and other structures that realize the same function may be used.
尚、上記実施の形態1〜3においては、ロボットを仮想空間内に配置しない場合を説明したが、これに限らず、ロボットに物体としての性質を持たせ、仮想空間上に配置してもかまわない。 In the first to third embodiments, the case where the robot is not arranged in the virtual space has been described. However, the present invention is not limited to this, and the robot may have a property as an object and may be arranged in the virtual space. Absent.
尚、上記実施の形態1〜3においては、情報提示部1017によるユーザに対する矛盾解消の指令は、映像のプロジェクションの場合を説明したが、これに限らず、例えば音声によるものであってもかまわない。
In the above first to third embodiments, the contradiction resolution instruction to the user by the
尚、上記実施の形態1〜3においては、本発明における物体検出手段、情報提示手段、及び物体移動手段をロボットに備える場合を説明したが、これに限らず、各手段が物理的に分割されていてもかまわない。また、ロボットが複数台あってもかまわない。 In the first to third embodiments, the case where the robot includes the object detection unit, the information presentation unit, and the object movement unit according to the present invention has been described. However, the present invention is not limited thereto, and each unit is physically divided. It does not matter. There may be a plurality of robots.
尚、上記実施の形態1〜3においては、遠隔地同士をネットワーク経由で接続して会議を行う遠隔会議システムについて説明したが、これに限らず、類似した要素を持つ複数拠点の空間に複数のユーザ又は物が存在し、同時に実際の空間と類似した要素を持つ仮想空間を共有し、実空間の情報および仮想空間の情報を送受信、共有、及び利用することで遠隔地に存在しているユーザ同士が円滑に情報交換、共同作業をすることを可能にする情報システムに用いることができる。 In the first to third embodiments, the remote conference system for performing a conference by connecting remote locations via a network has been described. However, the present invention is not limited to this, and a plurality of locations in a plurality of locations having similar elements may be used. A user who exists in a remote place by sharing a virtual space with users or objects and having elements similar to the real space at the same time, and transmitting, receiving, sharing, and using real space information and virtual space information It can be used in an information system that enables smooth information exchange and collaborative work.
101 ネットワーク、102 仮想空間提供サーバ、103 クライアント、104 ロボット、105 仮想空間データ作成部、106 制御部、107 データ通信部、108 仮想空間データ、109 矛盾検出部、1010 データ通信部、1011 制御部、1012 情報入力部、1013 情報提示部、1014 データ通信部、1015 制御部、1016 センサ部、1017 情報提示部、1018 駆動部、1019 物体、401 ロボット、402 タグ読み取り部、403 タグ、404 物体、601 仮想空間提供サーバ、602 オブジェクト動作データベース、603 ロボット、604 制御部、606 タグ。 101 network, 102 virtual space providing server, 103 client, 104 robot, 105 virtual space data creation unit, 106 control unit, 107 data communication unit, 108 virtual space data, 109 inconsistency detection unit, 1010 data communication unit, 1011 control unit, 1012 Information input unit, 1013 information presentation unit, 1014 data communication unit, 1015 control unit, 1016 sensor unit, 1017 information presentation unit, 1018 drive unit, 1019 object, 401 robot, 402 tag reading unit, 403 tag, 404 object, 601 Virtual space providing server, 602 object motion database, 603 robot, 604 control unit, 606 tag.
Claims (9)
少なくとも2以上の前記物体間の相対位置及び/又は相対方向に関する実空間情報を検出する物体検出手段と、
前記サーバからの動作指令に基づいて前記物体の少なくとも1つを移動させる物体移動手段とを備え、
前記サーバは、
前記実空間情報に基づき、前記物体間の相対位置及び/又は相対方向と、当該物体に対応する前記仮想オブジェクト間の相対位置及び/又は相対方向との相違量が所定量以上であるか否かを検出する矛盾検出部と、
前記相違量が所定量以上のとき、当該相違量が所定量未満となるように前記物体を移動させる前記動作指令を求める制御部と
を有することを特徴とする遠隔会議システム。 A plurality of clients are connected to a server via a communication line, and a virtual object corresponding to an arbitrary object in the real space is drawn in a virtual space defined by the server and displayed on each client. A teleconferencing system that changes the drawing position or direction of the virtual object according to the operation information of
Object detection means for detecting real space information relating to a relative position and / or a relative direction between at least two of the objects;
Object moving means for moving at least one of the objects based on an operation command from the server;
The server
Whether or not the amount of difference between the relative position and / or relative direction between the objects and the relative position and / or relative direction between the virtual objects corresponding to the object is greater than or equal to a predetermined amount based on the real space information A contradiction detector for detecting
And a control unit that obtains the operation command to move the object so that the difference amount is less than the predetermined amount when the difference amount is equal to or greater than the predetermined amount.
前記サーバの制御部は、
前記相違量が所定量以上のとき、実空間と仮想空間との間に矛盾が生じている旨の情報を前記情報提示手段に出力することを特徴とする請求項1記載の遠隔会議システム。 Further comprising information presenting means for outputting information acquired from the server,
The control unit of the server
The remote conference system according to claim 1, wherein when the difference amount is equal to or greater than a predetermined amount, information indicating that a contradiction has occurred between the real space and the virtual space is output to the information presenting means.
前記相違量が所定量以上のとき、当該相違量が所定量未満となる前記物体の位置及び/又は方向に関する情報を前記情報提示手段に出力することを特徴とする請求項2記載の遠隔会議システム。 The control unit of the server
3. The remote conference system according to claim 2, wherein when the difference amount is equal to or larger than a predetermined amount, information on the position and / or direction of the object at which the difference amount is less than the predetermined amount is output to the information presentation unit. .
前記物体を移動させる前記動作指令を出力し、所定時間経過後、前記相違量が所定量以上の場合、当該相違量が所定量未満となる前記物体の位置及び/又は方向に関する情報を前記情報提示手段に出力することを特徴とする請求項2又は3記載の遠隔会議システム。 The control unit of the server
When the operation command for moving the object is output and the difference amount is equal to or greater than a predetermined amount after a predetermined time has passed, the information regarding the position and / or direction of the object at which the difference amount is less than the predetermined amount is presented. 4. The remote conference system according to claim 2, wherein the remote conference system outputs the information to a means.
前記物体の任意の位置を原点とする2次元又は3次元座標を定義して、前記原点位置と前記各物体の少なくとも1つの計測点との距離に応じた座標を付し、当該座標情報を前記実空間情報として出力し、
前記サーバの矛盾検出部は、
前記実空間における原点位置に対応する仮想空間での位置を原点とする2次元又は3次元座標を定義して、前記仮想オブジェクトにおける前記物体の計測点に対応する箇所の座標を求め、
仮想空間での前記計測点間の距離と、実空間での前記計測点間の距離とを比較して、前記相違量が所定量以上であるか否かを検出することを特徴とする請求項1〜4の何れかに記載の遠隔会議システム。 The object detection means includes
Two-dimensional or three-dimensional coordinates with an arbitrary position of the object as an origin are defined, a coordinate according to a distance between the origin position and at least one measurement point of each object is attached, and the coordinate information is Output as real space information,
The server conflict detection unit
Defining two-dimensional or three-dimensional coordinates with a position in the virtual space corresponding to the origin position in the real space as an origin, and obtaining coordinates of a location corresponding to the measurement point of the object in the virtual object;
The distance between the measurement points in the virtual space is compared with the distance between the measurement points in the real space to detect whether the difference amount is a predetermined amount or more. The remote conference system according to any one of 1 to 4.
移動対象となる前記物体に対応する仮想オブジェクトの計測点の座標ベクトルから、当該物体の計測点の座標ベクトルを減算して求めた座標ベクトルに基づき、当該物体を移動させる前記動作指令を求めることを特徴とする請求項5記載の遠隔会議システム。 The control unit of the server
Obtaining the operation command for moving the object based on the coordinate vector obtained by subtracting the coordinate vector of the measurement point of the object from the coordinate vector of the measurement point of the virtual object corresponding to the object to be moved; 6. The remote conference system according to claim 5, wherein
前記物体移動手段に設けられ、前記情報タグに記録された情報を読み取るタグ読み取り部とを更に備え、
前記物体移動手段は、
前記動作指令に応じて移動させる前記物体の前記情報タグの情報を読み取り、該情報に基づいて、当該物体が移動可能か否かを判断し、
移動可能と判断したとき、前記動作指令に基づいて前記物体を移動させることを特徴とする請求項1〜6の何れかに記載の遠隔会議システム。 An information tag attached to the object and recorded with at least one of information on the weight, size, and difficulty of movement of the object;
A tag reading unit that is provided in the object moving means and reads information recorded in the information tag;
The object moving means is
Read the information tag information of the object to be moved according to the operation command, based on the information, determine whether the object is movable,
The remote conference system according to claim 1, wherein when it is determined that the object can be moved, the object is moved based on the operation command.
前記物体移動手段に設けられ、前記情報タグに記録された情報を読み取り、前記物体の識別情報及び当該物体移動手段の識別情報を前記サーバに送信するタグ読み取り部と、
前記サーバに設けられ、前記物体移動手段の動作内容に関する動作データが、前記物体の識別情報及び前記物体移動手段の識別情報に応じて記録された動作情報データベースと
を更に備え、
前記サーバの制御部は、
移動させる前記物体の前記識別情報と、動作指令を出力する前記物体移動手段の前記識別情報とに対応する動作データを前記動作情報データベースから取得し、取得した前記動作データに基づいて前記動作指令を求めることを特徴とする請求項1〜6の何れかに記載の遠隔会議システム。 An information tag attached to the object and recording identification information of the object;
A tag reading unit that is provided in the object moving unit, reads information recorded in the information tag, and transmits the identification information of the object and the identification information of the object moving unit to the server;
An operation information database provided in the server, wherein operation data relating to operation contents of the object moving means is recorded according to the identification information of the object and the identification information of the object moving means;
The control unit of the server
Operation data corresponding to the identification information of the object to be moved and the identification information of the object moving means for outputting an operation command is acquired from the operation information database, and the operation command is obtained based on the acquired operation data. The remote conference system according to claim 1, wherein the remote conference system is obtained.
少なくとも2以上の前記物体間の相対位置及び/又は相対方向に関する実空間情報を検出するステップと、
前記実空間情報に基づき、前記物体間の相対位置及び/又は相対方向と、当該物体に対応する前記仮想オブジェクト間の相対位置及び/又は相対方向との相違量が所定量以上であるか否かを検出するステップと、
前記相違量が所定量以上のとき、当該相違量が所定量未満となるように前記物体を移動させる前記動作指令を求めるステップと、
前記物体の少なくとも1つを移動する物体移動手段を、前記動作指令に基づいて動作させるステップと
を有することを特徴とする遠隔会議システムの制御方法。 A plurality of clients are connected to a server via a communication line, and a virtual object corresponding to an arbitrary object in the real space is drawn in a virtual space defined by the server and displayed on each client. A remote conference system control method for changing the drawing position or direction of the virtual object according to the operation information of
Detecting real space information regarding a relative position and / or a relative direction between at least two or more of the objects;
Whether or not the amount of difference between the relative position and / or relative direction between the objects and the relative position and / or relative direction between the virtual objects corresponding to the object is greater than or equal to a predetermined amount based on the real space information Detecting steps,
Obtaining the operation command for moving the object so that the difference amount is less than a predetermined amount when the difference amount is equal to or greater than a predetermined amount;
And a step of operating an object moving means for moving at least one of the objects based on the operation command.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008044681A JP5050919B2 (en) | 2008-02-26 | 2008-02-26 | Remote conference system and control method thereof |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008044681A JP5050919B2 (en) | 2008-02-26 | 2008-02-26 | Remote conference system and control method thereof |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2009206619A JP2009206619A (en) | 2009-09-10 |
JP5050919B2 true JP5050919B2 (en) | 2012-10-17 |
Family
ID=41148493
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2008044681A Expired - Fee Related JP5050919B2 (en) | 2008-02-26 | 2008-02-26 | Remote conference system and control method thereof |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5050919B2 (en) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015184986A (en) * | 2014-03-25 | 2015-10-22 | 学校法人 創価大学 | Compound sense of reality sharing device |
JP6355203B2 (en) * | 2015-02-12 | 2018-07-11 | 日本電信電話株式会社 | Object delivery device, object delivery system |
US10810416B2 (en) * | 2018-12-14 | 2020-10-20 | Palo Alto Reseach Center Incorporated | Method and system for facilitating dynamic materialization for real-world interaction with virtual reality |
-
2008
- 2008-02-26 JP JP2008044681A patent/JP5050919B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2009206619A (en) | 2009-09-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20220398844A1 (en) | Shared Augmented Reality Session Recording and Playback | |
US10179407B2 (en) | Dynamic multi-sensor and multi-robot interface system | |
JP6900575B2 (en) | How and system to generate detailed datasets of the environment through gameplay | |
JP4999734B2 (en) | ENVIRONMENTAL MAP GENERATION DEVICE, METHOD, AND PROGRAM | |
CN108885459A (en) | Air navigation aid, navigation system, mobile control system and mobile robot | |
US20120192088A1 (en) | Method and system for physical mapping in a virtual world | |
US20210255328A1 (en) | Methods and systems of a handheld spatially aware mixed-reality projection platform | |
JP6054831B2 (en) | Image processing apparatus, image processing method, and image processing program | |
JP2010217719A (en) | Wearable display device, and control method and program therefor | |
CN110888428A (en) | Mobile robot, remote terminal, computer-readable medium, control system, control method | |
EP3422145B1 (en) | Provision of virtual reality content | |
JP2006201912A (en) | Processing method for three-dimensional virtual object information providing service, three-dimensional virtual object providing system, and program | |
US10964104B2 (en) | Remote monitoring and assistance techniques with volumetric three-dimensional imaging | |
JP2018153874A (en) | Presentation device, presentation method, program and work system | |
JP2020065229A (en) | Video communication method, video communication device, and video communication program | |
JP5050919B2 (en) | Remote conference system and control method thereof | |
US10582190B2 (en) | Virtual training system | |
US10713833B2 (en) | Method and device for controlling 3D character using user's facial expressions and hand gestures | |
JP2016189073A (en) | Personality estimation device, personality estimation program, and personality estimation method | |
Renner et al. | Facilitating HRI by mixed reality techniques | |
Radmard et al. | Impacts of visual occlusion and its resolution in robot-mediated social collaborations | |
KR102208708B1 (en) | Method and device for providing virtual content on virtual space based on common coordinate | |
US12002162B2 (en) | Method and apparatus for providing virtual contents in virtual space based on common coordinate system | |
Ohmoto et al. | ICIE: immersive environment for social interaction based on socio-spacial information | |
US20230351706A1 (en) | Scanning interface systems and methods for building a virtual representation of a location |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20101116 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20120626 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20120709 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5050919 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20150803 Year of fee payment: 3 |
|
LAPS | Cancellation because of no payment of annual fees |