JP5050919B2 - Remote conference system and control method thereof - Google Patents

Remote conference system and control method thereof Download PDF

Info

Publication number
JP5050919B2
JP5050919B2 JP2008044681A JP2008044681A JP5050919B2 JP 5050919 B2 JP5050919 B2 JP 5050919B2 JP 2008044681 A JP2008044681 A JP 2008044681A JP 2008044681 A JP2008044681 A JP 2008044681A JP 5050919 B2 JP5050919 B2 JP 5050919B2
Authority
JP
Japan
Prior art keywords
information
virtual space
virtual
real space
server
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2008044681A
Other languages
Japanese (ja)
Other versions
JP2009206619A (en
Inventor
雄介 鈴木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Oki Electric Industry Co Ltd
Original Assignee
Oki Electric Industry Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Oki Electric Industry Co Ltd filed Critical Oki Electric Industry Co Ltd
Priority to JP2008044681A priority Critical patent/JP5050919B2/en
Publication of JP2009206619A publication Critical patent/JP2009206619A/en
Application granted granted Critical
Publication of JP5050919B2 publication Critical patent/JP5050919B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Information Transfer Between Computers (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Processing Or Creating Images (AREA)

Description

本発明は、仮想空間内に実空間に対応する仮想オブジェクトを描画する遠隔会議システム及びその制御方法に関する。   The present invention relates to a remote conference system that draws a virtual object corresponding to a real space in a virtual space, and a control method thereof.

従来の遠隔会議システムとしては、例えば「各ユーザー・ステーション2〜14において、出席者を表すアバターを含む3次元コンピュータモデルの画像が表示される。一対のカメラ26、28を使用して、ボディ・マーカー70、72とライト56〜64が取り付けられたヘッドホン30を着用したユーザーの画像データを処理して、ユーザーの動きと注視している表示画像中の点とを決定する。この情報はその他のユーザー・ステーションへ伝送され、アバターの頭部の動きがユーザーの頭部の換算された動きに対応するようにアニメ化される。」ものが提案されている(例えば、特許文献1参照)。   As a conventional remote conference system, for example, “In each user station 2-14, an image of a three-dimensional computer model including an avatar representing an attendee is displayed. The image data of the user wearing the headphones 30 with the markers 70 and 72 and the lights 56 to 64 is processed to determine the user's movement and the point in the display image being watched. It is transmitted to the user station, and the movement of the head of the avatar is animated so as to correspond to the converted movement of the head of the user. ”(For example, see Patent Document 1).

特開2000−244886号公報JP 2000-244886 A

近年情報通信ネットワークの発達を受けて、通信技術を用いて遠隔地に存在する人が会議に参加できるようにする遠隔会議システムが開発されている。   2. Description of the Related Art In recent years, with the development of information communication networks, remote conference systems have been developed that allow people in remote locations to participate in conferences using communication technology.

そのような遠隔会議システムの中でも、例えば上記特許文献1のように、サーバによって管理される仮想空間に、遠隔地に存在する会議参加者がネットワークを介して情報を通信することで、仮想空間内にアバターとして存在する自身のキャラクターを動作させることができ、仮想空間内の会議場を参加者のアバターで共有することにより、遠隔会議の臨場感を高めたり、通常のビデオのみの会議で発生しがちな視線が共有できないなどの問題を回避することができるというシステムが開発されている。
ここで、アバターとは会議の参加者(以下「ユーザ」ともいう。)の身体的な動きや、装置に対する指示入力によって動作する、仮想空間内に存在するユーザを表現するモデルである。アバターは通常3次元モデルで表現されることが多い。
Among such remote conference systems, for example, as in Patent Document 1 above, a conference participant existing in a remote location communicates information via a network to a virtual space managed by a server. You can operate your own character that exists as an avatar, and share the conference space in the virtual space with the participant's avatar to enhance the realism of the remote conference or occur in a regular video-only conference Systems have been developed that can avoid problems such as the inability to share common gazes.
Here, an avatar is a model that represents a user who exists in a virtual space and operates by physical movements of conference participants (hereinafter also referred to as “users”) or by inputting instructions to the apparatus. Avatars are often represented by a three-dimensional model.

上記のようなシステムを利用して遠隔に離れた場所同士で遠隔会議を行う場合、実空間にある程度類似した部屋や設備などを用意し、それらの部屋や設備に似せた内容の仮想空間を作成し、その仮想空間にアクセスすることで会議に参加して、現実に会議室に集まって会議を行う状況と類似した会議環境を得ることができると考えられる。
またさらに、実空間に存在している物体を、仮想空間内に仮想オブジェクトとして対応付けるようにすることで、より類似した会議環境を得ることができると考えられる。
When using a system such as the one above to conduct a remote conference between remote locations, prepare a room or facility that is somewhat similar to the real space, and create a virtual space that resembles the room or facility. Then, it is considered that by accessing the virtual space, it is possible to obtain a conference environment similar to the situation in which the user participates in the conference and actually gathers in the conference room and performs the conference.
Furthermore, it is considered that a more similar conference environment can be obtained by associating an object existing in the real space as a virtual object in the virtual space.

しかしながら、上記のような構成を実現する場合、仮想空間内で動かされた仮想オブジェクトと実際に実空間に存在する物体の位置や姿勢(向き)とが相違(以下「矛盾」ともいう。)する場合があり、違和感を感じる場合ある、という問題点があった。   However, when realizing the above configuration, the virtual object moved in the virtual space and the position and orientation (orientation) of the object actually existing in the real space are different (hereinafter also referred to as “contradiction”). In some cases, there was a problem that it felt uncomfortable.

この矛盾を生じさせない方法として、例えば、仮想空間内のデータ(仮想オブジェクト)を完全に実空間に従って決定されるものとしてシステムを構成し、実空間で実際に物を動かし、そのセンシング結果のみによって、仮想空間内のデータを動かすような構成とする方法が考えられる。   As a method that does not cause this contradiction, for example, a system is configured so that data (virtual object) in virtual space is completely determined according to real space, an object is actually moved in real space, and only by the sensing result, A method of moving the data in the virtual space can be considered.

しかしながら、このような構成とすると、例えばクライアント(PC)上でのマウス操作による簡便な操作によって仮想空間上の物体を動かすなど、仮想空間を用いたシステムならではの操作が利用できなくなる、という問題点があった。   However, with such a configuration, for example, an operation unique to a system using a virtual space such as moving an object on the virtual space by a simple operation by a mouse operation on a client (PC) cannot be used. was there.

したがって、仮想空間内で動かされた仮想オブジェクトと実空間に存在する物体との位置や姿勢(向き)の相違を軽減することができる遠隔会議システム及びその制御方法が望まれていた。   Therefore, a teleconference system and a control method therefor have been desired that can reduce the difference in position and orientation (orientation) between a virtual object moved in the virtual space and an object existing in the real space.

本発明に係る遠隔会議システムは、複数のクライアントが通信回線を介してサーバに接続され、前記サーバにより定義される仮想空間内に、実空間の任意の物体に対応する仮想オブジェクトを描画して、各クライアントに表示し、前記クライアントからの操作情報により前記仮想オブジェクトの描画位置又は方向を変更する遠隔会議システムであって、少なくとも2以上の前記物体間の相対位置及び/又は相対方向に関する実空間情報を検出する物体検出手段と、前記サーバからの動作指令に基づいて前記物体の少なくとも1つを移動させる物体移動手段とを備え、前記サーバは、前記実空間情報に基づき、前記物体間の相対位置及び/又は相対方向と、当該物体に対応する前記仮想オブジェクト間の相対位置及び/又は相対方向との相違量が所定量以上であるか否かを検出する矛盾検出部と、前記相違量が所定量以上のとき、当該相違量が所定量未満となるように前記物体を移動させる前記動作指令を求める制御部とを有するものである。   In the remote conference system according to the present invention, a plurality of clients are connected to a server via a communication line, and a virtual object corresponding to an arbitrary object in the real space is drawn in a virtual space defined by the server, A teleconferencing system that displays on each client and changes the drawing position or direction of the virtual object according to operation information from the client, wherein the real space information relates to the relative position and / or relative direction between at least two or more of the objects And an object moving means for moving at least one of the objects based on an operation command from the server, the server based on the real space information, the relative position between the objects And / or the difference between the relative direction and the relative position and / or relative direction between the virtual objects corresponding to the object. A contradiction detection unit that detects whether or not the difference amount is greater than or equal to a predetermined amount; and a control unit that obtains the operation command to move the object so that the difference amount is less than the predetermined amount when the difference amount is equal to or greater than the predetermined amount; It is what has.

本発明に係る遠隔会議システムの制御方法は、複数のクライアントが通信回線を介してサーバに接続され、前記サーバにより定義される仮想空間内に、実空間の任意の物体に対応する仮想オブジェクトを描画して、各クライアントに表示し、前記クライアントからの操作情報により前記仮想オブジェクトの描画位置又は方向を変更する遠隔会議システムの制御方法であって、少なくとも2以上の前記物体間の相対位置及び/又は相対方向に関する実空間情報を検出するステップと、前記実空間情報に基づき、前記物体間の相対位置及び/又は相対方向と、当該物体に対応する前記仮想オブジェクト間の相対位置及び/又は相対方向との相違量が所定量以上であるか否かを検出するステップと、前記相違量が所定量以上のとき、当該相違量が所定量未満となるように前記物体を移動させる前記動作指令を求めるステップと、前記物体の少なくとも1つを移動する物体移動手段を、前記動作指令に基づいて動作させるステップとを有するものである。   In the remote conference system control method according to the present invention, a plurality of clients are connected to a server via a communication line, and a virtual object corresponding to an arbitrary object in the real space is drawn in the virtual space defined by the server. Then, a remote conference system control method for displaying on each client and changing the drawing position or direction of the virtual object according to operation information from the client, the relative position between at least two or more objects and / or Detecting real space information regarding a relative direction; based on the real space information; a relative position and / or relative direction between the objects; and a relative position and / or relative direction between the virtual objects corresponding to the object; Detecting whether or not the difference amount is greater than or equal to a predetermined amount, and when the difference amount is greater than or equal to the predetermined amount, And determining the operation command for moving the object to be less than the amount, the object moving means for moving at least one of the object, in which a step of operating on the basis of the operation command.

本発明は、物体間の相対位置及び/又は相対方向と、当該物体に対応する前記仮想オブジェクト間の相対位置及び/又は相対方向との相違量が所定量以上のとき、当該相違量が所定量未満となるように物体を移動させるので、仮想空間内の仮想オブジェクトと実空間に存在する物体との位置や向きの相違を軽減することができる。   In the present invention, when the amount of difference between the relative position and / or relative direction between objects and the relative position and / or relative direction between the virtual objects corresponding to the object is equal to or greater than a predetermined amount, the difference amount is a predetermined amount. Since the object is moved so as to be less than the difference, the difference in position and orientation between the virtual object in the virtual space and the object existing in the real space can be reduced.

実施の形態1.
実施の形態1における遠隔会議システムは、コンピュータを利用して構築された仮想空間をネットワーク経由で利用して会議を行う遠隔会議システムに関するもので、仮想空間と実空間に同時に存在する会議資料やマイクなどの物体を仮想空間上での動作に同期させ、ロボットを用いて実空間でも動作させるものである。そして、実空間に存在する物体と共通する仮想オブジェクトを持つ仮想空間を利用し、実空間と仮想空間との物体の矛盾を検知することができ、実空間に存在する物体の少なくとも1つを動かすことができる物体移動手段を持ち、また上記物体移動手段が上記物体を動かせないことを検知でき、ユーザに矛盾が生じている旨を通知でき、ユーザに上記物体の矛盾を解消するための情報を通知できるものである。
Embodiment 1 FIG.
The remote conference system according to the first embodiment relates to a remote conference system that performs a conference using a virtual space constructed by using a computer via a network, and conference materials and microphones that exist simultaneously in the virtual space and the real space. Such an object is synchronized with the movement in the virtual space, and is also operated in the real space using a robot. Then, using a virtual space having a virtual object in common with an object existing in the real space, it is possible to detect a contradiction between the real space and the virtual space, and move at least one of the objects existing in the real space. An object moving means capable of detecting that the object moving means cannot move the object, notifying the user that a contradiction has occurred, and providing the user with information for resolving the contradiction of the object. It can be notified.

図1は実施の形態1に係る遠隔会議システムの構成図である。図1において、遠隔会議システムは、ネットワーク101、仮想空間提供サーバ102、クライアント103、ロボット104から構成される。この遠隔会議システムは、クライアント103がネットワーク101を介して仮想空間提供サーバ102に接続され、仮想空間提供サーバ102により定義される仮想空間内に、実空間の任意の物体1019又はユーザに対応する、オブジェクト又はアバター(以下、総称して「仮想オブジェクト」ともいう)を描画して、クライアント103に表示し、クライアント103からの操作情報により仮想オブジェクトの描画位置又は方向を変更するものである。尚、クライアント103、ロボット104及び物体1019は複数存在する構成が一般的だが、図1においては図示は省略する。   FIG. 1 is a configuration diagram of a remote conference system according to the first embodiment. In FIG. 1, the remote conference system includes a network 101, a virtual space providing server 102, a client 103, and a robot 104. In this remote conference system, a client 103 is connected to a virtual space providing server 102 via a network 101, and corresponds to an arbitrary object 1019 in real space or a user in a virtual space defined by the virtual space providing server 102. An object or an avatar (hereinafter collectively referred to as “virtual object”) is drawn and displayed on the client 103, and the drawing position or direction of the virtual object is changed by operation information from the client 103. Note that a configuration in which a plurality of clients 103, robots 104, and objects 1019 exist is common, but illustration thereof is omitted in FIG.

仮想空間提供サーバ102は、仮想空間データ作成部105、制御部106、データ通信部107、仮想空間データ108、矛盾検出部109から構成され、クライアント103と各種データを送受信して、仮想空間上でのサービスを提供する。   The virtual space providing server 102 includes a virtual space data creation unit 105, a control unit 106, a data communication unit 107, a virtual space data 108, and a contradiction detection unit 109. Provide services.

仮想空間データ作成部105は、制御部106からの指令を受けて仮想空間データ108を作成し、更新する。   The virtual space data creation unit 105 creates and updates the virtual space data 108 in response to an instruction from the control unit 106.

制御部106は、仮想空間提供サーバ102内の各構成部と通信し、各部に指令を伝えるものである。また制御部106は、仮想空間データ作成部105と通信して仮想空間データ108の作成、更新を指令したり、データ通信部107と通信して仮想空間データ108をクライアント103に送信したり、クライアント103又はロボット104から受信した各種データから、仮想空間データ108の更新を指令する。また、制御部106は、後述する動作により、ロボット104から取得した物体1019の位置、姿勢(向き)に関する実空間データと、仮想空間での位置、姿勢に関するデータとから、実空間における物体1019と仮想空間における仮想オブジェクトとを対応させるために必要となる、ロボット104への動作指令を作成する。   The control unit 106 communicates with each component in the virtual space providing server 102 and transmits a command to each unit. The control unit 106 communicates with the virtual space data creation unit 105 to instruct creation and update of the virtual space data 108, communicates with the data communication unit 107, transmits the virtual space data 108 to the client 103, The virtual space data 108 is instructed to be updated from various data received from the robot 103 or the robot 104. In addition, the control unit 106 performs real-time data on the position and orientation (orientation) of the object 1019 acquired from the robot 104 and data on the position and orientation in the virtual space, and the object 1019 in the real space. An operation command to the robot 104, which is necessary to correspond to the virtual object in the virtual space, is created.

データ通信部107は、ネットワーク101を介してロボット104、クライアント103と通信してデータの送受信を行う。データ通信部107から送受信されるデータは複数種類のデータを含む。例を挙げると、クライアント103から送信され、仮想空間提供サーバ102を経由して他クライアント103へ送信されるデータには、仮想空間データ108に加え、会議を構成するのに必要な音声、映像ストリーミングデータ等が含まれる。   The data communication unit 107 communicates with the robot 104 and the client 103 via the network 101 to transmit / receive data. Data transmitted / received from the data communication unit 107 includes a plurality of types of data. For example, the data transmitted from the client 103 and transmitted to the other client 103 via the virtual space providing server 102 includes, in addition to the virtual space data 108, audio and video streaming necessary for configuring the conference. Data etc. are included.

仮想空間データ108は、仮想空間を構成する要素の位置、大きさ及び外形の情報、仮想空間内に存在する各ユーザのアバターの位置、姿勢及び外形の情報、並びに仮想空間内に存在する各物体1019の位置、姿勢及び外形の情報などを含むものである。この仮想空間データ108は、クライアント103が仮想空間を表示したり、ロボット104が仮想空間内に配置された物体1019の位置を知ったりするのに必要なデータである。実際のデータ形式は利用される3DCG(3 Dimensional Computer Graphics)の技術等によって変化するが、既存の一般的な技術を利用することすることができる。   The virtual space data 108 includes information on the position, size, and outer shape of the elements constituting the virtual space, information on the position, posture, and outer shape of each user's avatar that exists in the virtual space, and each object that exists in the virtual space. 1019 includes information on the position, posture, and outer shape. The virtual space data 108 is data necessary for the client 103 to display the virtual space and for the robot 104 to know the position of the object 1019 placed in the virtual space. The actual data format varies depending on the 3DCG (3 Dimensional Computer Graphics) technology to be used, but an existing general technology can be used.

矛盾検出部109は、ロボット104から送信された物体1019の実空間情報と仮想空間上で表現されている仮想オブジェクトの情報とを比較し、その結果から、実空間と仮想空間との矛盾を検出する。   The contradiction detection unit 109 compares the real space information of the object 1019 transmitted from the robot 104 and the virtual object information expressed in the virtual space, and detects the contradiction between the real space and the virtual space from the result. To do.

物体1019は、例えば遠隔会議を行う会議室に設置された机や椅子、クライアント103のマイクやカメラなど、実空間上に存在するものであって、また仮想空間内にもデータとして存在する要素である。   The object 1019 is an element that exists in the real space, such as a desk or chair installed in a conference room for performing a remote conference, a microphone or a camera of the client 103, and also exists as data in the virtual space. is there.

クライアント103は、データ通信部1010、制御部1011、情報入力部1012、情報提示部1013から構成される。このクライアント103は、ユーザの指示によって又は自動的に仮想空間提供サーバ102と通信し、ユーザに対し仮想空間を利用した遠隔会議環境を提供するためのものである。ユーザはこのクライアント103を用いて仮想空間提供サーバ102にアクセスし、仮想空間内のアバターや物体を操作したり、音声や映像を送信したりする。   The client 103 includes a data communication unit 1010, a control unit 1011, an information input unit 1012, and an information presentation unit 1013. The client 103 communicates with the virtual space providing server 102 in accordance with a user instruction or automatically, and provides a remote conference environment using the virtual space to the user. The user uses this client 103 to access the virtual space providing server 102 to operate an avatar or an object in the virtual space, or transmit voice or video.

データ通信部1010は、仮想空間提供サーバ102と通信して、後述する各種データを送受信する。   The data communication unit 1010 communicates with the virtual space providing server 102 and transmits / receives various data described below.

制御部1011は、データ通信部1010、情報入力部1012、情報提示部1013と通信し、情報入力部1012からのユーザの入力を受け付けてデータ通信部1010に対して仮想空間データ更新用データ(後述)を仮想空間提供サーバ102に送信させる。また、データ通信部1010経由で受信した仮想空間表示用データ(後述)を情報提示部1013に送信して情報を提示させる。   The control unit 1011 communicates with the data communication unit 1010, the information input unit 1012, and the information presentation unit 1013, receives user input from the information input unit 1012, and updates virtual space data (described later) to the data communication unit 1010. ) To the virtual space providing server 102. In addition, virtual space display data (described later) received via the data communication unit 1010 is transmitted to the information presentation unit 1013 to present information.

情報入力部1012は、例えばキーボードやマウスなどユーザの入力を受け付ける装置や、モーションキャプチャなどのユーザの身体動作を常時計測してその結果を入力とすることができる装置等から構成される。この情報入力部1012により、クライアント103を利用するユーザからの情報入力を受け付けて、例えば仮想空間上のアバターを動作させる。また情報入力部1012は、ユーザの音声または映像を取得するマイクやカメラなどを要素として持ち、ユーザの映像や音声を仮想空間提供サーバ102経由で別クライアントに送信できる形式で送信する。   The information input unit 1012 includes, for example, a device that accepts user input such as a keyboard and a mouse, and a device that can constantly measure a user's physical motion such as motion capture and use the result as input. The information input unit 1012 receives information input from a user who uses the client 103 and operates, for example, an avatar in the virtual space. The information input unit 1012 has a microphone, a camera, or the like that acquires the user's voice or video as elements, and transmits the user's video or voice in a format that can be sent to another client via the virtual space providing server 102.

情報提示部1013は、例えばディスプレイやスピーカなどから構成され、仮想空間提供サーバ102から受信した仮想空間表示用データ(後述)や、音声データ、映像データ等を提示するものである。またヘッドマウントディスプレイのようにユーザが装着して使用するような構成も可能である。   The information presentation unit 1013 includes, for example, a display and a speaker, and presents virtual space display data (described later) received from the virtual space providing server 102, audio data, video data, and the like. Further, a configuration in which the user wears and uses the head mounted display is also possible.

図2は実施の形態1に係るロボットの外形図である。
ロボット104は、図1に示すように、少なくとも、データ通信部1014、制御部1015、センサ部1016、情報提示部1017、駆動部1018から構成される。このロボット104は、例えば図2に示す形態を有し、後述する動作により、実空間に存在する物体1019を動かしたり、またはユーザに対して物体1019を動作させるように促す情報を提示したりして、実空間の物体1019と仮想空間内の仮想オブジェクトとの位置や向きの矛盾を軽減するものである。尚、本実施の形態1におけるロボット104は、机上や床上を走行して、実空間に存在する少なくとも1つの物体1019を、例えば「押す」ことによって移動させることが可能なものである。
FIG. 2 is an external view of the robot according to the first embodiment.
As shown in FIG. 1, the robot 104 includes at least a data communication unit 1014, a control unit 1015, a sensor unit 1016, an information presentation unit 1017, and a drive unit 1018. This robot 104 has the form shown in FIG. 2, for example, and moves the object 1019 existing in the real space or presents information prompting the user to move the object 1019 by an operation described later. Thus, the contradiction between the position and orientation of the object 1019 in the real space and the virtual object in the virtual space is reduced. Note that the robot 104 according to the first embodiment can travel on a desk or a floor and move at least one object 1019 existing in the real space by, for example, “pressing” it.

尚、制御部1015及びセンサ部1016は本発明における物体検出手段に相当し、情報提示部1017は本発明における情報提示手段に相当し、制御部1015及び駆動部1018は本発明における物体移動手段に相当する。   The control unit 1015 and the sensor unit 1016 correspond to the object detection unit in the present invention, the information presentation unit 1017 corresponds to the information presentation unit in the present invention, and the control unit 1015 and the drive unit 1018 serve as the object movement unit in the present invention. Equivalent to.

データ通信部1014は、ネットワーク101を介して仮想空間提供サーバ102と通信して各種データの送受信を行う。   The data communication unit 1014 communicates with the virtual space providing server 102 via the network 101 to transmit / receive various data.

制御部1015は、データ通信部1014経由で仮想空間提供サーバ102から送信されてきた動作指令を受信して、駆動部1018に動作命令を送信する。また実空間データの送信指令を受信したとき、センサ部1016により取得した物体1019の位置、姿勢に関する情報を加工して送信できる形にして送る。   The control unit 1015 receives the operation command transmitted from the virtual space providing server 102 via the data communication unit 1014 and transmits the operation command to the drive unit 1018. When the real space data transmission command is received, the information about the position and orientation of the object 1019 acquired by the sensor unit 1016 is processed and transmitted.

センサ部1016は、制御部1015からの指令を受けて、実空間に存在する物体1019の位置、姿勢(向き)を取得できる機能を有するものである。このセンサ部1016は、例えば赤外線センサ、レーザレンジファインダ、又は画像計測装置などを用いて実装することが可能である。   The sensor unit 1016 has a function of receiving the command from the control unit 1015 and acquiring the position and orientation (orientation) of the object 1019 existing in the real space. The sensor unit 1016 can be mounted using, for example, an infrared sensor, a laser range finder, or an image measurement device.

情報提示部1017は、制御部1015からの指令を受けて、物体1019の位置、姿勢が仮想空間と実空間とで一致しておらず矛盾が生じている旨の情報、及び矛盾を解消するために、物体1019の位置、姿勢をユーザが修正するべきであることをユーザに対して提示する。   In response to an instruction from the control unit 1015, the information presenting unit 1017 receives information indicating that the position and orientation of the object 1019 do not match between the virtual space and the real space and a contradiction occurs, and to resolve the contradiction. In addition, it is shown to the user that the user should correct the position and orientation of the object 1019.

駆動部1018は、例えばモータで駆動される車輪や足状の機構から構成され、制御部1015からの動作指令によって動作する。ロボット104を実空間のなかで動作させたり、その動作によって実空間の中にある物体1019を移動させたりする。   The drive unit 1018 is composed of, for example, a wheel or a foot-like mechanism driven by a motor, and operates according to an operation command from the control unit 1015. The robot 104 is moved in the real space, and the object 1019 in the real space is moved by the movement.

次に、本実施の形態1における遠隔会議システムを利用して、遠隔に離れた場所同士で遠隔会議を行う場合に、仮想空間提供サーバ102とクライアント103との間で送受信されるデータの例について図3を用いて説明する。   Next, an example of data that is transmitted and received between the virtual space providing server 102 and the client 103 when a remote conference is performed at remote locations using the remote conference system according to the first embodiment. This will be described with reference to FIG.

図3は実施の形態1に係る送受信データの構造を示す図である。図3(a)は仮想空間表示用データを示しており、仮想空間提供サーバ102から送信され、クライアント103で仮想空間を表示するのに必要なデータである。図3(b)音声データを示し、図3(c)映像データを示しており、仮想空間提供サーバ102を介して各クライアント103間で送受信され、ユーザの音声や映像を遠隔に離れた場所のユーザに提供するためのデータである。図3(d)は仮想空間データ更新用データを示しており、クライアント103から送信され、仮想空間提供サーバ102で仮想空間データ108を更新するのに必要とされるものである。このデータには、各クライアント103でユーザが操作するアバターの位置、姿勢、表情、外形などを変更するのに必要な各種変更データが含まれる。   FIG. 3 is a diagram showing a structure of transmission / reception data according to the first embodiment. FIG. 3A shows virtual space display data, which is data transmitted from the virtual space providing server 102 and necessary for displaying the virtual space by the client 103. FIG. 3 (b) shows audio data, and FIG. 3 (c) shows video data, which are transmitted and received between each client 103 via the virtual space providing server 102, and the user's voice and video are remotely located. This is data to provide to the user. FIG. 3D shows virtual space data update data, which is transmitted from the client 103 and required to update the virtual space data 108 by the virtual space providing server 102. This data includes various kinds of change data necessary for changing the position, posture, facial expression, outline, etc. of the avatar operated by the user on each client 103.

ここで、ObjectIDとは、仮想空間内に存在する物体1019(オブジェクト)を識別するためのIDである。仮想空間を構成する外壁等も物体の一種として統一的に扱うことができる。また、AvatarIDとは、各アバターのIDである。また、UserIDとは、クライアント103を操作するユーザを一意に識別するためのIDである。また、操作IDとは、ObjectIDに関連付けられた仮想空間内の物体に対して実行することが可能な操作を示すIDである。   Here, the ObjectID is an ID for identifying an object 1019 (object) existing in the virtual space. The outer walls that make up the virtual space can also be handled as a kind of object. Moreover, AvatarID is ID of each avatar. The UserID is an ID for uniquely identifying a user who operates the client 103. The operation ID is an ID indicating an operation that can be performed on an object in the virtual space associated with the ObjectID.

上記仮想空間データ更新用データにより、仮想空間上のアバター又はオブジェクトを動作させることができる。例えばオブジェクトを動作させる場合、ObjectIDに操作IDを送信することで、そのオブジェクトの仮想空間内での状態(位置や向き)を変更することができる。具体的な例としては、ユーザ(UserID=userA)が、仮想会議室内に存在するキャビネット(ObjectID=cabinet1)に対して“開ける”(操作ID=open)操作を実行すると、仮想空間提供サーバ102に対して、図3(e)に示すような仮想空間データ更新用データが送信され、これを受信した仮想空間提供サーバ102により仮想空間データが更新され、仮想空間内でキャビネットが開くことになる。   The avatar or object in the virtual space can be operated by the virtual space data update data. For example, when an object is operated, the state (position and orientation) of the object in the virtual space can be changed by transmitting the operation ID to the ObjectID. As a specific example, when the user (UserID = userA) performs an “open” (operation ID = open) operation on a cabinet (ObjectID = cabinet1) existing in the virtual conference room, the virtual space providing server 102 On the other hand, virtual space data update data as shown in FIG. 3E is transmitted, the virtual space data is updated by the virtual space providing server 102 that has received the data, and the cabinet is opened in the virtual space.

図4は実施の形態1に係る遠隔会議システムの動作説明図、図5は実施の形態1に係る動作フローチャート、図6は実施の形態1に係る動作指令の生成方法を示す図、図7は実施の形態1に係るロボットが物体を動作させられない場合を示す図である。以下、本実施の形態1における動作について図を参照しながら説明する。   4 is an operation explanatory diagram of the remote conference system according to the first embodiment, FIG. 5 is an operation flowchart according to the first embodiment, FIG. 6 is a diagram illustrating a method for generating an operation command according to the first embodiment, and FIG. It is a figure which shows the case where the robot which concerns on Embodiment 1 cannot move an object. Hereinafter, the operation in the first embodiment will be described with reference to the drawings.

まず、図4を用いて動作の概略を説明する。
図4(a)に示されるように、上述した音声データや仮想空間表示用データを、仮想空間提供サーバ102とクライアント103とで送受信することで、例えば、実空間地点1に存在するユーザA,Bと、実空間地点2に存在するユーザC,Dとが、共有仮想空間V内にアバターA’B’C’D’として存在しているかのように、クライアント103の情報提示部1013に情報が提示される。このような表示により、各ユーザは実空間上では離れた位置にいるユーザとも、臨場感をもってコミュニケーションすることが可能となる。尚、このような仮想空間の生成及び表示の動作については一般的な仮想空間提供装置と同様の構成であるため、詳細な説明は省略する。
First, an outline of the operation will be described with reference to FIG.
As shown in FIG. 4A, by transmitting and receiving the above-described audio data and virtual space display data between the virtual space providing server 102 and the client 103, for example, the user A, which exists in the real space point 1, B and the users C and D existing in the real space point 2 are notified to the information presenting unit 1013 of the client 103 as if they existed as the avatar A′B′C′D ′ in the shared virtual space V. Is presented. With such a display, each user can communicate with a user at a distant location in real space with a sense of reality. The operation of generating and displaying such a virtual space has the same configuration as that of a general virtual space providing device, and thus detailed description thereof is omitted.

次に仮想空間と実空間との間で生じる矛盾を解消する動作の概略について説明する。
図4において、実空間地点1及び地点2の机上にはそれぞれ、情報入力部1012のひとつとして、ユーザの音声を入力するマイクが設置されている。ここでマイクは物体1019の一つであり共有仮想空間V上にも仮想オブジェクトとして存在している。
Next, an outline of the operation for eliminating the contradiction that occurs between the virtual space and the real space will be described.
In FIG. 4, microphones for inputting the user's voice are installed on the desks at the real space points 1 and 2 as one of the information input units 1012. Here, the microphone is one of the objects 1019 and also exists as a virtual object in the shared virtual space V.

図4(a)に示すように、例えばユーザCがクライアント103を操作して、共有仮想空間V上でのマイクの位置を実空間2の机上と同様の状態に変更したとする。この場合、共有仮想空間Vと実空間地点2とにおけるマイクの位置は一致する。しかし実空間地点1では、実空間でのマイクの位置と仮想空間での位置とに矛盾が生じる。つまり、共有仮想空間V上では、マイクは机上におけるユーザA’の前方に配置されているのに対し、実空間地点1では、マイクは机上におけるユーザBの左前方に配置されており、実空間地点1における机及びユーザとマイクとの相対位置と、仮想空間上の机及びユーザとマイクとの相対位置とが対応していないことになる。尚、例えば仮想空間上でのマイクの姿勢(向き)を変更した場合も、同様に実空間と仮想空間との間に矛盾が生じることとなる。   As shown in FIG. 4A, for example, it is assumed that the user C operates the client 103 and changes the position of the microphone on the shared virtual space V to the same state as that on the desk in the real space 2. In this case, the positions of the microphones in the shared virtual space V and the real space point 2 match. However, at the real space point 1, there is a contradiction between the position of the microphone in the real space and the position in the virtual space. That is, on the shared virtual space V, the microphone is disposed in front of the user A ′ on the desk, whereas at the real space point 1, the microphone is disposed on the left front of the user B on the desk. The relative position between the desk and the user and the microphone at the point 1 does not correspond to the relative position between the desk and the user and the microphone in the virtual space. For example, when the microphone attitude (orientation) in the virtual space is changed, a contradiction similarly occurs between the real space and the virtual space.

遠隔会議システムはこの状態を検知し、実空間地点1に存在するロボット104を動作させて矛盾を軽減させるように動作する。矛盾軽減の動作としては、ロボット104がマイクを動作させられる場合、図4(b)に示すように、ロボット104が机上を移動してマイクを押すことで共有仮想空間Vと一致する位置に動かす。また、マイクが重過ぎてロボット104が動作させられないような場合や、マイクの位置によっては動作させられないような場合には、図4(c)示すように、実空間でのマイクのあるべき位置を、ロボット104の情報提示部1017を用いて実空間上に投射し、ユーザに対してマイクの位置の変更を促す。これによりユーザはロボット104からの情報提示をうけて実空間でのマイクの位置の変更を行う。このような動作によって実空間と仮想空間での矛盾が軽減される。   The teleconference system detects this state and operates the robot 104 existing at the real space point 1 to reduce the contradiction. As an operation for reducing the contradiction, when the robot 104 can operate the microphone, as shown in FIG. 4B, the robot 104 moves to the position that matches the shared virtual space V by moving on the desk and pressing the microphone. . In addition, when the microphone 104 is too heavy to be operated by the robot 104 or when the microphone 104 cannot be operated depending on the position of the microphone, there is a microphone in the real space as shown in FIG. The power position is projected onto the real space using the information presentation unit 1017 of the robot 104, and the user is prompted to change the position of the microphone. As a result, the user receives information from the robot 104 and changes the position of the microphone in the real space. Such an operation reduces the contradiction between the real space and the virtual space.

このような動作の詳細について図5に基づき、図6及び図7を参照しつつ説明する。尚、図5においては、左側が仮想空間提供サーバ102の動作、右側がクライアント103及びロボット104の動作を示している。   Details of such an operation will be described with reference to FIGS. 6 and 7 based on FIG. In FIG. 5, the left side shows the operation of the virtual space providing server 102, and the right side shows the operations of the client 103 and the robot 104.

ステップS3001でユーザが例えばマウスなどの情報入力部1012を用いて仮想空間内の物体を動かすなどの操作を行うと、クライアント103の制御部1011は仮想空間データ更新用データを作成し、ステップS3002で仮想空間提供サーバ102へ送信する。   When the user performs an operation such as moving an object in the virtual space using the information input unit 1012 such as a mouse in step S3001, the control unit 1011 of the client 103 creates virtual space data update data, and in step S3002 Transmit to the virtual space providing server 102.

ステップS301で仮想空間提供サーバ102はクライアント103からの仮想空間データ更新用データを受信する。ステップS302で仮想空間データ作成部105は仮想空間データ更新用データに応じて仮想空間データ108を変更する。ついで仮想空間提供サーバ102は、ステップS303で実空間データ送信指令をロボット104に対して送信する。   In step S <b> 301, the virtual space providing server 102 receives virtual space data update data from the client 103. In step S302, the virtual space data creation unit 105 changes the virtual space data 108 according to the virtual space data update data. Next, the virtual space providing server 102 transmits a real space data transmission command to the robot 104 in step S303.

ステップS304でロボット104は実空間データ送信指令を受信する。ステップS305で、センサ部1016は、位置や姿勢(向き)を計測すべき実空間上の物体1019、例えばマイクの位置や姿勢を計測する。ステップS306でロボット104は仮想空間提供サーバ102に対して、計測した物体1019の位置や姿勢に関する実空間データを送信する。   In step S304, the robot 104 receives a real space data transmission command. In step S305, the sensor unit 1016 measures the position and orientation of an object 1019 in real space whose position and orientation (orientation) are to be measured, for example, a microphone. In step S <b> 306, the robot 104 transmits real space data regarding the measured position and orientation of the object 1019 to the virtual space providing server 102.

ステップS307で仮想空間提供サーバ102は実空間データを受信し、ステップS308で実空間と仮想空間との物体のデータを比較し、距離を計算する。そしてステップS309で矛盾検出部109は、距離の値が一定値以上かを判定する。   In step S307, the virtual space providing server 102 receives the real space data, and in step S308, compares the data of the objects in the real space and the virtual space, and calculates the distance. In step S309, the contradiction detection unit 109 determines whether the distance value is a certain value or more.

このロボット104の計測動作と仮想空間提供サーバ102の比較動作の一例として、例えば物体1019及び仮想オブジェクトの位置データを平面状の座標で表し、仮想空間と実空間との二つの位置のユークリッド距離を計算する場合には、次のような動作を行う。   As an example of the measurement operation of the robot 104 and the comparison operation of the virtual space providing server 102, for example, the position data of the object 1019 and the virtual object are represented by planar coordinates, and the Euclidean distance between the two positions of the virtual space and the real space is expressed as follows. When calculating, the following operation is performed.

ロボット104は、実空間における机の任意位置(例えば縁端部)を原点とする2次元又は3次元座標を定義し、当該原点位置、及びマイク上の任意の計測点までの距離をそれぞれ計測し、計測した距離に応じた座標を付す。ここでは簡単化のために運動が平面状に限られているとする。そしてロボット104の移動可能範囲は机上に限るものとする。この場合、例えばロボット104は、図6に示すように、計測した原点位置を基準として、机上の平面を碁盤上に区切り、図示されるようにxy方向の座標値を割り当てる。そして計測した原点位置及びマイクの距離に応じた座標値を、マイク位置の座標値として付する。例えば図6(a)の場合、マイク位置は(x,y)=(2,2)である。そしてロボット104は当該座標情報を実空間データとして仮想空間提供サーバ102に送信する。   The robot 104 defines two-dimensional or three-dimensional coordinates with an arbitrary position (for example, an edge) of the desk in the real space as an origin, and measures the origin position and a distance to an arbitrary measurement point on the microphone. The coordinates according to the measured distance are attached. Here, for the sake of simplicity, it is assumed that the movement is limited to a planar shape. The movable range of the robot 104 is limited to the desk. In this case, for example, as shown in FIG. 6, the robot 104 divides the plane on the desk on the grid using the measured origin position as a reference, and assigns coordinate values in the xy directions as shown. A coordinate value corresponding to the measured origin position and microphone distance is added as a coordinate value of the microphone position. For example, in the case of FIG. 6A, the microphone position is (x, y) = (2, 2). Then, the robot 104 transmits the coordinate information to the virtual space providing server 102 as real space data.

仮想空間提供サーバ102の矛盾検出部109は、仮想空間データ108を参照して、仮想空間内での上記原点位置、つまり上記例では机の仮想オブジェクトの縁端部を原点とする座標を定義して、上記と同様に原点位置を基準として、机上の平面を碁盤上に区切り、xy方向の座標値を割り当てる。そして、仮想空間上におけるマイクの計測点での座標を求める。   The contradiction detecting unit 109 of the virtual space providing server 102 refers to the virtual space data 108 and defines the origin position in the virtual space, that is, the coordinates with the edge of the virtual object of the desk in the above example as the origin. In the same manner as described above, the plane on the desk is divided on the grid using the origin position as a reference, and coordinate values in the xy directions are assigned. And the coordinate in the measurement point of the microphone in virtual space is calculated | required.

次に矛盾検出部109は、実空間データが示すマイクの座標と、仮想空間でのマイクの座標とを比較することにより、両者の距離の相違量が所定量以上であるか否かを判断し、所定量以上である場合は実空間と仮想空間とに矛盾が生じていると判断する。本実施の形態では、上述した碁盤上に区切った座標内であるか否かにより矛盾が生じているか否かを判断するものとする。尚、座標間隔はこれに限らず、より細目な座標を付しても良い。
尚、マイクの姿勢(向き)を計測する場合には、上述したマイクの計測点を2以上とし、当該複数の計測点を比較することにより、姿勢の矛盾を検知することができる。例えば、マイクが地面に接する足の部分の1点とマイクの風除け部分の1点を計測点として計測し、これら2点間を結んだ直線の角度と、仮想空間内での物体の角度とを比較することで姿勢の矛盾を検知することができる。
Next, the contradiction detection unit 109 compares the microphone coordinates indicated by the real space data with the microphone coordinates in the virtual space to determine whether or not the difference in distance between the two is greater than or equal to a predetermined amount. If it is greater than or equal to the predetermined amount, it is determined that there is a contradiction between the real space and the virtual space. In the present embodiment, it is determined whether or not there is a contradiction depending on whether or not the coordinates are on the above-described grid. The coordinate interval is not limited to this, and finer coordinates may be added.
When measuring the posture (orientation) of the microphone, it is possible to detect a contradiction in posture by setting the above-described microphone measurement points to 2 or more and comparing the plurality of measurement points. For example, one point of the foot part where the microphone is in contact with the ground and one point of the windbreak part of the microphone are measured as measurement points, and the angle of a straight line connecting these two points and the angle of the object in the virtual space are calculated. Comparing postures can be detected by comparison.

次に仮想空間提供サーバ102の制御部106は、上記ステップS309により矛盾が生じていると判断した場合には、ステップS310で、実空間及び仮想空間における上記の二つの座標値からロボット104に対する動作指令を作成し、ステップS311でロボット104に対し送信する。   Next, when the control unit 106 of the virtual space providing server 102 determines that there is a contradiction in step S309, the control unit 106 performs an operation on the robot 104 from the two coordinate values in the real space and the virtual space in step S310. A command is created and transmitted to the robot 104 in step S311.

この動作指令の作成方法について図6を用いて説明する。
今、図6(a)でロボット104の移動対象となる物体であるマイク(情報入力部1012)が、実空間上の座標位置(2,2)に存在し、仮想空間内でのマイクの位置、すなわちマイクが移動するべき位置が(3,2)であらわされているとする。
A method for creating this operation command will be described with reference to FIG.
Now, the microphone (information input unit 1012) that is the object to be moved by the robot 104 in FIG. 6A exists at the coordinate position (2, 2) in the real space, and the position of the microphone in the virtual space. That is, assume that the position to which the microphone should move is represented by (3, 2).

座標をベクトルと考え、二つのベクトルの減算を行うと、
(3,2)−(2,2)=(1,0)
となり、(1,0)という値が得られる。
Considering coordinates as a vector and subtracting two vectors,
(3,2)-(2,2) = (1,0)
And a value of (1, 0) is obtained.

これがそのままロボット104に対する動作指令となる。ロボット104はマイクを現在の位置から、x座標で1つ分増加する方向へ動作させればよい。これにより、上述した距離の相違量が所定量未満となるようマイクを移動させる動作指令を求めることができる。   This is an operation command for the robot 104 as it is. The robot 104 may move the microphone from the current position in a direction that increases by one in the x coordinate. Thereby, the operation command for moving the microphone so that the above-described distance difference amount is less than the predetermined amount can be obtained.

また、物体の向きを計測する場合には、例えば上述した物体の計測点の2点間を結ぶ直線と座標軸との角度を、例えば45°刻みの精度で求め、仮想空間での角度から実空間での物体角度を減算することにより、回転動作指令を求めることができる。例えば仮想オブジェクトの角度がx軸に対して45°であり、実空間での計測点間角度が90°(y軸と並行)の場合、回転動作指令は−45°となる。   When measuring the orientation of an object, for example, the angle between a straight line connecting two measurement points of the object described above and the coordinate axis is obtained with an accuracy of, for example, 45 °, and the real space is calculated from the angle in the virtual space. The rotation operation command can be obtained by subtracting the object angle at. For example, when the angle of the virtual object is 45 ° with respect to the x-axis and the angle between measurement points in the real space is 90 ° (parallel to the y-axis), the rotation operation command is −45 °.

尚、減算の結果が一定値以下の場合には、例えば(0,0)の場合にはそのままステップS312で終了する。   If the subtraction result is equal to or smaller than a certain value, for example, (0, 0), the process ends in step S312.

ステップS313でロボット104は動作指令を受信し、駆動部1018を動作させステップS314で動作を試みる。動作終了後、ステップS315で、再び物体の位置をセンサ部1016で計測し、ステップS316で、予定した位置へ移動させることができたかを確認する。移動できた場合はステップS318で終了し、移動できなかった場合は、ステップS317で、情報提示部1017により、ユーザにマイク(物体)を動かすべき位置、つまり矛盾が解消するマイク位置に関する情報を提示して、矛盾の解消を促す。例えば、情報提示部1017として備えたプロジェクタを用いて、実空間でマイクを動かすべき位置にマイク画像を投影する。尚、情報の提示はこれに限らず、音声によりマイク(物体)を動かすべき位置の情報を提示しても良い。   In step S313, the robot 104 receives the operation command, operates the drive unit 1018, and tries to operate in step S314. After the operation is completed, in step S315, the position of the object is again measured by the sensor unit 1016, and in step S316, it is confirmed whether the object can be moved to the planned position. If it can be moved, the process ends in step S318. If it cannot move, the information presenting unit 1017 presents information regarding the position where the microphone (object) should be moved, that is, the microphone position where the contradiction is resolved, to the user in step S317. And promote the resolution of the contradiction. For example, using a projector provided as the information presentation unit 1017, a microphone image is projected at a position where the microphone should be moved in real space. The presentation of information is not limited to this, and information on a position where the microphone (object) should be moved may be presented by voice.

次に、ロボット104が物体を移動させることができない場合の例について図7を用いて説明する。図7に示されるように物体(マイク)が座標位置(3,1)に存在して、動かすべき位置が(3,2)である場合であって、ロボット104に物体を引く機能がない場合には、ロボット104の動作によっては物体を(3,2)に移動させることができない。このような場合、ロボット104は、矛盾の解消を促す情報として、座標位置(3,2)が物体を動かすべき場所であることを示す情報を提示する。   Next, an example in which the robot 104 cannot move an object will be described with reference to FIG. As shown in FIG. 7, when the object (microphone) exists at the coordinate position (3, 1) and the position to be moved is (3, 2), the robot 104 does not have a function of drawing the object. The object cannot be moved to (3, 2) depending on the operation of the robot 104. In such a case, the robot 104 presents information indicating that the coordinate position (3, 2) is a place where the object is to be moved as information for prompting the resolution of the contradiction.

尚、上記説明では、ロボット104がステップS316で移動できたか否かを判断したが、これに限らず、仮想空間提供サーバ102が、ステップS311の動作指令を送信して所定時間経過後、再度、実空間データを取得して、ステップS316で移動できたか否かを判断するようにしても良い。これによりロボット104の構成を簡素化することができる。   In the above description, it is determined whether or not the robot 104 has moved in step S316. However, the present invention is not limited to this, and the virtual space providing server 102 transmits the operation command in step S311 and after a predetermined time has elapsed, again. Real space data may be acquired and it may be judged whether it was able to move at Step S316. Thereby, the configuration of the robot 104 can be simplified.

また、上記説明では、ロボット104の情報提示部1017に物体を動かすべき情報を提示する場合を説明したが、これに限らず、クライアント103の情報提示部1013に当該情報を提示するようにしても良い。   Further, in the above description, the case where the information for moving the object is presented to the information presentation unit 1017 of the robot 104 has been described. However, the present invention is not limited to this, and the information may be presented to the information presentation unit 1013 of the client 103. good.

尚、本実施の形態1では、ロボット104が物体を移動させることができない場合に、矛盾の解消を促す情報を提示する場合を説明したが、これに限らず、矛盾検出部109が矛盾の発生を検知したときに、ユーザに対し、実空間と仮想空間との間に矛盾が生じている旨の情報を提示するようにしても良い。   In the first embodiment, the case where the robot 104 cannot move the object is presented with information for prompting the contradiction to be resolved. However, the present invention is not limited to this, and the contradiction detection unit 109 generates a contradiction. When this is detected, information indicating that there is a contradiction between the real space and the virtual space may be presented to the user.

以上のように本実施の形態においては、実空間と仮想空間との間で、物体の配置の矛盾を検知して、矛盾が生じている場合に、ロボット104を用いて物体を移動することにより、仮想空間内の仮想オブジェクトと実空間に存在する物体との位置や向きの相違を軽減することができる。   As described above, in the present embodiment, by detecting a contradiction in the arrangement of an object between the real space and the virtual space and moving the object using the robot 104 when the contradiction occurs. The difference in position and orientation between the virtual object in the virtual space and the object existing in the real space can be reduced.

また、ロボット104が移動対象となる物体を動かすことができない場合であっても、矛盾の解消を促す情報をユーザに提示するので、ユーザは当該情報に従い、仮想空間内の仮想オブジェクトと実空間に存在する物体との位置や向きの相違を軽減することができる。   Even if the robot 104 cannot move the object to be moved, information that prompts the user to resolve the contradiction is presented to the user, and the user follows the information to the virtual object and the real space in the virtual space. Differences in position and orientation with existing objects can be reduced.

また、仮想空間内の仮想オブジェクトと実空間に存在する物体との位置や向きの相違を軽減することにより、多様な要素(物体、ユーザ等)の仮想空間と実空間への同期的な配置を可能とし、各ユーザは実空間上では離れた位置にいるユーザとも、臨場感をもってコミュニケーションすることが可能となる。   In addition, by reducing the difference in position and orientation between virtual objects in the virtual space and objects existing in the real space, various elements (objects, users, etc.) can be placed synchronously in the virtual space and the real space. Each user can communicate with a user at a distant location in real space with a sense of reality.

実施の形態2.
上記実施の形態1においては、ロボット104が実際に実空間にある物体を動かす動作を試みてから、物体の動作の可否を確認したため、矛盾を解消するために時間を要した。本実施の形態2においては、物体の重さ、大きさに関係する値を送信することができるIDタグを実空間にある物体に備え、またロボットにIDタグを読み取る機能を付加することで、実空間にある物体がロボットに動かせるか否かを実際に動作を試みること無しに確認でき、より迅速に実空間と仮想空間との矛盾を解消できるものである。
Embodiment 2. FIG.
In the first embodiment, since the robot 104 actually tried to move the object in the real space and confirmed whether or not the object could move, it took time to resolve the contradiction. In the second embodiment, an ID tag that can transmit a value related to the weight and size of the object is provided in the object in the real space, and a function for reading the ID tag is added to the robot. Whether or not an object in the real space can be moved by the robot can be confirmed without actually trying to move, and the contradiction between the real space and the virtual space can be resolved more quickly.

図8は実施の形態2に係る遠隔会議システムの構成図である。図8を用いて本実施の形態の遠隔会議システムの構成について説明する。尚、上記実施の形態1と同様の構成には同じ符号を付し、詳細な説明は省略する。また、仮想空間提供サーバ102及びクライアント103は図8においては図示は省略する。   FIG. 8 is a configuration diagram of the remote conference system according to the second embodiment. The configuration of the remote conference system according to this embodiment will be described with reference to FIG. In addition, the same code | symbol is attached | subjected to the structure similar to the said Embodiment 1, and detailed description is abbreviate | omitted. The virtual space providing server 102 and the client 103 are not shown in FIG.

本実施の形態2に係る遠隔会議システムのロボット401は、新たにタグ読み取り部402を備え、実空間上の物体404に備えられたタグ403から、当該物体の重さ、大きさに関する値を読み取ることができるものである。   The robot 401 of the teleconference system according to the second embodiment newly includes a tag reading unit 402, and reads values related to the weight and size of the object from the tag 403 provided on the object 404 in the real space. It is something that can be done.

タグ読み取り部402は、タグ403から重さ、大きさ、動かしにくさに関する値を読み取ることができるものである。またタグ読み取りを試みてそれが失敗した場合、その状態を検知できるものである。   The tag reading unit 402 can read values related to weight, size, and difficulty in moving from the tag 403. In addition, when the tag reading is attempted and fails, the state can be detected.

情報タグであるタグ403は、例えば、RFID(Radio Frequency IDentification)、バーコード、二次元コードなどで実現され、タグ403を備える物体の重さ、大きさ、ロボットによる動かしにくさに関する情報が記録される。そして当該情報をタグ読み取り部402に送信するものである。尚、ロボットによる動かしにくさに関する情報としては、例えば物体表面の材質(摩擦係数等)や形状などの情報が挙げられる。   The tag 403, which is an information tag, is realized by, for example, RFID (Radio Frequency IDentification), a barcode, a two-dimensional code, and the like, and information on the weight and size of the object including the tag 403 and difficulty in moving by the robot is recorded. The Then, the information is transmitted to the tag reading unit 402. Examples of information related to difficulty in moving by the robot include information on the material (friction coefficient, etc.) and shape of the object surface.

物体404は、上記実施の形態1と同様に、実空間上に存在するものであって、仮想空間内にもデータとして存在する要素である。さらに物体404には、タグ403を備えている。   Similar to the first embodiment, the object 404 is an element that exists in the real space and also exists as data in the virtual space. Further, the object 404 is provided with a tag 403.

図9は実施の形態2に係る動作フローチャートである。以下、図9を用いて本実施の形態の動作について説明する。尚、上記実施の形態1と同様の動作については同一の符号を付して示し、説明を省略する。   FIG. 9 is an operation flowchart according to the second embodiment. Hereinafter, the operation of the present embodiment will be described with reference to FIG. The same operations as those in the first embodiment are denoted by the same reference numerals, and the description thereof is omitted.

上述した実施の形態1と同様にステップS301〜S314の動作(図5)の後、ステップS501でロボット401は、タグ読み取り部402を用いて、動作対象の物体404に設けられたタグ403が読めるかを確認する。読めない場合にはステップS504で動作指令に基づく移動動作をし、再度ステップS501に戻る。   After the operations of Steps S301 to S314 (FIG. 5) as in Embodiment 1 described above, in Step S501, the robot 401 can read the tag 403 provided on the operation target object 404 using the tag reading unit 402. To check. If it cannot be read, a moving operation based on the operation command is performed in step S504, and the process returns to step S501 again.

読める場合にはステップS502でタグを読み取り、当該タグ403に記録された重さ、大きさ、ロボットによる動かしにくさに関する値を得る。   If it can be read, the tag is read in step S502, and values relating to the weight, size, and difficulty of movement by the robot recorded in the tag 403 are obtained.

ステップS503で、ロボット401は、あらかじめ定められた当該ロボット401が動作可能な物体の重さ、大きさ、動かしにくさに関する値との差から、移動対象の物体404が動作させることができるか否かを判定する。この判断は、例えばタグ情報に対応する各値に閾値を定め、当該閾値を超えた場合は動作不可と判断することができる。   In step S503, the robot 401 determines whether or not the object 404 to be moved can be operated based on a difference from predetermined values relating to the weight, size, and difficulty of movement of the object that the robot 401 can operate. Determine whether. In this determination, for example, a threshold value is set for each value corresponding to the tag information, and when the threshold value is exceeded, it can be determined that the operation is impossible.

動作できると判断した場合は、上記実施の形態1と同様に、ステップS314で動作を実施し、ステップS315で実空間データの計測をした後、ステップS316で移動させることができたかを確認する。一方、動作できないと判断した場合には、ステップS317で上記実施の形態1と同様に、実空間に対して情報提示を行う。   If it is determined that the operation can be performed, the operation is performed in step S314 as in the first embodiment, the real space data is measured in step S315, and then it is confirmed whether the movement can be performed in step S316. On the other hand, if it is determined that the operation is not possible, information is presented to the real space in step S317 as in the first embodiment.

以上のように本実施の形態においては、物体404に備えられたタグ403を読み取ることにより、ロボット401がタグ403を備えた物体404を動かすことができない場合に早期の判断をし、ユーザに対する情報提示を実施するので、実際に物体に対する動作を試みる必要が無く、より迅速に実空間と仮想空間との矛盾を軽減できる。   As described above, in the present embodiment, by reading the tag 403 provided on the object 404, when the robot 401 cannot move the object 404 provided with the tag 403, an early determination is made and information for the user is obtained. Since the presentation is performed, it is not necessary to actually try an action on the object, and the contradiction between the real space and the virtual space can be reduced more quickly.

実施の形態3.
上記実施の形態1及び2においては、ロボットは単純な駆動部を持ち、実空間上の物体を押すなど単純な動作だけが可能であった。一方、ロボットをアームやグリッパなど物体に働きかけができる複雑な駆動部を持つ構成とした場合、ロボットが扱える物体と、物体に対して可能な動作の種類が増えるという利点があるが、どの物体に対してどの種類の操作を行うかをロボット単体で判断させることは困難であった。つまり、握る、持ち上げるなどロボットの機構で可能な動作が複数ある場合であっても、厚みが薄い物体は握ることが難しく、重量が重い物体は持ち上げることが難しいなど、物体によって許容される動作には制限があるため、物体によってどういった動作を行うべきかを決めることが困難である。
Embodiment 3 FIG.
In the first and second embodiments, the robot has a simple drive unit and can only perform simple operations such as pushing an object in real space. On the other hand, when the robot is configured with a complex drive unit that can work on objects such as arms and grippers, there are advantages that the robot can handle objects and the types of motion that can be performed on the objects increase. On the other hand, it is difficult for the robot alone to determine what kind of operation is performed on the robot. In other words, even if there are multiple actions that can be performed by the robot mechanism, such as grasping and lifting, it is difficult to grasp an object with a thin thickness, and it is difficult to lift an object with a heavy weight. Because there are limitations, it is difficult to determine what action should be performed depending on the object.

本実施の形態3においては、仮想空間提供サーバ102上にタグによって指定される物体の種類とロボットの可能な動作指令とを関係付けるためのデータベースを配置し、ネットワークを介してロボットに、操作の対象となる物体に対して可能な動作を指示するためのデータを送信することで、ロボットが複雑な構造をしていても実施を試みるべき動作を決定することができるものである。   In the third embodiment, a database for associating the type of object specified by the tag and the possible operation command of the robot is arranged on the virtual space providing server 102, and the operation is transmitted to the robot via the network. By transmitting data for instructing a possible motion to the target object, it is possible to determine the motion to be attempted even if the robot has a complicated structure.

図10は実施の形態3に係る遠隔会議システムの構成図である。図10を用いて本実施の形態の遠隔会議システムの構成について説明する。尚、上記実施の形態1と同様の構成には同じ符号を付し、詳細な説明は省略する。   FIG. 10 is a configuration diagram of the remote conference system according to the third embodiment. The configuration of the remote conference system according to this embodiment will be described with reference to FIG. In addition, the same code | symbol is attached | subjected to the structure similar to the said Embodiment 1, and detailed description is abbreviate | omitted.

仮想空間提供サーバ601は、オブジェクト動作データベース602を新たに備え、ロボット603から送られてくる物体404のID(識別情報)を用いて、オブジェクト動作データベース602を検索し、物に対応するロボット603が可能な動作データを送信する機能を更に有するものである。   The virtual space providing server 601 newly includes an object motion database 602, searches the object motion database 602 using the ID (identification information) of the object 404 sent from the robot 603, and the robot 603 corresponding to the object It further has a function of transmitting possible operation data.

オブジェクト動作データベース602は、ロボット603の動作内容に関する動作データが、物体のID(識別情報)及びロボット603のID(識別情報)に応じて記録された動作情報データベースである。   The object motion database 602 is a motion information database in which motion data related to the motion content of the robot 603 is recorded according to the object ID (identification information) and the robot 603 ID (identification information).

ロボット603は例えば図2(b)に示す形態を有し、物体を握る、持ち上げるなどの機構を備えるものである。ロボット603の制御部604は、上記実施の形態1又は2の動作に加え、タグ読み取り部402が読み取った物体ID及び当該ロボット603のIDをネットワーク101経由で仮想空間提供サーバ601に対して送信し、仮想空間提供サーバ601から、物体404に対してロボット603が可能な動作データを受信するものである。   The robot 603 has, for example, the form shown in FIG. 2B and includes a mechanism for gripping and lifting an object. In addition to the operation of the first or second embodiment, the control unit 604 of the robot 603 transmits the object ID read by the tag reading unit 402 and the ID of the robot 603 to the virtual space providing server 601 via the network 101. From the virtual space providing server 601, operation data that the robot 603 can perform on the object 404 is received.

情報タグであるタグ606は、例えば、RFID、バーコード、二次元コードなどで実現され、タグ606を備える物体404を一意に検出するためのID情報が記録される。そして当該情報をタグ読み取り部402に送信するものである。   The tag 606 that is an information tag is realized by, for example, an RFID, a barcode, a two-dimensional code, and the like, and ID information for uniquely detecting the object 404 including the tag 606 is recorded. Then, the information is transmitted to the tag reading unit 402.

タグ読み取り部402は、タグ606から物体404のIDを読み取ることができるものである。またタグ読み取りを試みてそれが失敗した場合、その状態を検知できるものである。   The tag reading unit 402 can read the ID of the object 404 from the tag 606. In addition, when the tag reading is attempted and fails, the state can be detected.

図11は実施の形態3に係る動作フローチャート、図12は実施の形態3に係る送受信データの構造を示す図、図13は実施の形態3に係るロボットの動作を示す図である。以下、図11〜図13を用いて動作の具体例と送受信するデータ構造について説明する。尚、上記実施の形態1又は2と同様の動作については同一の符号を付し、詳細な説明は省略する。   FIG. 11 is an operation flowchart according to the third embodiment, FIG. 12 is a diagram illustrating a structure of transmission / reception data according to the third embodiment, and FIG. 13 is a diagram illustrating an operation of the robot according to the third embodiment. Hereinafter, a specific example of operation and a data structure to be transmitted / received will be described with reference to FIGS. In addition, the same code | symbol is attached | subjected about the operation | movement similar to the said Embodiment 1 or 2, and detailed description is abbreviate | omitted.

上述した実施の形態1,2と同様にステップS301〜S314の動作(図5)の後、ステップS501でロボット603は、タグ読み取り部402を用いて、動作対象の物体404に設けられたタグ606が読めるかを確認する。読めない場合にはステップS504で動作指令に基づく移動動作をし、再度ステップS501に戻る。読める場合にはステップS502でタグを読みとり、当該タグ606に記録されたIDを得る。   After the operations in steps S301 to S314 (FIG. 5) as in the first and second embodiments described above, in step S501, the robot 603 uses the tag reading unit 402 to tag 606 provided on the operation target object 404. Make sure you can read If it cannot be read, a moving operation based on the operation command is performed in step S504, and the process returns to step S501 again. If it can be read, the tag is read in step S502, and the ID recorded in the tag 606 is obtained.

ステップS701で、ロボット603は仮想空間提供サーバ601に対して、読み取ったタグのIDを含んだデータを送信する。送信されるデータは少なくとも図12(a)に示すようなデータを含むものとする。ここで、図12(a)において、ロボットIDとはロボット603の種類を一意に示すためのデータである。このIDによって機構などロボットのもつ特徴に適したデータを検索することができる。   In step S701, the robot 603 transmits data including the ID of the read tag to the virtual space providing server 601. The transmitted data includes at least data as shown in FIG. Here, in FIG. 12A, the robot ID is data for uniquely indicating the type of the robot 603. By using this ID, data suitable for the features of the robot such as the mechanism can be searched.

ステップS702で、仮想空間提供サーバ601は、ロボット603から受信したタグのIDと、ロボットIDを用いて、オブジェクト動作データベース602を検索し、当該ロボットIDをもつロボットがタグのIDをもつ物体に対して可能な動作データを取得する。   In step S702, the virtual space providing server 601 searches the object operation database 602 using the tag ID received from the robot 603 and the robot ID, and the robot having the robot ID searches for an object having the tag ID. Obtain possible motion data.

ここで、オブジェクト動作データベース602内のレコードは少なくとも図12(b)に示すようなデータを含むものとする。図12(b)において、一つのオブジェクトIDは複数個のロボットIDとそれに関連付けられる複数の動作データレコードを含む。動作データは物体を持ち上げる、引くなどというロボットに対する命令のレベルで表現されていてもかまわないし、具体的にロボットの関節角度を指定する数値データのようなレベルで表現されていてもかまわない。   Here, the record in the object action database 602 includes at least data as shown in FIG. In FIG. 12B, one object ID includes a plurality of robot IDs and a plurality of motion data records associated therewith. The motion data may be expressed at the level of a command to the robot such as lifting or pulling an object, or may be expressed at a level such as numerical data that specifically specifies the joint angle of the robot.

ステップS703で、制御部604は、オブジェクト動作データベース602から取得したこれらの動作データを用いて、ロボット603への動作指令となる、動作のためのデータを作成する。すなわち物体を操作するために、つかむ、持ち上げるなどの操作を含めて動作データを作成する。   In step S <b> 703, the control unit 604 uses the motion data acquired from the object motion database 602 to create motion data that is a motion command to the robot 603. That is, in order to operate an object, motion data including operations such as grabbing and lifting is created.

動作データの生成の方法について図13を用いて説明する。
図13に示されるように物体(マイク)が座標位置(3,1)に存在して、動かすべき位置が(3,2)である場合を考える。本実施の形態のロボット603は、例えば物体404を持ち上げる、下ろすという動作が可能であることがオブジェクト動作データベース602に記載されているものとする。上記実施の形態1(図5)のステップS310と同様にベクトル計算を行い、さらにオブジェクト動作データベース602に記載されている動作データを用いることにより、実施の形態1の単純な構成のロボット104とは異なり、本実施の形態3のロボット603は、物体(マイク)に対し、座標位置(3,1)で物体を持ち上げ、その後座標位置(3,2)に移動させ、物体をおろすという動作データを生成することが可能になる。尚、これらのデータ生成にはロボット工学の分野で利用される既存技術である軌道生成技術を用いることができる。
A method of generating operation data will be described with reference to FIG.
Consider a case in which an object (microphone) exists at the coordinate position (3, 1) and the position to be moved is (3, 2) as shown in FIG. It is assumed that the object motion database 602 describes that the robot 603 of the present embodiment is capable of, for example, lifting and lowering the object 404. The vector calculation is performed in the same manner as in step S310 in the first embodiment (FIG. 5), and the motion data described in the object motion database 602 is used, so that the robot 104 having a simple configuration in the first embodiment is used. In contrast, the robot 603 according to the third embodiment receives motion data indicating that an object (microphone) is lifted at a coordinate position (3, 1), then moved to a coordinate position (3, 2), and the object is lowered. Can be generated. It should be noted that these data can be generated by using a trajectory generation technique that is an existing technique used in the field of robotics.

ステップS704で、仮想空間提供サーバ601は作成した動作データをロボット603に対して送信する。この際に送信されるデータは一つまたは複数あるものとする。   In step S704, the virtual space providing server 601 transmits the created operation data to the robot 603. It is assumed that there is one or more data transmitted at this time.

ステップS705で、ロボット603は動作データを受信し、ステップS706で複数ある動作データから一つを選び出し、上記実施の形態1と同様に、ステップS314で動作を実施し、ステップS315で実空間データの計測を行う。   In step S705, the robot 603 receives the motion data. In step S706, the robot 603 selects one of the motion data, performs the motion in step S314, and in step S315, executes the real space data. Measure.

ステップS316で上記実施の形態1と同様に、計画した通りの動作が可能であったかを判定する。動作できていないと判断した場合には、ステップS707に進み、実施したデータ以外に他の動作データが残っているかを確認し、残っている場合にはステップS705に戻る。他の動作データが残っていない場合には、ロボットの動作による矛盾の解決を断念し、ステップS317に進み、上記実施の形態1と同様に実空間に対して情報提示を行う。   In step S316, as in the first embodiment, it is determined whether the planned operation is possible. If it is determined that the operation is not possible, the process proceeds to step S707, where it is confirmed whether other operation data other than the executed data remains. If remaining, the process returns to step S705. If no other motion data remains, the resolution of the contradiction caused by the robot motion is abandoned, the process proceeds to step S317, and information is presented to the real space as in the first embodiment.

以上のように本実施の形態においては、移動させる物体404のIDとロボット603のIDとに対応する動作データをオブジェクト動作データベース602から取得し、取得したデータに基づいてロボット603を動作させることにより、多様な物体404(要素)の形状性質に対応するべく、ロボット603の構造が複雑である場合でも、仮想空間と実空間との間の矛盾を軽減することができる。   As described above, in the present embodiment, motion data corresponding to the ID of the object 404 to be moved and the ID of the robot 603 is acquired from the object motion database 602, and the robot 603 is operated based on the acquired data. Even if the structure of the robot 603 is complicated in order to cope with the shape properties of various objects 404 (elements), inconsistency between the virtual space and the real space can be reduced.

尚、上記の動作データの生成は、仮想空間提供サーバ102でなく、ロボット603側で行ってもかまわない。その場合には仮想空間データ108及びオブジェクト動作データベース602のデータをロボット603に転送する必要がある。   The generation of the operation data may be performed not on the virtual space providing server 102 but on the robot 603 side. In that case, it is necessary to transfer the virtual space data 108 and the data of the object motion database 602 to the robot 603.

尚、上記実施の形態1〜3において、例として示したデータ構造は一例に過ぎず、同様の機能を実現する他の構造でもかまわない。   In the first to third embodiments, the data structure shown as an example is merely an example, and other structures that realize the same function may be used.

尚、上記実施の形態1〜3においては、ロボットを仮想空間内に配置しない場合を説明したが、これに限らず、ロボットに物体としての性質を持たせ、仮想空間上に配置してもかまわない。   In the first to third embodiments, the case where the robot is not arranged in the virtual space has been described. However, the present invention is not limited to this, and the robot may have a property as an object and may be arranged in the virtual space. Absent.

尚、上記実施の形態1〜3においては、情報提示部1017によるユーザに対する矛盾解消の指令は、映像のプロジェクションの場合を説明したが、これに限らず、例えば音声によるものであってもかまわない。   In the above first to third embodiments, the contradiction resolution instruction to the user by the information presentation unit 1017 has been described for the case of video projection. However, the present invention is not limited to this, and may be, for example, by voice. .

尚、上記実施の形態1〜3においては、本発明における物体検出手段、情報提示手段、及び物体移動手段をロボットに備える場合を説明したが、これに限らず、各手段が物理的に分割されていてもかまわない。また、ロボットが複数台あってもかまわない。   In the first to third embodiments, the case where the robot includes the object detection unit, the information presentation unit, and the object movement unit according to the present invention has been described. However, the present invention is not limited thereto, and each unit is physically divided. It does not matter. There may be a plurality of robots.

尚、上記実施の形態1〜3においては、遠隔地同士をネットワーク経由で接続して会議を行う遠隔会議システムについて説明したが、これに限らず、類似した要素を持つ複数拠点の空間に複数のユーザ又は物が存在し、同時に実際の空間と類似した要素を持つ仮想空間を共有し、実空間の情報および仮想空間の情報を送受信、共有、及び利用することで遠隔地に存在しているユーザ同士が円滑に情報交換、共同作業をすることを可能にする情報システムに用いることができる。   In the first to third embodiments, the remote conference system for performing a conference by connecting remote locations via a network has been described. However, the present invention is not limited to this, and a plurality of locations in a plurality of locations having similar elements may be used. A user who exists in a remote place by sharing a virtual space with users or objects and having elements similar to the real space at the same time, and transmitting, receiving, sharing, and using real space information and virtual space information It can be used in an information system that enables smooth information exchange and collaborative work.

実施の形態1に係る遠隔会議システムの構成図である。1 is a configuration diagram of a remote conference system according to Embodiment 1. FIG. 実施の形態1に係るロボットの外形図である。2 is an outline view of the robot according to Embodiment 1. FIG. 実施の形態1に係る送受信データの構造を示す図である。It is a figure which shows the structure of the transmission / reception data which concerns on Embodiment 1. FIG. 実施の形態1に係る遠隔会議システムの動作説明図である。4 is an operation explanatory diagram of the remote conference system according to Embodiment 1. FIG. 実施の形態1に係る動作フローチャートである。3 is an operation flowchart according to the first embodiment. 実施の形態1に係る動作指令の生成方法を示す図である。5 is a diagram showing a method for generating an operation command according to Embodiment 1. FIG. 実施の形態1に係るロボットが物体を動作せられない場合を示す図である。It is a figure which shows the case where the robot which concerns on Embodiment 1 cannot move an object. 実施の形態2に係る遠隔会議システムの構成図である。6 is a configuration diagram of a remote conference system according to Embodiment 2. FIG. 実施の形態2に係る動作フローチャートである。6 is an operation flowchart according to the second embodiment. 実施の形態3に係る遠隔会議システムの構成図である。FIG. 10 is a configuration diagram of a remote conference system according to a third embodiment. 実施の形態3に係る動作フローチャートである。10 is an operation flowchart according to the third embodiment. 実施の形態3に係る送受信データの構造を示す図である。It is a figure which shows the structure of the transmission / reception data which concerns on Embodiment 3. FIG. 実施の形態3に係るロボットの動作を示す図である。FIG. 10 is a diagram illustrating an operation of the robot according to the third embodiment.

符号の説明Explanation of symbols

101 ネットワーク、102 仮想空間提供サーバ、103 クライアント、104 ロボット、105 仮想空間データ作成部、106 制御部、107 データ通信部、108 仮想空間データ、109 矛盾検出部、1010 データ通信部、1011 制御部、1012 情報入力部、1013 情報提示部、1014 データ通信部、1015 制御部、1016 センサ部、1017 情報提示部、1018 駆動部、1019 物体、401 ロボット、402 タグ読み取り部、403 タグ、404 物体、601 仮想空間提供サーバ、602 オブジェクト動作データベース、603 ロボット、604 制御部、606 タグ。   101 network, 102 virtual space providing server, 103 client, 104 robot, 105 virtual space data creation unit, 106 control unit, 107 data communication unit, 108 virtual space data, 109 inconsistency detection unit, 1010 data communication unit, 1011 control unit, 1012 Information input unit, 1013 information presentation unit, 1014 data communication unit, 1015 control unit, 1016 sensor unit, 1017 information presentation unit, 1018 drive unit, 1019 object, 401 robot, 402 tag reading unit, 403 tag, 404 object, 601 Virtual space providing server, 602 object motion database, 603 robot, 604 control unit, 606 tag.

Claims (9)

複数のクライアントが通信回線を介してサーバに接続され、前記サーバにより定義される仮想空間内に、実空間の任意の物体に対応する仮想オブジェクトを描画して、各クライアントに表示し、前記クライアントからの操作情報により前記仮想オブジェクトの描画位置又は方向を変更する遠隔会議システムであって、
少なくとも2以上の前記物体間の相対位置及び/又は相対方向に関する実空間情報を検出する物体検出手段と、
前記サーバからの動作指令に基づいて前記物体の少なくとも1つを移動させる物体移動手段とを備え、
前記サーバは、
前記実空間情報に基づき、前記物体間の相対位置及び/又は相対方向と、当該物体に対応する前記仮想オブジェクト間の相対位置及び/又は相対方向との相違量が所定量以上であるか否かを検出する矛盾検出部と、
前記相違量が所定量以上のとき、当該相違量が所定量未満となるように前記物体を移動させる前記動作指令を求める制御部と
を有することを特徴とする遠隔会議システム。
A plurality of clients are connected to a server via a communication line, and a virtual object corresponding to an arbitrary object in the real space is drawn in a virtual space defined by the server and displayed on each client. A teleconferencing system that changes the drawing position or direction of the virtual object according to the operation information of
Object detection means for detecting real space information relating to a relative position and / or a relative direction between at least two of the objects;
Object moving means for moving at least one of the objects based on an operation command from the server;
The server
Whether or not the amount of difference between the relative position and / or relative direction between the objects and the relative position and / or relative direction between the virtual objects corresponding to the object is greater than or equal to a predetermined amount based on the real space information A contradiction detector for detecting
And a control unit that obtains the operation command to move the object so that the difference amount is less than the predetermined amount when the difference amount is equal to or greater than the predetermined amount.
前記サーバから取得した情報を出力する情報提示手段を更に備え、
前記サーバの制御部は、
前記相違量が所定量以上のとき、実空間と仮想空間との間に矛盾が生じている旨の情報を前記情報提示手段に出力することを特徴とする請求項1記載の遠隔会議システム。
Further comprising information presenting means for outputting information acquired from the server,
The control unit of the server
The remote conference system according to claim 1, wherein when the difference amount is equal to or greater than a predetermined amount, information indicating that a contradiction has occurred between the real space and the virtual space is output to the information presenting means.
前記サーバの制御部は、
前記相違量が所定量以上のとき、当該相違量が所定量未満となる前記物体の位置及び/又は方向に関する情報を前記情報提示手段に出力することを特徴とする請求項2記載の遠隔会議システム。
The control unit of the server
3. The remote conference system according to claim 2, wherein when the difference amount is equal to or larger than a predetermined amount, information on the position and / or direction of the object at which the difference amount is less than the predetermined amount is output to the information presentation unit. .
前記サーバの制御部は、
前記物体を移動させる前記動作指令を出力し、所定時間経過後、前記相違量が所定量以上の場合、当該相違量が所定量未満となる前記物体の位置及び/又は方向に関する情報を前記情報提示手段に出力することを特徴とする請求項2又は3記載の遠隔会議システム。
The control unit of the server
When the operation command for moving the object is output and the difference amount is equal to or greater than a predetermined amount after a predetermined time has passed, the information regarding the position and / or direction of the object at which the difference amount is less than the predetermined amount is presented. 4. The remote conference system according to claim 2, wherein the remote conference system outputs the information to a means.
前記物体検出手段は、
前記物体の任意の位置を原点とする2次元又は3次元座標を定義して、前記原点位置と前記各物体の少なくとも1つの計測点との距離に応じた座標を付し、当該座標情報を前記実空間情報として出力し、
前記サーバの矛盾検出部は、
前記実空間における原点位置に対応する仮想空間での位置を原点とする2次元又は3次元座標を定義して、前記仮想オブジェクトにおける前記物体の計測点に対応する箇所の座標を求め、
仮想空間での前記計測点間の距離と、実空間での前記計測点間の距離とを比較して、前記相違量が所定量以上であるか否かを検出することを特徴とする請求項1〜4の何れかに記載の遠隔会議システム。
The object detection means includes
Two-dimensional or three-dimensional coordinates with an arbitrary position of the object as an origin are defined, a coordinate according to a distance between the origin position and at least one measurement point of each object is attached, and the coordinate information is Output as real space information,
The server conflict detection unit
Defining two-dimensional or three-dimensional coordinates with a position in the virtual space corresponding to the origin position in the real space as an origin, and obtaining coordinates of a location corresponding to the measurement point of the object in the virtual object;
The distance between the measurement points in the virtual space is compared with the distance between the measurement points in the real space to detect whether the difference amount is a predetermined amount or more. The remote conference system according to any one of 1 to 4.
前記サーバの制御部は、
移動対象となる前記物体に対応する仮想オブジェクトの計測点の座標ベクトルから、当該物体の計測点の座標ベクトルを減算して求めた座標ベクトルに基づき、当該物体を移動させる前記動作指令を求めることを特徴とする請求項5記載の遠隔会議システム。
The control unit of the server
Obtaining the operation command for moving the object based on the coordinate vector obtained by subtracting the coordinate vector of the measurement point of the object from the coordinate vector of the measurement point of the virtual object corresponding to the object to be moved; 6. The remote conference system according to claim 5, wherein
前記物体に取り付けられ、当該物体の重さ、大きさ、及び動かしにくさに関する情報の少なくとも1つが記録される情報タグと、
前記物体移動手段に設けられ、前記情報タグに記録された情報を読み取るタグ読み取り部とを更に備え、
前記物体移動手段は、
前記動作指令に応じて移動させる前記物体の前記情報タグの情報を読み取り、該情報に基づいて、当該物体が移動可能か否かを判断し、
移動可能と判断したとき、前記動作指令に基づいて前記物体を移動させることを特徴とする請求項1〜6の何れかに記載の遠隔会議システム。
An information tag attached to the object and recorded with at least one of information on the weight, size, and difficulty of movement of the object;
A tag reading unit that is provided in the object moving means and reads information recorded in the information tag;
The object moving means is
Read the information tag information of the object to be moved according to the operation command, based on the information, determine whether the object is movable,
The remote conference system according to claim 1, wherein when it is determined that the object can be moved, the object is moved based on the operation command.
前記物体に取り付けられ、当該物体の識別情報が記録される情報タグと、
前記物体移動手段に設けられ、前記情報タグに記録された情報を読み取り、前記物体の識別情報及び当該物体移動手段の識別情報を前記サーバに送信するタグ読み取り部と、
前記サーバに設けられ、前記物体移動手段の動作内容に関する動作データが、前記物体の識別情報及び前記物体移動手段の識別情報に応じて記録された動作情報データベースと
を更に備え、
前記サーバの制御部は、
移動させる前記物体の前記識別情報と、動作指令を出力する前記物体移動手段の前記識別情報とに対応する動作データを前記動作情報データベースから取得し、取得した前記動作データに基づいて前記動作指令を求めることを特徴とする請求項1〜6の何れかに記載の遠隔会議システム。
An information tag attached to the object and recording identification information of the object;
A tag reading unit that is provided in the object moving unit, reads information recorded in the information tag, and transmits the identification information of the object and the identification information of the object moving unit to the server;
An operation information database provided in the server, wherein operation data relating to operation contents of the object moving means is recorded according to the identification information of the object and the identification information of the object moving means;
The control unit of the server
Operation data corresponding to the identification information of the object to be moved and the identification information of the object moving means for outputting an operation command is acquired from the operation information database, and the operation command is obtained based on the acquired operation data. The remote conference system according to claim 1, wherein the remote conference system is obtained.
複数のクライアントが通信回線を介してサーバに接続され、前記サーバにより定義される仮想空間内に、実空間の任意の物体に対応する仮想オブジェクトを描画して、各クライアントに表示し、前記クライアントからの操作情報により前記仮想オブジェクトの描画位置又は方向を変更する遠隔会議システムの制御方法であって、
少なくとも2以上の前記物体間の相対位置及び/又は相対方向に関する実空間情報を検出するステップと、
前記実空間情報に基づき、前記物体間の相対位置及び/又は相対方向と、当該物体に対応する前記仮想オブジェクト間の相対位置及び/又は相対方向との相違量が所定量以上であるか否かを検出するステップと、
前記相違量が所定量以上のとき、当該相違量が所定量未満となるように前記物体を移動させる前記動作指令を求めるステップと、
前記物体の少なくとも1つを移動する物体移動手段を、前記動作指令に基づいて動作させるステップと
を有することを特徴とする遠隔会議システムの制御方法。
A plurality of clients are connected to a server via a communication line, and a virtual object corresponding to an arbitrary object in the real space is drawn in a virtual space defined by the server and displayed on each client. A remote conference system control method for changing the drawing position or direction of the virtual object according to the operation information of
Detecting real space information regarding a relative position and / or a relative direction between at least two or more of the objects;
Whether or not the amount of difference between the relative position and / or relative direction between the objects and the relative position and / or relative direction between the virtual objects corresponding to the object is greater than or equal to a predetermined amount based on the real space information Detecting steps,
Obtaining the operation command for moving the object so that the difference amount is less than a predetermined amount when the difference amount is equal to or greater than a predetermined amount;
And a step of operating an object moving means for moving at least one of the objects based on the operation command.
JP2008044681A 2008-02-26 2008-02-26 Remote conference system and control method thereof Expired - Fee Related JP5050919B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008044681A JP5050919B2 (en) 2008-02-26 2008-02-26 Remote conference system and control method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008044681A JP5050919B2 (en) 2008-02-26 2008-02-26 Remote conference system and control method thereof

Publications (2)

Publication Number Publication Date
JP2009206619A JP2009206619A (en) 2009-09-10
JP5050919B2 true JP5050919B2 (en) 2012-10-17

Family

ID=41148493

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008044681A Expired - Fee Related JP5050919B2 (en) 2008-02-26 2008-02-26 Remote conference system and control method thereof

Country Status (1)

Country Link
JP (1) JP5050919B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015184986A (en) * 2014-03-25 2015-10-22 学校法人 創価大学 Compound sense of reality sharing device
JP6355203B2 (en) * 2015-02-12 2018-07-11 日本電信電話株式会社 Object delivery device, object delivery system
US10810416B2 (en) * 2018-12-14 2020-10-20 Palo Alto Reseach Center Incorporated Method and system for facilitating dynamic materialization for real-world interaction with virtual reality

Also Published As

Publication number Publication date
JP2009206619A (en) 2009-09-10

Similar Documents

Publication Publication Date Title
US20220398844A1 (en) Shared Augmented Reality Session Recording and Playback
US10179407B2 (en) Dynamic multi-sensor and multi-robot interface system
JP6900575B2 (en) How and system to generate detailed datasets of the environment through gameplay
JP4999734B2 (en) ENVIRONMENTAL MAP GENERATION DEVICE, METHOD, AND PROGRAM
CN108885459A (en) Air navigation aid, navigation system, mobile control system and mobile robot
US20120192088A1 (en) Method and system for physical mapping in a virtual world
US20210255328A1 (en) Methods and systems of a handheld spatially aware mixed-reality projection platform
JP6054831B2 (en) Image processing apparatus, image processing method, and image processing program
JP2010217719A (en) Wearable display device, and control method and program therefor
CN110888428A (en) Mobile robot, remote terminal, computer-readable medium, control system, control method
EP3422145B1 (en) Provision of virtual reality content
JP2006201912A (en) Processing method for three-dimensional virtual object information providing service, three-dimensional virtual object providing system, and program
US10964104B2 (en) Remote monitoring and assistance techniques with volumetric three-dimensional imaging
JP2018153874A (en) Presentation device, presentation method, program and work system
JP2020065229A (en) Video communication method, video communication device, and video communication program
JP5050919B2 (en) Remote conference system and control method thereof
US10582190B2 (en) Virtual training system
US10713833B2 (en) Method and device for controlling 3D character using user&#39;s facial expressions and hand gestures
JP2016189073A (en) Personality estimation device, personality estimation program, and personality estimation method
Renner et al. Facilitating HRI by mixed reality techniques
Radmard et al. Impacts of visual occlusion and its resolution in robot-mediated social collaborations
KR102208708B1 (en) Method and device for providing virtual content on virtual space based on common coordinate
US12002162B2 (en) Method and apparatus for providing virtual contents in virtual space based on common coordinate system
Ohmoto et al. ICIE: immersive environment for social interaction based on socio-spacial information
US20230351706A1 (en) Scanning interface systems and methods for building a virtual representation of a location

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20101116

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120626

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120709

R150 Certificate of patent or registration of utility model

Ref document number: 5050919

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150803

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees