JP2002305758A - Device and system for presence communication - Google Patents

Device and system for presence communication

Info

Publication number
JP2002305758A
JP2002305758A JP2001105728A JP2001105728A JP2002305758A JP 2002305758 A JP2002305758 A JP 2002305758A JP 2001105728 A JP2001105728 A JP 2001105728A JP 2001105728 A JP2001105728 A JP 2001105728A JP 2002305758 A JP2002305758 A JP 2002305758A
Authority
JP
Japan
Prior art keywords
space
information
existing
logical information
human
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2001105728A
Other languages
Japanese (ja)
Inventor
Kazuyuki Iso
和之 磯
Shinkuro Honda
新九郎 本田
Takashi Kono
隆志 河野
Satoshi Ishibashi
聡 石橋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2001105728A priority Critical patent/JP2002305758A/en
Publication of JP2002305758A publication Critical patent/JP2002305758A/en
Pending legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To provide a device and a system for presence communication that can build up a communication environment as if one person were working on a place of one's own together with other person and the other person were working on a place of the other person together with the one person even when they are resident in different real spaces and are working at their respective places. SOLUTION: As to people existing in real spaces and objects existing around the people, states between the people and the objects, between the objects and of the object themselves, are respectively logically calculated and by, using information from a database describing rules or the like, space logic information is generated and virtual objects are recognize on the basis of the logical information of the space.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、画像を装置利用者
に立体的に認識させ臨場感を持たせるようにした臨場感
通信装置及び臨場感通信システムに関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a real-life communication device and a real-life communication system that allow a user of a device to recognize an image three-dimensionally to give a sense of realism.

【0002】[0002]

【従来の技術】アイテムを用いる観察者の、身体の所定
の部位の位置検出とアイテムの位置検出とを独立して行
い、仮想物体を立体表示する臨場感生成装置が特開20
00−202164号公報に記載されている。
2. Description of the Related Art Japanese Patent Laid-Open Publication No. 20-204702 discloses a realism generating apparatus for performing three-dimensional display of a virtual object by independently detecting the position of a predetermined part of the body and the position of an item of an observer using an item.
No. 00-202164.

【0003】この公知技術は、表示したい物体そのもの
または、それに近い形状の物体を使って、身体情報とと
もに表示させ、観察者はあたかも実際に持っているアイ
テムで仮想空間の物体を操作するような感覚が得られ
る。
According to this known technique, an object to be displayed or an object having a shape close to the object is displayed together with physical information, and an observer feels like operating an object in a virtual space with an item actually held. Is obtained.

【0004】[0004]

【発明が解決しようとする課題】異なる状況の実空間に
存在する人間同士が、そこに存在する実物体を用いなが
ら、コミュニケーションを行う環境を考える。
Consider an environment in which humans existing in real spaces in different situations communicate with each other using real objects existing there.

【0005】従来の技術では、そこに存在する物体をそ
のままの状態で表示することは可能である。しかし、そ
こに存在する物をそのまま、伝達するのではなく、伝達
する空間の論理的な情報を抽出し、物体によってはモデ
ル情報の変換や、表示する位置の変換を行うことで、情
報の受け手が相手の状況を容易に理解する効果を得るよ
うにすることが望まれる。
[0005] In the prior art, it is possible to display an object existing there as it is. However, rather than transmitting the existing objects as they are, rather than extracting the logical information of the transmitting space and converting the model information or the display position for some objects, the information receiver It is desired that the user can easily understand the situation of the other party.

【0006】例えば、料理学校の先生が自宅の厨房に立
ち、生徒も自宅の厨房に立っている場合、その厨房の調
理器具の配置や、そこに存在する道具の形状、大きさに
は違いがある。このような場合、従来技術では、先生の
立っている位置と、周辺の物体の位置情報がそのまま伝
わってしまう。また、生徒が同じ機能の器具を持ってい
たとしても、先生が形状の違う器具を使い、その器具の
立体映像が表示されることで、生徒側が知らない器具が
表示されてしまい、何を使って良いのかわからないこと
がある。
For example, when a teacher of a cooking school stands in a kitchen at home and students also stand in a kitchen at home, there is a difference in the arrangement of cooking utensils in the kitchen and the shape and size of utensils existing in the kitchen. is there. In such a case, in the related art, the position where the teacher stands and the position information of the surrounding objects are transmitted as they are. Also, even if the student has an instrument with the same function, the teacher uses an instrument with a different shape, and the stereoscopic image of the instrument is displayed, and the instrument that the student does not know is displayed. May not be sure.

【0007】本発明は、これらの点を解決し、異なった
実空間に存在していて、お互いがその場所で作業してい
ても、お互いに、相手が自分の場所にいて作業をしてい
るかのような通信環境を構築するようにすることを目的
としている。
[0007] The present invention solves these problems, and even if they are present in different real spaces and each other is working at that place, whether each other is working at their own place or not. The purpose is to construct a communication environment like this.

【0008】[0008]

【課題を解決するための手段】1)現実の空間の物体の
個体を認識する装置と位置と形状の変化とを検出する装
置を備える。 2)人間の位置と姿勢とを検出する装置を備える。 3)物体の形状と機能情報と実空間に物体が存在する際
に適用される物理的な定義とを記述したデータベースを
備える。 4)人間の位置と姿勢の変化と物体の移動と形状の変化
とから、空間内の人間と物体との関係、物体と物体との
関係、物体自体の状態を論理的な情報へ変換する装置を
備える。 5)複数の実空間の間をつなぐ通信網を備える。 6)通信相手から送られてきた論理情報を、現在ある実
空間の状況に合わせて解釈し、立体的な映像情報として
生成するために、モデルや座標の情報を補完する装置を
備える。 7)実空間に、通信相手の状態を立体的な映像として認
識させるための、画像表示装置を備える。
Means for Solving the Problems 1) An apparatus for recognizing an individual object in a real space and an apparatus for detecting a change in position and shape are provided. 2) A device for detecting the position and posture of a person is provided. 3) A database is provided which describes the shape and function information of the object and the physical definition applied when the object exists in the real space. 4) A device that converts the relationship between a human and an object in space, the relationship between an object and an object, and the state of the object itself into logical information based on changes in the position and orientation of the human, the movement of the object, and changes in the shape. Is provided. 5) A communication network for connecting between a plurality of real spaces is provided. 6) A device is provided that complements model and coordinate information in order to interpret logical information sent from a communication partner in accordance with the current situation of the real space and generate three-dimensional video information. 7) An image display device is provided in the real space for recognizing the state of the communication partner as a stereoscopic video.

【0009】上記の装置を使用し、空間内に存在する人
間の位置、姿勢、物体の位置、状態の情報を検出する。
次に、検出された情報と、データベースに記述されてい
る情報とを使って、論理情報を生成する。生成された論
理情報は、通信網に接続されている他の空間に存在する
端末に伝達される。
Using the above device, information on the position, posture, position, and state of an object existing in space is detected.
Next, logical information is generated using the detected information and the information described in the database. The generated logical information is transmitted to a terminal existing in another space connected to the communication network.

【0010】論理情報を受信した端末では、その端末の
存在する空間に存在する物体と人間の状態とに矛盾の生
じないように、送られてきた論理情報を、立体映像とし
て生成する。
[0010] The terminal that has received the logical information generates the sent logical information as a stereoscopic image so that there is no inconsistency between the object existing in the space where the terminal is located and the human state.

【0011】以上の装置と処理とによって、異なった実
空間に存在し、お互いがその場所で作業していたとして
も、お互いに、相手が自分の場所に存在し作業している
かのように振る舞うことができる通信環境を構築する。
[0011] By the above-described apparatus and processing, even if they exist in different real spaces and they are working at the same place, they behave as if the other party is at their own place and working. Build a communication environment that can do it.

【0012】[0012]

【発明の実施の形態】〔実施例1〕本発明を、食材の調
理方法の教示システムに適用した例である。
DESCRIPTION OF THE PREFERRED EMBODIMENTS Embodiment 1 This is an example in which the present invention is applied to a teaching system for a method of cooking foodstuffs.

【0013】図1は、食材の調理方法の教示について説
明する一実施例システムを示す。図中の符号1は先生の
空間、2は生徒の空間、3は先生側のデータ処理端末、
4はネットワーク、5は生徒側のデータ処理端末、6は
論理情報処理装置、7は物体などのデータベース、8は
入力信号処理装置、9は出力情報処理装置、10は位置
センサ、11はマーカ、12は調理道具、13は調理道
具の映像、14はアバタ、15は実物体を表している。
FIG. 1 shows an embodiment system for explaining the teaching of a method of cooking foodstuffs. In the figure, 1 is a teacher's space, 2 is a student's space, 3 is a teacher's data processing terminal,
4 is a network, 5 is a student data processing terminal, 6 is a logical information processing device, 7 is a database of objects and the like, 8 is an input signal processing device, 9 is an output information processing device, 10 is a position sensor, 11 is a marker, Reference numeral 12 denotes a cooking tool, 13 denotes an image of the cooking tool, 14 denotes an avatar, and 15 denotes a real object.

【0014】位置センサ10Aは、空間1において、先
生の位置や物体の位置(調理道具の状態情報)とそれら
の変化を検出する。入力信号処理装置8Aは、空間1内
の物体や人の位置、およびそれら形状の変化を、論理情
報処理装置6Aに伝える。またデータベース7Aから
は、空間1内に存在する物体などについての機能や、形
状や、論理処理を補完するための情報などが、論理情報
処理装置6Aに伝えられる。そして、論理情報処理装置
6Aは、空間1における論理情報を、ネットワーク4に
送出する。
The position sensor 10A detects the position of the teacher and the position of the object (information on the state of cooking utensils) in the space 1 and changes thereof. The input signal processing device 8A informs the logical information processing device 6A of the positions of objects and people in the space 1 and changes in their shapes. In addition, from the database 7A, the function, the shape, the information for complementing the logical processing, and the like of the object existing in the space 1 are transmitted to the logical information processing device 6A. Then, the logical information processing device 6A sends the logical information in the space 1 to the network 4.

【0015】当該論理情報は論理情報処理装置6Bに伝
えられ、当該論理情報処理装置6Bは、表示する座標
や、表示するモデル情報に付加された論理情報などを、
出力情報処理装置9Bに伝える。出力情報処理装置9B
は、立体的な映像情報を空間2に出現させて、例えば先
生や当該先生の操作するフライパンの動きと同じ動きを
するように先生のアバタ14Bや生徒側でフライパンの
映像13Bを空間2上に出現させる。
The logical information is transmitted to the logical information processing device 6B. The logical information processing device 6B stores the coordinates to be displayed and the logical information added to the model information to be displayed.
The information is transmitted to the output information processing device 9B. Output information processing device 9B
Causes the stereoscopic video information to appear in the space 2 and, for example, the teacher's avatar 14B or the frying pan video 13B on the student's side so as to make the same movement as the teacher or the frying pan operated by the teacher. Let it appear.

【0016】なお、空間1には、実物体として符号15
A−1や15A−2で示している先生や調理道具が存在
しており、例えば仮想物体立体視メガネなどを使用して
当該空間1を眺めている人にとっては、空間1内に実在
する実物体(先生や調理道具など)と当該仮想物体立体
視メガネ上に表示される仮想物体とが重ね合わされて、
あたかも実空間上に上記実物体と仮想物体とが一緒に存
在するかの如く見える。なお、空間1には仮想物体が存
在していない。
The space 1 has a reference numeral 15 as a real object.
There are teachers and cooking utensils indicated by A-1 and 15A-2. For example, for a person who looks at the space 1 using virtual object stereoscopic glasses or the like, a real object existing in the space 1 The body (teacher, cooking utensil, etc.) is superimposed on the virtual object displayed on the virtual object stereoscopic glasses,
It looks as if the real object and the virtual object exist together in the real space. Note that no virtual object exists in the space 1.

【0017】また、空間2には、実物体として符号15
Bで示している生徒が存在しており、上記の仮想物体立
体視メガネなどを使用して当該空間2を眺めている人に
とっては、空間2内に実在する実物体(生徒)と当該仮
想物体立体視メガネ上に表示される仮想物体(先生)の
アバタ14Bや調理道具の映像13Bなどとが一緒に存
在するかの如く見える。
In the space 2, a reference numeral 15
For a person who is viewing the space 2 using the virtual object stereoscopic glasses or the like in which a student indicated by B exists, a real object (student) existing in the space 2 and the virtual object It looks as if the avatar 14B of the virtual object (teacher) displayed on the stereoscopic glasses and the image 13B of the cooking utensil exist together.

【0018】調理学校の先生と生徒とが離れた場所に存
在し、それぞれ別々の厨房に立って調理の仕方を先生が
生徒に教える状況を考える。このとき、厨房の調理器具
の配置や、そこに存在する道具が必ずしも一致する事は
ない。例えば、図1に示すような配置の違う二つの厨房
で、先生と生徒とが調理を行うことが考えられる。この
ような状況に、本発明を適用することを考える。
Consider a situation in which a teacher at a cooking school and a student are located at separate locations, and the teacher teaches the student how to cook while standing in separate kitchens. At this time, the arrangement of the cooking utensils in the kitchen and the tools existing there do not always match. For example, it is conceivable that a teacher and a student cook in two kitchens having different arrangements as shown in FIG. Consider applying the present invention to such a situation.

【0019】まず、空間1と2とに夫々存在する、先生
と生徒とには、身体の姿勢情報、位置情報を検出する為
に、マーカー11を身体の関節などに複数装着する。空
間1や2に2台以上のカメラ(位置センサ)10を設置
し、空間内に存在するマーカー11を撮影することで、
マーカー11の3次元位置を検出する。位置センサ10
としては、人間などの3次元位置を検出可能であれば、
磁気センサや超音波などの方法を用いても良い。
First, in order to detect body posture information and position information, a plurality of markers 11 are attached to joints of the body, etc., for teachers and students, which exist in the spaces 1 and 2 respectively. By installing two or more cameras (position sensors) 10 in the spaces 1 and 2 and photographing the markers 11 existing in the space,
The three-dimensional position of the marker 11 is detected. Position sensor 10
As long as the three-dimensional position of a human or the like can be detected,
A method such as a magnetic sensor or an ultrasonic wave may be used.

【0020】また、空間内に存在する調理道具12に
は、あらかじめ人間の身体の場合と同様に、位置を検出
するための位置センサ10やマーカー11を添付する。
A cooking utensil 12 existing in the space is provided with a position sensor 10 and a marker 11 for detecting a position in advance, as in the case of a human body.

【0021】データベース7には、あらかじめ空間に存
在する物体の機能、モデル、空間に存在する際のルール
が記述されている。例えばデータベース7に次のような
情報が記述されているとする。即ち、人間の情報には、
空間2にアバタ14として表示される際のモデルの情報
とともに、人間の情報が、他の場所の端末に伝達された
場合、変換は不可という情報が記述される。コンロなど
については、そのモデル情報と、機能に関する情報が記
述されるとともに、他の端末の存在する空間に伝達され
た場合には、その場にコンロが存在すれば、その場のコ
ンロに変換可能という情報が記述されている。さらに、
作業中、コンロが移動することはないとして、移動不可
能という情報が記述されている。フライパンの場合に
は、同様に、モデル、機能情報の他に、その場のフライ
パンに変換可能であり、移動可能という情報がデータベ
ースに記述されている。
The database 7 describes in advance the functions, models, and rules of objects existing in the space. For example, it is assumed that the following information is described in the database 7. That is, human information includes
When human information is transmitted to a terminal in another place, information indicating that conversion is not possible is described, together with model information displayed as the avatar 14 in the space 2. For stoves, the model information and function information are described, and when transferred to the space where other terminals exist, if there is a stove at the place, it can be converted to the stove at the place Is described. further,
Information indicating that the stove does not move during the work is immovable. In the case of a frying pan, similarly, in addition to the model and function information, information that the frying pan can be converted to a frying pan on the spot and that it can be moved is described in the database.

【0022】システムの動作は、どちらかの空間で、人
間や物体についての位置や状態に変化が生じた場合に、
システムの処理が開始される。例えば、先生が移動した
り、身体の部位が動いたことが、センサによって検知さ
れた場合、入力されたセンサの値から、先生の立ってい
る位置と先生の姿勢を表すために各部位との夫々の座標
が計算され、先生のいる座標と各部位の座標とから、先
生の体の向き、頭部の向き、手の位置などが計算され
る。
The operation of the system is as follows: when a position or state of a person or an object changes in either space,
System processing starts. For example, when the sensor detects that the teacher has moved or the body part has moved, the values of the input sensors are used to indicate the position where the teacher stands and the position of the teacher to indicate the posture of the teacher. The respective coordinates are calculated, and the teacher's body orientation, head orientation, hand position, and the like are calculated from the coordinates of the teacher and the coordinates of each part.

【0023】先生の周辺に存在する物体の情報をデータ
ベース7Aから取り出し、先生の体の向いている方向に
○○が存在する。先生の頭部の向いている方向に△△が
存在する。先生の手の位置に××が存在するといった先
生の周辺の物体と先生との関係を記述した論理情報を生
成する。
Information on objects existing around the teacher is extracted from the database 7A, and ○ exists in the direction in which the teacher's body is facing. △△ exists in the direction in which the teacher's head is facing. Logic information that describes the relationship between the teacher and objects around the teacher, such as the presence of XX at the position of the teacher's hand, is generated.

【0024】論理情報は、あらかじめ定められたルール
に従っていくつか生成される。例えば、先生の体および
頭部の向いている方向に、調理用のコンロが存在する場
合、『先生の体はコンロの方を向いている』や『先生の
頭はコンロの方を向いている』という論理情報が生成さ
れる。
Some logical information is generated according to a predetermined rule. For example, if there is a cooking stove in the direction in which the teacher's body and head are facing, "the teacher's body is facing the stove" or "the teacher's head is facing the stove. Is generated.

【0025】人間の動きの他に、物体の移動や形状の変
化がセンサによって検知された場合、同じように、物体
の位置、及び方向、状態が計算される。物体の位置から
その物体が影響を及ぼす範囲の物体が計算され、影響を
及ぼす可能性のある物体または影響を及ぼされる可能性
のある物体の情報をデータベース7Aから取り出す。
When a movement or a change in shape of an object is detected by a sensor in addition to a human motion, the position, direction, and state of the object are calculated in the same manner. An object in a range affected by the object is calculated from the position of the object, and information on an object that may have an effect or an object that may be affected is extracted from the database 7A.

【0026】例えば、厨房に存在する物体、フライパン
の位置の変化が検出されたとする。その位置から周辺
に、人間の手が存在することと、コンロが存在すること
がわかったとする。フライパンは、自立的には移動する
ことは無いというルールは、データベース7Aのフライ
パンに関する情報の中にあらかじめ入力してある。そこ
で、フライパンの動きに影響があるのは、この場合、人
間の手と言うことになる。結果として、『フライパン
は、先生の手によって移動された』という論理情報が生
成される。
For example, it is assumed that a change in the position of an object or a frying pan existing in a kitchen is detected. Suppose that it is found from the position that a human hand and a stove exist around the periphery. The rule that the frying pan does not move autonomously is input in advance in the information on the frying pan in the database 7A. In this case, the movement of the frying pan is affected by human hands. As a result, logical information that "the frying pan has been moved by the teacher's hand" is generated.

【0027】生成された論理情報は、論理情報処理装置
6Aからネットワーク4を介して生徒側の端末に存在す
る論理情報処理装置6Bに伝達される。生徒側の端末の
論理情報処理装置6Bは、論理情報の受信によって処理
が開始される。
The generated logical information is transmitted from the logical information processing device 6A to the logical information processing device 6B existing in the student terminal via the network 4. The logical information processing device 6B of the student terminal starts processing upon receiving the logical information.

【0028】生徒のいる場所の調理器具の配置と、そこ
にある物体の情報とを先生側の端末と同様に検出できる
装置が接続されている。データベース7Bには、生徒側
の空間2に存在する物体の位置、状態、機能に関する情
報が保存されている。
A device is connected which can detect the arrangement of cooking utensils at the place where the student is located and information on the objects located there in the same way as the teacher's terminal. The database 7B stores information on the position, the state, and the function of the object existing in the space 2 on the student side.

【0029】先生側から『先生の体がコンロの方を向い
ている』や『先生の頭部がコンロの方を向いている』と
いう情報が送られたとき、生徒側の端末では、生徒側の
空間2には先生にあたる人間は存在しない、コンロは生
徒側の空間に存在することがわかる。そこで、空間に存
在しないので、先生側の端末に存在するデータベース7
Aに問い合わせを行い、結果として、他の物体で変換不
可能なため、先生を表現するためのモデル情報を受け取
る。
When information such as “the teacher's body is facing the stove” or “the teacher's head is facing the stove” is sent from the teacher, the student terminal It can be seen that there is no teacher in the space 2 and the stove exists in the student's space. Then, since it does not exist in the space, the database 7 exists in the terminal on the teacher side.
A is inquired, and as a result, model information for expressing the teacher is received because it cannot be converted by another object.

【0030】コンロは、その場に物体が存在し、他の物
体で変換可能なため、実際に空間に存在する、実物体を
代わりの物体として扱う。
The stove treats a real object, which actually exists in space, as a substitute object because an object exists at the place and can be converted by another object.

【0031】次に、生徒側の空間2を表現する論理情報
と、先生側から送られてきた論理情報との一つ一つを計
算し、矛盾が無いかを判断する。矛盾が生じた場合に
は、先生側に必要な論理情報の選択を依頼する。先生側
が選択を行い、矛盾を生じる不要な論理情報は削除され
る。
Next, the logical information expressing the space 2 on the student side and the logical information sent from the teacher side are calculated one by one, and it is determined whether there is any contradiction. If a contradiction occurs, the teacher is requested to select necessary logical information. The teacher makes a selection, and unnecessary logical information that causes inconsistency is deleted.

【0032】『フライパンは、先生の手によって移動さ
れた』という論理情報が送られた場合、フライパンは、
生徒側の端末に存在する物体の情報で変換可能である。
フライパンは、移動可能であるため、立体的な映像とし
て生徒の空間2に再現される。このとき再現されるフラ
イパンの映像は、先生が生徒側のフライパンを持った映
像である。立体映像は、生徒側の端末の出力情報処理装
置9Bに接続された立体映像生成装置(図示せず)から
出力される。表示された映像は、生徒が何を使って調理
を行えば良いのか直感的に知ることを可能にする映像で
ある。
When the logical information “the frying pan has been moved by the teacher's hand” is sent, the frying pan is
It is possible to convert with the information of the object existing in the student's terminal.
Since the frying pan is movable, it is reproduced in the student's space 2 as a stereoscopic image. The image of the frying pan reproduced at this time is an image in which the teacher holds the frying pan on the student side. The stereoscopic video is output from a stereoscopic video generation device (not shown) connected to the output information processing device 9B of the student terminal. The displayed video is a video that allows the student to intuitively know what to use for cooking.

【0033】〔実施例2〕本発明を、異なった実空間に
存在する人間の間の対話に適用した例を考える。図2
は、異なった実空間に存在する人間相互での対話につい
て説明する他の一実施例システムを示す。
[Second Embodiment] Consider an example in which the present invention is applied to a dialog between humans existing in different real spaces. FIG.
Shows another embodiment system for explaining interaction between humans existing in different real spaces.

【0034】図中の符号1ないし14は夫々図1に対応
している。空間1や2においては、例えば空間2におい
て、利用者Bについての映像14B−1が現れており、
同時に利用者Aについてのアバタ14B−2が現れてい
る。これらの利用者(一般に実物体15)についての位
置と状態の変換とが、位置センサ10Bを介して、入力
信号処理装置8Bに送られる。そして入力信号処理装置
8Bは、空間内の物体や人間の位置と状態の変化とを、
論理情報処理装置6Bに伝える。
Reference numerals 1 to 14 in the figure respectively correspond to FIG. In the spaces 1 and 2, for example, in the space 2, an image 14B-1 about the user B appears.
At the same time, the avatar 14B-2 for the user A appears. The conversion between the position and the state of these users (generally, the real object 15) is sent to the input signal processing device 8B via the position sensor 10B. Then, the input signal processing device 8B compares the position and the change of the state of the object or the person in the space with
The information is transmitted to the logical information processing device 6B.

【0035】一方、データベース7Bは、空間内の物体
の機能や形状や論理処理を補完するための情報を論理情
報処理装置6Bに伝える。そして、これらの結果として
論理情報処理装置6Bは、空間の論理情報を、ネットワ
ーク4に送出する。
On the other hand, the database 7B transmits information for complementing the function, shape, and logical processing of the object in the space to the logical information processing device 6B. Then, as a result of these, the logical information processing device 6B sends the logical information of the space to the network 4.

【0036】当該空間の論理情報を受取った論理情報処
理装置6Aでは、出力情報処理装置9Aを介して、空間
1上に、例えば利用者Bのアバタ14A−1の動きとし
て空間2上での利用者Bの動きが現れるようにされる。
In the logical information processing device 6A that has received the logical information of the space, the logical information processing device 6A uses the output information processing device 9A to use the space 1 as the movement of the avatar 14A-1 of the user B, for example. The movement of the person B is made to appear.

【0037】図2の場合においても、図1の場合につい
て説明したことから類推されうる如く、空間2には、実
物体として符号15B−1や15B−2で示されている
利用者Bや椅子が存在しており、上記の仮想物体立体視
メガネを使用して当該空間2を眺めている人にとって
は、空間2内に実在する実物体15Bと当該仮想物体立
体視メガネ上に表示される仮想物体(アバタ)14B−
1や14B−2とが一緒に存在するかの如く見える。ま
た同様に、仮想物体立体視メガネを使用して空間1を眺
めている人にとっては、空間1内に実在する実物体15
A−1や15A−2と仮想物体(アバタ)14A−1や
14A−2とが一緒に存在するかの如く見える。
In the case of FIG. 2 as well, it can be inferred from the description of the case of FIG. 1 that the space 2 has a user B and a chair designated by reference numerals 15B-1 and 15B-2 as real objects. Is present, and for a person looking at the space 2 using the virtual object stereoscopic glasses, the real object 15B existing in the space 2 and the virtual object displayed on the virtual object stereoscopic glasses are displayed. Object (avatar) 14B-
1 and 14B-2 appear to be present together. Similarly, for a person looking at space 1 using virtual object stereoscopic glasses, real object 15 existing in space 1
It looks as if A-1 and 15A-2 and the virtual objects (avatars) 14A-1 and 14A-2 exist together.

【0038】会話を行いたい人間が、異なった配置の空
間に存在し通信を行うことを考える。利用者をA,Bと
したとき、例えば、利用者Aのいる空間に接客用のソフ
ァーと利用者Aが座る椅子とが存在し、利用者Bの存在
する空間には椅子が2脚存在する。
It is assumed that a person who wants to have a conversation exists in differently arranged spaces and performs communication. Assuming that the users are A and B, for example, there is a customer service sofa and a chair where the user A sits in the space where the user A is, and there are two chairs in the space where the user B is present. .

【0039】この様な状況で本発明を使用した場合、利
用者A,Bには、実施例1の場合と同様に身体の位置、
姿勢を検出するためのセンサを装着する。椅子、ソファ
ーにも同様に、その位置、形状の変化を検出するセンサ
を付加する。
When the present invention is used in such a situation, the users A and B are given the same physical position as in the first embodiment.
Attach a sensor to detect the posture. Similarly, a sensor for detecting a change in the position or shape of the chair or sofa is added.

【0040】データベース7には、物体に関して、次の
ようなデータが記述されていると考える。即ち、利用者
A,Bに関しては、そのモデル情報とともに、その場の
物体への変換は不可能という記述がされる。
It is assumed that the following data is described in the database 7 regarding the object. That is, with respect to the users A and B, a description is given that the conversion to the object on the spot is impossible together with the model information.

【0041】椅子については、形状を表すモデル情報と
ともに、機能情報として人間が座るという機能が記述さ
れる。また、他の空間にその情報が伝達された場合に
は、その場に存在する、人間が座る機能を持っているも
のに変換可能という情報が記述される。
As for the chair, a function of sitting by a person is described as function information together with model information representing the shape. In addition, when the information is transmitted to another space, information indicating that the information can be converted into an object existing at the place and having a function of sitting by a person is described.

【0042】ソファーも、椅子と同様の記述がされてい
るとする。ここでは、椅子、ソファーともに移動不可能
とデータベースに記述された場合を考える。
It is assumed that the sofa has the same description as the chair. Here, it is assumed that both the chair and the sofa are immovable in the database.

【0043】利用者Aの位置と椅子の位置、利用者Aの
姿勢の変化が入力信号処理装置8Aから、論理情報処理
装置6Aに送られる。例えば、利用者Aの位置が椅子の
位置からある値以下の距離に存在し、人間の上半身、ま
たは頭部の高さがある値以下だった場合、椅子に利用者
Aが座っているという事になり、論理情報として、利用
者Aが椅子に座っているという情報が生成される。生成
された論理情報は、利用者Bの端末の論理情報処理部6
Bに伝達される。
The position of the user A, the position of the chair, and the change in the posture of the user A are sent from the input signal processing device 8A to the logical information processing device 6A. For example, if the position of the user A is less than a certain distance from the position of the chair and the height of the human upper body or the head is less than a certain value, the user A is sitting on the chair. And the information that the user A is sitting on the chair is generated as the logical information. The generated logical information is stored in the logical information processing unit 6 of the terminal of the user B.
B.

【0044】利用者Aが椅子に座っているという論理情
報が利用者Bの方に伝達されると、利用者Aと椅子とに
ついての情報がデータベース7Bから取得される。利用
者Aは、利用者Bの空間の物体で変換不可能で有るた
め、利用者Aの端末から、アバタの作成の為のモデル情
報を取得する。椅子については、その場の空間に存在す
る人間が座る物に変換可能であるため、利用者Bの空間
に存在する椅子に変換される。椅子は、結果として、利
用者Bの立体映像が出力情報処理装置9Bを通して、空
間2に現わされる。
When the logical information that the user A is sitting on the chair is transmitted to the user B, information on the user A and the chair is obtained from the database 7B. The user A obtains model information for creating an avatar from the terminal of the user A because the user A cannot convert the object in the space of the user B. Since the chair can be converted into an object in which the person present in the space of the place sits, it is converted into the chair existing in the space of the user B. As a result, the stereoscopic image of the user B appears in the space 2 through the output information processing device 9B.

【0045】同様に、入力装置の値から、利用者Bが椅
子に座っているという論理情報が生成され、利用者Aの
端末に伝達される場合を考える。利用者Aの方に伝達さ
れると、利用者Aの部屋に椅子は存在しないことがわか
る。そこで、利用者Aのデータベース7Aに問い合わせ
を行い、物体の情報を取得する。利用者A側の端末で
は、椅子以外に座る事が可能な物体を、利用者Aの端末
のデータベース7Aから検索し、その場に存在するソフ
ァーを検索結果として出力する。その結果、利用者Aの
側では出力情報処理装置9Aを通して空間1にソファー
の上に利用者Bが座っているという状況が出現される。
Similarly, consider a case where logical information that user B is sitting on a chair is generated from the value of the input device and transmitted to the terminal of user A. When transmitted to the user A, it is understood that no chair exists in the room of the user A. Then, an inquiry is made to the database 7A of the user A to obtain information on the object. The terminal on the side of the user A searches the database 7A of the terminal of the user A for an object that can be seated other than the chair, and outputs a sofa present at the place as a search result. As a result, on the user A side, a situation appears in which the user B is sitting on the sofa in the space 1 through the output information processing device 9A.

【0046】効果として、利用者A,B両方の空間に大
きな違いが有った場合にも、利用者A,Bの両人が自分
の存在する場に相手がいる感覚を得ながら会話をするこ
とができる。
As an effect, even when there is a great difference between the spaces of the users A and B, both the users A and B talk while obtaining a sense that the other person is in the place where they are. be able to.

【0047】図3は、送り手側となった場合における処
理フローチャートを示す。また図4は、受け手側となっ
た場合における処理フローチャートを示す。
FIG. 3 shows a processing flow chart in the case of the sender side. FIG. 4 shows a processing flowchart when the receiver side is set.

【0048】送り手側において、 ステップ(S1):センサにより、実物体の位置と形状
の変化とを計測する。 ステップ(S2):位置や形状に変化が生じたか否かを
調べる。 ステップ(S3):変化のあった物体の位置と変化の方
向と変化の状態について計算する。 ステップ(S4):実物体がその周辺の物体へ影響を与
えるであろうその影響を計算する。 ステップ(S5):データベースから実物体に関する情
報を取得する。 ステップ(S6):論理情報を生成する。 ステップ(S7):他の端末装置に対して当該論理情報
を転送する。
On the sender side, step (S1): The position and shape change of the real object are measured by the sensor. Step (S2): It is checked whether or not the position or the shape has changed. Step (S3): The position of the changed object, the direction of the change, and the state of the change are calculated. Step (S4): Calculate the effect that the real object will have on the surrounding objects. Step (S5): Acquire information on the real object from the database. Step (S6): Generate logical information. Step (S7): Transfer the logical information to another terminal device.

【0049】受け手側において、 ステップ(S8):論理情報を受信したか否かを監視す
る。 ステップ(S9):受信があったか否かを調べる。 ステップ(S10):論理情報に含まれている物体が、受
け手側の物体で変換可能か否かを調べる。 ステップ(S11):ステップ(S10)においてNOで
あれば、当該物体についての情報を送信元のデータベー
スから取得する。 ステップ(S12):ステップ(S10)において、YE
Sであれば、当該物体についての情報を受け手側のデー
タベースから取得する。 ステップ(S13):その物体が移動可能か否かを調べ
る。 ステップ(S14):物体のデータをコンピュータ・グラ
フィックスとして設定する。 ステップ(S15):空間の状態情報との関係を計算す
る。 ステップ(S16):矛盾が生じたか否かを調べる。 ステップ(S17):矛盾が生じていれば、送り手側に、
最も重要な情報について選択してもらうように依頼を出
す。そして不要な論理情報について削除するようにす
る。 ステップ(S18):ステップ(S16)において矛盾が
ない状態において、空間を再構築する。
On the receiver side, step (S8): It is monitored whether or not logical information has been received. Step (S9): It is checked whether or not there is a reception. Step (S10): It is checked whether or not the object included in the logical information can be converted by the object on the receiver side. Step (S11): If NO in step (S10), information about the object is acquired from the transmission source database. Step (S12): In step (S10), YE
If S, information about the object is obtained from the database on the receiver side. Step (S13): It is checked whether the object is movable. Step (S14): Data of the object is set as computer graphics. Step (S15): The relationship with the state information of the space is calculated. Step (S16): It is checked whether or not a contradiction has occurred. Step (S17): If contradiction occurs, the sender side
Ask them to select the most important information. Then, unnecessary logical information is deleted. Step (S18): The space is reconstructed in a state where there is no contradiction in step (S16).

【0050】[0050]

【発明の効果】以上説明した如く、本発明によれば、例
えば利用者の位置と周辺に存在する物体の、それぞれの
位置と、形状との変化を独立して検出し、状況を論理的
な情報に変換して通信を行うため、異なった実空間に装
置を設置した場合にもその実空間の状況に応じて臨場感
のある空間を生成し通信を行うことが可能となり、空間
の状況に束縛されずに様々な物体を使った通信が可能と
なる。
As described above, according to the present invention, for example, changes in the position and the shape of an object existing in the vicinity of the user and the surroundings are detected independently, and the situation is logically determined. Since communication is performed by converting information into information, even if the device is installed in a different real space, it is possible to generate and communicate with a realistic space according to the situation of the real space, and to constrain to the situation of the space Instead, communication using various objects becomes possible.

【0051】その空間の状況に適応して、仮想空間の映
像が生成されるため、例えば教えを受ける側には自分の
空間に存在する物体の映像に変換されるため、理解がし
やすい教示システムを構築することができる。
A teaching system that is easy to understand because a virtual space image is generated in accordance with the space situation, and is converted into an image of an object existing in the user's own space, for example, on the receiving side. Can be built.

【図面の簡単な説明】[Brief description of the drawings]

【図1】食材の調理方法の教示について説明する一実施
例システムを示す。
FIG. 1 illustrates an example system describing the teaching of a method of cooking foodstuffs.

【図2】異なった実空間に存在する人間相互での対話に
ついて説明する他の一実施例システムを示す。
FIG. 2 shows another embodiment system for explaining interaction between humans existing in different real spaces.

【図3】送り手側となった場合における処理フローチャ
ートを示す。
FIG. 3 shows a processing flowchart in a case where the sender side is set.

【図4】受け手側となった場合における処理フローチャ
ートを示す。
FIG. 4 shows a processing flowchart in the case of a receiver side.

【符号の説明】[Explanation of symbols]

1:空間 2:空間 3:データ処理端末 4:ネットワーク 5:データ処理端末 6:論理情報処理装置 7:データベース 8:入力信号処理装置 9:出力情報処理装置 10:位置センサ 11:マーカ 12:道具 13:道具の映像 14:アバタ 1: Space 2: Space 3: Data processing terminal 4: Network 5: Data processing terminal 6: Logical information processing device 7: Database 8: Input signal processing device 9: Output information processing device 10: Position sensor 11: Marker 12: Tool 13: Tool image 14: Abata

フロントページの続き (72)発明者 河野 隆志 東京都千代田区大手町二丁目3番1号 日 本電信電話株式会社内 (72)発明者 石橋 聡 東京都千代田区大手町二丁目3番1号 日 本電信電話株式会社内 Fターム(参考) 2C028 AA10 BA04 BB04 BC04 BD02 CA13 5B050 AA08 BA08 BA09 BA11 BA12 CA07 CA08 DA07 EA05 EA07 EA19 EA24 EA26 FA02 5C061 AA00 AA01 AA29 AB10 AB12 AB24 5C064 BA07 BB05 BB10 BC10 BC18 BC23 BC27 BD03 BD05 BD08 BD09 BD16 Continued on the front page (72) Inventor Takashi Kono 2-3-1 Otemachi, Chiyoda-ku, Tokyo Nippon Telegraph and Telephone Corporation (72) Inventor Satoshi Ishibashi 2-3-1 Otemachi, Chiyoda-ku, Tokyo Sun F-term (Reference) within the Telegraph and Telephone Co., Ltd. BD08 BD09 BD16

Claims (2)

【特許請求の範囲】[Claims] 【請求項1】実空間に存在する人間とその周辺に存在す
る物体とについて認識すると共に位置と形状の変化とを
検出する手段と、 人間と物体、物体と物体、物体自体のそれぞれの状態に
ついて状況を論理的に計算する手段と、 物体についての形状の変化と物体の周辺の物体に対する
作用と物体が空間に存在する際のルールとに関して記述
されたデータベースと、 前記検出する手段からの情報と前記計算する手段からの
情報と前記データベースからの情報とにもとづいて、前
記実空間に存在する人間とその周辺に存在する物体とに
関する空間の論理情報を生成する論理情報処理装置とを
そなえ、 前記生成した空間の論理情報にもとづいて、前記人間と
前記物体とに対応して生成された仮想物体を表示装置を
用いて認識させるようにしたことを特徴とする臨場感通
信装置。
1. A means for recognizing a human existing in a real space and an object existing around the real space and detecting a change in position and shape, and for each state of a human and an object, an object and an object, and an object itself. Means for logically calculating a situation; a database describing changes in the shape of the object, actions on objects in the vicinity of the object, and rules when the object exists in space; and information from the means for detecting. A logical information processing device that generates logical information of a space related to a person existing in the real space and an object existing around the human based on the information from the calculating unit and the information from the database, Based on the generated logical information of the space, a virtual object generated corresponding to the human and the object is recognized using a display device. Characteristic presence communication device.
【請求項2】実空間に存在する人間とその周辺に存在す
る物体とについて認識すると共に位置と形状の変化とを
検出する手段と、 人間と物体、物体と物体、物体自体のそれぞれの状態に
ついて状況を論理的に計算する手段と、 物体についての形状の変化と物体の周辺の物体に対する
作用と物体が空間に存在する際のルールとに関して記述
されたデータベースと、 前記検出する手段からの情報と前記計算する手段からの
情報と前記データベースからの情報とにもとづいて、前
記実空間に存在する人間とその周辺に存在する物体とに
関する空間の論理情報を生成する論理情報処理装置とを
そなえた臨場感通信装置について、 当該臨場感通信装置が前記生成した空間の論理情報をネ
ットワーク上で他の1つまたは複数の臨場感通信装置に
送信し、 かつ受信した臨場感通信装置において、当該受信した臨
場感通信装置に対応して存在する空間の状況に応じて、
前記受信した空間の論理情報に対応して妥当な形で仮想
物体を生成するようにしたことを特徴とする臨場感通信
システム。
2. A means for recognizing a human existing in a real space and an object existing around the real space and detecting a change in position and shape, and for each state of a human and an object, an object and an object, and an object itself. Means for logically calculating a situation; a database describing changes in the shape of the object, actions on objects in the vicinity of the object, and rules when the object exists in space; and information from the means for detecting. A real information processing device having a logical information processing device for generating logical information of space relating to a person existing in the real space and an object existing therearound based on the information from the calculating means and the information from the database; For the sensation communication device, the presence communication device transmits the generated logical information of the space to one or more other presence communication devices on a network, And, in the received presence communication device, according to the state of the space existing corresponding to the received presence communication device,
A realistic communication system, wherein a virtual object is generated in an appropriate form according to the received logical information of the space.
JP2001105728A 2001-04-04 2001-04-04 Device and system for presence communication Pending JP2002305758A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001105728A JP2002305758A (en) 2001-04-04 2001-04-04 Device and system for presence communication

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001105728A JP2002305758A (en) 2001-04-04 2001-04-04 Device and system for presence communication

Publications (1)

Publication Number Publication Date
JP2002305758A true JP2002305758A (en) 2002-10-18

Family

ID=18958364

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001105728A Pending JP2002305758A (en) 2001-04-04 2001-04-04 Device and system for presence communication

Country Status (1)

Country Link
JP (1) JP2002305758A (en)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005354391A (en) * 2004-06-10 2005-12-22 Nippon Telegr & Teleph Corp <Ntt> Method for displaying state, mobile object communication system and gateway
JP2006163323A (en) * 2004-12-10 2006-06-22 Sun Wave Ind Co Ltd Cooking instruction system
JP2007155825A (en) * 2005-11-30 2007-06-21 Cleanup Corp Computer-aided kitchen system and transmitting method for flavoring, transmitting method for cooking operation using same system, and program
JP2009140492A (en) * 2007-12-06 2009-06-25 Internatl Business Mach Corp <Ibm> Method, system, and computer program for rendering real-world object and interaction into virtual world
JP2010129053A (en) * 2008-12-01 2010-06-10 Kobe Univ Virtual space creation system
JP2011522318A (en) * 2008-05-26 2011-07-28 マイクロソフト インターナショナル ホールディングス ビイ.ヴイ. Control virtual reality
JP2012531657A (en) * 2009-06-25 2012-12-10 サムスン エレクトロニクス カンパニー リミテッド Virtual world processing apparatus and method
JP2013540291A (en) * 2010-04-05 2013-10-31 サムスン エレクトロニクス カンパニー リミテッド Virtual world processing apparatus and method
WO2018092384A1 (en) * 2016-11-21 2018-05-24 ソニー株式会社 Information processing device, information processing method, and program
WO2018092535A1 (en) * 2016-11-21 2018-05-24 ソニー株式会社 Information processing device, information processing method, and program

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005354391A (en) * 2004-06-10 2005-12-22 Nippon Telegr & Teleph Corp <Ntt> Method for displaying state, mobile object communication system and gateway
JP2006163323A (en) * 2004-12-10 2006-06-22 Sun Wave Ind Co Ltd Cooking instruction system
JP2007155825A (en) * 2005-11-30 2007-06-21 Cleanup Corp Computer-aided kitchen system and transmitting method for flavoring, transmitting method for cooking operation using same system, and program
JP4728107B2 (en) * 2005-11-30 2011-07-20 クリナップ株式会社 Computer-aided kitchen system, seasoning transmission method using the system, cooking work transmission method, and program
JP2009140492A (en) * 2007-12-06 2009-06-25 Internatl Business Mach Corp <Ibm> Method, system, and computer program for rendering real-world object and interaction into virtual world
JP2011522318A (en) * 2008-05-26 2011-07-28 マイクロソフト インターナショナル ホールディングス ビイ.ヴイ. Control virtual reality
US8860713B2 (en) 2008-05-26 2014-10-14 Microsoft International Holdings B.V. Controlling virtual reality
JP2010129053A (en) * 2008-12-01 2010-06-10 Kobe Univ Virtual space creation system
US9108106B2 (en) 2009-06-25 2015-08-18 Samsung Electronics Co., Ltd. Virtual world processing device and method
JP2012531657A (en) * 2009-06-25 2012-12-10 サムスン エレクトロニクス カンパニー リミテッド Virtual world processing apparatus and method
JP2013540291A (en) * 2010-04-05 2013-10-31 サムスン エレクトロニクス カンパニー リミテッド Virtual world processing apparatus and method
US9374087B2 (en) 2010-04-05 2016-06-21 Samsung Electronics Co., Ltd. Apparatus and method for processing virtual world
WO2018092384A1 (en) * 2016-11-21 2018-05-24 ソニー株式会社 Information processing device, information processing method, and program
WO2018092535A1 (en) * 2016-11-21 2018-05-24 ソニー株式会社 Information processing device, information processing method, and program
JPWO2018092384A1 (en) * 2016-11-21 2019-10-10 ソニー株式会社 Information processing apparatus, information processing method, and program
US11023599B2 (en) 2016-11-21 2021-06-01 Sony Corporation Information processing device, information processing method, and program
US11043033B2 (en) 2016-11-21 2021-06-22 Sony Corporation Information processing device and information processing method capable of deciding objects arranged in virtual space generated based on real space

Similar Documents

Publication Publication Date Title
US20200294298A1 (en) Telepresence of Users in Interactive Virtual Spaces
JP4152432B2 (en) Virtual reality network
US9922463B2 (en) Virtually visualizing energy
CN115175064A (en) Mixed reality spatial audio
Blauert et al. An interactive virtual-environment generator for psychoacoustic research. I: Architecture and implementation
US20050275914A1 (en) Binaural horizontal perspective hands-on simulator
US5905450A (en) System for supporting fire fighting for building and fire fighting method using the same
Tzovaras et al. Design and implementation of haptic virtual environments for the training of the visually impaired
JPH08227341A (en) User interface
JP2002305758A (en) Device and system for presence communication
CN111580661A (en) Interaction method and augmented reality device
CN101002253A (en) Horizontal perspective simulator
US11334165B1 (en) Augmented reality glasses images in midair having a feel when touched
CN107943275A (en) Simulated environment display system and method
Nikolakis et al. Cybergrasp and phantom integration: Enhanced haptic access for visually impaired users
US20240004475A1 (en) Spatially aware computing hub and environment
JP2013037454A (en) Posture determination method, program, device, and system
JP2007072194A (en) Man type picture control unit
CN113196390B (en) Auditory sense system and application method thereof
JP6708865B2 (en) Customer service system and customer service method
Thalmann et al. Virtual reality software and technology
Patras et al. Body warping versus change blindness remapping: A comparison of two approaches to repurposing haptic proxies for virtual reality
Alcañiz et al. Technological background of VR
Nesamalar et al. An introduction to virtual reality techniques and its applications
JP2004192325A (en) Transmitting method and device, receiving device, transmitting program and receiving program of user posture information and recording medium for storing these programs