JPH08329282A - Three-dimensional video display system - Google Patents

Three-dimensional video display system

Info

Publication number
JPH08329282A
JPH08329282A JP7138323A JP13832395A JPH08329282A JP H08329282 A JPH08329282 A JP H08329282A JP 7138323 A JP7138323 A JP 7138323A JP 13832395 A JP13832395 A JP 13832395A JP H08329282 A JPH08329282 A JP H08329282A
Authority
JP
Japan
Prior art keywords
user
virtual space
users
face image
display system
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP7138323A
Other languages
Japanese (ja)
Other versions
JP3193263B2 (en
Inventor
Yoshio Nagashima
美雄 永嶋
Hiroyuki Arita
浩之 有田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP13832395A priority Critical patent/JP3193263B2/en
Publication of JPH08329282A publication Critical patent/JPH08329282A/en
Application granted granted Critical
Publication of JP3193263B2 publication Critical patent/JP3193263B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Landscapes

  • Computer And Data Communications (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)
  • Information Transfer Between Computers (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Digital Computer Display Output (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

PURPOSE: To map face images corresponding to the directions of respective users on respective other-self objects and display them in a virtual space. CONSTITUTION: A display device 15 displays the virtual space that plural users share. A user inputs his position and direction in the virtual space through a position information input part 11. A virtual space generation part 12 updates the virtual space screen with the input information from the 11, generates character objects with position information on other users sent from a control server, and further finds the relative angles between the users and instructs a face image data base 13 to output face images of the respective users. The data base 13 stores face images of all users picked up from various directions. An image mapping part 14 maps the face images outputted from 13 to the respective other-self objects of the users generated by 12 and displays them on the display device 15.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、複数の利用者が共有
し、各利用者が自分の意志で自由に移動可能な3次元仮
想空間において、各利用者の向きに応じた顔画像を、そ
の利用者の分身オブジェクトにマッピングして表示する
仮想空間形の3次元映像表示システムに関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention, in a three-dimensional virtual space shared by a plurality of users and freely movable by each user's own will, provides a facial image corresponding to the orientation of each user. The present invention relates to a virtual space type three-dimensional video display system for mapping and displaying on a user's alter ego object.

【0002】[0002]

【従来の技術】図1は、複数の利用者が共有し、各利用
者が自分の意志で自由に移動可能な3次元映像表示シス
テムの概要を示す図である。図中、複数の利用者端末1
は通信回線3を通して制御サーバ2に接続されている。
各利用者端末1の利用者は、あらかじめ制御サーバ2か
ら送信された仮想空間を共有し、操作器を操作して該仮
想空間内を自由に移動する。各利用者端末1は、該操作
器により入力される仮想空間内の利用者の位置情報と向
き情報を制御サーバ2に送信する。制御サーバ2は、各
利用者端末1から収集した全ての利用者の位置情報と向
き情報を他の利用者端末1に送信する。各利用者端末1
は、自利用者と相手利用者の位置情報および向き情報に
基づいて、各利用者の分身オブジェクトを仮想空間内に
表示する。
2. Description of the Related Art FIG. 1 is a diagram showing an outline of a three-dimensional image display system which is shared by a plurality of users and is freely movable by each user. In the figure, a plurality of user terminals 1
Is connected to the control server 2 through a communication line 3.
The user of each user terminal 1 shares the virtual space transmitted from the control server 2 in advance and operates the operation unit to freely move in the virtual space. Each user terminal 1 transmits to the control server 2 the position information and orientation information of the user in the virtual space input by the operation device. The control server 2 transmits the position information and orientation information of all the users collected from each user terminal 1 to the other user terminals 1. Each user terminal 1
Displays the alternation object of each user in the virtual space based on the position information and orientation information of the own user and the other user.

【0003】このような仮想空間形の3次元映像表示シ
ステムにおいて、従来手法では、予め各利用者の正面顔
画像のみを登録しておき、この正面顔画像を各利用者の
分身オブジェクトにマッピングして仮想空間内に表示し
ていた(例えば、電子情報通信学会技術報告IE92−
120の「サイバーコミュニティの検討」1993年2
月発行)。
In such a virtual space type three-dimensional image display system, in the conventional method, only the front face image of each user is registered in advance, and this front face image is mapped to the alternation object of each user. Displayed in a virtual space (for example, IEICE technical report IE92-
120 "Cyber Community Examination" 1993 2
Issued monthly).

【0004】図3は、複数の利用者が共有できる3次元
仮想空間において、3人の利用者A,B,Cの位置を上
空から見た図である。図4は、利用者Cの仮想空間での
視界、すなわち、利用者Cが利用している表示装置での
従来手法における画面例であり、平面で構成される利用
者の分身オブジェクトA´、B´に、正面顔画像がマッ
ピングして表示される。
FIG. 3 is a view of the positions of three users A, B, and C seen from above in a three-dimensional virtual space that can be shared by a plurality of users. FIG. 4 is an example of a view of the user C in the virtual space, that is, a screen in the conventional method on the display device used by the user C. The user's alternation objects A ′ and B configured by planes. The front face image is mapped and displayed on ‘.

【0005】[0005]

【発明が解決しようとする課題】従来技術においては、
利用者が斜めを向いた場合(図4の利用者Aの例)に
は、正面顔画像の分身オブジェクトがそのまま斜めに表
示されるため、その利用者の顔画像が見にくく、かつ該
利用者がどこを見ているかが分かりにくいという問題が
あった。
In the prior art,
When the user is facing diagonally (example of user A in FIG. 4), the alternation object of the front face image is displayed as it is, so that the face image of the user is difficult to see and There was a problem that it was difficult to understand where you were looking.

【0006】本発明の目的は、上記従来技術の問題点を
解決し、各利用者の向きに応じた顔画像を分身オブジェ
クトにマッピングして表示する仮想空間形の3次元映像
表示システムを提供することにある。
An object of the present invention is to solve the above-mentioned problems of the prior art and provide a virtual space type three-dimensional image display system for displaying a face image corresponding to the direction of each user by mapping it onto an alter ego object. Especially.

【0007】[0007]

【課題を解決するための手段】上記目的を達成するため
に本発明では、複数の利用者が共有し、各利用者が自由
に移動可能な3次元仮想空間にて、操作器により入力さ
れる各利用者の位置情報と向き情報に基づいて、各利用
者の分身オブジェクトを前記3次元仮想空間に表示する
3次元仮想空間表示システムにおいて、各利用者の様々
な角度から撮像した顔画像を蓄積する顔画像データベー
スと、仮想空間に存在する利用者間の相対角度を計測す
る手段と、該計測された相対角度に基づいて、各利用者
の該当角度の顔画像を前記顔画像データベースより出力
する手段と、該出力された顔画像を各利用者の分身オブ
ジェクトにマッピングする手段とを有することを主たる
特徴とするものである。
In order to achieve the above object, according to the present invention, a plurality of users share the data, and each user inputs in the three-dimensional virtual space in which the user can freely move. A face image captured from various angles of each user is accumulated in a three-dimensional virtual space display system that displays the alternation object of each user in the three-dimensional virtual space based on the position information and orientation information of each user. Face image database, means for measuring a relative angle between users existing in a virtual space, and a face image of the corresponding angle of each user is output from the face image database based on the measured relative angle. The main feature is to have means and means for mapping the output face image to the alternation object of each user.

【0008】[0008]

【作用】本発明では、各利用者の向きに応じた顔画像を
分身オブジェクトにマッピングし表示できることから、
利用者の顔画像が見やすく、かつ該利用者がどこを見て
いるかが分かり易い。
In the present invention, since the face image corresponding to the direction of each user can be mapped and displayed on the alternation object,
It is easy to see the face image of the user, and it is easy to see where the user is looking.

【0009】[0009]

【実施例】以下、本発明の一実施例について図面により
詳述する。
An embodiment of the present invention will be described in detail below with reference to the drawings.

【0010】図2は、本発明の3次元映像表示システム
における利用者端末の一実施例のブロック図である。位
置情報入力部11は、利用者が自分を仮想空間内のどの
位置にどの向きに置くかを制御するための情報を入力す
るものであり、ジョイステイック等の操作器で構成され
る。位置情報入力部11により入力される自利用者の位
置情報と向き情報は仮想空間生成部12に与えられると
同時に、通信回線31により制御サーバへ送信される。
制御サーバは、各利用者端末から収集した位置情報と向
き情報を他の各利用者端末に送信する。制御サーバから
通信回線32を通して送信されてくる他利用者の位置情
報と向き情報は、仮想空間生成部12に入力される。仮
想空間生成部12では、自位置情報入力部11からの指
示により仮想空間の表示画面を更新し、また、通信相手
の他の利用者端末からの位置情報により、仮想空間内の
他の利用者の分身オブシェクトを生成する。さらに、仮
想空間生成部12は、自利用者の向き情報と他利用者の
向き情報により相対角度を計算し、該相対角度に基づい
て、顔画像データベース13から選択する各利用者の顔
画像を指示する。顔画像データベース13には、あらか
じめ全利用者の様々な方向から撮像した顔画像が蓄積さ
れている。画像マッピング部14では、仮想空間生成部
12で生成された他の利用者の分身オブジェクトに、そ
れぞれ顔画像データベース13から出力された該当利用
者の対応する向きの顔画像をマッピングする。該マッピ
ングされた顔画像を含む仮想空間内の人物の様子が表示
装置15にパースペクティブに表示される。なお、画像
マッピング部14では、自利用者と他利用者の相対位置
に応じ、遠くに位置する他利用者の顔画像は縮小し、近
くに位置する他利用者の顔画像は拡大して、マッピング
するようにしてもよい。
FIG. 2 is a block diagram of an embodiment of a user terminal in the three-dimensional image display system of the present invention. The position information input unit 11 is for inputting information for controlling which position and direction the user places himself / herself in the virtual space, and is composed of an operation device such as a joystick. The position information and orientation information of the own user input by the position information input unit 11 are given to the virtual space generation unit 12 and at the same time transmitted to the control server through the communication line 31.
The control server transmits the position information and the orientation information collected from each user terminal to each other user terminal. The position information and orientation information of other users transmitted from the control server through the communication line 32 are input to the virtual space generation unit 12. The virtual space generation unit 12 updates the display screen of the virtual space according to an instruction from the own position information input unit 11, and also uses the position information from the other user terminal of the other party to communicate with other users in the virtual space. Generate an alter ego object. Further, the virtual space generation unit 12 calculates a relative angle based on the orientation information of the own user and the orientation information of other users, and based on the relative angle, the face image of each user selected from the face image database 13 is calculated. Give instructions. The face image database 13 stores face images captured from various directions of all users in advance. The image mapping unit 14 maps the face image of the corresponding user, which is output from the face image database 13, to the alternation object of another user generated by the virtual space generation unit 12. A state of a person in the virtual space including the mapped face image is perspectively displayed on the display device 15. Note that the image mapping unit 14 reduces the facial images of other users located far away and enlarges the facial images of other users located nearby according to the relative positions of the own user and the other user. You may make it map.

【0011】図5は、仮想空間内での利用者A,B,C
のx−y平面上での人物位置を示す。また、図6は、本
発明における利用者Cの視界、すなわち利用者Cが利用
している表示装置での画面例を示したものである。
FIG. 5 shows users A, B and C in the virtual space.
3 shows the position of a person on the xy plane. In addition, FIG. 6 shows an example of a field of view of the user C in the present invention, that is, a screen on a display device used by the user C.

【0012】仮想空間生成部12では、仮想空間内の各
分身オブジェクトのワールド座標値(Xi,Yi,θi)に
より、各オブジェクト間の相対位置および向きを計測す
る。ここで、Xi,Yiは、それぞれx,y平面上での位
置座標、θiは、y軸に対する回転角度とする。例え
ば、図5において、利用者AとCの相対角度θacは、θ
ac=θa−θcで表される。この場合、利用者Aの顔画像
としては、角度θac′=(180°−θac)をもった顔
画像を顔画像データベース43から出力し、図6に示す
如く利用者Aの分身オブジェクトA′にマッピングして
表示すればよい。ここで、θac′が0°の時は、利用者
Cに対して利用者Aが正対している顔画像がマッピング
される。なお、利用者Aの分身オブジェクトA´は利用
者Cの視線方向に対して常に直交する位置、すなわち、
図5のA′の破線位置とする。利用者Bについても同様
である。各分身オブジェクトにマッピングされる顔画像
は、視点が変化し、相対角度が変化する毎に逐次更新さ
れる。また、自利用者から遠くに位置する相手の顔画像
は縮小して、近くに位置する相手の顔画像は拡大してマ
ッピングされる。
The virtual space generation unit 12 measures the relative position and orientation of each object based on the world coordinate value (Xi, Yi, θi) of each alternation object in the virtual space. Here, Xi and Yi are position coordinates on the x and y planes, and θi is a rotation angle with respect to the y axis. For example, in FIG. 5, the relative angle θac between the users A and C is θ
It is represented by ac = θa−θc. In this case, as the face image of the user A, a face image having an angle θac ′ = (180 ° −θac) is output from the face image database 43, and is displayed as the alternation object A ′ of the user A as shown in FIG. It should be mapped and displayed. Here, when θac ′ is 0 °, the face image of the user A facing the user C is mapped. The alternation object A ′ of the user A is always in a position orthogonal to the line-of-sight direction of the user C, that is,
The position is indicated by the broken line A'in FIG. The same applies to user B. The face image mapped to each alternation object is sequentially updated each time the viewpoint changes and the relative angle changes. Further, the face image of the partner located far from the user is reduced, and the face image of the partner located near is enlarged and mapped.

【0013】以上、実施例の説明では、各利用者端末
が、全利用者の様々な方向から撮像した顔画像を蓄積す
る顔画像データベースを有するとしたが、該顔画像デー
タベースを制御サーバに持たせ、制御サーバが各利用者
間の相対位置および相対角度を計算して、各利用者の対
応する顔画像をデータベースから読み出して各利用者端
末に送信することも可能である。この場合、各利用者端
末で顔画像データベースを持つ必要がないため、システ
ム全体のコスト低減がはかれる。
In the above description of the embodiments, each user terminal has a face image database for accumulating face images taken from various directions of all users. However, the control server has the face image database. It is also possible for the control server to calculate the relative position and relative angle between each user, read the face image corresponding to each user from the database, and send it to each user terminal. In this case, since it is not necessary for each user terminal to have a face image database, the cost of the entire system can be reduced.

【0014】[0014]

【発明の効果】以上説明したように、本発明によれば、
3次元仮想空間内の利用者の向きに応じて、平面で構成
される利用者の分身オブジェクトにマッピングする顔画
像を選択するため、利用者が3次元空間内で向きを変え
ても利用者の顔画像が見やすく、かつ、該利用者がどこ
を見てているが分かり易い表示法が可能であるという利
点がある。また、利用者間の相対位置に応じて、分身オ
ブジェクトにマッピングする顔画像を拡大・縮小するこ
とにより、実空間の臨場感を実現できるという利点があ
る。
As described above, according to the present invention,
According to the orientation of the user in the three-dimensional virtual space, the face image to be mapped to the alter ego object of the user configured by the plane is selected, so that the user can change the orientation in the three-dimensional space. There is an advantage that a face image is easy to see and a display method that is easy to understand where the user is looking is possible. In addition, there is an advantage that a realistic sensation in a real space can be realized by enlarging / reducing a face image to be mapped to an alternation object according to a relative position between users.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明で対象とする3次元映像表示システムの
概要図である。
FIG. 1 is a schematic diagram of a three-dimensional image display system targeted by the present invention.

【図2】本発明における利用者端末の一実施例を示す図
である。
FIG. 2 is a diagram showing an embodiment of a user terminal according to the present invention.

【図3】従来手法の顔画像マッピングを説明する図であ
る。
FIG. 3 is a diagram illustrating face image mapping according to a conventional method.

【図4】従来手法における表示装置での画面例である。FIG. 4 is an example of a screen on a display device according to a conventional method.

【図5】本発明の顔画像マッピングを説明する図であ
る。
FIG. 5 is a diagram illustrating face image mapping according to the present invention.

【図6】本発明における表示装置での画面例である。FIG. 6 is an example of a screen on the display device according to the present invention.

【符号の説明】[Explanation of symbols]

1 利用者端末 2 制御サーバ 3 通信回線 11 位置情報入力部 12 仮想空間生成部 13 顔画像データベース 14 画像マッピング部 15 表示装置 1 User Terminal 2 Control Server 3 Communication Line 11 Position Information Input Section 12 Virtual Space Generation Section 13 Face Image Database 14 Image Mapping Section 15 Display Device

Claims (2)

【特許請求の範囲】[Claims] 【請求項1】 複数の利用者が共有し、各利用者が自由
に移動可能な3次元仮想空間にて、操作器により入力さ
れる各利用者の位置情報と向き情報に基づいて、各利用
者の分身オブジェクトを前記3次元仮想空間に表示する
3次元映像表示システムにおいて、各利用者の様々な角
度から撮像した顔画像を蓄積する顔画像データベース
と、仮想空間に存在する利用者間の相対角度を計測する
手段と、該計測された相対角度に基づいて、各利用者の
該当角度の顔画像を前記顔画像データベースより出力す
る手段と、該出力された顔画像を各利用者の分身オブジ
ェクトにマッピングする手段とを有することを特徴とす
る3次元映像表示システム。
1. A use in a three-dimensional virtual space which is shared by a plurality of users and in which each user can move freely, based on position information and orientation information of each user input by an operating device. In a three-dimensional image display system for displaying a person's alter ego object in the three-dimensional virtual space, a face image database accumulating face images taken from various angles of each user and a relative between users existing in the virtual space Means for measuring an angle, means for outputting a face image of each user at a corresponding angle from the face image database based on the measured relative angle, and the output face image for each user's alternation object And a means for mapping to the 3D image display system.
【請求項2】 請求項1記載の3次元映像表示システム
において、仮想空間に存在する利用者間の相対角度に加
えて該利用者間の相対位置も計測し、該計測された相対
位置に基づいて、顔画像データベースから出力された顔
画像を拡大・縮小して利用者の分身オブジェクトにマッ
ピングすることを特徴とする3次元映像表示システム。
2. The three-dimensional image display system according to claim 1, wherein in addition to the relative angle between the users existing in the virtual space, the relative position between the users is also measured, and based on the measured relative position. A three-dimensional image display system characterized by enlarging / reducing a face image output from the face image database and mapping the face image onto the alter ego object of the user.
JP13832395A 1995-06-05 1995-06-05 3D image display system Expired - Lifetime JP3193263B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP13832395A JP3193263B2 (en) 1995-06-05 1995-06-05 3D image display system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP13832395A JP3193263B2 (en) 1995-06-05 1995-06-05 3D image display system

Publications (2)

Publication Number Publication Date
JPH08329282A true JPH08329282A (en) 1996-12-13
JP3193263B2 JP3193263B2 (en) 2001-07-30

Family

ID=15219225

Family Applications (1)

Application Number Title Priority Date Filing Date
JP13832395A Expired - Lifetime JP3193263B2 (en) 1995-06-05 1995-06-05 3D image display system

Country Status (1)

Country Link
JP (1) JP3193263B2 (en)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000348207A (en) * 1999-06-07 2000-12-15 Sony Computer Entertainment Inc Method and device for plotting image and recording medium
KR20010093938A (en) * 2000-04-03 2001-10-31 김성천 Method and apparatus for shaping an abata using internet
KR20020014176A (en) * 2000-08-16 2002-02-25 김세진 Apparatus and method for instant photographing and characterizing user's feature
JP2002083319A (en) * 2000-09-07 2002-03-22 Tohei Nitta Distributed virtual surrounding computer system for learning foreign language
JP2008219390A (en) * 2007-03-02 2008-09-18 Victor Co Of Japan Ltd Image reader
JP2012147481A (en) * 1998-08-24 2012-08-02 Qualcomm Inc Real time video game for emulation of streaming over the internet in broadcast
JP2017027477A (en) * 2015-07-24 2017-02-02 株式会社オプティム Three-dimensional output server, three-dimensional output method, and program for three-dimensional output server
JP2021197695A (en) * 2020-06-17 2021-12-27 Kddi株式会社 Information terminal device, remote communication support method, and program
JP2022008400A (en) * 2017-05-09 2022-01-13 ソニーグループ株式会社 Client apparatus, display system, client apparatus processing method, and program
WO2023119484A1 (en) * 2021-12-22 2023-06-29 株式会社ハシラス Metaverse space provision program

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012147481A (en) * 1998-08-24 2012-08-02 Qualcomm Inc Real time video game for emulation of streaming over the internet in broadcast
JP2000348207A (en) * 1999-06-07 2000-12-15 Sony Computer Entertainment Inc Method and device for plotting image and recording medium
KR20010093938A (en) * 2000-04-03 2001-10-31 김성천 Method and apparatus for shaping an abata using internet
KR20020014176A (en) * 2000-08-16 2002-02-25 김세진 Apparatus and method for instant photographing and characterizing user's feature
JP2002083319A (en) * 2000-09-07 2002-03-22 Tohei Nitta Distributed virtual surrounding computer system for learning foreign language
JP2008219390A (en) * 2007-03-02 2008-09-18 Victor Co Of Japan Ltd Image reader
JP2017027477A (en) * 2015-07-24 2017-02-02 株式会社オプティム Three-dimensional output server, three-dimensional output method, and program for three-dimensional output server
JP2022008400A (en) * 2017-05-09 2022-01-13 ソニーグループ株式会社 Client apparatus, display system, client apparatus processing method, and program
JP2021197695A (en) * 2020-06-17 2021-12-27 Kddi株式会社 Information terminal device, remote communication support method, and program
WO2023119484A1 (en) * 2021-12-22 2023-06-29 株式会社ハシラス Metaverse space provision program

Also Published As

Publication number Publication date
JP3193263B2 (en) 2001-07-30

Similar Documents

Publication Publication Date Title
JP6780642B2 (en) Information processing equipment, information processing methods and programs
EP0969418A2 (en) Image processing apparatus for displaying three-dimensional image
WO2011031026A2 (en) 3d avatar service providing system and method using background image
CN104536579A (en) Interactive three-dimensional scenery and digital image high-speed fusing processing system and method
KR20130028878A (en) Combined stereo camera and stereo display interaction
TW201103312A (en) Information processing device, information processing method, and program
WO2022022029A1 (en) Virtual display method, apparatus and device, and computer readable storage medium
CN110209285B (en) Sand table display system based on gesture control
JP2013127683A (en) Program, information storage medium, terminal, server, and network system
CN110136236B (en) Personalized face display method, device and equipment for three-dimensional character and storage medium
CN109358754A (en) A kind of mixed reality wears display system
JPH08329282A (en) Three-dimensional video display system
KR20180120456A (en) Apparatus for providing virtual reality contents based on panoramic image and method for the same
JP2014203175A (en) Information processing device, information processing method, and program
CN111006672A (en) Indoor navigation model construction and navigation method and system based on augmented reality
JP2018097141A (en) Head-mounted display device and virtual object display system
CN109445596A (en) A kind of integral type mixed reality wears display system
CN110286906A (en) Method for displaying user interface, device, storage medium and mobile terminal
JP3284866B2 (en) Arbitrary screen extraction system in 3D virtual space
CN108107580A (en) Methods of exhibiting and system is presented in a kind of virtual reality scenario
WO2022176450A1 (en) Information processing device, information processing method, and program
KR101404976B1 (en) System for generating a walking route POI based on image using 3Dmatching
Avery et al. Visualizing occluded physical objects in unfamiliar outdoor augmented reality environments
CN115268658A (en) Multi-party remote space delineation marking method based on augmented reality
RU2695053C1 (en) Method and device for control of three-dimensional objects in virtual space

Legal Events

Date Code Title Description
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090525

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090525

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100525

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100525

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110525

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120525

Year of fee payment: 11

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130525

Year of fee payment: 12

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140525

Year of fee payment: 13

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

EXPY Cancellation because of completion of term