JPH0887489A - Service providing method - Google Patents

Service providing method

Info

Publication number
JPH0887489A
JPH0887489A JP22451994A JP22451994A JPH0887489A JP H0887489 A JPH0887489 A JP H0887489A JP 22451994 A JP22451994 A JP 22451994A JP 22451994 A JP22451994 A JP 22451994A JP H0887489 A JPH0887489 A JP H0887489A
Authority
JP
Japan
Prior art keywords
image
user terminal
character
service provider
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP22451994A
Other languages
Japanese (ja)
Other versions
JP4190590B2 (en
Inventor
Hiroaki Kitano
宏明 北野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP22451994A priority Critical patent/JP4190590B2/en
Publication of JPH0887489A publication Critical patent/JPH0887489A/en
Application granted granted Critical
Publication of JP4190590B2 publication Critical patent/JP4190590B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Abstract

PURPOSE: To enable economical activities in the actual space by utilizing a virtual reality space. CONSTITUTION: An image in the virtual reality space corresponding to the position and viewpoint of a character is provided for a user terminal. When an advertisement tower 81 as an image constituting part of the virtual reality space is specified with a cursor 74 on the user terminal, detailed information on the advertisement displayed on this advertisement tower 81 is provided for the user terminal. A service provider terminal is given an allocation for mounting the advertisement tower 8 in a partial space of the virtual reality space and installs the advertisement tower 81 there in. When the advertisement tower 81 is specified, the detailed information regarding the article displayed there is provided for the user terminal and the service provider terminal can be accessed at need to apply for the purchase of the article.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、例えばバーチャルリア
リティ(仮想現実空間)を生成し、ユーザに提供するサ
イバースペースシステムに用いて好適なサービス提供方
法に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a service providing method suitable for use in, for example, a cyber space system that creates a virtual reality (virtual reality space) and provides it to a user.

【0002】[0002]

【従来の技術】図23は、従来のサイバースペースシス
テムの構成例を示している。サーバ1は記憶装置2を備
え、記憶装置2に記憶されている画像データを公衆電話
回線4を介して、各ユーザ端末3−1乃至3−3に供給
するようになされている。
2. Description of the Related Art FIG. 23 shows a configuration example of a conventional cyber space system. The server 1 includes a storage device 2 and supplies the image data stored in the storage device 2 to each of the user terminals 3-1 to 3-3 via the public telephone line 4.

【0003】各ユーザ端末3−1乃至3−3は、記憶装
置2に予め用意されている100種類のキャラクタの中
から所定のものを自分のキャラクタとして指定する。そ
して、そのキャラクタを、サーバ1が提供する仮想現実
空間内において移動させ、仮想現実空間での生活を楽し
むことができるようになされている。
Each of the user terminals 3-1 to 3-3 designates a predetermined one of 100 types of characters prepared in the storage device 2 as its own character. Then, the character can be moved within the virtual reality space provided by the server 1 to enjoy the life in the virtual reality space.

【0004】例えばユーザ端末3−1が、通常の公衆電
話回線4を介してサーバ1にアクセスし、仮想現実空間
の画像の提供を受ける。ユーザ端末3−1において、所
定の操作を行い、自分のキャラクタ(例えば、キャラク
タA)を所定の方向に移動させるように指示すると、そ
の移動方向に対応する画像がサーバ1より提供されてく
る。これにより、ユーザ端末3−1は、自分のキャラク
タAを、あたかも仮想現実空間が提供する町を移動させ
るようにして楽しむことができる。
For example, the user terminal 3-1 accesses the server 1 via the ordinary public telephone line 4 and receives the image of the virtual reality space. When the user terminal 3-1 performs a predetermined operation to instruct to move his or her character (for example, the character A) in a predetermined direction, the server 1 provides an image corresponding to the moving direction. As a result, the user terminal 3-1 can enjoy his or her own character A as if moving in a town provided by the virtual reality space.

【0005】ユーザ端末3−2においても、同様に、自
分のキャラクタ(例えば、キャラクタB)を指定し、こ
のキャラクタBを、仮想現実空間内において移動させる
ことができる。
Similarly, the user terminal 3-2 can also specify his own character (for example, the character B) and move the character B in the virtual reality space.

【0006】ユーザ端末3−1のキャラクタAと、ユー
ザ端末3−2のキャラクタBが、仮想現実空間の近傍の
位置に移動した場合、サーバ1からユーザ端末3−1に
提供される仮想現実空間の画像には、背景としての町の
画像の他に、その町を移動するキャラクタBの画像も提
供される。これにより、ユーザ端末3−1には、例えば
図24に示すような画像が表示される。即ち、自分のキ
ャラクタAが中央に配置され、その近傍には、ユーザ端
末3−2のキャラクタBが位置している。
When the character A of the user terminal 3-1 and the character B of the user terminal 3-2 move to positions near the virtual reality space, the virtual reality space provided from the server 1 to the user terminal 3-1. In addition to the image of the town as the background, the image of is also provided with the image of the character B moving in the town. As a result, an image as shown in FIG. 24, for example, is displayed on the user terminal 3-1. That is, the character A of the user is located in the center, and the character B of the user terminal 3-2 is located in the vicinity thereof.

【0007】同様に、ユーザ端末3−2には、図25に
示すように画像が提供される。この図25においても、
自分のキャラクタBが画面の中央に配置され、その近傍
には、ユーザ端末3−1のキャラクタAが配置されてい
る。
Similarly, an image is provided to the user terminal 3-2 as shown in FIG. Also in FIG. 25,
The character B of the user is placed in the center of the screen, and the character A of the user terminal 3-1 is placed in the vicinity thereof.

【0008】自分のユーザ端末を操作して、対応するキ
ャラクタを仮想現実空間において移動させると、例え
ば、その仮想現実空間の所定の位置には掲示板が設けら
れており、その掲示板には、この仮想現実空間における
サービスに関するメッセージが記述されている。各ユー
ザは、キャラクタをその掲示板の位置に移動させること
により、その掲示板の内容を知ることができる。
When the user's own terminal is operated to move the corresponding character in the virtual reality space, for example, a bulletin board is provided at a predetermined position in the virtual reality space. It describes messages about services in the physical space. Each user can know the contents of the bulletin board by moving the character to the position of the bulletin board.

【0009】また、仮想現実空間の道端にメモが落ちて
いることがあり、このメモを取得する操作を行うと、そ
のメモに記述されているメッセージが画面に表示され
る。
Further, a memo may be dropped on the roadside of the virtual reality space, and when an operation for acquiring this memo is performed, the message described in the memo is displayed on the screen.

【0010】このようにして、サーバが各ユーザ端末に
対して所定のメッセージを供給することができる。
In this way, the server can supply a predetermined message to each user terminal.

【0011】また、この仮想現実空間においては、この
仮想現実空間内において使われる仮想現実の通貨が用意
されており、各キャラクタは、この通貨を使って、仮想
現実の商品を購入することができる。
Further, in this virtual reality space, virtual reality currency used in this virtual reality space is prepared, and each character can use this currency to purchase virtual reality products. .

【0012】[0012]

【発明が解決しようとする課題】従来のシステムは、こ
のように、仮想現実空間においてキャラクタに生活させ
ることを、一種のゲームとして楽しむことができるよう
になされている。しかしながら、それは、あくまでゲー
ムに過ぎず、現実の生活とのつながりが殆どなく、従っ
て、すぐに飽きてしまう課題があった。
As described above, the conventional system is made to allow the character to live in the virtual reality space as a kind of game. However, it is just a game, and there is almost no connection with the real life, so that there is a problem that it gets tired soon.

【0013】また、上記例の場合、掲示板あるいはメモ
などにより、所定のメッセージを伝達するようにしてい
るのであるが、基本的に、道端に掲示板が置いてあった
り、メモが落ちているようなことが、現実空間において
は殆どなく、これらの掲示板あるいはメモは、メッセー
ジを伝達するために特別に設けられた、所謂アイコンに
相当している。このため、現実空間により近い仮想現実
空間を構成することが困難である課題があった。
In the case of the above example, a predetermined message is transmitted by a bulletin board or a memo, but basically, a bulletin board is placed on the roadside or a memo is dropped. However, these bulletin boards or memos correspond to so-called icons specially provided for transmitting messages. Therefore, there is a problem that it is difficult to construct a virtual reality space closer to the real space.

【0014】また、ユーザに伝達するのがメッセージに
限られ、例えば、衣服、電器製品、自動車といったよう
な商品に関する情報を提供することが困難である課題が
あった。その結果、仮想現実空間に付加価値を付与する
ことができず、その仮想現実空間が、結局、ゲーム空間
の域を脱出することができない課題があった。
Further, there is a problem that it is difficult to provide information regarding products such as clothes, electric appliances, and automobiles, because only messages are transmitted to the user. As a result, there is a problem that it is impossible to add value to the virtual reality space and the virtual reality space cannot eventually escape from the realm of the game space.

【0015】本発明はこのような状況に鑑みてなされた
ものであり、現実の空間において存在する各種の商品や
サービスに関する情報を提供できるようにし、現実の空
間と密接に結合することによって、現実空間における各
種の商品(サービス)を販売するといった経済活動を行
い、仮想現実空間に対して付加価値を発生させることが
できるようにするものである。
The present invention has been made in view of such a situation, and makes it possible to provide information on various products and services existing in the real space, and by closely connecting with the real space, Economic activities such as selling various goods (services) in the space are performed, and it is possible to generate added value to the virtual reality space.

【0016】[0016]

【課題を解決するための手段】本発明のサービス提供方
法は、サーバ(例えば図1のサーバ11−1,11−
2)が提供する仮想現実空間の一部をサービス提供者端
末(例えば図1のサービス提供者端末14−1,14−
2)に割り当て、ユーザ端末(例えば図1のユーザ端末
13−1乃至13−3)より仮想現実空間における位置
が入力されたとき、入力した位置に対応する仮想現実空
間の画像をサーバからユーザ端末に提供し、仮想現実空
間のサービス提供者端末に割り当てられた空間の画像
が、ユーザ端末により指定されたとき、ユーザ端末より
サーバに対して、指定された画像に対応するデータを出
力し、サーバよりユーザ端末に対して、指定された画像
に対応する現実空間の情報を提供することを特徴とす
る。
A service providing method according to the present invention includes a server (for example, the servers 11-1 and 11- in FIG. 1).
2) a part of the virtual reality space provided by the service provider terminal (for example, the service provider terminals 14-1, 14- of FIG. 1).
2) and when the position in the virtual reality space is input from the user terminal (for example, the user terminals 13-1 to 13-3 in FIG. 1), the image of the virtual reality space corresponding to the input position is input from the server to the user terminal. When the image of the space provided to the service provider terminal of the virtual reality space is specified by the user terminal, the user terminal outputs data corresponding to the specified image to the server, and the server Further, it is characterized in that information on the real space corresponding to the designated image is provided to the user terminal.

【0017】さらに、仮想現実空間のサービス提供者端
末に割り当てられた空間の画像が、ユーザ端末により指
定されたとき、ユーザ端末による画像の指定に関連する
情報を、その空間が割り当てられているサービス提供者
端末に対して供給するようにすることができる。
Further, when the image of the space allocated to the service provider terminal in the virtual reality space is designated by the user terminal, the information related to the designation of the image by the user terminal is assigned to the service to which the space is assigned. It can be supplied to the provider terminal.

【0018】ユーザ端末による画像の指定に関連する情
報は、ユーザ端末により指定された画像を特定する情報
と、画像を指定したユーザ端末を利用するユーザの情報
のうちの少なくとも一方とすることができる。あるいは
また、ユーザ端末による画像の指定に関連する情報は、
画像を指定したユーザ端末から、指定された画像の空間
が割り当てられているサービス提供者端末へのアクセス
情報とすることができる。
The information related to the designation of the image by the user terminal can be at least one of information for identifying the image designated by the user terminal and information for the user who uses the user terminal that designated the image. . Alternatively, the information related to the designation of the image by the user terminal is
The information can be used as access information from the user terminal that specifies the image to the service provider terminal to which the specified image space is allocated.

【0019】ユーザ端末は、仮想現実空間において移動
するキャラクタを有し、ユーザ端末は、キャラクタの仮
想現実空間における位置と視点とを入力し、サーバは、
キャラクタの位置と視点に対応する画像をユーザ端末に
提供するようにすることができる。
The user terminal has a character that moves in the virtual reality space, the user terminal inputs the position and viewpoint of the character in the virtual reality space, and the server
An image corresponding to the position and the viewpoint of the character can be provided to the user terminal.

【0020】この場合、ユーザ端末に提供される画像に
は、他のユーザ端末のキャラクタは表示させるが、自己
のキャラクタの画像は表示させないようにすることがで
きる。
In this case, in the image provided to the user terminal, the characters of the other user terminals can be displayed, but the image of the user's own character can not be displayed.

【0021】[0021]

【作用】上記構成のサービス提供方法においては、サー
バが提供する仮想現実空間の一部が、サービス提供者端
末に割り当てられ、この空間の画像がユーザ端末により
指定されたとき、その画像に対応する現実空間の情報が
ユーザ端末に提供される。従って、実際に仮想現実空間
を構成する画像として、ユーザに対して、例えば各種の
商品の画像を提供し、その商品に関する経済活動を現実
空間との関連において行わせ、仮想現実空間に付加価値
を発生させることができる。
In the service providing method having the above structure, a part of the virtual reality space provided by the server is assigned to the service provider terminal, and when an image in this space is designated by the user terminal, the image corresponds to the image. Information in the physical space is provided to the user terminal. Therefore, as an image that actually constitutes the virtual reality space, for example, images of various products are provided to the user, economic activities related to the product are performed in relation to the physical space, and the added value is added to the virtual reality space. Can be generated.

【0022】[0022]

【実施例】図1は、本発明のサービス提供方法を応用し
たサイバースペースシステムの構成例を表している。同
図に示すように、この実施例においては、任意の数(こ
の実施例においては、2台)のサーバ11−1,11−
2が、それぞれ対応する記憶装置12−1,12−2を
有し、例えば光ファイバを利用した広帯域通信網15を
介して、仮想現実空間を提供することができるようにな
されている。また、任意の数(この実施例においては、
3台)のユーザ端末13−1乃至13−3が設けられ、
広帯域通信網15を介してサーバ11−1,11−2か
ら、仮想現実空間と、それを利用した所定のサービス
(情報)の提供を受けることができるようになされてい
る。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS FIG. 1 shows a configuration example of a cyber space system to which the service providing method of the present invention is applied. As shown in the figure, in this embodiment, an arbitrary number (two in this embodiment) of servers 11-1, 11-
2 has corresponding storage devices 12-1 and 12-2, respectively, and can provide a virtual reality space via, for example, a broadband communication network 15 using an optical fiber. Also, any number (in this example,
3) user terminals 13-1 to 13-3 are provided,
The virtual reality space and a predetermined service (information) using the virtual reality space can be provided from the servers 11-1 and 11-2 via the broadband communication network 15.

【0023】さらに、この実施例においては、任意の数
(この実施例においては、2台)のサービス提供者端末
14−1,14−2が設けられており、このサービス提
供者端末14−1,14−2は、広帯域通信網15を利
用して、サーバ11−1,11−2を介して仮想現実空
間の提供を受けるとともに、ユーザ端末13−1乃至1
3−3に対して、所定のサービスを提供することができ
るようになされている。
Further, in this embodiment, an arbitrary number (two in this embodiment) of service provider terminals 14-1 and 14-2 are provided, and this service provider terminal 14-1. , 14-2 receive the provision of the virtual reality space via the servers 11-1, 11-2 using the broadband communication network 15, and the user terminals 13-1 to 13-1.
3-3 can be provided with a predetermined service.

【0024】図2は、サーバ11(11−1,11−
2)の構成例を示している。同図に示すように、サーバ
11はCPU21を備え、このCPU21は、ROM2
2に記憶されているプログラムに従って各種の処理を実
行するようになされている。RAM23には、CPU2
1が各種の処理を実行する上において必要なデータ、プ
ログラム等が適宜記憶されるようになされている。通信
装置24は、広帯域通信網15に対して所定のデータを
授受するようになされている。
FIG. 2 shows a server 11 (11-1, 11-).
The example of 2) is shown. As shown in the figure, the server 11 includes a CPU 21, and the CPU 21 is a ROM 2
Various processes are executed in accordance with the program stored in 2. RAM23 has CPU2
Data, programs, etc. necessary for the 1 to execute various processes are appropriately stored. The communication device 24 sends and receives predetermined data to and from the broadband communication network 15.

【0025】表示装置25は、CRT、LCDなどを備
え、サーバ11が提供する仮想現実空間の画像をモニタ
することができるように、インタフェース28に接続さ
れている。このインタフェース28にはまた、マイク2
6とスピーカ27が接続されており、所定の音声信号を
ユーザ端末13やサービス提供者端末14に供給した
り、ユーザ端末13やサービス提供者端末14からの音
声信号をモニタすることができるようになされている。
The display device 25 includes a CRT, an LCD, etc., and is connected to the interface 28 so that an image in the virtual reality space provided by the server 11 can be monitored. The interface 28 also includes a microphone 2
6 and the speaker 27 are connected so that a predetermined audio signal can be supplied to the user terminal 13 or the service provider terminal 14 and the audio signal from the user terminal 13 or the service provider terminal 14 can be monitored. Has been done.

【0026】また、サーバ11は入力装置29を備え、
インタフェース28を介して、各種の入力を行うことが
できるようになされている。この入力装置29は、少な
くともキーボード29aとマウス29bを有している。
The server 11 also includes an input device 29,
Various inputs can be performed via the interface 28. The input device 29 has at least a keyboard 29a and a mouse 29b.

【0027】図3は、ユーザ端末13(13−1乃至1
3−3)の構成例を示している。ユーザ端末13はCP
U41を備え、このCPU41は、ROM42に記憶さ
れているプログラムに従って各種の処理を実行するよう
になされている。RAM43には、CPU41が各種の
処理を実行する上において必要なデータやプログラム等
が適宜記憶されるようになされている。通信装置44
は、広帯域通信網15を介して、サーバ11に対してデ
ータを授受するようになされている。
FIG. 3 shows the user terminal 13 (13-1 to 13-1).
3-3) shows a configuration example. User terminal 13 is CP
The U41 is provided, and the CPU 41 is configured to execute various kinds of processing in accordance with the programs stored in the ROM 42. The RAM 43 appropriately stores data, programs, etc. necessary for the CPU 41 to execute various processes. Communication device 44
Is configured to send and receive data to and from the server 11 via the broadband communication network 15.

【0028】表示装置45は、CRT、LCDなどを備
え、CG(コンピュータグラフィック)の3次元画像
や、通常のビデオカメラなどにより撮影された3次元の
画像を表示することができるようになされている。マイ
ク46は、音声信号をサーバ11に出力するとき利用さ
れる。また、スピーカ47は、サーバ11より音声信号
が伝送されてきたとき、これを出力する。入力装置49
は、各種の入力を行うとき操作されるようになされてい
る。
The display device 45 is provided with a CRT, an LCD, etc., and is capable of displaying a CG (computer graphic) three-dimensional image and a three-dimensional image taken by an ordinary video camera or the like. . The microphone 46 is used when outputting a voice signal to the server 11. Further, the speaker 47 outputs the audio signal transmitted from the server 11. Input device 49
Are designed to be operated when performing various inputs.

【0029】この入力装置49のキーボード49aは、
所定の文字や記号などを入力するとき操作されるように
なされている。マウス49bは、所定の位置を指定する
とき操作されるようになされている。視点入力装置49
cは、ユーザ端末13の対応するキャラクタの視点を入
力するとき操作される。これにより、キャラクタの視点
を上下左右の方向に移動させたり、所定の画像をズーム
することができるようになされている。また、移動入力
装置49dは、キャラクタを、前後左右の方向に、所定
の速度で移動させるための入力を行うことができるよう
になされている。
The keyboard 49a of the input device 49 is
It is designed to be operated when inputting predetermined characters or symbols. The mouse 49b is adapted to be operated when designating a predetermined position. Viewpoint input device 49
c is operated when the viewpoint of the corresponding character of the user terminal 13 is input. As a result, the viewpoint of the character can be moved vertically and horizontally, and a predetermined image can be zoomed. In addition, the movement input device 49d is configured to be able to perform an input for moving the character in the front, rear, left, and right directions at a predetermined speed.

【0030】インタフェース48は、表示装置45、マ
イク46、スピーカ47、および入力装置49に対する
データのインタフェースを構成している。
The interface 48 constitutes a data interface to the display device 45, the microphone 46, the speaker 47, and the input device 49.

【0031】図4は、サービス提供者端末14(14−
1,14−2)の構成例を示している。そのCPU51
乃至入力装置59は、図3のユーザ端末13のCPU4
1乃至入力装置49と基本的に同様の構成であるので、
その説明は省略する。
FIG. 4 shows the service provider terminal 14 (14-
1, 14-2). The CPU 51
The input device 59 is the CPU 4 of the user terminal 13 of FIG.
1 to the input device 49 are basically similar in configuration,
The description is omitted.

【0032】尚、このシステムを構成する装置、特に、
ユーザ端末は、固定配置されたものに限らず、携帯用の
ものとすることもできる。また、サービス提供者端末、
ユーザ端末などは、例えばそのIDにより特定され、装
置自体で特定されるものではない。
Devices constituting this system, especially,
The user terminal is not limited to being fixedly arranged, but may be portable. Also, the service provider terminal,
The user terminal and the like are specified by the ID, for example, and are not specified by the device itself.

【0033】図5は、図1に示したサーバ11により提
供される仮想現実空間を模式的に表している。同図に示
すように、この仮想現実空間は、町を構成しており、キ
ャラクタC(例えばユーザ端末13−1のキャラクタ)
や、キャラクタD(例えばユーザ端末13−2のキャラ
クタ)が、この町(仮想現実空間)を移動することがで
きるようになされている。
FIG. 5 schematically shows the virtual reality space provided by the server 11 shown in FIG. As shown in the figure, this virtual reality space constitutes a town, and the character C (for example, the character of the user terminal 13-1)
Alternatively, the character D (for example, the character of the user terminal 13-2) can move in this town (virtual reality space).

【0034】キャラクタCは、仮想現実空間における位
置と視点から、例えば図6に示すような画像を見ること
になる。即ち、ユーザ端末13−1の表示装置25に
は、図6に示すような画像がサーバ11から提供され、
表示される。そして、そのキャラクタCの視点と位置
を、視点入力装置49cと移動入力装置49dを操作す
ることで変更すると、それに対応して、サーバ11から
供給される仮想現実空間を形成する3次元画像が変化さ
れる。
The character C will see an image as shown in FIG. 6, for example, from the position and viewpoint in the virtual reality space. That is, the image as shown in FIG. 6 is provided from the server 11 to the display device 25 of the user terminal 13-1,
Is displayed. When the viewpoint and the position of the character C are changed by operating the viewpoint input device 49c and the movement input device 49d, the three-dimensional image forming the virtual reality space supplied from the server 11 changes correspondingly. To be done.

【0035】同様に、キャラクタDが対応するユーザ端
末13−2の表示装置には、図7に示すような画像がサ
ーバ11から提供され、表示される。そして、その表示
画像も、キャラクタDの視点と位置を移動させることで
変化される。
Similarly, an image as shown in FIG. 7 is provided from the server 11 and displayed on the display device of the user terminal 13-2 corresponding to the character D. Then, the display image is also changed by moving the viewpoint and the position of the character D.

【0036】図5に示す状態において、キャラクタCは
キャラクタDの方向を見ている。従って、図6に示すよ
うに、ユーザ端末13−1の表示装置25に表示される
画像(仮想現実空間)には、キャラクタDが表示されて
いる。
In the state shown in FIG. 5, character C is looking toward character D. Therefore, as shown in FIG. 6, the character D is displayed in the image (virtual reality space) displayed on the display device 25 of the user terminal 13-1.

【0037】同様に、図5において、キャラクタDはキ
ャラクタCの方向を見ている。このため、ユーザ端末1
3−2の表示装置25に表示される画像(仮想現実空
間)には、キャラクタCが表示される。
Similarly, in FIG. 5, character D is looking toward character C. Therefore, the user terminal 1
The character C is displayed in the image (virtual reality space) displayed on the display device 25 of 3-2.

【0038】サービス提供者端末14は、サーバ11−
1または11−2が提供する仮想現実空間の一部の空間
を支配する。換言すれば、サービス提供者は、サーバ1
1の管理者から、その提供する仮想現実空間の一部を購
入する。この購入は、現実空間において行われる。即
ち、サーバ11の管理者は、所定のサービス提供者より
仮想現実空間の購入の申込を受けたとき、仮想現実空間
の一部を、そのサービス提供者に割り当てる。
The service provider terminal 14 is the server 11-
Controls a part of the virtual reality space provided by 1 or 11-2. In other words, the service provider is the server 1
Purchase a part of the virtual reality space provided by one administrator. This purchase is made in the physical space. That is, when the administrator of the server 11 receives an application for purchase of the virtual reality space from a predetermined service provider, the administrator of the server 11 allocates a part of the virtual reality space to the service provider.

【0039】例えば、サービス提供者端末14−1の所
有者(サービス提供者)が、仮想現実空間内の所定のビ
ルの1室を借り受け、そこに電器店を設けるものとす
る。サービス提供者は、その電器店に展示する商品、例
えばテレビの資料をサーバ管理者に提供する。サーバ管
理者は、この資料を基に、コンピュータグラフィックス
により、そのテレビの立体画像を生成する。そして、そ
の立体画像を、その電器店の所定の位置に配置する。こ
れにより、仮想現実空間内におけるその空間の画像が完
成することになる。
For example, it is assumed that the owner of the service provider terminal 14-1 (service provider) rents one room of a predetermined building in the virtual reality space and installs an electric appliance store there. The service provider provides the server administrator with products, such as television materials, to be displayed at the electronic store. Based on this material, the server administrator creates a stereoscopic image of the television by computer graphics. Then, the stereoscopic image is arranged at a predetermined position of the electronic store. This completes the image of that space in the virtual reality space.

【0040】同様のことが多くのサービス提供者により
行われ、仮想現実空間が1つの大きな町として形成され
る。
The same is done by many service providers, and the virtual reality space is formed as one large town.

【0041】図8は、サービス提供者端末14−1を有
するサービス提供者が占有する仮想現実空間(ビルの1
室)を平面的に表している。この実施例においては、ビ
ルの1室が、このサービス提供者のために割り当てられ
ており、その空間(ビル内)には、2台のテレビ72,
73が配置されているとともに、テレビ73の右斜め前
方には、カウンタ71が配置されている。そしてサービ
ス提供者端末14−1のサービス提供者は、自分のキャ
ラクタFをカウンタ71の後方に配置するようにする。
勿論、キャラクタFは、サービス提供者端末14−1の
移動入力装置59dを操作することで、所定の位置に移
動させることが可能である。
FIG. 8 shows a virtual reality space (1 in a building) occupied by a service provider having the service provider terminal 14-1.
Room) is shown in a plane. In this embodiment, one room in the building is allocated for this service provider, and in that space (in the building) two televisions 72,
73 is arranged, and a counter 71 is arranged diagonally to the right front of the television 73. Then, the service provider of the service provider terminal 14-1 arranges his / her character F behind the counter 71.
Of course, the character F can be moved to a predetermined position by operating the movement input device 59d of the service provider terminal 14-1.

【0042】いま、この電器店に、ユーザ端末13−1
のキャラクタCが、図8に示すように入ってきたものと
する。このとき、ユーザ端末13−1の表示装置45に
は、キャラクタCの位置と視点に対応して、例えば図9
に示すような画像が表示される。これに対して、キャラ
クタFがカウンタ71の後方に位置している場合におい
ては、サービス提供者端末14−1の表示装置55に
は、図10に示すような画像が表示される。図9と図1
0に示すように、キャラクタCから見た画像にはキャラ
クタFが、また、キャラクタFから見た画像にはキャラ
クタCが、それぞれ表示される。
Now, at this electronics store, the user terminal 13-1
It is assumed that the character C has entered as shown in FIG. At this time, on the display device 45 of the user terminal 13-1, in accordance with the position and the viewpoint of the character C, for example, FIG.
The image as shown in is displayed. On the other hand, when the character F is located behind the counter 71, the image as shown in FIG. 10 is displayed on the display device 55 of the service provider terminal 14-1. 9 and 1
As shown in 0, the character F is displayed in the image viewed from the character C, and the character C is displayed in the image viewed from the character F.

【0043】また、図9に示すように、キャラクタCか
ら見た画像には、ユーザ端末13−1から所定の画像を
指定するとき使用されるカーソル74が表示される。同
様に、図10に示すように、サービス提供者端末14−
1から所定の画像を指定するとき利用するために、カー
ソル75が表示される。
Further, as shown in FIG. 9, in the image viewed from the character C, a cursor 74 used when designating a predetermined image from the user terminal 13-1 is displayed. Similarly, as shown in FIG. 10, the service provider terminal 14-
A cursor 75 is displayed for use when designating a predetermined image from 1.

【0044】ユーザ端末13−1の移動入力装置49d
を操作して、キャラクタCをテレビ72あるいはテレビ
73の回りに移動させることで、その位置と視点に対応
する画像が表示装置45に表示される。これにより、ユ
ーザは、テレビ72や73を、実際のテレビを観察する
場合と同様に観察することができる。
Mobile input device 49d of the user terminal 13-1
Is operated to move the character C around the television 72 or the television 73, and an image corresponding to the position and the viewpoint is displayed on the display device 45. Thereby, the user can observe the televisions 72 and 73 in the same manner as when observing an actual television.

【0045】また、ユーザは、マウス49bを操作し
て、カーソル74を移動させ、キャラクタF上でクリッ
クすると、キャラクタFに対応するサービス提供者端末
14−1には、会話申込信号が伝送される。サービス提
供者端末14−1は、このとき、マイク56を介して、
キャラクタCに対応するユーザ端末13−1のスピーカ
47に対して音声信号を出力することができる。同様
に、ユーザ端末13−1のマイク46から所定の音声信
号を入力することで、サービス提供者端末14のスピー
カ57にユーザの音声信号を伝達することができる。こ
のようにして、両者は音声による通常の会話を行うこと
ができる。
When the user operates the mouse 49b to move the cursor 74 and clicks on the character F, the conversation application signal is transmitted to the service provider terminal 14-1 corresponding to the character F. . The service provider terminal 14-1 then, via the microphone 56,
An audio signal can be output to the speaker 47 of the user terminal 13-1 corresponding to the character C. Similarly, by inputting a predetermined voice signal from the microphone 46 of the user terminal 13-1, the voice signal of the user can be transmitted to the speaker 57 of the service provider terminal 14. In this way, both parties can have a normal voice conversation.

【0046】尚、この会話は、キャラクタF(サービス
提供者端末14−1)からキャラクタC(ユーザ端末1
3−1)に対して、申し込むようにすることもできる。
In this conversation, character F (service provider terminal 14-1) to character C (user terminal 1)
It is also possible to apply for 3-1).

【0047】また、ユーザ端末13−1において、カー
ソル74を移動させ、例えばテレビ72の画像上におい
てクリックすると、サーバ11から、テレビ72のより
詳細な説明情報(提供情報)の提供を受けることができ
る。このときの画像は、3次元画像であってもよいし、
平面的な2次元画像とすることもできる。
Further, when the cursor 74 is moved on the user terminal 13-1 and clicked on the image of the television 72, for example, more detailed explanation information (provided information) of the television 72 can be received from the server 11. it can. The image at this time may be a three-dimensional image,
It can also be a two-dimensional image in a plane.

【0048】この所定の画像を指定する操作は、サービ
ス提供者端末14−1側からも行うことができる。これ
により、サービス提供者側からユーザに対して、所定の
テレビの説明情報を積極的に提供することができる。
The operation of designating this predetermined image can also be performed from the service provider terminal 14-1 side. This allows the service provider side to positively provide the user with the predetermined television description information.

【0049】また、サービス提供者がマウス59bを操
作して、カーソル75でキャラクタCを指定すると、こ
のキャラクタCの位置と視点に対応する画像、即ち、ユ
ーザ端末13−1の表示装置45に表示されている画像
と同一の画像を、サービス提供者端末14−1の表示装
置55に表示させることができる。これにより、サービ
ス提供者は、ユーザ(キャラクタC)が、いまどこを見
ているのかを知ることができ、ユーザの知りたいポイン
トに関する情報を、的確にユーザに対して提供すること
が可能となる。
When the service provider operates the mouse 59b to specify the character C with the cursor 75, an image corresponding to the position and viewpoint of the character C, that is, displayed on the display device 45 of the user terminal 13-1. The same image as the displayed image can be displayed on the display device 55 of the service provider terminal 14-1. As a result, the service provider can know where the user (character C) is looking now, and can appropriately provide the user with information regarding the point that the user wants to know.

【0050】ユーザは、説明を受け、あるいは提供情報
(説明情報)の提供を受け、気に入った場合において
は、例えばテレビ72を実際に購入することができる。
この場合、ユーザは、キャラクタFを介して、サービス
提供者端末14−1に対して購入の申込をする。また、
ユーザは、例えばクレジットカードの番号等を、キャラ
クタCを介してサービス提供者端末14−1(キャラク
タF)に伝達する。そして、商品の金額に対応する額を
引き落とすように依頼する。サービス提供者端末14−
1のサービス提供者は、そのクレジットカードの番号か
ら、所定の金額を引き落とすための処理を行うととも
に、購入の申込を受けた商品の発送の手配を行う。
The user can actually purchase the television 72, for example, when he / she receives the explanation or is provided with the provision information (description information) and likes it.
In this case, the user makes a purchase application to the service provider terminal 14-1 via the character F. Also,
The user transmits, for example, a credit card number or the like to the service provider terminal 14-1 (character F) via the character C. Then, a request is made to withdraw the amount corresponding to the amount of the product. Service provider terminal 14-
The service provider of No. 1 performs processing for withdrawing a predetermined amount of money from the credit card number and arranges shipment of the product for which an application for purchase has been received.

【0051】この仮想現実空間において提供される画像
は、基本的に、コンピュータグラフィックスにより生成
された精度の高い画像である。従って、これをあらゆる
角度から見ることで、殆ど実際の商品を希望する角度か
ら観察した場合と同様の観察を行うことが可能となり、
より確実に商品を確認することができる。
The image provided in this virtual reality space is basically a highly accurate image generated by computer graphics. Therefore, by viewing this from all angles, it is possible to perform the same observation as when observing almost the actual product from the desired angle.
The product can be confirmed more reliably.

【0052】この仮想現実空間には、このようにして、
多数の店や映画館、劇場などが存在する。そして、各店
において、実際に商品を販売することが可能であるた
め、立地条件の良い空間(多くのユーザのキャラクタが
入ってくる空間)は、実際に経済的価値が発生する。そ
こで、この仮想現実空間を実際に(現実に)売買した
り、賃貸することができる。従って、このシステムは、
所謂テレビショッピングなどとは全く異なるものとな
る。
In this virtual reality space,
There are many shops, movie theaters, and theaters. Then, since it is possible to actually sell the product in each store, a space with good location conditions (a space where many user characters enter) actually has an economic value. Therefore, this virtual reality space can be sold (actually) or rented. Therefore, this system
It is completely different from so-called TV shopping.

【0053】次に、図11乃至図22を参照して、上記
したユーザ端末13、サーバ11、サービス提供者端末
14のより具体的な処理動作について説明する。
Next, with reference to FIGS. 11 to 22, more specific processing operations of the user terminal 13, the server 11 and the service provider terminal 14 will be described.

【0054】図11は、ユーザ端末13の処理例を表し
ている。最初にステップS1において、キャラクタモー
ドであるか否かが判定される。このキャラクタモード
は、上述したキャラクタの位置と視点に対応する画像の
提供を受けるモードであり、ユーザ端末13の入力装置
49の例えばキーボード49aの所定のキーを操作する
ことで、キャラクタモード、あるいは非キャラクタモー
ドを設定することができる。
FIG. 11 shows a processing example of the user terminal 13. First, in step S1, it is determined whether or not the character mode is set. This character mode is a mode in which an image corresponding to the position and viewpoint of the character described above is provided, and by operating a predetermined key of the keyboard 49a of the input device 49 of the user terminal 13, for example, the character mode or non-operation. The character mode can be set.

【0055】キャラクタモードが設定されている場合、
ステップS2に進み、ユーザ端末13の対応するキャラ
クタの位置あるいは視点が変更されたか否かが判定され
る。視点入力装置49cまたは移動入力装置49dを操
作することで、キャラクタの位置あるいは視点の変更が
指令されると、インタフェース48を介してこの指令の
入力を受けたCPU41は、ステップS3に進み、位置
データと視点データをサーバ11に出力する処理を実行
する。即ち、CPU41は、インタフェース48を介し
て、視点入力装置49cと移動入力装置49dからのデ
ータの入力を受け、通信装置44を制御し、このデータ
をサーバ11に出力させる。
When the character mode is set,
In step S2, it is determined whether the position or viewpoint of the corresponding character of the user terminal 13 has been changed. When a command to change the position or viewpoint of the character is issued by operating the viewpoint input device 49c or the movement input device 49d, the CPU 41, which has received this command via the interface 48, proceeds to step S3 and moves to position data. And a process of outputting the viewpoint data to the server 11 are executed. That is, the CPU 41 receives data input from the viewpoint input device 49c and the movement input device 49d via the interface 48, controls the communication device 44, and causes the server 11 to output this data.

【0056】サーバ11においては、後述する図12の
ステップS12において、このデータを取得し、ステッ
プS13において、このデータに対応する画像データを
ユーザ端末13に出力する。
The server 11 acquires this data in step S12 of FIG. 12 described later, and outputs the image data corresponding to this data to the user terminal 13 in step S13.

【0057】ユーザ端末13は、ステップS4におい
て、サーバ11から供給を受けた画像データを受信し、
表示する処理を実行する。即ち、通信装置44を介し
て、サーバ11より、キャラクタの位置と視点に対応す
る画像データの供給を受けたとき、CPU41は、イン
タフェース48を介して表示装置45にその画像データ
を出力し、表示させる。これにより、表示装置45に
は、視点入力装置49cと移動入力装置49dを操作す
ることで入力した視点と位置に対応する画像(仮想現実
空間)が表示される。
The user terminal 13 receives the image data supplied from the server 11 in step S4,
Execute the processing to be displayed. That is, when the image data corresponding to the position and viewpoint of the character is supplied from the server 11 via the communication device 44, the CPU 41 outputs the image data to the display device 45 via the interface 48 and displays the image data. Let Accordingly, the display device 45 displays an image (virtual reality space) corresponding to the viewpoint and the position input by operating the viewpoint input device 49c and the movement input device 49d.

【0058】次にステップS5に進み、キーボード49
aの所定のキーを操作するなどして終了が指令されたか
否かが判定され、終了が指令されない限り、ステップS
1に戻り、それ以降の処理を繰り返し実行する。
Next, in step S5, the keyboard 49
It is determined whether or not the end is instructed by operating a predetermined key of a, and unless the end is instructed, step S
The process returns to 1 and the subsequent processes are repeatedly executed.

【0059】一方、ステップS1において、キャラクタ
モードが設定されていないと(非キャラクタモードが設
定されていると)判定された場合においては、ステップ
S6に進み、CPU41は、通信装置44を介して受信
した、キャラクタの位置や視点に無関係な所定の画像
を、表示装置45に出力し、表示させる。
On the other hand, when it is determined in step S1 that the character mode is not set (the non-character mode is set), the process proceeds to step S6, and the CPU 41 receives it via the communication device 44. Then, the predetermined image irrelevant to the position and viewpoint of the character is output to the display device 45 and displayed.

【0060】図12は、図11に示したユーザ端末13
の処理に対応するサーバ11の処理例を表している。最
初にステップS11において、キャラクタモードである
か否かを判定し、キャラクタモードである場合において
は、ステップS12に進み、ユーザの位置データ、視点
データの取得処理を行う。即ち、上述したように、図1
1のステップS3における処理に従って、ユーザ端末1
3からユーザのキャラクタの位置と視点に対応するデー
タが伝送されてきたとき、サーバ11は、通信装置24
を介してこのデータを取得する。このデータは、必要に
応じてRAM23に供給され記憶される。
FIG. 12 shows the user terminal 13 shown in FIG.
The processing example of the server 11 corresponding to the processing of FIG. First, in step S11, it is determined whether or not the character mode is set. If the character mode is set, the process proceeds to step S12, and the position data and viewpoint data of the user are acquired. That is, as described above, FIG.
1 according to the processing in step S3 of the user terminal 1
When data corresponding to the position and viewpoint of the user's character is transmitted from the server 3, the server 11 causes the communication device 24
Get this data via. This data is supplied to and stored in the RAM 23 as needed.

【0061】次に、ステップS13に進み、CPU21
は、RAM23に記憶されたユーザのキャラクタの位置
と視点に対応する画像データを記憶装置12から読み出
し、必要に応じて補正のための演算を行い、その位置と
視点に対応する画像データを生成する。そして、この画
像データを、通信装置24を制御し、広帯域通信網15
を介してユーザ端末13に伝送させる。
Next, in step S13, the CPU 21
Reads the image data corresponding to the position and viewpoint of the user's character stored in the RAM 23 from the storage device 12, performs a correction operation as necessary, and generates image data corresponding to the position and viewpoint. . Then, the image data is controlled by the communication device 24 and the broadband communication network 15
To the user terminal 13 via.

【0062】次にステップS14に進み、ユーザ端末1
3より終了の指令が入力されたか否かが判定され、終了
が指令されていない場合においては、ステップS11に
戻り、それ以降の処理を繰り返し実行する。即ち、終了
が指令されるまで、ユーザ端末13に対して、そのキャ
ラクタの位置と視点に対応する画像データを提供し続け
ることになる。
Next, in step S14, the user terminal 1
It is determined from 3 that the end command is input. If the end command has not been input, the process returns to step S11 and the subsequent processes are repeated. That is, the image data corresponding to the position and the viewpoint of the character is continuously provided to the user terminal 13 until the end command is given.

【0063】一方、ステップS11において、キャラク
タモードではないと判定された場合においては、ステッ
プS15に進み、ユーザのキャラクタの位置や視点に無
関係な所定の画像を生成し、ユーザに出力する。そし
て、ステップS14に進み、終了が指令されていなけれ
ば、ステップS11に戻り、それ以降の処理が繰り返し
実行される。
On the other hand, in step S11, when it is determined that the character mode is not set, the process proceeds to step S15, and a predetermined image irrelevant to the position and viewpoint of the user's character is generated and output to the user. Then, the process proceeds to step S14, and if the termination is not instructed, the process returns to step S11 and the subsequent processes are repeatedly executed.

【0064】図13のフローチャートは、サービス提供
者端末14の処理例を表している。最初にステップS2
1において、キャラクタモードであるか否かが判定さ
れ、キャラクタモードであると判定された場合において
は、ステップS22に進み、サービス提供者端末14の
キャラクタの位置と視点に変更があったか否かが判定さ
れる。即ち、視点入力装置59cまたは移動入力装置5
9dが操作されたか否かが判定される。操作された場合
においては、ステップS23に進み、その操作に対応す
る位置と視点のデータをサーバ11に出力する処理が実
行される。
The flowchart of FIG. 13 shows a processing example of the service provider terminal 14. First step S2
In 1, it is determined whether or not it is the character mode, and when it is determined that it is the character mode, it proceeds to step S22 and it is determined whether or not the position and viewpoint of the character of the service provider terminal 14 have been changed. To be done. That is, the viewpoint input device 59c or the movement input device 5
It is determined whether 9d has been operated. When operated, the process proceeds to step S23, and a process of outputting position and viewpoint data corresponding to the operation to the server 11 is executed.

【0065】即ち、CPU51は、インタフェース58
を介して、視点入力装置59cと移動入力装置59dの
データの入力を受けたとき、通信装置54を制御し、広
帯域通信網15を介してサーバ11にこのデータを出力
する。
That is, the CPU 51 uses the interface 58.
When the data input from the viewpoint input device 59c and the mobile input device 59d is received via the, the communication device 54 is controlled and the data is output to the server 11 via the broadband communication network 15.

【0066】サーバ11においては、このデータの入力
を受けたとき、後述する図14のステップS53におい
て、このデータを取得し、ステップS54において、こ
のデータに対応する画像データを出力する。
When the server 11 receives the input of this data, it acquires this data in step S53 of FIG. 14 to be described later, and outputs the image data corresponding to this data in step S54.

【0067】サービス提供者端末14は、ステップS2
4において、このサーバ11が出力した画像データを受
信し、表示する処理を実行する。即ち、CPU51は、
サーバ11より、通信装置54を介して、キャラクタの
位置と視点に対応する画像データの供給を受けたとき、
インタフェース58を介して表示装置55にこれを表示
させる。
The service provider terminal 14 proceeds to step S2.
In step 4, the image data output by the server 11 is received and displayed. That is, the CPU 51
When the image data corresponding to the position and viewpoint of the character is supplied from the server 11 via the communication device 54,
This is displayed on the display device 55 via the interface 58.

【0068】ステップS22において、キャラクタの位
置と視点のいずれも変更がないと判定された場合におい
ては、ステップS23とステップS24の処理はスキッ
プされる。
When it is determined in step S22 that neither the position of the character nor the viewpoint is changed, the processes of steps S23 and S24 are skipped.

【0069】次にステップS25に進み、サービス提供
者端末14のキャラクタの位置と視点に対応する画像
を、ユーザ端末のキャラクタの位置と視点に対応する画
像に変更する(切り換える)か否かが判定される。即
ち、サービス提供者は、ユーザが実際に注目している画
像に対応する情報を的確に提供する必要がある。通常、
サービス提供者のキャラクタは、ユーザのキャラクタと
同一の画像を見ているわけではない。ユーザに商品を説
明するような場合においては、ユーザのキャラクタの位
置と視点に対応する画像を知ることができた方が、サー
ビス提供者はより的確に、ユーザに対して必要な情報を
提供することが可能となる。
Next, in step S25, it is determined whether or not the image corresponding to the position and viewpoint of the character of the service provider terminal 14 should be changed (switched) to the image corresponding to the position and viewpoint of the character of the user terminal. To be done. That is, the service provider needs to accurately provide information corresponding to the image that the user is actually paying attention to. Normal,
The character of the service provider does not see the same image as the character of the user. In the case of explaining a product to the user, the service provider can provide the necessary information to the user more accurately if the user can know the image corresponding to the position and the viewpoint of the user's character. It becomes possible.

【0070】そこで、サービス提供者端末14において
は、ユーザのキャラクタの位置と視点に対応する画像と
同一の画像の提供を受けることができるようになされて
いる。この場合は、サービス提供者端末14の例えばキ
ーボード59aを操作して、ユーザのキャラクタの位置
と視点に対応する画像の提供を受けるように、サーバ1
1に指令する。
Therefore, the service provider terminal 14 can receive the same image as the image corresponding to the position and viewpoint of the user's character. In this case, the server 1 is operated so as to operate the keyboard 59a of the service provider terminal 14 to receive the image corresponding to the position and viewpoint of the user's character.
Command 1

【0071】そして、この場合においては、ステップS
26に進み、どのユーザのキャラクタの位置と視点を基
準とする画像であるのかを指定する。即ち、2以上のユ
ーザのキャラクタが存在することが有り得るので、その
うちのどのユーザのキャラクタの画像の提供を受けるの
かを指定するのである。
In this case, step S
In step 26, the position of the user's character and the viewpoint are designated as the reference image. That is, since it is possible that there are two or more user characters, it is specified which of the user character images is to be provided.

【0072】この指定は、例えばマウス59bを操作し
て、図10に示すカーソル75を所定のユーザのキャラ
クタ(図10の実施例においては、キャラクタC)上に
移動し、クリックすることで行われる。
This designation is made, for example, by operating the mouse 59b to move the cursor 75 shown in FIG. 10 to a predetermined user character (character C in the embodiment of FIG. 10) and click. .

【0073】次にステップS27に進み、そのユーザの
キャラクタが所定の空間内に存在するか否かが判定され
る。即ち、サービス提供者がそのサービスを提供する上
において割り当てられた空間は、仮想現実空間の一部の
空間である。その空間の外においては、サービス提供者
といえども、一ユーザに過ぎない。ユーザが仮想現実空
間のどこを見ているかは、各ユーザのいわばプライバシ
ーに属することであり、ユーザが注視している画像と全
く同一の画像を、むやみにサービス提供者に提供する必
要はない。そこで、サービス提供者が自分に割り当てら
れている空間の外にいるキャラクタを指定した場合にお
いては、ステップS28に進み、エラー処理を実行す
る。即ち、CPU51は、表示装置55に、例えば「指
定が無効です」のようなメッセージを表示させる。
Next, in step S27, it is determined whether or not the character of the user exists in a predetermined space. That is, the space allocated by the service provider to provide the service is a part of the virtual reality space. Outside the space, even the service provider is only one user. What the user sees in the virtual reality space belongs to the privacy of each user, so it is not necessary to unnecessarily provide the service provider with the same image as the image the user is gazing at. Therefore, when the service provider designates a character outside the space allocated to him / her, the process proceeds to step S28 and error processing is executed. That is, the CPU 51 causes the display device 55 to display a message such as “designation is invalid”.

【0074】一方、所定の空間内のユーザのキャラクタ
が指定された場合においては、ステップS29に進み、
CPU51は、そのユーザのキャラクタを特定する上に
おいて必要なデータ(例えば位置データなど)をサーバ
11に出力する。
On the other hand, when the user's character in the predetermined space is designated, the process proceeds to step S29,
The CPU 51 outputs to the server 11 data necessary for identifying the character of the user (for example, position data).

【0075】サーバ11は、このデータの入力を受け、
後述する図14のステップS56において、指定された
ユーザのキャラクタの位置と視点に対応するデータをサ
ービス提供者端末14に出力する。
The server 11 receives the input of this data,
In step S56 of FIG. 14, which will be described later, data corresponding to the position and viewpoint of the designated user character is output to the service provider terminal 14.

【0076】サービス提供者端末14においては、サー
バ11が出力したこの画像データをステップS30にお
いて受信し、これを表示装置55に出力し、表示させ
る。これにより、サービス提供者は、ユーザがいまどの
画像を見ているのかを明確に知ることができる。
In the service provider terminal 14, the image data output by the server 11 is received in step S30 and is output to the display device 55 for display. This allows the service provider to clearly know which image the user is looking at.

【0077】次にステップS31に進み、キーボード5
9aを操作するなどして終了の指令が入力されたか否か
が判定される。まだ終了の指令が入力されていないと判
定された場合、ステップS32に進み、キャラクタモー
ドであるか否かが判定され、キャラクタモードである場
合、ステップS33に進み、現在表示されている画像
を、他の視点の画像に変更する必要があるか否かが判定
される。
Next, in step S31, the keyboard 5
It is determined whether or not a termination command is input by operating 9a or the like. If it is determined that the end command has not been input yet, the process proceeds to step S32, and it is determined whether or not the character mode is set. If it is the character mode, the process proceeds to step S33, and the currently displayed image is displayed. It is determined whether it is necessary to change to an image of another viewpoint.

【0078】即ち、サービス提供者端末14の例えばキ
ーボード59aを操作するなどして、異なる視点からの
画像に変更する指令が入力された場合においては、ステ
ップS35に進み、ユーザのキャラクタの位置と視点に
対応する画像に変更するのであるか否かが判定される。
ユーザのキャラクタの位置と視点に対応する画像に変更
する場合においては、ステップS26に進み、ユーザの
指定処理が行われ、以下、それ以降の処理が実行され
る。
That is, when a command to change the image from a different viewpoint is input by operating, for example, the keyboard 59a of the service provider terminal 14, the process proceeds to step S35 and the position and viewpoint of the user's character. It is determined whether or not to change to an image corresponding to.
When changing to an image corresponding to the position and viewpoint of the user's character, the process proceeds to step S26, the user's designation process is performed, and the subsequent processes are performed.

【0079】これに対して、サービス提供者のキャラク
タの位置と視点に対応する画像に変更する場合において
は、ステップS22に戻り、そのキャラクタの位置と視
点が変更されたか否かの判定処理に進み、以下、それ以
降の処理を実行する。
On the other hand, in the case of changing to an image corresponding to the position and viewpoint of the character of the service provider, the process returns to step S22, and proceeds to the determination process of whether the position and viewpoint of the character have been changed. , And the subsequent processing is executed.

【0080】一方、現在の画像の視点を変更する必要が
ない場合においては、ステップS33からステップS3
4に進み、現在の表示画像がサービス提供者のキャラク
タの位置と視点に対応する画像であるか否かが判定され
る。サービス提供者のキャラクタの位置と視点に対応す
る画像が現在表示されている場合においては、ステップ
S22に戻り、それ以降の処理が実行される。現在表示
されている画像が、ユーザのキャラクタの位置と視点に
対応する画像である場合においては、ステップS30に
進み、それ以降の処理が繰り返し実行される。
On the other hand, when it is not necessary to change the viewpoint of the current image, steps S33 to S3 are performed.
In step 4, it is determined whether the current display image is an image corresponding to the position and viewpoint of the character of the service provider. When the image corresponding to the position and viewpoint of the character of the service provider is currently displayed, the process returns to step S22 and the subsequent processes are executed. When the currently displayed image is an image corresponding to the position and viewpoint of the user's character, the process proceeds to step S30, and the subsequent processes are repeatedly executed.

【0081】一方、ステップS21において、キャラク
タモードではないと判定された場合、ステップS36に
進み、サービス提供者およびユーザのキャラクタの位置
と視点に無関係な所定の画像がサーバ11より供給さ
れ、その画像が表示装置55に出力、表示される。その
後、ステップS31に進み、それ以降の処理が繰り返し
実行される。
On the other hand, when it is determined in step S21 that the character mode is not set, the process proceeds to step S36, and a predetermined image irrelevant to the positions and viewpoints of the characters of the service provider and the user is supplied from the server 11, and the image is obtained. Is output and displayed on the display device 55. Then, the process proceeds to step S31, and the subsequent processes are repeatedly executed.

【0082】以上のようにして、サービス提供者は、サ
ービス提供者のキャラクタの位置と視点に対応する画
像、または、サービス提供者に割り当てられている仮想
現実空間内に位置するユーザのキャラクタの位置と視点
に対応する画像のいずれかの提供を受けることができ
る。
As described above, the service provider determines the position and the viewpoint of the character of the service provider or the position of the character of the user located in the virtual reality space assigned to the service provider. And you can receive any of the images corresponding to the viewpoint.

【0083】図14は、サービス提供者端末14に対し
て、図13に示す画像を提供する場合のサーバ11の処
理の例を表している。最初にステップS51において、
キャラクタモードであるか否かが判定され、キャラクタ
モードであると判定された場合においては、ステップS
52に進み、ユーザのキャラクタが指定されているか否
かが判定される。即ち、図13のステップS26におい
て、ユーザが指定されたか否かが判定される。ユーザが
指定されていないと判定された場合、即ち、サービス提
供者のキャラクタの位置と視点に対応する画像を提供す
る場合、ステップS53に進み、サービス提供者のキャ
ラクタの位置と視点に対応するデータを取得する。この
データは、図13のステップS23において、サービス
提供者端末14より出力されたものである。
FIG. 14 shows an example of processing of the server 11 when the image shown in FIG. 13 is provided to the service provider terminal 14. First, in step S51,
It is determined whether or not the character mode is set, and if it is determined that the character mode is set, step S
In step 52, it is determined whether the user's character is designated. That is, in step S26 of FIG. 13, it is determined whether the user is designated. If it is determined that the user is not designated, that is, if an image corresponding to the position and viewpoint of the character of the service provider is provided, the process proceeds to step S53, and data corresponding to the position and viewpoint of the character of the service provider. To get. This data is output from the service provider terminal 14 in step S23 of FIG.

【0084】次にステップS54に進み、ステップS5
3で取得したサービス提供者のキャラクタの位置と視点
に対応する画像データを記憶装置12から読み出し、適
宜必要な補正処理を加えた後、サービス提供者端末14
に出力させる。
Next, the process proceeds to step S54 and step S5.
The image data corresponding to the position and viewpoint of the character of the service provider acquired in step 3 is read out from the storage device 12, and the necessary correction processing is added thereto, and then the service provider terminal 14
Output.

【0085】即ち、サーバ11のCPU21は、通信装
置24を制御し、広帯域通信網15を介して、サービス
提供者端末14に、サービス提供者のキャラクタの位置
と視点に対応する画像データを出力する。サービス提供
者端末14のCPU51は、通信装置54を介してこの
データの供給を受けたとき、これを表示装置55に出力
し、表示させる。このようにして、表示装置55には、
視点入力装置59cと移動入力装置59dを操作するこ
とで、入力されたサービス提供者のキャラクタの位置と
視点に対応する画像が表示される。
That is, the CPU 21 of the server 11 controls the communication device 24 and outputs the image data corresponding to the position and viewpoint of the character of the service provider to the service provider terminal 14 via the broadband communication network 15. . When the CPU 51 of the service provider terminal 14 receives the supply of the data via the communication device 54, the CPU 51 outputs the data to the display device 55 to display it. In this way, the display device 55 has
By operating the viewpoint input device 59c and the movement input device 59d, an image corresponding to the input position and viewpoint of the character of the service provider is displayed.

【0086】次にステップS55に進み、処理の終了が
指令されているか否かが判定され、終了が指令されてい
ないと判定された場合においては、ステップS51に戻
り、それ以降の処理を実行する。
Next, in step S55, it is determined whether or not the end of the process is instructed. If it is determined that the end is not instructed, the process returns to step S51 and the subsequent processes are executed. .

【0087】ステップS52において、所定のユーザの
キャラクタが指定されていると判定された場合において
は、ステップS56に進み、指定されたキャラクタに対
応するユーザ端末13に提供している画像と同一の画像
をサービス提供者端末14に出力する。
When it is determined in step S52 that the character of the predetermined user is designated, the process proceeds to step S56, and the same image as the image provided to the user terminal 13 corresponding to the designated character. Is output to the service provider terminal 14.

【0088】さらにステップS51において、キャラク
タモードではないと判定された場合においては、ステッ
プS57に進み、サービス提供者とユーザのキャラクタ
の位置と視点に無関係な画像のデータを読み出し、出力
する。
If it is determined in step S51 that the character mode is not set, the flow advances to step S57 to read and output image data irrelevant to the positions and viewpoints of the characters of the service provider and the user.

【0089】ステップS56とステップS57の次に、
ステップS55に進み、それ以降の処理が繰り返し実行
される。
After steps S56 and S57,
The process proceeds to step S55, and the subsequent processes are repeatedly executed.

【0090】ユーザがサーバ11から仮想現実空間の画
像の提供を受けている状態において、所定の画像を注目
し、その画像に関するより詳細な情報を得たいとき、そ
の画像を指定することができる。図15は、その場合の
ユーザ端末13の処理を表している。最初にステップS
61において、画像指定処理が行われる。この指定は、
例えば図9に示す状態において、ユーザ端末13のマウ
ス49bを操作して、カーソル74を所定の画像上に移
動させ、クリックを行うことで行われる。
When the user receives an image of the virtual reality space from the server 11 and pays attention to a predetermined image and wants to obtain more detailed information about the image, the image can be designated. FIG. 15 shows the processing of the user terminal 13 in that case. First step S
At 61, an image designation process is performed. This designation is
For example, in the state shown in FIG. 9, it is performed by operating the mouse 49b of the user terminal 13 to move the cursor 74 onto a predetermined image and clicking.

【0091】次にステップS62に進み、指定された画
像を特定するために必要なデータをサーバ11に出力す
る処理が実行される。即ち、CPU41は、マウス49
bの操作位置に対応するデータを、通信装置44を介し
てサーバ11に出力させる。
Next, in step S62, a process of outputting data necessary for specifying the designated image to the server 11 is executed. That is, the CPU 41 uses the mouse 49
The data corresponding to the operation position of b is output to the server 11 via the communication device 44.

【0092】サーバ11は、このデータを、後述する図
18のステップS71において取得し、ステップS73
において、この指定画像に対応する提供情報を読み出
し、出力する。
The server 11 acquires this data in step S71 of FIG.
At, the provision information corresponding to this designated image is read and output.

【0093】ユーザ端末13は、ステップS63におい
て、サーバ11が出力したこの指定画像の提供情報を取
得し、これを表示装置45に出力し、表示させる。
In step S63, the user terminal 13 acquires the provision information of this designated image output by the server 11, outputs it to the display device 45, and displays it.

【0094】このようにして、例えば図9に示す状態に
おいて、カーソル74によりテレビ72を指定すること
で、テレビ72の性能、価格、その他の提供情報を得る
ことができる。
In this way, by specifying the television 72 with the cursor 74 in the state shown in FIG. 9, for example, the performance, price, and other provided information of the television 72 can be obtained.

【0095】あるいはまた、例えば図16に示すよう
に、仮想現実空間を構成する1つのビルディングの屋上
に、広告塔81が設けられているものとする。この広告
塔81には、所定の商品を広告するための絵が描かれて
いる。
Alternatively, for example, as shown in FIG. 16, it is assumed that the advertising tower 81 is provided on the roof of one building that constitutes the virtual reality space. A picture for advertising a predetermined product is drawn on the advertising tower 81.

【0096】ユーザは、この絵を見て、そこに描かれて
いる商品に関し、興味を持った場合、カーソル74でこ
の広告塔81をクリックする。すると、図17に示すよ
うに、この広告塔81に描かれている商品に関するより
詳細な情報が表示される。
When the user sees this picture and is interested in the product drawn therein, the user clicks the advertising tower 81 with the cursor 74. Then, as shown in FIG. 17, more detailed information regarding the products depicted in the advertising tower 81 is displayed.

【0097】ここで重要なことは、これらの提供情報
は、仮想現実空間における情報ではなく、現実空間にお
ける情報であるということであり、即ち、テレビ72
や、広告塔81に表示されている商品は、現実空間にお
いてサービス提供者により実際に販売されている商品で
あり、それに関する情報がユーザ端末13に提供され
る。
What is important here is that the provided information is not information in the virtual reality space but information in the real space, that is, the television 72.
Alternatively, the product displayed on the advertising tower 81 is a product that is actually sold by the service provider in the physical space, and information about the product is provided to the user terminal 13.

【0098】次にステップS64に進み、いま指定した
画像に関し、その画像に関するサービスを提供している
サービス提供者に対して、アクセスする必要があるか否
かを判定する。例えば図17に示すような情報を得て、
その商品を実際に、現実空間において購入したいと思う
場合においては、その情報の提供を受けた後、さらにそ
の情報を提供している情報提供者に対して直ちにアクセ
スを行うようにする。
Next, in step S64, it is determined whether or not it is necessary to access the service provider who is providing the service related to the specified image. For example, if you get the information shown in Figure 17,
When actually wanting to purchase the product in the physical space, after receiving the information, the information provider who is providing the information is immediately accessed.

【0099】この場合においては、ユーザ端末13の例
えばキーボード49aの所定のキーを操作するなどして
アクセスを指令する。このときCPU41は、ステップ
S65で通信装置44を介してアクセス情報を出力す
る。
In this case, the access is instructed by operating a predetermined key of the keyboard 49a of the user terminal 13, for example. At this time, the CPU 41 outputs the access information via the communication device 44 in step S65.

【0100】図18を参照して後述するように、このア
クセス情報の供給を受けたとき、サーバ11は、ステッ
プS75において、このアクセス情報を、ユーザが指定
した画像が表示されている空間の割り当てを受けている
サービス提供者端末14に対して出力する。そして、こ
のアクセス情報の供給を受けたサービス提供者端末14
は、このアクセスに対して応答するとき、図19のステ
ップS94において、アクセス確認信号を出力する。
As will be described later with reference to FIG. 18, when the access information is supplied, the server 11 allocates the access information to the space in which the image designated by the user is displayed in step S75. It is output to the service provider terminal 14 receiving the information. Then, the service provider terminal 14 that has been supplied with this access information
When responding to this access, outputs an access confirmation signal in step S94 of FIG.

【0101】そして、このアクセス確認信号が受信され
たとき、サーバ11は、図18のステップS78,S7
9において、ユーザ端末とサービス提供者端末とが相互
に通話を行うために必要な処理を実行する。これによ
り、両者の間で、音声信号による双方向の通話が可能な
状態となる。
When this access confirmation signal is received, the server 11 performs steps S78 and S7 of FIG.
At 9, the user terminal and the service provider terminal execute processing necessary for mutual communication. As a result, a two-way call using a voice signal is possible between them.

【0102】そこで、ユーザ端末13においては、図1
5のステップS65において、アクセス情報を出力した
後、ステップS66において、アクセス確認信号が受信
されたか否かを判定し、アクセス確認信号が受信された
場合、ステップS67に進み、指定した画像に対応する
情報を提供しているサービス提供者端末との間で、音声
信号による通話を行う。
Therefore, in the user terminal 13, as shown in FIG.
After outputting the access information in step S65 of step 5, it is determined in step S66 whether or not the access confirmation signal is received. If the access confirmation signal is received, the process proceeds to step S67 and corresponds to the designated image. A call is made by a voice signal with a service provider terminal that provides information.

【0103】即ち、ユーザ端末13は、マイク46を介
して、音声信号によりサービス提供者に対して、例えば
商品を購入するための申込を行う。この申込は、通信装
置44を介してサービス提供者端末14に伝送される。
サービス提供者端末14は、この音声信号を通信装置5
4を介して受信し、スピーカ57より出力する。
That is, the user terminal 13 makes an application for purchasing a product, for example, to the service provider by a voice signal via the microphone 46. This application is transmitted to the service provider terminal 14 via the communication device 44.
The service provider terminal 14 sends this voice signal to the communication device 5
4 is received and is output from the speaker 57.

【0104】また、サービス提供者端末14において
は、マイク56から、必要な応答を音声信号により入力
する。この音声信号は、通信装置54を介してユーザ端
末13に伝送され、ユーザ端末13のスピーカ47から
出力される。
Further, in the service provider terminal 14, a necessary response is input by a voice signal from the microphone 56. This audio signal is transmitted to the user terminal 13 via the communication device 54 and output from the speaker 47 of the user terminal 13.

【0105】このようにして、音声により商品の購入を
申し込むことができる。サービス提供者は、例えばユー
ザのクレジットカードの番号を聞くなどして、その商品
の代金の支払の請求処理を行うとともに、商品の配送処
理を行う。このような経済行為は、仮想現実空間を介し
て行われるのであるが、現実空間における経済行為であ
る。
In this way, the purchase of the product can be offered by voice. The service provider, for example, hears the user's credit card number and performs the billing process for the payment of the product and the product delivery process. Such an economic action is performed through the virtual reality space, but is an economic action in the physical space.

【0106】このような通話処理は、ステップS68に
おいて、ユーザ端末13またはサービス提供者端末14
から通話の終了が指令されたと判定されるまで繰り返し
実行される。
Such a call process is performed in step S68 in the user terminal 13 or the service provider terminal 14.
Is repeatedly executed until it is determined that an instruction to end the call has been given.

【0107】ステップS64において、指定した画像に
関連してアクセスを行う必要がないと判定された場合、
並びに、ステップS66において、アクセス確認信号が
受信されなかったと判定された場合、サービス提供者端
末との通話は行われないため、ステップS67の処理は
スキップされる。
If it is determined in step S64 that it is not necessary to access the designated image,
In addition, when it is determined in step S66 that the access confirmation signal has not been received, the call with the service provider terminal is not performed, and thus the process of step S67 is skipped.

【0108】次にステップS69に進み、処理の終了が
指令されているか否かが判定され、終了が指令されてい
ないと判定された場合においては、ステップS61に戻
り、それ以降の処理を実行する。
Next, in step S69, it is determined whether or not the end of the process is instructed. If it is determined that the end is not instructed, the process returns to step S61 to execute the subsequent processes. .

【0109】図18は、ユーザ端末13により画像の指
定処理が指令された場合におけるサーバ11の処理例を
表している。最初にステップS71において、サーバ1
1は、ユーザ端末13が図15のステップS62におい
て出力した指定画像を特定するためのデータを取得す
る。このデータは、必要に応じて、サーバ11のRAM
23に記憶される。次にステップS72に進み、CPU
21は、いま取得されたデータにより特定される指定画
像は、情報提供対象画像として予め登録されているもの
であるか否かを判定する。
FIG. 18 shows a processing example of the server 11 when the user terminal 13 gives an instruction to specify an image. First, in step S71, the server 1
1 acquires data for specifying the designated image output by the user terminal 13 in step S62 of FIG. This data is stored in the RAM of the server 11 as needed.
23. Next, in step S72, the CPU
Reference numeral 21 determines whether or not the designated image specified by the acquired data is one registered in advance as an information provision target image.

【0110】例えば図9に示す空間は、電器製品を販売
するための空間であり、カウンタ71は、販売するため
の商品の画像ではない。従って、このカウンタ71に対
しては、特に提供する情報が存在しない。これに対し
て、テレビ72や73は、ここにおいて販売する商品で
あるから、これらを、より詳細に説明する提供情報が存
在する。ステップS72においては、これらいずれの種
類の画像が指定されたのであるかが判定される。
For example, the space shown in FIG. 9 is a space for selling electric appliances, and the counter 71 is not an image of a product for sale. Therefore, no particular information is provided for this counter 71. On the other hand, since the televisions 72 and 73 are products sold here, there is provided information that explains them in more detail. In step S72, it is determined which of these types of images has been designated.

【0111】提供情報が存在する画像が指定された場合
においては、ステップS73に進み、指定された画像に
対応する提供情報が、記憶装置12から読み出され、ユ
ーザ端末13に出力される。例えば図9に示す状態にお
いて、テレビ72または73が指定された場合において
は、それに対応する提供情報が読み出され、これがユー
ザ端末13に出力される。また、図16に示す状態にお
いて、広告塔81が指定された場合においては、それに
対応する提供情報(図17に示すような情報)が読み出
され、ユーザ端末13に出力される。
When the image in which the provision information exists is designated, the process proceeds to step S73, the provision information corresponding to the designated image is read from the storage device 12 and output to the user terminal 13. For example, in the state shown in FIG. 9, when the television 72 or 73 is designated, the provision information corresponding thereto is read out and output to the user terminal 13. Further, in the state shown in FIG. 16, when the advertising tower 81 is designated, the provision information (information as shown in FIG. 17) corresponding to it is read and output to the user terminal 13.

【0112】次にステップS74に進み、ユーザ端末1
3よりアクセス情報を受信したか否かが判定される。ア
クセス情報を受信した場合においては、ステップS75
に進み、受信したアクセス情報を指定画像に対応するサ
ービス提供者端末14に出力する。
Next, in step S74, the user terminal 1
From 3, it is determined whether or not the access information is received. When the access information is received, step S75
Then, the received access information is output to the service provider terminal 14 corresponding to the designated image.

【0113】サービス提供者端末14においては、図1
9を参照して後述するように、このアクセス情報に応答
するとき、ステップS94において、アクセス確認信号
を出力する。
In the service provider terminal 14, FIG.
As will be described later with reference to FIG. 9, when responding to this access information, an access confirmation signal is output in step S94.

【0114】そこで、サーバ11においては、図18の
ステップS76において、サービス提供者端末14が出
力したアクセス確認信号を受信したか否かを判定し、受
信した場合においては、ステップS77に進み、そのア
クセス確認信号を、画像を指定したユーザ端末13に出
力する。
Therefore, in the server 11, in step S76 of FIG. 18, it is determined whether or not the access confirmation signal output by the service provider terminal 14 is received, and if it is received, the process proceeds to step S77. The access confirmation signal is output to the user terminal 13 that has designated the image.

【0115】そしてステップS78において、画像を指
定したユーザ端末13と、指定された画像に対応するサ
ービス提供者端末14との間で、音声による通話が可能
となるようにするための処理を実行する。この処理は、
ステップS79において、ユーザ端末13またはサービ
ス提供者端末14により、通話終了の指令が入力された
と判定されるまで繰り返し実行される。
Then, in step S78, a process for enabling a voice call between the user terminal 13 for which an image is designated and the service provider terminal 14 corresponding to the designated image is executed. . This process
In step S79, the processing is repeatedly executed until it is determined that the call termination command is input by the user terminal 13 or the service provider terminal 14.

【0116】ステップS74において、アクセス情報信
号が受信されなかったと判定された場合、あるいは、ス
テップS76において、アクセス確認信号が受信されな
かったと判定された場合、両者による通話は行われない
ため、ステップS78の処理はスキップされる。
If it is determined in step S74 that the access information signal has not been received, or if it is determined in step S76 that the access confirmation signal has not been received, no call is made by both parties, so step S78. Processing is skipped.

【0117】次にステップS80に進み、サーバ11の
CPU21は、所定の画像を指定したユーザの情報と、
指定された画像に関する情報を、サービス提供者端末1
4に出力する。
Next, proceeding to step S80, the CPU 21 of the server 11 stores the information of the user who has designated a predetermined image,
Information about the specified image is provided to the service provider terminal 1
4 is output.

【0118】サービス提供者端末14においては、この
通知を受けたとき、後述する図19のステップS97に
おいて、その統計処理を実行する。そして、どのような
商品が人気があり、その商品に注目しているのはどのよ
うなユーザであるのかの情報を取得する。
Upon receiving this notification, the service provider terminal 14 executes the statistical processing in step S97 of FIG. 19 described later. Then, information about what kind of product is popular and what kind of user pays attention to the product is acquired.

【0119】一方、図18のステップS72において、
提供情報を有しない画像が指定されたと判定された場
合、例えば図9に示す状態において、カウンタ71が指
定された場合、ステップS81に進み、エラー処理が実
行される。即ち、サーバ11のCPU21は、通信装置
24を制御し、ユーザ端末13に対して、例えば、「提
供する情報はありません」のようなメッセージを出力さ
せる。
On the other hand, in step S72 of FIG.
When it is determined that the image having no provision information is designated, for example, when the counter 71 is designated in the state shown in FIG. 9, the process proceeds to step S81, and error processing is executed. That is, the CPU 21 of the server 11 controls the communication device 24 to cause the user terminal 13 to output a message such as “There is no information to provide”.

【0120】図19は、ユーザ端末13により画像の指
定処理が指令された場合におけるサービス提供者端末1
4の処理例を表している。最初にステップS91におい
て、画像(商品)を指定したユーザに関する情報と、指
定された画像(商品)に関する情報が受信される。サー
ビス提供者端末14のCPU51は、このデータをRA
M53に供給し、記憶させる。
FIG. 19 is a diagram showing the service provider terminal 1 when the user terminal 13 issues an instruction to specify an image.
4 illustrates a processing example of No. 4. First, in step S91, information regarding a user who has designated an image (product) and information regarding the designated image (product) are received. The CPU 51 of the service provider terminal 14 sends this data to the RA
Supply to M53 and store.

【0121】次にステップS92に進み、ユーザ端末1
3よりアクセス情報を受信したか否かを判定する。アク
セス情報を受信したとき、ステップS93に進み、この
アクセス情報に対して応答するか否かを判定する。この
アクセス情報に対して応答が可能である場合、ステップ
S94に進み、例えばキーボード59aの所定のキーを
操作するなどして、CPU51に対して応答を指令す
る。
Next, in step S92, the user terminal 1
From 3, it is determined whether or not the access information is received. When the access information is received, the process proceeds to step S93, and it is determined whether or not to respond to this access information. When the response to the access information is possible, the process proceeds to step S94, and the CPU 51 is instructed to respond by operating a predetermined key of the keyboard 59a, for example.

【0122】このとき、CPU51は、ステップS94
において、アクセス確認信号を、通信装置54を介して
ユーザ端末13に出力させる。上述したように、このア
クセス確認信号を受信したとき、サーバ11は、図18
のステップS78において、通話のための処理を実行す
る。このため、画像を指定したユーザ端末13との間
で、音声信号による通話が可能な状態となる。
At this time, the CPU 51 proceeds to step S94.
At, the access confirmation signal is output to the user terminal 13 via the communication device 54. As described above, when this access confirmation signal is received, the server 11
In step S78 of, a process for a call is executed. For this reason, a call by a voice signal can be made with the user terminal 13 for which an image is designated.

【0123】そこで、サービス提供者端末14において
は、ステップS95において、画像を指定したユーザ端
末13との間で通話を行う。この通話処理は、ステップ
S96において、通話の終了が、ユーザ端末13または
サービス提供者端末14において指令されたと判定され
るまで、繰り返し実行される。
Therefore, in step S95, the service provider terminal 14 makes a call with the user terminal 13 that has designated the image. This call processing is repeatedly executed until it is determined in step S96 that the end of the call is instructed by the user terminal 13 or the service provider terminal 14.

【0124】ステップS92において、アクセス情報が
受信されなかったと判定された場合、または、ステップ
S93において、忙しいなどの理由により、アクセス情
報に応答することができないと判定された場合、ステッ
プS94の処理はスキップされる。従って、ユーザ端末
13との間で、通話処理は行われないことになる。
If it is determined in step S92 that the access information has not been received, or if it is determined in step S93 that the access information cannot be responded to because it is busy, the process of step S94 is performed. Skipped. Therefore, the call processing is not performed with the user terminal 13.

【0125】次にステップS97に進み、ステップS9
1で取得した情報に関する統計処理を実行する。
Then, the process proceeds to step S97, and step S9
The statistical processing regarding the information acquired in 1 is executed.

【0126】これにより、例えば図9に示す状態におい
て、ユーザがテレビ72をカーソル74で指定すると、
サービス提供者端末14に、ユーザ端末13のユーザに
関する情報(職業、年齢、住所、電話番号、性別など)
と、指定されたのがテレビ72であることが連絡され
る。従って、サービス提供者端末14においては、ユー
ザがこのテレビ72に対して興味を持っていることを知
ることができる。
As a result, when the user specifies the television 72 with the cursor 74 in the state shown in FIG. 9, for example,
Information about the user of the user terminal 13 (occupation, age, address, telephone number, gender, etc.) is displayed on the service provider terminal 14.
Then, it is notified that the designated one is the television 72. Therefore, the service provider terminal 14 can know that the user is interested in the television 72.

【0127】また、このテレビ72が人気があれば、そ
れだけ多くのユーザがこのテレビ72を指定することに
なるため、各テレビがどの程度人気があるのかを知るこ
ともできる。
Further, if the television 72 is popular, many users will specify the television 72, so that it is possible to know how popular each television is.

【0128】画像の指定は、サービス提供者が行うこと
もできる。図20は、この場合のサービス提供者端末1
4の処理例を表している。最初にステップS101にお
いて、サービス提供者端末14のマウス59bを操作し
て、所定の画像を指定する。例えば図10に示す状態に
おいて、テレビ72や73を指定することができる。
The image can be designated by the service provider. FIG. 20 shows the service provider terminal 1 in this case.
4 illustrates a processing example of No. 4. First, in step S101, the mouse 59b of the service provider terminal 14 is operated to specify a predetermined image. For example, in the state shown in FIG. 10, the television 72 or 73 can be designated.

【0129】次にステップS102に進み、サービス提
供者が指定した画像を、ユーザにも提供する必要がある
か否かを判定する。同一の画像をユーザにも提供する必
要がある場合においては、ステップS103に進み、ユ
ーザの同意を得て、ユーザを指定する。例えば図10に
示す状態において、サービス提供者は、テレビ72に関
する提供情報を、キャラクタCに対応するユーザに提供
したい場合においては、カーソル75でテレビ72を指
定するとともに、キャラクタCを指定し、テレビ72に
関する情報をユーザ端末13−1に提供することについ
て同意を得る。
Next, in step S102, it is determined whether the image designated by the service provider needs to be provided to the user. When it is necessary to provide the same image to the user, the process proceeds to step S103, the user's consent is obtained, and the user is designated. For example, in the state shown in FIG. 10, when the service provider wants to provide the provision information regarding the television 72 to the user corresponding to the character C, the service provider specifies the television 72 with the cursor 75 and also the character C, Agree to provide information about 72 to user terminal 13-1.

【0130】次にステップS104に進み、CPU51
は、ステップS101において指定された画像と、ステ
ップS103で指定されたユーザを特定するデータをサ
ーバ11に出力する。
Next, in step S104, the CPU 51
Outputs the image specified in step S101 and the data specifying the user specified in step S103 to the server 11.

【0131】一方、ステップS102において、ユーザ
を指定する必要がないと判定された場合、即ち、指定さ
れた画像に関する提供情報を、サービス提供者自身が見
るだけでよい場合、ステップS106に進み、ステップ
S101で指定された画像を特定するデータをサーバ1
1に出力する。
On the other hand, if it is determined in step S102 that it is not necessary to specify the user, that is, if the service provider himself only needs to view the provided information regarding the specified image, the process proceeds to step S106. The data specifying the image designated in S101 is sent to the server 1
Output to 1.

【0132】ステップS104とステップS106で出
力されたデータは、後述する図21のステップS111
においてサーバ11に受信され、このデータに対応する
提供情報が、ステップS114またはステップS115
で、サーバ11からサービス提供者端末14、またはサ
ービス提供者端末14とユーザ端末13に、それぞれ出
力される。
The data output in step S104 and step S106 is the same as step S111 in FIG.
In step S114 or step S115, the provided information corresponding to this data is received by the server 11 at.
Then, it is output from the server 11 to the service provider terminal 14 or to the service provider terminal 14 and the user terminal 13, respectively.

【0133】サービス提供者端末14においては、この
ように、サーバ11から出力された指定画像に対応する
提供情報をステップS105で受信し、これを表示装置
55に出力し、表示させる。
The service provider terminal 14 receives the provision information corresponding to the designated image output from the server 11 in step S105 as described above, and outputs it to the display device 55 for display.

【0134】これにより、サービス提供者端末14にお
いて、必要に応じて、各指定画像に対応する提供情報を
確認したり、あるいはユーザに同一の提供情報を提供し
つつ、その指定画像に関する説明を行うことができる。
As a result, the service provider terminal 14 confirms the provision information corresponding to each designated image as necessary, or provides the same provision information to the user while explaining the designated image. be able to.

【0135】図21は、サービス提供者端末14によ
り、図20のフローチャートに従って、所定の画像が指
定された場合のサーバ11の処理例を表している。最初
にステップS111において、サービス提供者端末14
が、図20のステップS104またはステップS106
において出力したデータを取得する。上述したように、
このデータには、指定画像を特定するデータと、場合に
よって提供情報を提供するユーザを指定するデータが含
まれている。
FIG. 21 shows a processing example of the server 11 when a predetermined image is designated by the service provider terminal 14 according to the flowchart of FIG. First, in step S111, the service provider terminal 14
However, step S104 or step S106 in FIG.
Get the data output in. As mentioned above,
This data includes data that specifies the specified image and, in some cases, data that specifies the user who provides the additional information.

【0136】ステップS112においては、ステップS
111で取得した指定画像に対応する提供情報を記憶装
置12より読み出す。次にステップS113に進み、ス
テップS112で読み出した提供情報を、ユーザにも提
供する必要があるか否かを判定する。この判定は、ステ
ップS111で取得したデータに基づいて行われる。提
供情報をサービス提供者にのみ出力すればよい場合、ス
テップS114に進み、提供情報がサービス提供者端末
14にのみ出力される。これに対して、提供情報をユー
ザにも提供する必要がある場合においては、ステップS
115に進み、提供情報が、サービス提供者だけでな
く、ユーザにも出力される。前者が図20のステップS
106に対応する処理であり、後者が図20のステップ
S104に対応する処理である。
In step S112, step S
The provision information corresponding to the designated image acquired in 111 is read from the storage device 12. Next, in step S113, it is determined whether the provision information read in step S112 needs to be provided to the user. This determination is made based on the data acquired in step S111. If the provision information should be output only to the service provider, the process proceeds to step S114, and the provision information is output only to the service provider terminal 14. On the other hand, when it is necessary to provide the provision information to the user, step S
Proceeding to 115, the provision information is output not only to the service provider but also to the user. The former is step S in FIG.
The process corresponds to step 106, and the latter is the process corresponding to step S104 in FIG.

【0137】図22は、サービス提供者により画像が指
定された場合におけるユーザ端末13の処理例を表して
いる。最初にステップS121で、サーバ11より出力
された提供情報が受信され、表示装置45に表示され
る。この情報は、図21のステップS115でサーバ1
1より出力されたものである。この処理は、ステップS
122で、終了が指令されたと判定されるまで繰り返さ
れる。
FIG. 22 shows a processing example of the user terminal 13 when an image is designated by the service provider. First, in step S121, the provision information output from the server 11 is received and displayed on the display device 45. This information is sent to the server 1 in step S115 of FIG.
It was output from 1. This process is step S
At 122, the process is repeated until it is determined that the termination is instructed.

【0138】上記実施例においては、商品を販売する場
合を例としたが、各種のサービスを提供する場合に、本
発明は適用が可能である。例えば、仮想現実空間に映画
やゲームソフトの広告画像が表示されているとき、その
広告画像を指定すれば、その映画やゲームソフトの提供
を受けることができる。
In the above embodiment, the case of selling a product is taken as an example, but the present invention can be applied to the case of providing various services. For example, when an advertisement image of a movie or game software is displayed in the virtual reality space, if the advertisement image is designated, the movie or game software can be provided.

【0139】[0139]

【発明の効果】以上の如く本発明によれば、仮想現実空
間の一部をサービス提供者端末に割り当て、この空間の
画像がユーザ端末により指定されたとき、この指定され
た画像に対応する情報をユーザ端末に提供するようにし
たので、現実空間において実際に展示している商品に関
するより詳細な情報などを、随時、仮想現実空間を介し
てユーザ端末に提供することが可能となる。これによ
り、仮想現実空間を利用して、現実空間における経済活
動を行うことが可能となり、仮想現実空間に付加価値を
発生させることができる。
As described above, according to the present invention, when a part of the virtual reality space is assigned to the service provider terminal and the image of this space is designated by the user terminal, the information corresponding to the designated image. Since it is provided to the user terminal, it is possible to provide the user terminal with more detailed information regarding the product actually exhibited in the real space, via the virtual reality space at any time. As a result, it becomes possible to use the virtual reality space to carry out economic activities in the real space, and it is possible to generate added value in the virtual reality space.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明のサービス提供方法を応用したサイバー
スペースシステムの構成例を示すブロック図である。
FIG. 1 is a block diagram showing a configuration example of a cyber space system to which a service providing method of the present invention is applied.

【図2】図1のサーバ11の構成例を示すブロック図で
ある。
FIG. 2 is a block diagram showing a configuration example of a server 11 of FIG.

【図3】図1のユーザ端末13の構成例を示すブロック
図である。
FIG. 3 is a block diagram showing a configuration example of a user terminal 13 of FIG.

【図4】図1のサービス提供者端末14の構成例を示す
ブロック図である。
4 is a block diagram showing a configuration example of a service provider terminal 14 of FIG.

【図5】図1のサイバースペースシステムにより形成さ
れる仮想現実空間を説明する図である。
5 is a diagram illustrating a virtual reality space formed by the cyber space system of FIG.

【図6】図5のキャラクタCからの視野を説明する図で
ある。
FIG. 6 is a diagram illustrating a visual field from a character C in FIG.

【図7】図5のキャラクタDからの視野を説明する図で
ある。
FIG. 7 is a diagram illustrating a field of view from a character D in FIG.

【図8】図1の実施例におけるサイバースペースシステ
ムの一部の割当空間を説明する図である。
8 is a diagram illustrating a part of the allocated space of the cyber space system in the embodiment of FIG.

【図9】図8のキャラクタCからの視野を説明する図で
ある。
9 is a diagram illustrating a visual field from a character C in FIG.

【図10】図8のキャラクタFからの視野を説明する図
である。
FIG. 10 is a diagram illustrating a visual field from a character F in FIG.

【図11】図1のユーザ端末13がサーバ11より画像
の提供を受ける場合の処理を説明するフローチャートで
ある。
FIG. 11 is a flowchart illustrating processing when the user terminal 13 of FIG. 1 receives an image provided from the server 11.

【図12】図1のユーザ端末13の処理に対応するサー
バ11の処理を説明するフローチャートである。
FIG. 12 is a flowchart illustrating a process of the server 11 corresponding to the process of the user terminal 13 of FIG.

【図13】図1のサービス提供者端末14がサーバ11
より画像の提供を受ける場合の処理を説明するフローチ
ャートである。
FIG. 13 is a diagram illustrating the service provider terminal 14 of FIG.
9 is a flowchart illustrating a process when a more image is provided.

【図14】図13のサービス提供者端末14の処理に対
応するサーバ11の処理を説明するフローチャートであ
る。
14 is a flowchart illustrating a process of the server 11 corresponding to the process of the service provider terminal 14 of FIG.

【図15】図1のユーザ端末13が画像を指定する場合
の処理を説明するフローチャートである。
FIG. 15 is a flowchart illustrating processing when the user terminal 13 of FIG. 1 specifies an image.

【図16】図3のユーザ端末13の表示装置45の表示
例を示す図である。
16 is a diagram showing a display example of a display device 45 of the user terminal 13 of FIG.

【図17】図16の広告塔81を指定した場合の表示例
を示す図である。
17 is a diagram showing a display example when the advertising tower 81 in FIG. 16 is designated.

【図18】図15のユーザ端末の処理に対応するサーバ
11の処理を説明するフローチャートである。
FIG. 18 is a flowchart illustrating a process of the server 11 corresponding to the process of the user terminal of FIG.

【図19】図15のユーザ端末の処理に対応するサービ
ス提供者端末14の処理を説明するフローチャートであ
る。
19 is a flowchart illustrating a process of the service provider terminal 14 corresponding to the process of the user terminal of FIG.

【図20】図1のサービス提供者端末14による画像指
定処理を説明するフローチャートである。
20 is a flowchart illustrating an image designation process by the service provider terminal 14 of FIG.

【図21】図20のサービス提供者端末14の処理に対
応するサーバ11の処理を説明するフローチャートであ
る。
21 is a flowchart illustrating a process of the server 11 corresponding to the process of the service provider terminal 14 of FIG.

【図22】図20のサービス提供者端末14の処理に対
応するユーザ端末13の処理を説明するフローチャート
である。
22 is a flowchart illustrating a process of the user terminal 13 corresponding to the process of the service provider terminal 14 of FIG.

【図23】従来のサイバースペースシステムの構成例を
示すブロック図である。
FIG. 23 is a block diagram showing a configuration example of a conventional cyber space system.

【図24】図23のユーザ端末3−1の表示例を示す図
である。
FIG. 24 is a diagram showing a display example of the user terminal 3-1 of FIG. 23.

【図25】図23のユーザ端末3−2の表示例を示す図
である。
FIG. 25 is a diagram showing a display example of the user terminal 3-2 of FIG. 23.

【符号の説明】[Explanation of symbols]

1 サーバ 2 記憶装置 3,3−1,3−2,3−3 ユーザ端末 4 公衆電話回線 11,11−1,11−2 サーバ 12,12−1,12−2 記憶装置 13,13−1,13−2,13−3 ユーザ端末 14,14−1,14−2 サービス提供者端末 15 広帯域通信網 1 server 2 storage device 3,3-1,3-2,3-3 user terminal 4 public telephone line 11,11-1,11-2 server 12,12-1,12-2 storage device 13,13-1 , 13-2, 13-3 User terminal 14, 14-1, 14-2 Service provider terminal 15 Broadband communication network

Claims (6)

【特許請求の範囲】[Claims] 【請求項1】 サーバが提供する仮想現実空間の一部を
サービス提供者端末に割り当て、 ユーザ端末より前記仮想現実空間における位置が入力さ
れたとき、入力した位置に対応する前記仮想現実空間の
画像を前記サーバから前記ユーザ端末に提供し、 前記仮想現実空間の前記サービス提供者端末に割り当て
られた空間の画像が、前記ユーザ端末により指定された
とき、前記ユーザ端末より前記サーバに対して、指定さ
れた画像に対応するデータを出力し、前記サーバより前
記ユーザ端末に対して、指定された画像に対応する現実
空間における情報を提供することを特徴とするサービス
提供方法。
1. An image of the virtual reality space corresponding to the input position when a part of the virtual reality space provided by the server is assigned to a service provider terminal and a position in the virtual reality space is input from the user terminal. Is provided from the server to the user terminal, and when the image of the space allocated to the service provider terminal in the virtual reality space is designated by the user terminal, the user terminal designates it to the server. A service providing method, characterized in that data corresponding to the specified image is output, and information in the physical space corresponding to the specified image is provided from the server to the user terminal.
【請求項2】 前記仮想現実空間の前記サービス提供者
端末に割り当てられた空間の画像が、前記ユーザ端末に
より指定されたとき、さらに、前記ユーザ端末による画
像の指定に関連する情報を、その空間が割り当てられて
いる前記サービス提供者端末に対して供給することを特
徴とする請求項1に記載のサービス提供方法。
2. When an image of a space assigned to the service provider terminal in the virtual reality space is designated by the user terminal, information relating to designation of the image by the user terminal is further stored in the space. The service providing method according to claim 1, wherein the service providing terminal is assigned to the service provider terminal.
【請求項3】 前記ユーザ端末による画像の指定に関連
する情報は、前記ユーザ端末により指定された画像を特
定する情報と、画像を指定した前記ユーザ端末を利用す
るユーザの情報のうちの少なくとも一方であることを特
徴とする請求項1または2に記載のサービス提供方法。
3. The information related to designation of an image by the user terminal is at least one of information identifying an image designated by the user terminal and information of a user who uses the user terminal who designates an image. The service providing method according to claim 1 or 2, wherein
【請求項4】 前記ユーザ端末による画像の指定に関連
する情報は、画像を指定した前記ユーザ端末から、指定
された画像の空間が割り当てられている前記サービス提
供者端末へのアクセス情報であることを特徴とする請求
項1または2に記載のサービス提供方法。
4. The information related to the designation of an image by the user terminal is access information from the user terminal that designated the image to the service provider terminal to which the designated image space is allocated. The service providing method according to claim 1 or 2, wherein:
【請求項5】 前記ユーザ端末は、前記仮想現実空間に
おいて移動するキャラクタを有し、 前記ユーザ端末は、前記キャラクタの前記仮想現実空間
における位置と視点とを入力し、 前記サーバは、前記キャラクタの位置と視点に対応する
画像を前記ユーザ端末に提供することを特徴とする請求
項1乃至4のいずれかに記載のサービス提供方法。
5. The user terminal has a character that moves in the virtual reality space, the user terminal inputs a position and a viewpoint of the character in the virtual reality space, and the server uses the character of the character. The service providing method according to claim 1, wherein an image corresponding to a position and a viewpoint is provided to the user terminal.
【請求項6】 前記ユーザ端末に提供される画像には、
他のユーザ端末のキャラクタは表示されるが、自己のキ
ャラクタの画像は表示されないことを特徴とする請求項
5に記載のサービス提供方法。
6. The image provided to the user terminal includes:
The service providing method according to claim 5, wherein the character of the other user terminal is displayed, but the image of its own character is not displayed.
JP22451994A 1994-09-20 1994-09-20 Virtual reality space providing method and virtual reality space providing device Expired - Fee Related JP4190590B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP22451994A JP4190590B2 (en) 1994-09-20 1994-09-20 Virtual reality space providing method and virtual reality space providing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP22451994A JP4190590B2 (en) 1994-09-20 1994-09-20 Virtual reality space providing method and virtual reality space providing device

Publications (2)

Publication Number Publication Date
JPH0887489A true JPH0887489A (en) 1996-04-02
JP4190590B2 JP4190590B2 (en) 2008-12-03

Family

ID=16815074

Family Applications (1)

Application Number Title Priority Date Filing Date
JP22451994A Expired - Fee Related JP4190590B2 (en) 1994-09-20 1994-09-20 Virtual reality space providing method and virtual reality space providing device

Country Status (1)

Country Link
JP (1) JP4190590B2 (en)

Cited By (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09134371A (en) * 1995-09-07 1997-05-20 Fujitsu Ltd Information retrieval device and information retrieval system using the device
WO1997032257A1 (en) * 1996-02-28 1997-09-04 Aim Corporation Communication system capable of providing user with picture meeting characteristics of user and terminal equipment and information providing device used for the same
WO1997032258A1 (en) * 1996-02-28 1997-09-04 Aim Corporation Communication system for distributing such message as advertisement to user of terminal equipment
JPH1115995A (en) * 1997-06-24 1999-01-22 Amadeusu Net:Kk Residence total guiding system by virtual housing center using virtual real space
KR20000038485A (en) * 1998-12-07 2000-07-05 윤봉수 Virtual reality home shopping in internet
KR20000071965A (en) * 2000-05-16 2000-12-05 송대근 an advertisement system using a growing character on the internet and control method thereof
KR20010090906A (en) * 2000-04-08 2001-10-22 변기호 A business model to get revenue through the cyber environment complex
KR20010097196A (en) * 2000-04-20 2001-11-08 김재호 cyber world system for providing premarketing tool
KR20010099226A (en) * 2001-09-13 2001-11-09 이정훈 3D3 Radio/TV 3D Internet 3D BM BM /Business Model.omitted
KR20010105846A (en) * 2000-05-18 2001-11-29 장충엽 Service system by three-dimensional space using internet and service method thereof
KR20010113311A (en) * 2000-06-19 2001-12-28 임완근 Homepage system and its search technology and methodology for enterprise management residence area
KR20020003842A (en) * 2001-10-30 2002-01-15 최은미 On-line Service Providing System
JP2002197009A (en) * 2000-12-25 2002-07-12 Nec Corp Information providing server, client, processing method for information providing system, recording medium recorded with program, and advertisement providing method
JP2002279284A (en) * 2001-03-15 2002-09-27 Sony Corp Community service providing method, community service providing device, program storage medium and program
WO2002093497A1 (en) * 2001-05-14 2002-11-21 Netdimension Corporation Information distribution system and information distribution method
JP2003067429A (en) * 2001-05-09 2003-03-07 Sony Corp Information disclosure system, server, client device and program
US6795972B2 (en) 2001-06-29 2004-09-21 Scientific-Atlanta, Inc. Subscriber television system user interface with a virtual reality media space
WO2008130842A1 (en) * 2007-04-20 2008-10-30 Utbk, Inc. Methods and systems to connect people via virtual reality for real time communications
JP2008299858A (en) * 1996-12-25 2008-12-11 Sony Corp Apparatus and method for executing program
JP2009006153A (en) * 2000-05-31 2009-01-15 Intel Corp Advertising method utilizing video game
JP2010063720A (en) * 2008-09-11 2010-03-25 Square Enix Co Ltd Video game processor, video game processing method, and video game processing program
WO2013032791A1 (en) * 2011-08-29 2013-03-07 United Video Properties, Inc. Methods and systems for presenting a three-dimensional media guidance application
US8601386B2 (en) 2007-04-20 2013-12-03 Ingenio Llc Methods and systems to facilitate real time communications in virtual reality
JP2014219729A (en) * 2013-05-01 2014-11-20 株式会社野村総合研究所 Negotiable securities transaction system
US8970669B2 (en) 2009-09-30 2015-03-03 Rovi Guides, Inc. Systems and methods for generating a three-dimensional media guidance application
US9208495B2 (en) 2003-10-06 2015-12-08 Yellowpages.Com Llc Methods and apparatuses for advertisement presentation
JP2020504348A (en) * 2016-10-13 2020-02-06 アリババ・グループ・ホールディング・リミテッドAlibaba Group Holding Limited Service control and user identification and authentication based on virtual reality
WO2021079821A1 (en) * 2019-10-25 2021-04-29 Necソリューションイノベータ株式会社 Advertisement information generation device, event assistance system, advertisement information generation method, and event assistance system production method

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0454595A (en) * 1990-06-21 1992-02-21 Fujitsu Ltd Data processing system for electronic sales system
JPH0695997A (en) * 1992-09-11 1994-04-08 Toshiba Corp Human interface system

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0454595A (en) * 1990-06-21 1992-02-21 Fujitsu Ltd Data processing system for electronic sales system
JPH0695997A (en) * 1992-09-11 1994-04-08 Toshiba Corp Human interface system

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
"仮想協同作業空間 A Visual Communication Service for Collaborative Working", NTT R&D, vol. 第42巻第1号, CSNH199900266002, 10 January 1993 (1993-01-10), pages 53 - 60, ISSN: 0000745011 *
"協同作業のための対話形映像通信 Visual Communication for Collaboration", 電子情報通信学会技術研究報告, vol. 第91巻第240号, CSNG200000295002, 26 September 1991 (1991-09-26), pages 7 - 12, ISSN: 0000745012 *
"戦略型統合顧客データベースシステム", C&C SYSTEM REVIEW, vol. 第5巻第4号, CSNH200100058001, 30 November 1990 (1990-11-30), pages 79 - 82, ISSN: 0000745010 *
"日常生活を支援する仮想空間の提案", 情報処理学会研究報告, vol. 第94巻第58号, CSNG199901484002, 8 July 1994 (1994-07-08), pages 9 - 16, ISSN: 0000745009 *

Cited By (38)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09134371A (en) * 1995-09-07 1997-05-20 Fujitsu Ltd Information retrieval device and information retrieval system using the device
WO1997032257A1 (en) * 1996-02-28 1997-09-04 Aim Corporation Communication system capable of providing user with picture meeting characteristics of user and terminal equipment and information providing device used for the same
WO1997032258A1 (en) * 1996-02-28 1997-09-04 Aim Corporation Communication system for distributing such message as advertisement to user of terminal equipment
USRE45098E1 (en) 1996-12-25 2014-08-26 Sony Corporation Encrypted start signal for game with data substitution in original data and means for limiting execution
JP2008299858A (en) * 1996-12-25 2008-12-11 Sony Corp Apparatus and method for executing program
JP2008301498A (en) * 1996-12-25 2008-12-11 Sony Corp Data processing apparatus and data processing method
JPH1115995A (en) * 1997-06-24 1999-01-22 Amadeusu Net:Kk Residence total guiding system by virtual housing center using virtual real space
KR20000038485A (en) * 1998-12-07 2000-07-05 윤봉수 Virtual reality home shopping in internet
KR20010090906A (en) * 2000-04-08 2001-10-22 변기호 A business model to get revenue through the cyber environment complex
KR20010097196A (en) * 2000-04-20 2001-11-08 김재호 cyber world system for providing premarketing tool
KR20000071965A (en) * 2000-05-16 2000-12-05 송대근 an advertisement system using a growing character on the internet and control method thereof
KR20010105846A (en) * 2000-05-18 2001-11-29 장충엽 Service system by three-dimensional space using internet and service method thereof
JP2009006153A (en) * 2000-05-31 2009-01-15 Intel Corp Advertising method utilizing video game
KR20010113311A (en) * 2000-06-19 2001-12-28 임완근 Homepage system and its search technology and methodology for enterprise management residence area
JP2002197009A (en) * 2000-12-25 2002-07-12 Nec Corp Information providing server, client, processing method for information providing system, recording medium recorded with program, and advertisement providing method
JP2002279284A (en) * 2001-03-15 2002-09-27 Sony Corp Community service providing method, community service providing device, program storage medium and program
JP2003067429A (en) * 2001-05-09 2003-03-07 Sony Corp Information disclosure system, server, client device and program
CN1320508C (en) * 2001-05-14 2007-06-06 株式会社网络空间 Information distribution system and information distribution method
KR100742000B1 (en) * 2001-05-14 2007-07-23 가부시키가이샤 네트디멘션 Information distribution system and information distribution method
WO2002093497A1 (en) * 2001-05-14 2002-11-21 Netdimension Corporation Information distribution system and information distribution method
KR100923123B1 (en) * 2001-05-14 2009-10-23 가부시키가이샤 네트디멘션 Information distribution system and information distribution method
US7739086B2 (en) 2001-05-14 2010-06-15 Netdimension Corporation Information delivering method
KR100981405B1 (en) * 2001-05-14 2010-09-10 가부시키가이샤 네트디멘션 Information distribution system and information distribution method
US7225114B2 (en) 2001-05-14 2007-05-29 Netdimension Corporation Information delivering system and information delivering method
US6795972B2 (en) 2001-06-29 2004-09-21 Scientific-Atlanta, Inc. Subscriber television system user interface with a virtual reality media space
KR20010099226A (en) * 2001-09-13 2001-11-09 이정훈 3D3 Radio/TV 3D Internet 3D BM BM /Business Model.omitted
KR20020003842A (en) * 2001-10-30 2002-01-15 최은미 On-line Service Providing System
US9208495B2 (en) 2003-10-06 2015-12-08 Yellowpages.Com Llc Methods and apparatuses for advertisement presentation
US8601386B2 (en) 2007-04-20 2013-12-03 Ingenio Llc Methods and systems to facilitate real time communications in virtual reality
WO2008130842A1 (en) * 2007-04-20 2008-10-30 Utbk, Inc. Methods and systems to connect people via virtual reality for real time communications
US8105162B2 (en) 2008-09-11 2012-01-31 Kabushiki Kaisha Square Enix Video game processing apparatus, method and computer program product for controlling progress of a video game
US8734249B2 (en) 2008-09-11 2014-05-27 Kabushiki Kaisha Square Enix Video game processing apparatus, method and computer program product for controlling progress of a video game
JP2010063720A (en) * 2008-09-11 2010-03-25 Square Enix Co Ltd Video game processor, video game processing method, and video game processing program
US8970669B2 (en) 2009-09-30 2015-03-03 Rovi Guides, Inc. Systems and methods for generating a three-dimensional media guidance application
WO2013032791A1 (en) * 2011-08-29 2013-03-07 United Video Properties, Inc. Methods and systems for presenting a three-dimensional media guidance application
JP2014219729A (en) * 2013-05-01 2014-11-20 株式会社野村総合研究所 Negotiable securities transaction system
JP2020504348A (en) * 2016-10-13 2020-02-06 アリババ・グループ・ホールディング・リミテッドAlibaba Group Holding Limited Service control and user identification and authentication based on virtual reality
WO2021079821A1 (en) * 2019-10-25 2021-04-29 Necソリューションイノベータ株式会社 Advertisement information generation device, event assistance system, advertisement information generation method, and event assistance system production method

Also Published As

Publication number Publication date
JP4190590B2 (en) 2008-12-03

Similar Documents

Publication Publication Date Title
JP4190590B2 (en) Virtual reality space providing method and virtual reality space providing device
US6085256A (en) Cyber space system for providing a virtual reality space formed of three dimensional pictures from a server to a user via a service provider
US6954906B1 (en) Image display processing apparatus that automatically changes position of sub-window relative to main window depending on distance at watch sub window is commanded to be displayed
US6057856A (en) 3D virtual reality multi-user interaction with superimposed positional information display for each user
US5926179A (en) Three-dimensional virtual reality space display processing apparatus, a three-dimensional virtual reality space display processing method, and an information providing medium
US20030174178A1 (en) System for presenting differentiated content in virtual reality environments
WO2002029665A1 (en) A system for interactive information display on a billboard
JP2010035195A (en) Item display
WO2001008061A1 (en) Method and apparatus for providing network based counseling service
KR20010090860A (en) Interactive media system
KR20020011905A (en) Methods of network auction and network auction support, system of network auction server and auction support server, and recording medium
JPH10207948A (en) Method and device for providing information
JP3690609B2 (en) Virtual space providing apparatus and method
JPH08242283A (en) Method of providing broadband network customer with assistance
US20050253851A1 (en) System for providing virtual space, a virtual space providing server and a virtual space providing method for advancing communication between users in virtual space
JP2001306942A (en) Method and device for providing multi-media advertisement and information for preventing work area of user from being intruded
US20040193504A1 (en) System and method for intermediation between users and abata providers to provide various abata images to users
JP4166290B2 (en) Cyber space system, information processing method, virtual space providing device, and virtual space providing method
JP2001282157A (en) Distributing system for electronic advertisement and display system
JP2005071304A (en) System, method and computer program for providing shopping data
KR20020057210A (en) Interior service providing method through the Internet
KR102446974B1 (en) Metabus based virtual space management system
KR100372200B1 (en) A system for sales and deliverying Multimedia Information Recordig Device and method thereof
JPH08106435A (en) Cyberspace system
KR100485670B1 (en) Shopping mall system supporting chatting

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20050204

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20050405

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20060606

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060807

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20060830

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20060915

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080731

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20080917

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110926

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110926

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120926

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120926

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130926

Year of fee payment: 5

LAPS Cancellation because of no payment of annual fees