JP2005100053A - Method, program and device for sending and receiving avatar information - Google Patents
Method, program and device for sending and receiving avatar information Download PDFInfo
- Publication number
- JP2005100053A JP2005100053A JP2003332367A JP2003332367A JP2005100053A JP 2005100053 A JP2005100053 A JP 2005100053A JP 2003332367 A JP2003332367 A JP 2003332367A JP 2003332367 A JP2003332367 A JP 2003332367A JP 2005100053 A JP2005100053 A JP 2005100053A
- Authority
- JP
- Japan
- Prior art keywords
- information
- space
- client computer
- video
- avatar
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Processing Or Creating Images (AREA)
- Information Transfer Between Computers (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
Abstract
Description
本発明は、複数ユーザが、ネットワーク上に構築した3D仮想空間を共有し、同一コンテンツ(ストリーミング映像、Flash等)を視聴しながらリアルタイムでコミュニケーション可能な方法、プログラム及び装置に関し、特に3D仮想空間内に各ユーザをアバターと言われる化身(キャラクター)として表現してコミュニケーションを行う方法、プログラム及び装置に関する。 The present invention relates to a method, a program, and an apparatus in which a plurality of users can share a 3D virtual space constructed on a network and can communicate in real time while viewing the same content (streaming video, Flash, etc.). The present invention relates to a method, a program, and an apparatus for communicating by expressing each user as an avatar (character) called an avatar.
近年、通信回線のブロードバンド化が進み、データファイルの一部をバッファーメモリーに読み込んだ時点で再生を開始し、読み込みと再生を同時に行うストリーミング配信技術を利用したインターネット放送(コンサート等)が行われている。 In recent years, broadbandization of communication lines has progressed, and when a part of a data file is read into a buffer memory, playback starts, and Internet broadcasting (concert etc.) using streaming distribution technology that simultaneously reads and plays is performed. Yes.
また、ストリーミング配信コンテンツの視聴者に対し、コンテンツに関連したアンケートをタイムリーに実施するものもある(例えば、特許文献1参照)。 In addition, there is also a method for conducting a questionnaire related to content in a timely manner for viewers of streaming distribution content (see, for example, Patent Document 1).
しかし、ストリーミング配信コンテンツの視聴者に対し、コンテンツに関連したアンケートをタイムリーに実施可能であったり、動画コンテンツ内で提供される広告に関連して行うアンケートに視聴者がストレス無く回答可能であったりするだけであった。
本発明が解決しようとする課題は、さまざまな属性を有するユーザが、実空間における所在地に一切とらわれず、いつ、どのような空間に移動し、どのような映像を視聴し、どのような発言をしたかなどに関するデータを取得し、マーケティング用データとして利用可能とする技術を提供することにある。 The problem to be solved by the present invention is that a user having various attributes moves to any space, what kind of space, what kind of video, what kind of remarks, regardless of the location in the real space. It is to provide a technique for acquiring data related to whether or not the data has been used and making it available as marketing data.
本発明の第1の特徴は、第1,第2クライアントコンピュータとの間でデータの送受信が可能なサーバコンピュータが、(1)空間IDと、前記空間IDに対応する空間構成情報と映像情報とを記憶し、(2)第1クライアントコンピュータから空間IDと、第1アバターの第1位置情報とを受信したら、第1ユーザの第1ユーザIDと空間IDと第1位置情報と第1時刻情報とを関連付けて記憶し、第2クライアントコンピュータへ第1位置情報を送信し、(3)第2クライアントコンピュータから空間IDと、第2アバターの第2位置情報とを受信したら、第2ユーザの第2ユーザIDと空間IDと第2位置情報と第2時刻情報とを関連付けて記憶し、第1クライアントコンピュータへ第2位置情報を送信する、ことにある。 A first feature of the present invention is that a server computer capable of transmitting / receiving data to / from the first and second client computers includes (1) a space ID, space configuration information corresponding to the space ID, and video information. (2) When receiving the space ID and the first position information of the first avatar from the first client computer, the first user ID, the space ID, the first position information, and the first time information of the first user And the first location information is transmitted to the second client computer. (3) When the space ID and the second location information of the second avatar are received from the second client computer, the second user's The second user ID, the space ID, the second position information, and the second time information are stored in association with each other, and the second position information is transmitted to the first client computer.
「空間IDと、第1アバターの第1位置情報とを受信したら、第1ユーザの第1IDと空間IDと第1位置情報と第1時刻情報とを関連付けて記憶し、」とは「空間IDと第1位置情報とを受信した後に、第1IDと空間IDと第1位置情報と第1時刻情報とを関連付けて同時に記憶する」場合だけでなく、「空間IDを受信したら第1IDと空間IDとを関連付けて記憶し、その後に第1位置情報と受信したら第1IDと第1位置情報と第1時刻情報とを関連付けて記憶する」場合を含む。第2位置情報、第2ID、第2時刻情報についても同様である。 “When the space ID and the first position information of the first avatar are received, the first ID of the first user, the space ID, the first position information, and the first time information are stored in association with each other.” After receiving the first location information, the first ID, the space ID, the first location information, and the first time information are associated with each other and stored at the same time. Are stored in association with each other, and after receiving the first position information, the first ID, the first position information, and the first time information are stored in association with each other. The same applies to the second position information, the second ID, and the second time information.
空間IDとは空間構成情報を特定する識別子である。空間構成情報とは、クライアントコンピュータのCRTディスプレイや液晶ディスプレイなどの表示手段に、3D空間を表示するために必要な情報であって、例えばVRML(Virtual Reality Modeling Language)やHTML(Hypertext Markup Language)などで記述される。クライアントコンピュータの記憶手段に記憶されているVRMLブラウザ又はWebブラウザは、VRMLファイルやHTMLファイルを解釈し、OS(Operating System)又はAPI(Application Programming Interface)に対して、表示手段のどの位置に、どんな三次元グラフィックスを表示するか指示を出す。VRMLファイルの中に動画表示に関する情報が埋め込まれている場合、VRMLブラウザは必要な動画データファイルをサーバコンピュータから読み込む。動画データファイルのストリーミング配信にはRTSP(Real Time Streaming Protocol)などが使用される。 The space ID is an identifier that specifies space configuration information. The space configuration information is information necessary for displaying a 3D space on a display means such as a CRT display or a liquid crystal display of a client computer. For example, VRML (Virtual Reality Modeling Language), HTML (Hypertext Markup Language), etc. It is described by. The VRML browser or Web browser stored in the storage means of the client computer interprets the VRML file or the HTML file, and in any position of the display means with respect to the OS (Operating System) or API (Application Programming Interface) Instructs whether to display 3D graphics. When information related to moving image display is embedded in the VRML file, the VRML browser reads a necessary moving image data file from the server computer. RTSP (Real Time Streaming Protocol) or the like is used for streaming distribution of moving image data files.
位置情報とは、各アバターの所定点(例えば、頭頂点)の3D空間内における位置を示す情報であって、X座標値、Y座標値、Z座標値からなる。 The position information is information indicating the position in the 3D space of a predetermined point (for example, the head vertex) of each avatar, and includes an X coordinate value, a Y coordinate value, and a Z coordinate value.
第1時刻情報には、第1位置情報が生成された時刻、第1位置情報が第1クライアントコンピュータからサーバコンピュータへ宛てて送信された時刻、第1位置情報をサーバコンピュータが受信した時刻などが含まれる。同様に、第2時刻情報には、第2位置情報が生成された時刻、第2位置情報が第2クライアントコンピュータからサーバコンピュータへ宛てて送信された時刻、第2位置情報をサーバコンピュータが受信した時刻などが含まれる。 The first time information includes the time when the first position information is generated, the time when the first position information is transmitted from the first client computer to the server computer, the time when the server computer receives the first position information, and the like. included. Similarly, the second time information includes the time at which the second position information was generated, the time at which the second position information was transmitted from the second client computer to the server computer, and the server computer received the second position information. Includes time etc.
本発明の第2の特徴は、サーバコンピュータが、さらに(1)第1クライアントコンピュータから第1アバターの第1視線情報を受信したら、第1ユーザIDと第1視線情報とを関連付けて記憶し、第2クライアントコンピュータへ第1視線情報を送信し、(2)第2クライアントコンピュータから第2アバターの第2視線情報を受信したら、第2ユーザIDと第2視線情報とを関連付けて記憶し、第1クライアントコンピュータへ第2視線情報を送信することにある。 The second feature of the present invention is that when the server computer further receives (1) the first line-of-sight information of the first avatar from the first client computer, the first user ID and the first line-of-sight information are stored in association with each other, The first line-of-sight information is transmitted to the second client computer, and (2) when the second line-of-sight information of the second avatar is received from the second client computer, the second user ID and the second line-of-sight information are stored in association with each other. It is to transmit the second line-of-sight information to one client computer.
視線情報とは、各アバターが3D空間内のどこを見ているかを示す情報である。例えば、視点中心の座標値、視点中心を起点としてどちらを見ているかを示す視線方向、及び視野角などが視線情報に含まれる。 The line-of-sight information is information indicating where each avatar is looking in the 3D space. For example, the line-of-sight information includes the coordinate value of the viewpoint center, the line-of-sight direction indicating which one is viewed from the viewpoint center, and the viewing angle.
本発明の第3の特徴は、サーバコンピュータが、さらに(1)第1クライアントコンピュータから第1アバターの第1発言情報を受信したら、第1ユーザIDと第1発言情報とを関連付けて記憶し、第2クライアントコンピュータへ第1発言情報を送信し、(2)第2クライアントコンピュータから第2アバターの第2発言情報を受信したら、第2ユーザIDと第2発言情報とを関連付けて記憶し、第1クライアントコンピュータへ第2発言情報を送信することにある。 The third feature of the present invention is that, when the server computer further receives (1) the first message information of the first avatar from the first client computer, the first user ID and the first message information are stored in association with each other, The first message information is transmitted to the second client computer. (2) When the second message information of the second avatar is received from the second client computer, the second user ID and the second message information are stored in association with each other. The second message information is transmitted to one client computer.
発言情報とは、各ユーザが手元のキーボードなどの文字入力手段を用いて入力した文字、数字、記号からなる。 The speech information is composed of characters, numbers, and symbols that are input by each user using character input means such as a keyboard at hand.
本発明の第4の特徴は、サーバコンピュータが、さらに(1)1つの空間IDに対して、複数の映像IDと複数の映像情報を関連付けて記憶し、(2)第1クライアントコンピュータから空間IDを受信したら、空間IDに関連付けられている複数の映像IDを選択候補として第1クライアントコンピュータに送信し、選択候補の中から選択された映像IDを第1クライアントコンピュータから受信したら、第1クライアントコンピュータへ選択された映像IDに関連付けられている映像情報を送信し、(3)第2クライアントコンピュータから空間IDを受信したら、空間IDに関連付けられている複数の映像IDを選択候補として第2クライアントコンピュータへ送信し、選択候補の中から選択された映像IDを第2クライアントコンピュータから受信したら、第2クライアントコンピュータへ選択された映像IDに関連付けられている映像情報を送信することにある。 According to a fourth feature of the present invention, the server computer further stores (1) a plurality of video IDs and a plurality of video information in association with one space ID, and (2) a space ID from the first client computer. When the video ID selected from the selection candidates is received from the first client computer, a plurality of video IDs associated with the space ID are transmitted as selection candidates to the first client computer. (3) When receiving the space ID from the second client computer, the second client computer uses the plurality of image IDs associated with the space ID as selection candidates. The video ID selected from the selection candidates is transmitted to the second client compilation. Once received from over data is to transmit the image information associated with the image ID selected to the second client computer.
1つの空間IDに対して、1〜nの映像IDが関連付けて記憶されている。各映像IDに関連付けて記憶されている映像情報は、1つである。つまり、1つの映像IDを選択したら、1つの映像情報が特定される。
映像情報として配信される動画ファイルのフォーマットには、例えばWindows Media、Real Media、Quick Timeなどが含まれる。各フォーマットの動画ファイルの視聴には、各フォーマット用のプラグイン・プレイヤーなどが必要となる。 Examples of the format of a moving image file distributed as video information include Windows Media, Real Media, Quick Time, and the like. Viewing a video file in each format requires a plug-in player for each format.
本発明の第5の特徴は、サーバコンピュータが、さらに(1)第1,第2ユーザIDのそれぞれに第1,第2ユーザ属性情報を関連付けて記憶し、また映像情報のそれぞれに対象ユーザ条件を関連付けて記憶し、(2)第1クライアントコンピュータから空間IDを受信したら、空間IDに関連付けられている複数の映像IDの対象ユーザ条件と第1ユーザ属性情報とを比較して、対象ユーザ条件が満たされた映像IDのみを選択候補として第1クライアントコンピュータに送信し、(3)第2クライアントコンピュータから空間IDを受信したら、空間IDに関連付けられている複数の映像IDの対象ユーザ条件と第2ユーザ属性情報とを比較して、対象ユーザ条件が満たされた映像IDのみを選択候補として第2クライアントコンピュータに送信することにある。 The fifth feature of the present invention is that the server computer further stores (1) the first and second user IDs in association with the first and second user IDs, respectively, and the target user condition for each of the video information. (2) When the space ID is received from the first client computer, the target user condition of the plurality of video IDs associated with the space ID is compared with the first user attribute information, and the target user condition Only the video IDs satisfying the above are transmitted to the first client computer as selection candidates, and (3) when the space ID is received from the second client computer, the target user condition of the plurality of video IDs associated with the space ID and the first 2 The user attribute information is compared, and only the video ID satisfying the target user condition is selected as a selection candidate. It is to send to.
ユーザ属性情報には、ユーザの性別、年齢、好きな映画のジャンルなどが含まれる。対象ユーザ条件には、ユーザの性別や年齢、映画のジャンルなどが含まれる。例えば、空間IDに関連付けられている複数の映画の中に「対象ユーザ条件:18歳以上」というものが含まれ、第1ユーザの年齢が20歳、第2ユーザの年齢が18歳である場合、この映画は第1ユーザに対しては送信されるが、第2ユーザに対しては送信されない。つまり、第1ユーザにとってこの映画は選択候補の一つとなるが、第2ユーザにとってはこの映画は選択候補から除外される。 The user attribute information includes the user's gender, age, favorite movie genre, and the like. The target user condition includes a user's gender, age, movie genre, and the like. For example, when a plurality of movies associated with the space ID include “target user condition: 18 years old or older”, the age of the first user is 20 years old, and the age of the second user is 18 years old This movie is sent to the first user, but not to the second user. In other words, this movie is one of the selection candidates for the first user, but this movie is excluded from the selection candidates for the second user.
本発明の第1の特徴によれば、各アバターが、いつ、どの3D空間の、どの位置に存在したかを記憶手段に記憶することができる。 According to the first feature of the present invention, when and in which 3D space each avatar was present and in which position can be stored in the storage means.
本発明の第2の特徴によれば、各アバターに対応する各ユーザが、さらに何を見ていたかを記憶手段に記憶することができる。 According to the 2nd characteristic of this invention, what each user corresponding to each avatar was looking at can be memorize | stored in a memory | storage means.
本発明の第3の特徴によれば、各アバターに対応する各ユーザが、さらにどのような発言をしたかを記憶手段に記憶することができる。 According to the 3rd characteristic of this invention, what kind of statement each user corresponding to each avatar made further can be memorize | stored in a memory | storage means.
本発明の第4の特徴によれば、各アバターに対応する各ユーザが、どの3D空間でどの映像を選択し、視聴したかを記憶手段に記憶することができる。 According to the 4th characteristic of this invention, each user corresponding to each avatar can memorize | store in the memory | storage means which video was selected and watched in which 3D space.
本発明の第5の特徴によれば、各アバターに対応する各ユーザの属性に応じて、選択候補として提示する映像を絞り込むことができる。 According to the fifth feature of the present invention, it is possible to narrow down videos to be presented as selection candidates according to the attributes of each user corresponding to each avatar.
以下、図面を参照しながら本発明の実施の形態を説明する。 Embodiments of the present invention will be described below with reference to the drawings.
図1に示すように、本実施形態で使用するクライアントサーバシステムでは、多数のクライアントコンピュータ(以下、「クライアント」とする)1a〜1dがLAN、WAN、公衆回線などが接続されたインターネット2などの通信回線を介してサーバコンピュータ(以下、「サーバ」とする)3にアクセスできる。 As shown in FIG. 1, in the client server system used in this embodiment, a large number of client computers (hereinafter referred to as “clients”) 1a to 1d are connected to a LAN, a WAN, a public line, etc. A server computer (hereinafter referred to as “server”) 3 can be accessed via a communication line.
サーバ3は、クライアント1a〜1dの要求に応じて、
・3D空間表示に必要なVRMLファイルやHTMLファイルを送信するWebサーバとしての機能、
・動画ファイルを配信するメディアサーバとしての機能、及び
・各クライアントコンピュータ1a〜1dから送信されたテキスト形式のチャットデータを発言者以外のクライアントに転送するコミュニケーションサーバとしての機能を有する。
In response to requests from the
A function as a Web server that transmits VRML files and HTML files necessary for 3D space display,
A function as a media server that distributes moving image files, and a function as a communication server that transfers chat data in text format transmitted from each of the
クライアント1とサーバ3とは、HTTP(hypertext transfer protocol)、UDP(user datagram protocol)又はRTSP(real time streaming protocol)などに従ってデータの送受信を行う。
The
クライアント1a〜1dは、サーバ3から送られてくるHTMLファイルを受信し、Webブラウザを用いてクライアント1a〜1dのCRT、液晶ディスプレイなどの各表示手段に3D空間を表示する。さらに、サーバ3から配信される動画ファイルを受信し、各表示手段に表示されている3D空間内の動画用エリアに動画を再生させる。
The
図2に示すように、本実施形態で使用するサーバ3は、全体を制御する主制御部(制御手段、以下「CPU」とする)301に記憶装置303が接続されている。CPU301には、また、入出力制御部305を介して受信部307及び送信部309が接続されている。さらに、図示していないが、基本入出力システム(BIOS)などが記憶されるリードオンリーメモリ(ROM)と、プログラム領域とデータ領域を有するランダムアクセスメモリ(RAM)とがCPU301に接続されている。
As shown in FIG. 2, the server 3 used in this embodiment has a
記憶装置303は、ハードディスク、フレキシブルディスク、光ディスク、光磁気ディスクなどのストレージ手段であり、複数の3D空間表示ファイル311、複数の動画ファイル313、ユーザと空間の対応関係を示すユーザ空間テーブルT101、空間と映像の対応関係を示す空間映像テーブルT111、所定時間毎に各アバターの位置を記録した複数のアバター位置テーブルT121、チャット内容を記録したチャットログファイル317及び各ユーザのユーザ基本情報及びアバター構成情報に関するユーザ管理情報ファイル319などが格納されている。
The
また、記憶装置303には、TCP/IPなどの通信プロトコルに従ってデータの送受信が可能なOSやApacheなどのウェブサーバアプリケーションソフトウェアやDirectXなどのAPI(application programming interface)群を利用するマルチメディアアプリケーションソフトウェアやサーバからクライアントにダウンロードされてクライアントのウェブブラウザ上で実行されるJavaアプレットなどが格納されている。
In addition, the
3D空間表示ファイル311は、サーバ3からクライアント1に送信され、クライアント1で起動しているWebブラウザによって解釈され、クライアント1の表示手段上に3D空間を表示させる。
The 3D
図3(a)及び(b)並びに図4(a)及び(b)に各クライアント1の表示手段に表示される3D空間の概念図を示す。なお、後述するように、各図のアバターの位置は、各クライアント1の表示手段に表示されるアバターの位置と相違する。図3及び図4に示す3D空間には、「On Demand 1」〜「On Demand 5」の5つのボタンB1〜5が動画再生エリア10の左に表示されている。いずれかのボタンを選択し、クリックすることにより、クリックされたボタンに関連付けられている動画がサーバ3からクライアント1に配信される。また、動画再生用エリア10の右のパネル1〜2には「Live (12/22) 10:00-11:00」、「Live (2/2) 13:00-13:30」などの日時が表示されている。これらは指定されている日時になると所定の動画配信が開始されることを示している。
3A and 3B and FIGS. 4A and 4B are conceptual diagrams of a 3D space displayed on the display unit of each
動画ファイル313は、サーバ3からクライアント1に配信され、クライアント1の表示手段に表示されている3D空間内の動画再生用エリア10に動画が再生される。図3及び図4に示す3D空間ではサッカーの試合の動画が再生されている。
The moving
図5(a)は、ユーザ空間テーブルT101の一例を示す図である。図5(a)に示すように、ユーザIDを格納するユーザIDフィールドF101と、そのユーザが使用しているクライアントのIPアドレスを格納するIPアドレスフィールドF102と、そのクライアントで起動しているWebブラウザが使用しているポート番号を格納するポート番号フィールドF103と、そのクライアントに送信されている空間IDを格納する空間IDフィールドF104とが設けられている。 FIG. 5A shows an example of the user space table T101. As shown in FIG. 5A, a user ID field F101 for storing a user ID, an IP address field F102 for storing an IP address of a client used by the user, and a Web browser activated on the client Are provided with a port number field F103 for storing a port number used by the client and a space ID field F104 for storing a space ID transmitted to the client.
図5(b)は、空間映像テーブルT111の一例を示す図である。図5(b)に示すように、空間IDを格納する空間IDフィールドF111と、その空間IDに対応する空間構成ファイル名を格納する空間構成ファイル名フィールドF112と、その空間IDに対応する映像ファイル名を格納する映像ファイル名フィールドF113とが設けられている。 FIG. 5B is a diagram illustrating an example of the spatial video table T111. As shown in FIG. 5B, a space ID field F111 for storing a space ID, a space configuration file name field F112 for storing a space configuration file name corresponding to the space ID, and a video file corresponding to the space ID. A video file name field F113 for storing a name is provided.
図5(c)は、アバター位置テーブルT121の一例を示す図である。図5(c)に示すように、テーブルT121は、位置座標データを受信した時刻を格納する時刻フィールドF121と、その時刻にクライアントの表示手段に表示されている空間のIDを格納する空間フィールドF122と、その空間内におけるアバターの位置座標値を格納する位置座標フィールドF123とを有する。 FIG. 5C shows an example of the avatar position table T121. As shown in FIG. 5C, the table T121 includes a time field F121 for storing the time at which the position coordinate data is received, and a space field F122 for storing the ID of the space displayed on the display means of the client at that time. And a position coordinate field F123 for storing the position coordinate value of the avatar in the space.
図5(d)は、他のアバター位置テーブルT131の一例を示す図である。このテーブルT131もテーブルT121と同様に、時刻フィールドF131と、空間フィールドF132と、位置座標フィールドF133とが設けられている。 FIG. 5D is a diagram illustrating an example of another avatar position table T131. Similar to the table T121, the table T131 also includes a time field F131, a space field F132, and a position coordinate field F133.
チャットログファイル317には、発言日時、発言ユーザID、ハンドル名、空間ID、IPアドレス、チャットテキスト、及び受信ユーザIDが、ユーザの発言毎にログとして追記される。
In the
発言日時とは、ユーザによって発言が行われた日時である。発言ユーザIDとは、発言を行ったユーザを特定するIDである。ハンドル名とは、発言を行ったユーザのハンドル名であって、3D空間に表示されたハンドル名である。 The utterance date is the date and time when the utterance was made by the user. The speech user ID is an ID that identifies the user who made the speech. The handle name is the handle name of the user who made the statement, and is the handle name displayed in the 3D space.
空間IDとは、クライアントコンピュータの表示手段に表示される3D空間を特定するIDであって、例えば3D空間を表示するために必要なHTMLファイルを特定する英数字である。 The space ID is an ID that specifies a 3D space displayed on the display unit of the client computer, and is, for example, an alphanumeric character that specifies an HTML file necessary for displaying the 3D space.
IPアドレスとは、発言ユーザのIP(Internet Protocol)アドレスであって、発言ユーザを特定するため利用される。チャットテキストとは、発言内容を示す文字列であり、例えば「○○って良いよね」などである。 The IP address is an IP (Internet Protocol) address of the speaking user, and is used to identify the speaking user. The chat text is a character string indicating the content of the message, for example, “You are okay”.
受信ユーザIDとは、発言を受信したユーザのIDであって、受信したユーザの数だけログに列挙される。例えば、ユーザAの発言が、ユーザB,C及びDの三者によって受信される場合は、受信ユーザIDとしてユーザBのユーザID、ユーザCのユーザID及びユーザDのユーザIDが記録される。 The received user ID is the ID of the user who has received the message, and is listed in the log by the number of received users. For example, when the user A's message is received by the users B, C, and D, the user ID of the user B, the user ID of the user C, and the user ID of the user D are recorded as the receiving user ID.
図6は、ユーザ管理情報ファイル319の一例を示す図である。図6に示すように、ユーザ管理情報ファイル319は、ユーザ基本情報とアバター構成情報とからなる。ユーザ基本情報は、例えば、ユーザID、ユーザ名、性別、年齢、ハンドル名、言語コード、Eメールアドレス、ユーザ画像ファイル名、自己紹介文、暗号化ユーザパスワード、ユーザ権限IDを含む。アバター構成情報は、例えば、ヘアスタイル、ヘアカラー、フェイスパターン、肌の色、上着パターン、パンツ・スカートパターン、靴パターン、頭部アイテム、右手アイテム、左手アイテムなどを含み、それぞれが数値で示される。
FIG. 6 is a diagram illustrating an example of the user
3D空間表示ファイル311、動画ファイル313、ユーザ管理情報ファイル319内のアバター構成情報などに基づいて各クライアント1の表示手段には、3D空間、動画、アバターが表示可能である。例えば、図3(a)及び(b)並びに図4(a)及び(b)に示すように、クライアント1a〜1bの各表示手段には、共通の3D空間、動画及びアバターavt1〜2及び各アバターの発言12〜15が表示される。
Based on the avatar configuration information in the 3D
以下、実施例に基づいて具体的に説明する。 Hereinafter, specific description will be given based on examples.
図7及び図8に基づいて、空間ID比較及び位置情報送受信に関するサーバ3における処理の流れ、及びサーバ3、クライアント1a、クライアント1b間において送受信される情報について説明する。
Based on FIG.7 and FIG.8, the flow of the process in the server 3 regarding space ID comparison and position information transmission / reception, and the information transmitted / received between the server 3, the
図7は、空間ID比較に関するサーバ3における処理の流れ、並びにサーバ3、クライアント1a、クライアント1b間において送受信される情報を示し、
図8は、位置情報送受信に関するサーバ3における処理の流れ、並びにサーバ3、クライアント1a、クライアント1b間において送受信される情報を示す。
FIG. 7 shows a process flow in the server 3 regarding the space ID comparison, and information transmitted and received between the server 3, the
FIG. 8 shows a flow of processing in the server 3 regarding transmission / reception of position information, and information transmitted / received among the server 3, the
なお、前提状態として、クライアント1aは第1アバター構成情報のみを記憶しており、クライアント1bは第2アバター構成情報のみを記憶しており、サーバ3は第1アバター構成情報と第2アバター構成情報との両情報を既に記憶しているものとする。
As a precondition, the
まず、図7に基づいて、空間IDの比較について説明する。 First, comparison of space IDs will be described with reference to FIG.
サーバ3は、クライアント1aから空間IDを受信し(S101)、その空間IDとクライアント1aのユーザIDとを関連付けて記憶し(S102)、その空間IDに対応する空間構成情報と映像情報をクライアント1aに送信する(S103)。
The server 3 receives the space ID from the
図5(a)にユーザIDと空間IDを関連付けて記憶するユーザ空間テーブルの一例を示す。サーバ3は、クライアント1aから空間ID”K001”を受信すると、テーブルT101のレコードR101のユーザIDフィールドF101にクライアント1aのユーザIDを格納し、レコードR101の空間IDフィールドF104に空間ID”K001”を格納する。なお、各レコードのIPアドレスフィールドF102には各クライアントのIPアドレスが、ポート番号フィールドF103には各クライアントのポート番号が格納される。
FIG. 5A shows an example of a user space table that stores a user ID and a space ID in association with each other. When the server 3 receives the space ID “K001” from the
図5(b)に空間IDと空間構成情報である空間構成ファイルと映像情報である映像ファイルとを関連付けて記憶する空間映像テーブルの一例を示す。実施例1では、図5(b)に示すように、空間と映像は1対1の関係を有するものとする。よって、図5(b)のテーブルT111に示すように、レコードR111の空間IDフィールドF111にK001、空間構成ファイル名フィールドF112に1.html、映像ファイル名フィールドF113に1.mpegがそれぞれ格納されている。このような場合、クライアント1aから受信した空間IDがK001であるなら、空間構成情報として1.htmlが、映像情報として1.mpegがクライアント1aに送信される。
FIG. 5B shows an example of a spatial video table that stores a spatial ID, a spatial configuration file that is spatial configuration information, and a video file that is video information in association with each other. In the first embodiment, as shown in FIG. 5B, it is assumed that the space and the video have a one-to-one relationship. Therefore, as shown in the table T111 of FIG. 5B, K001 is stored in the space ID field F111 and 1. in the space configuration file name field F112 of the record R111. html, 1. in the video file name field F113. Each mpeg is stored. In such a case, if the space ID received from the
次に、サーバ3はクライアント1aから第1アバターの位置情報を受信し(S105)、受信した第1アバターの位置情報を記憶する(S106)。
Next, the server 3 receives the position information of the first avatar from the
例えば、図5(c)に示すように、ユーザ位置テーブルT121のレコードR121の時刻フィールドF121にクライアント1aから位置情報を受信した時刻TM101を、空間IDフィールドF122にクライアント1aに送信してある空間ID”K001”を、位置フィールドF123に3D空間内における第1アバターの位置座標データ”x11,y11,z11”を格納する。
For example, as shown in FIG. 5 (c), the space ID transmitted to the
次に、サーバ3は、クライアント1bから空間IDを受信し(S107)、その空間IDとクライアント1bのユーザIDとを関連付けて記憶し(S108)、その空間IDに対応する空間構成情報と映像情報をクライアント1bに送信する(S109)。
Next, the server 3 receives the space ID from the
例えば、サーバ3は、クライアント1bから空間ID”K001”を受信すると、テーブルT101のレコードR102のユーザIDフィールドF101にクライアント1bのユーザIDを格納し、レコードR102の空間IDフィールドF104に空間ID”K001”を格納する。
For example, when receiving the space ID “K001” from the
次に、サーバ3はクライアント1bから受信した空間IDと、クライアント1aに送信済みの空間IDとを比較し(S111)、両空間IDが同じかを判断する。
Next, the server 3 compares the space ID received from the
例えば、テーブルT101のレコードR101の空間IDフィールドF104に格納されている空間IDとレコードR102の空間IDフィールドF104に格納されている空間IDとを比較する。 For example, the space ID stored in the space ID field F104 of the record R101 of the table T101 is compared with the space ID stored in the space ID field F104 of the record R102.
両空間IDが同じ場合は、第1アバターの構成情報と第1アバターの位置情報を、クライアント1bへ送信する(S113)。両空間IDが同じでない場合は、サーバ3は、空間ID受信待ちの状態に戻る。
When both space IDs are the same, the configuration information of the first avatar and the position information of the first avatar are transmitted to the
また、第1アバターの位置情報は、テーブルT121のレコードR121の位置フィールドF123から読み出される。 Further, the position information of the first avatar is read from the position field F123 of the record R121 of the table T121.
これにより、クライアント1bの表示手段には自アバターである第2アバターと、クライアント1aの第1アバターとが表示可能となる。
Thereby, the 2nd avatar which is a self-avatar and the 1st avatar of the
次に、サーバ3はクライアント1bから第2アバターの位置情報を受信し(S115)、その第2アバターの位置情報を記憶する(S116)。
Next, the server 3 receives the position information of the second avatar from the
例えば、図5(d)に示すように、クライアント1b用のユーザ位置テーブルT131の時刻フィールドF131にクライアント1bから位置情報を受信した時間”TM201”を、空間IDフィールドF132にクライアント1bに送信した空間のID”K001”を、位置フィールドF133に仮想空間内における第2アバターの座標データ”x21,y21,z21”を格納する。
For example, as shown in FIG. 5D, the time “TM201” at which the position information is received from the
次に、サーバ3は、クライアント1aに第2アバターの構成情報と位置情報を送信する(S117)。
Next, the server 3 transmits the configuration information and position information of the second avatar to the
ここまでの処理により、クライアント1aの表示手段には自アバターである第1アバターと、クライアント1bの第2アバターとが表示可能となる。また、クライアント1bの表示手段には自アバターである第2アバターと、クライアント1aの第1アバターとが表示可能となる。
By the processing so far, the first avatar as the own avatar and the second avatar of the
次に、図8に基づいて、位置情報の送受信について説明する。
サーバ3は、各クライアントから定期的に各クライアントのアバターに関する位置情報を受信し、その位置情報を記憶し、その位置情報を同じ3D空間を見ている他のクライアントに送信する。
Next, transmission / reception of position information will be described with reference to FIG.
The server 3 periodically receives position information regarding each client's avatar from each client, stores the position information, and transmits the position information to other clients viewing the same 3D space.
例えば、クライアント1aからは第1アバターの位置情報を受信したら(S119)、その位置情報を記憶し(S120)、さらにその位置情報をクライアント1bに送信する(S121)。例えば、クライアント1aから第1アバターの位置情報”x12,y12,z12”を受信したら、その位置情報とその受信時刻”TM102”をテーブルT121のレコードR122に記録し、その位置情報をクライアント1bに送信する。
For example, when the position information of the first avatar is received from the
同様に、サーバ3は、クライアント1bから第2アバターの位置情報”x22,y22,z22”を受信したら(S123)、その位置情報とその受信時刻”TM202”をテーブルT131に記録し(S124)、その位置情報をクライアント1aに送信する(S125)。
Similarly, when the server 3 receives the position information “x22, y22, z22” of the second avatar from the
このような実施例1によれば、いつ、どのアバターがどの3D空間のどの位置に存在したかをテーブルT121、T131に記録することができる。各アバターのユーザの属性はユーザ管理情報ファイル中にユーザ基本情報として記憶されている。また3D空間が特定されると、テーブルT111に基づいて、その3D空間において表示されていた映像が特定される。このため、いつ、どのような属性を有するユーザが、どのような映像を見ていたかを知ることができる。 According to the first embodiment, it is possible to record in the tables T121 and T131 which and when avatars exist at which positions in which 3D space. The user attribute of each avatar is stored as basic user information in the user management information file. When the 3D space is specified, the image displayed in the 3D space is specified based on the table T111. For this reason, it is possible to know when and what attribute the user having what kind of image was viewed.
実施例2においては、空間ID及び位置情報(空間座標値)のみならず、各アバターがその空間内のどこを見ているかを示す視線情報も送受信の対象となる。 In the second embodiment, not only the space ID and the position information (spatial coordinate value) but also the line-of-sight information indicating where each avatar is looking in the space is subject to transmission / reception.
具体的には、サーバ3はクライアント1aから第1アバターの位置情報を受信する際に(S105)、第1アバターの視線情報も受信し、位置情報を記憶する際に(S106)、受信した視線情報も記憶する。
Specifically, when the server 3 receives the position information of the first avatar from the
図9(a)に示すように、例えば、テーブルT221の時刻フィールドF222に位置情報等を受信した時刻TM211を、空間IDフィールドF223に空間ID”K001”を、位置フィールドF224に3D空間内における第1アバターの位置座標データ”x211,y211,z211”を、視点中心フィールドF225に第1アバターの視点中心座標”x215,y215,z215”を、視線方向フィールドF226に第1アバターの視線方向を示すデータ”sh2261”を、視野角フィールドF227に視野角を格納する。 As shown in FIG. 9A, for example, the time TM211 when the position information is received in the time field F222 of the table T221, the space ID “K001” in the space ID field F223, and the position ID in the 3D space in the position field F224. Position coordinates data “x211, y211, z211” of one avatar, viewpoint center coordinates “x215, y215, z215” of the first avatar in the viewpoint center field F225, and data indicating the line-of-sight direction of the first avatar in the line-of-sight field F226 “Sh2261” is stored in the viewing angle field F227.
図13に基づいて、視点中心座標及び視野角を説明する。図13はアバターの頭部avthdをアバターの真上から見た図である。図13に示すように、視点中心座標値は、アバターの目と目の中間点(「視点中心sc1」と表記する。)の座標値でも良く、また視点中心sc1の3m後方の点(「視点中心sc2」と表記する。)の座標値でも良い。さらに、視野角は視点中心sc1又はsc2を頂点とし、本実施例においては53°の固定値とする。 The viewpoint center coordinates and the viewing angle will be described with reference to FIG. FIG. 13 is a view of the avatar's head avthd as viewed from directly above the avatar. As shown in FIG. 13, the viewpoint center coordinate value may be a coordinate value of an avatar's eye midpoint (denoted as “viewpoint center sc1”), or a point 3 m behind the viewpoint center sc1 (“viewpoint”). The coordinate value may be expressed as “center sc2”. Furthermore, the viewing angle is set to a vertex of the viewpoint center sc1 or sc2, and is a fixed value of 53 ° in this embodiment.
なお、図3は、各クライアントの表示手段に表示される映像ではない。もし、視点中心がアバターの目と目の中間点である場合は、そのユーザ自身のアバターは表示手段に表示されない。つまり、アバターavt1はクライアント1aの表示手段に表示されず、アバターavt2はクライアント1bの表示手段に表示されない。また、視点中心がアバターの後方にある場合、そのユーザ自身のアバターの後頭部が表示される位置は、表示手段の画面左右両端からほぼ等距離、かつ画面下端付近である。つまり、アバターavt1の頭部を後ろから見た映像がクライアント1aの表示手段の画面のほぼ真ん中であって画面下端付近に表示され、アバターavt2の頭部を後ろから見た映像がクライアント1bの表示手段の画面のほぼ真ん中であって画面下端付近に表示される。
Note that FIG. 3 is not an image displayed on the display means of each client. If the viewpoint center is between the eyes of the avatar, the user's own avatar is not displayed on the display means. That is, the avatar avt1 is not displayed on the display unit of the
視点中心座標と視線方向から、各クライアントの表示手段に表示される映像の中心点が定まる。例えば、視点中心座標と視線方向から求まる視線の到達点が、表示手段の画面のほぼ中央に表示される。例えば、アバターavt1の視点中心座標から視点方向に延びた視線の到達点が図3に示す動画再生エリア10内の右側にいる選手の足下である場合は、当該選手の当該足下がクライアント1aの表示手段の表示画面のほぼ中心に映し出される。一方、アバターavt2の視点中心座標から視点方向に延びた視線の到達点が図3に示す動画再生エリア10内の左側にいる選手の頭部である場合は、当該選手の当該頭部がクライアント1bの表示手段の表示画面のほぼ中心に映し出される。
The center point of the image displayed on the display means of each client is determined from the viewpoint center coordinates and the line-of-sight direction. For example, the arrival point of the line of sight obtained from the viewpoint center coordinates and the line-of-sight direction is displayed at substantially the center of the screen of the display means. For example, when the arrival point of the line of sight extending in the viewpoint direction from the viewpoint center coordinates of the avatar avt1 is the player's feet on the right side in the
視点中心から視線到達点までの距離と、視野角とによって視野が定まる。視野角が同じであれば、視点中心から視線到達点までの距離が短い方が視野は狭く、長い方が視野は広い。視野が狭い状態は対象物を近距離から見ている状態であり、各対象物の細部までクライアントのモニターに表示されるが、狭い範囲しか表示されない。一方、視野が広い状態は対象物を遠距離から見ている状態であり、各対象物の細部はモニターに表示されないが、広い範囲が表示される。 The field of view is determined by the distance from the viewpoint center to the line-of-sight arrival point and the viewing angle. If the viewing angle is the same, the shorter the distance from the viewpoint center to the line of sight arrival point, the narrower the field of view, and the longer the distance, the wider the field of view. When the field of view is narrow, the object is viewed from a short distance, and the details of each object are displayed on the client's monitor, but only a narrow range is displayed. On the other hand, a state where the field of view is wide is a state where the object is viewed from a long distance, and details of each object are not displayed on the monitor, but a wide range is displayed.
視点中心座標は、アバターが3D空間内を移動すれば、その移動と共に変化する。例えば、アバターが3D空間内のXY平面上をX方向にx1、Y方向にy1だけ移動すれば、視点中心座標もX方向にx1、Y方向にy1だけ移動する。視線方向はアバターが移動しなくても、アバターの頭部が左を向いたり、右を向いたり、上を向いたり、下を向いたりすれば変化する。例えば、アバターの頭部が右に45度回転すれば、視線方向も右に45度回転する。アバターの頭部が10度上を向けば、視線方向も10度上を向く。 If the avatar moves in the 3D space, the viewpoint center coordinates change with the movement. For example, if the avatar moves on the XY plane in the 3D space by x1 in the X direction and y1 in the Y direction, the viewpoint center coordinates also move by x1 in the X direction and y1 in the Y direction. Even if the avatar does not move, the line of sight changes if the head of the avatar turns to the left, turns to the right, turns to the top, or turns to the bottom. For example, if the head of the avatar rotates 45 degrees to the right, the line-of-sight direction also rotates 45 degrees to the right. If the avatar's head faces 10 degrees, the line-of-sight direction also faces 10 degrees.
また、サーバ3は、クライアント1bに第1アバターの構成情報と位置情報を送信する際に(S113)、第1アバターの視線情報も送信する。
Further, when the server 3 transmits the configuration information and the position information of the first avatar to the
これにより、クライアント1bの表示手段には自アバターである第2アバターと、クライアント1aの第1アバターとが表示可能となる。また、受信した第1アバターの視線方向に基づいて第1アバターの顔が向いている方向が求まり、クライアント1bの表示手段に表示される。クライアント1bの表示手段に表示されている第1アバターの顔の向きから、クライアント1aの表示手段に表示されている3D空間のおおよその範囲を推測することができる。
Thereby, the 2nd avatar which is a self-avatar and the 1st avatar of the
次に、サーバ3はクライアント1bから第2アバターの位置情報を受信する際に(S115)、第2アバターの視線情報も受信し、位置情報を記憶する際に(S116)、受信した視線情報も記憶する。
Next, when the server 3 receives the position information of the second avatar from the
図9(b)に示すように、例えば、テーブルT231の時刻フィールドF232に位置情報等を受信した時刻TM221を、空間IDフィールドF233に空間ID”K001”を、位置フィールドF234に3D空間内における第2アバターの位置座標データ”x221,y221,z221”を、視点中心フィールドF235に第2アバターの視点中心の座標データ”x225,y225,z225”を、視線方向フィールドF236に第1アバターの視線方向を示すデータ”sh2361”を、視野角フィールドF237に視野角を格納する。 As shown in FIG. 9B, for example, the time TM221 at which position information is received in the time field F232 of the table T231, the space ID “K001” in the space ID field F233, and the position ID in the 3D space in the position field F234. 2 The position coordinate data “x221, y221, z221” of the avatar, the coordinate data “x225, y225, z225” of the viewpoint center of the second avatar in the viewpoint center field F235, and the line-of-sight direction of the first avatar in the line-of-sight direction field F236 The viewing angle is stored in the viewing angle field F237 for the indicated data “sh2361”.
また、サーバ3は、クライアント1aに第2アバターの構成情報と位置情報を送信する際に(S117)、第2アバターの視線情報も送信する。
Further, when the server 3 transmits the configuration information and position information of the second avatar to the
その後、サーバ3は、各クライアントから位置情報及び視線情報を受信したら、同じ3D空間に存在する他のクライアントにそれら情報を送信する。例えば、クライアント1aから第1アバターの位置座標”x212,y212,z212”、視点中心座標”x216,y216,z216”及び視線方向sh2262を受信したら、それら位置座標、視点中心座標及び視線方向等並びにその受信時刻”TM212”をテーブルT221の各フィールドに記録し、かつ位置座標、視点中心座標、視線方向及び視野角をクライアント1bに送信する。
After that, when the server 3 receives the position information and the line-of-sight information from each client, the server 3 transmits the information to other clients existing in the same 3D space. For example, when the position coordinates “x212, y212, z212”, the viewpoint center coordinates “x216, y216, z216” and the line-of-sight direction sh2262 of the first avatar are received from the
同様に、サーバ3は、クライアント1bから第2アバターの位置座標”x222,y222,z222”、視点中心座標”x226,y226,z226”及び視野方向r2362を受信したら、それら位置座標、視点中心座標及び視線方向等並びにその受信時刻”T222”をテーブルT231の各フィールドに記録し、位置座標、視点中心座標、視線方向及び視野角をクライアント1aに送信する。
Similarly, when the server 3 receives the position coordinates “x222, y222, z222”, the viewpoint center coordinates “x226, y226, z226” and the viewing direction r2362 of the second avatar from the
このような実施例2によれば、各アバターが(つまりは、各ユーザが)、いつ、どの3D空間にいて、その3D空間内のどこから、どの方向を見ていたかという情報をテーブルT221、T231に記録することができる。このため、各3D空間の、どこに、どのような映像が、いつ表示されていたかという情報と照らし合わせることによって、いつ、どのような属性を有するユーザが、どのような映像の「どの部分を中心」として、「どの範囲まで」、どれだけの時間、見ていたか、そしてその範囲には何が表示されていたかを知ることができる。 According to the second embodiment, each of the avatars (that is, each user), when in which 3D space, and from which position in the 3D space, and in which direction the information is viewed from the tables T221 and T231. Can be recorded. For this reason, by comparing with information on where and what video was displayed when and in each 3D space, the user having what attribute when and what “what part of the video is centered” "To what range", how long it was viewed, and what was displayed in that range.
このため、3D空間のどこに視線が集中するかが把握でき、例えば、そのような視線が集中する位置に貼る広告の広告掲載料を高額に設定することなどができる。 For this reason, it is possible to grasp where the line of sight concentrates in the 3D space. For example, it is possible to set an advertisement insertion fee for an advertisement to be pasted at a position where such a line of sight concentrates.
図10に基づいて、発言情報送受信に関するサーバ3における処理の流れ、及びサーバ3、クライアント1a、クライアント1b間において送受信されるデータ、情報について説明する。
Based on FIG. 10, the flow of processing in the server 3 relating to transmission / reception of speech information, and data and information transmitted / received between the server 3, the
実施例3と実施例1との相違点は、実施例3では位置情報のみならず、各アバターが何を発言したかも送受信の対象とすることである。 The difference between the third embodiment and the first embodiment is that, in the third embodiment, not only the position information but also what each avatar says is also subject to transmission / reception.
空間IDを比較し、同じ空間IDをサーバ3に送信してきたクライアントに互いのアバターの構成情報等を送信する処理(S101〜S117)は既になされ、それによってクライアント1aの表示手段には自アバターである第1アバターと、クライアント1bの第2アバターとが表示され、クライアント1bの表示手段には自アバターである第2アバターと、クライアント1aの第1アバターとが表示されているものとする。
The processing (S101 to S117) for comparing the space IDs and transmitting the configuration information and the like of each other's avatars to the clients that have transmitted the same space ID to the server 3 has already been performed. A certain 1st avatar and the 2nd avatar of the
さらに、クライアント1aから第1アバターの位置情報を受信し、記憶し、クライアント1bへ送信し、クライアント1bから第2アバターの位置情報を受信し、記憶し、クライアント1aへ送信する位置情報送受信処理(S119〜S125)も既になされているものとする。
Furthermore, the positional information transmission / reception process of receiving the position information of the first avatar from the
実施例1,2と同様に、実施例3においても、サーバ3は、各クライアントから「定期的に」各クライアントのアバターに関する位置情報を受信し、記憶し、他のクライアントに転送する。 Similar to the first and second embodiments, also in the third embodiment, the server 3 receives the position information regarding each client's avatar “periodically” from each client, stores it, and forwards it to other clients.
さらに、実施例3において、サーバ3は、各クライアントから「随時」各クライアントの発言情報を受信し、他のクライアントに転送し、発言情報とその転送先を記憶する。「随時」とは、いずれかのクライアントから発言情報が発信され次第という趣旨である。 Further, in the third embodiment, the server 3 receives the message information of each client “as needed” from each client, transfers it to other clients, and stores the message information and its transfer destination. “As needed” means that message information is sent from any client.
図10に示すように、例えば、クライアント1aから第1アバターの発言情報を受信し(S127)、その発言情報をクライアント1bに送信し(S129)、その発言情報とその送信先を記憶する(S130)。同様に、クライアント1bから第2アバターの発言情報を受信し(S131)、その発言情報をクライアント1aに送信し(S133)、その発言情報とその送信先を記憶する(S134)。
As shown in FIG. 10, for example, the utterance information of the first avatar is received from the
サーバ3は、各クライアントから発言情報を受信したら、以下に示す情報をチャットログとして記憶する。例えば、クライアント1aから第1アバターの発言情報として”こんにちは”に相当するテキストデータを受信したら、その発言が行われた日時(DayTime)と、発言者であるユーザのID(UserID)と、発言が行われた空間のID(WorldID)と、発言内容を示すテキストデータ(ChatText)と、そのテキストデータを受信した他のクライアントのID(RecvUserID)とをチャットログとして記憶する。
When the server 3 receives the remark information from each client, the server 3 stores the following information as a chat log. For example, upon receiving the text data corresponding to "Hi" as the speech information of the first avatar from the
チャットログの形式の一例を以下に示す。
DayTime[¥t]UserID[¥t]WorldID[¥t]ChatText[¥t]RecvUserID([¥t]RecvUserID・・・)[¥r][¥n]
テキストデータを受信する他のクライアントが複数である場合は、受信するクライアント全てのユーザIDを記憶する。なお、ここで[¥t]はタブを、[¥r]はリターンを、[¥n]は改行をそれぞれ意味する。
An example of the chat log format is shown below.
DayTime [\ t] UserID [\ t] WorldID [\ t] ChatText [\ t] RecvUserID ([\ t] RecvUserID ...) [\ r] [\ n]
When there are a plurality of other clients that receive the text data, the user IDs of all the clients that receive the text data are stored. Here, [¥ t] means a tab, [¥ r] means a return, and [¥ n] means a line feed.
さらに、チャットログには3D空間で表示されたハンドル名や発言ユーザのIPアドレスなどを含めても良い。 Furthermore, the chat log may include the handle name displayed in the 3D space, the IP address of the speaking user, and the like.
前記の如く、サーバ3における発言情報の受信、記憶、転送は、いずれかのクライアントから発言情報が発信された場合に行われる。一方、位置情報の受信、記憶、転送は定期的に行われる。 As described above, the message information is received, stored, and transferred in the server 3 when the message information is transmitted from any client. On the other hand, reception, storage, and transfer of position information are performed periodically.
このような実施例3によれば、実施例1,2の効果に加えて、さらに何を見ながら「なんと発言したか」を記録することができる。このため、どのような属性を有するユーザが何を見ながら、誰と、どのような会話を3D空間内でかわしたを知ることができる。 According to the third embodiment as described above, in addition to the effects of the first and second embodiments, it is possible to record what is said while watching what is further viewed. Therefore, it is possible to know who and what kind of conversation has been exchanged in the 3D space while watching what the user having what attribute has.
チャットログは、発言者、発言時刻、発言内容(ChatText)を記録しているので、誰がなんと発言し、それに対して誰がなんと発言したかを知ることができる。このため、第1の発言内容だけではその意味が不明な場合であっても、その直前の第2の発言内容を参照することにより、第1の発言内容の意味を理解することもできる。 Since the chat log records the speaker, the speech time, and the content of the speech (ChatText), it is possible to know who said what and who said what. For this reason, even if the meaning of the first utterance content alone is unknown, it is possible to understand the meaning of the first utterance content by referring to the immediately preceding second utterance content.
例えば、図3(b)に図示されている第2アバターavt2の発言13「クロスをあげるときの方がいいなあ」は二人の選手を見ながらの発言であるため、この発言内容だけではいずれの選手に関する発言かを特定することができない。
For example, the
しかし、図3(a)に図示されている第1アバターavt1の直前の発言12「ドリブルしている○○ってカッコイイよね」の内容から、第2アバターavt2の発言も「ドリブルしている○○」選手に関する発言であると特定することができる。
However, from the content of the
また、図4(b)に図示されている第2アバターavt2の発言15「そうだよね」はこの発言内容だけでは何に同意しているのかを特定することができない。
In addition, it is impossible to specify what the
しかし、図4(a)に図示されている第1アバターavt1の直前の発言「カッコイイー」の内容から、第2アバターavt2の発言も「カッコイイー」に関する同意であると特定することができる。 However, from the content of the utterance “cool” immediately before the first avatar avt1 illustrated in FIG. 4A, the utterance of the second avatar avt2 can also be specified as an agreement regarding “cool”.
ここまでの説明では、実施例3においては、説明の簡略化のため視線情報を送受信の対象としていないが、実施例2と同様に位置情報の送受信時に視線情報も送受信するとしても良いことは言うまでもない。 In the description so far, in the third embodiment, the line-of-sight information is not the target of transmission / reception for the sake of simplification, but it goes without saying that the line-of-sight information may also be transmitted / received when the position information is transmitted / received as in the second embodiment. Yes.
それによって、例えば、図4(a)の発言14「カッコイイー」に対して図4(b)の発言15「そうだよね」は、同一選手に対する発言であるように思われても、各アバターの視点中心座標を記録し、それを調べることによって、第1アバターavt1の発言14はドリブルしている選手の足下を見ながらの発言であるのに対し、第2アバターavt2の発言15はドリブルしている選手の左側を走っている選手の顔を見ながらの発言であることなどがわかる。
Accordingly, for example, the
そして例えば、第1アバターavt1のユーザの性別が「男性」であり、一方、第2アバターavt2のユーザの性別が「女性」である場合、男性向け商品の宣伝広告ではドリブルしている選手の映像を使用した方がその商品の消費者である男性に対するアピール度が高く、一方、女性向け商品の宣伝広告ではドリブルしている選手の左側を走っている選手の映像を使用した方がその商品の消費者である女性に対するアピール度が高いことなどがわかる。 And, for example, if the gender of the user of the first avatar avt1 is “male” and the gender of the user of the second avatar avt2 is “female”, the video of the player dribbling in the advertisement for the product for men Is more appealing to men who are consumers of the product, while in the advertising for women's products, it is better to use the video of the player running on the left side of the dribbling player It can be seen that the appeal to women as consumers is high.
また、3D空間内に広告を貼ったり装飾をしたりした場合に、どの広告、どの装飾を、どのような属性を有するアバターが、どれだけの回数、どれだけの時間、見てどのような発言をしたかという情報を取得することができ、そのような情報をマーケティング情報として活用することができる。 In addition, when an advertisement is put or decorated in a 3D space, what advertisement, which decoration, what avatar has what attribute, how many times, how long, what kind of remarks Information on whether or not the user has performed can be acquired, and such information can be used as marketing information.
特に、複数のアバターが同一空間で同一の広告を見ている場合に、どのユーザがどのような発言をし、他のユーザがその発言に対しどのように返答したかの情報を収集できる。これを分析することで、発言したユーザの属性に応じてどんな感想を持つのかがわかる。またさらに、視野情報と結びつければ、空間内のどこをみて発言したかがわかり、より詳細な情報収集が可能である。 In particular, when a plurality of avatars are viewing the same advertisement in the same space, it is possible to collect information on what user has made what statement and how other users have responded to the statement. By analyzing this, it is possible to see what impressions are given according to the attributes of the user who made the statement. Furthermore, if it is combined with visual field information, it is possible to know where in the space you have spoken and to collect more detailed information.
図11及び図12に基づいて、映像ID比較処理に関するサーバ3における処理の流れ、及びサーバ3、クライアント1a、クライアント1b間において送受信されるデータ、情報について説明する。
Based on FIG.11 and FIG.12, the flow of the process in the server 3 regarding a video ID comparison process, and the data and information transmitted / received between the server 3, the
図11は、映像ID比較処理に関するサーバ3における処理の流れ、及びサーバ3、クライアント1a、クライアント1b間において送受信されるデータ、情報を示すシーケンス図である。
FIG. 11 is a sequence diagram illustrating a process flow in the server 3 regarding the video ID comparison process, and data and information transmitted / received between the server 3, the
図12は、空間IDと映像IDとの対応関係、映像ID毎の条件などを示すテーブルである。 FIG. 12 is a table showing the correspondence between space IDs and video IDs, conditions for each video ID, and the like.
実施例1〜3では空間IDと映像IDとが一対一に対応していたため、空間IDを選択すれば映像IDを選択しなくても映像IDが特定された。しかし、実施例4では空間IDと映像IDとが一対一に対応していないため、空間IDの選択とは別に映像IDを選択する必要がある。 In the first to third embodiments, the space ID and the video ID correspond to each other on a one-to-one basis. Therefore, if the space ID is selected, the video ID is specified without selecting the video ID. However, since the space ID and the video ID do not correspond one-to-one in the fourth embodiment, it is necessary to select the video ID separately from the selection of the space ID.
図11に示すように、サーバ3は、クライアント1aから空間IDを受信し(S201)、クライアント1aのクライアントIDとクライアント1aに送信する空間IDとを関連付けて記録し(S202)、その空間IDに予め関連付けられている複数の映像タイトルからいずれか一つを選択することが可能な3D空間をクライアントの表示手段に表示可能な空間構成情報をクライアント1aに送信する(S203)。
As shown in FIG. 11, the server 3 receives the space ID from the
図12(a)及び(b)に示すように、例えば、サーバ3は、クライアント1aから空間ID”K401”を受信した場合、テーブルT401のレコードR401の空間IDフィールドF404に空間ID”K401”を格納し、テーブルT411を参照して空間ID”K401”に関連付けられている空間構成ファイル”401.html”をクライアント1aに送信する。空間構成ファイル”401.html”内には映像ファイル”401.mpeg”、”402.mpeg”・・・などへリンク付けされているタグが埋め込まれているものとする。
As shown in FIGS. 12A and 12B, for example, when the server 3 receives the space ID “K401” from the
例えば、<A Href="http:/URL/401.mpeg">映像タイトル名xxx</A>などである。このため、クライアント1aでは、受信したHTMLファイルがWebブラウザによって解釈され、表示手段に表示される3D空間内に”映像タイトル名xxx”などが表示される。
For example, <A Href="http:/URL/401.mpeg"> video title name xxx </A>. Therefore, in the
次に、サーバ3は、クライアント1aから映像IDを受信し(S205)、受信した映像IDをユーザIDと関連付けて記憶する(S206)。
Next, the server 3 receives the video ID from the
例えば、サーバ3は、クライアント1aから映像ID”E401”を受信した場合、テーブルT401のレコードR401の映像IDフィールドF405に映像ID”E401”を格納する。
For example, when the server 3 receives the video ID “E401” from the
次に、サーバ3は、クライアント1aに映像IDに対応する映像ファイルなどの映像情報を送信する(S207)。
Next, the server 3 transmits video information such as a video file corresponding to the video ID to the
例えば、ユーザAがマウスポインタなどのポインティングデバイスを用いて空間構成ファイル”401.html”内の<A Href="http:/URL/401.mpeg">映像タイトル名xxx</A>に対応する部分をクリックすると、クライアント1aに映像ファイル”401.mpeg”が送信される。
For example, the user A corresponds to <A Href="http:/URL/401.mpeg"> video title name xxx </A> in the space configuration file “401.html” using a pointing device such as a mouse pointer. When the portion is clicked, the video file “401.mpeg” is transmitted to the
次に、サーバ3はクライアント1bから空間IDを受信し(S209)、クライアント1bのクライアントIDとクライアント1bに送信する空間IDとを関連付けて記憶し(S210)、その空間IDに予め関連付けられている複数の映像タイトルからいずれか一つを選択することが可能な3D空間をクライアントの表示手段に表示可能な空間構成情報をクライアント1bに送信する(S211)。
Next, the server 3 receives the space ID from the
例えば、サーバ3は、クライアント1bから空間ID”K401”を受信した場合、クライアント1aへ送信した空間構成ファイルと同じ空間構成ファイルをクライアント1bへ送信する。
For example, when the server 3 receives the space ID “K401” from the
次に、サーバ3は、クライアント1bから映像IDを受信し(S213)、受信した映像IDをユーザIDと関連付けて記憶する(S214)。
Next, the server 3 receives the video ID from the
例えば、サーバ3は、クライアント1bから映像ID”E401”を受信した場合、テーブルT401のレコードR402の映像IDフィールドF405に映像ID”E401”を格納する。
For example, when the server 3 receives the video ID “E401” from the
次に、サーバ3は、クライアント1bに映像IDに対応する映像ファイルなどの映像情報を送信する(S215)。
Next, the server 3 transmits video information such as a video file corresponding to the video ID to the
そして、サーバ3はクライアント1aから受信し、ステップS202で記憶した空間IDと、クライアント1bから受信し、ステップS210で記憶した空間IDとを比較し、かつクライアント1aから受信し、ステップS206で記憶した映像IDと、クライアント1bから受信し、ステップS214で記憶した映像IDとを比較する(S216)。
The server 3 compares the space ID received from the
両空間IDが同じで、かつ両映像IDが同じである場合に限り、第1アバター構成情報をクライアント1bへ送信し、第2アバター構成情報をクライアント1aに送信する。これにより、クライアント1aの表示手段には自アバターである第1アバターと、クライアント1bの第2アバターとが表示可能となり、クライアント1bの表示手段には自アバターである第2アバターと、クライアント1aの第1アバターとが表示可能となる。
Only when both space IDs are the same and both video IDs are the same, the first avatar configuration information is transmitted to the
テーブルT401の例では、レコードR402と空間IDも映像IDも同じレコードは、レコードR401だけである。レコードR403は映像IDは一致するが、空間IDは一致しない。レコードR404は空間IDは一致するが、映像IDは一致しない。よって、第1アバター構成情報がクライアント1b以外の他のクライアントに送信されることも、第2アバター構成情報がクライアント1a以外の他のクライアントに送信されることもない。
In the example of the table T401, the record R401 has the same space ID and video ID as the record R402. The record R403 matches the video ID, but does not match the space ID. The record R404 matches the space ID, but does not match the video ID. Therefore, the first avatar configuration information is not transmitted to clients other than the
その後、サーバ3は、実施例1のステップS119〜S125に示したように、各クライアントから定期的に各アバターの位置情報を受信し、記憶し、同一空間かつ同一映像を受信している他のクライアントにその位置情報を転送する。さらに、サーバ3は、実施例3のステップS127〜S134に示したように、各クライアントから随時、各アバターの発言情報を受信し、チャットログを記録し、同一空間かつ同一映像を受信している他のクライアントにその発言情報を転送する。 Thereafter, as shown in steps S119 to S125 of the first embodiment, the server 3 periodically receives and stores the position information of each avatar from each client, and receives the same space and the same video. Transfer the location information to the client. Furthermore, as shown in steps S127 to S134 of the third embodiment, the server 3 receives speech information of each avatar from each client as needed, records a chat log, and receives the same space and the same video. Forward the message information to other clients.
このような実施例4によれば、実施例1〜3の効果に加え、同じ空間と同じ映像を選択したアバター同士が、どの映像を見ながら、どのような会話をかわしたかをログファイルに記録することができる。 According to the fourth embodiment, in addition to the effects of the first to third embodiments, the avatars who have selected the same image in the same space record what kind of conversation while watching which image is recorded in the log file. can do.
このような実施例4によれば、3D空間内で映画の試写会を開催することができる。試写会参加者は実空間を移動する必要がないので、従来の実空間で行う試写会には参加できなかった遠隔地居住者なども3D空間内で開催される試写会には容易に参加することができる。このため3D空間内で開催される試写会であれば、日本全国から参加者を募ることが容易にでき、従来の実空間で開催されていた試写会には参加する機会が極めて少なかった地方都市や離島の居住者の感想、反応を取得することができる。 According to the fourth embodiment, a movie preview can be held in the 3D space. Since the preview participants do not need to move in the real space, remote residents who could not participate in the conventional preview in the real space can easily participate in the preview held in the 3D space. be able to. For this reason, if it is a preview that is held in 3D space, it is easy to recruit participants from all over Japan, and there are very few opportunities to participate in the preview that was held in the actual space. You can get the impressions and reactions of residents on the islands.
さらに、実空間で開催される試写会では上映中に発言することは通常、禁止され、試写会終了後に各参加者にアンケートに回答してもらうなどして情報を取得していた。このため、各参加者の回答が映画全体に対する漠然とした印象であったり、どのシーンに対する回答なのか明確でない場合が少なくなかった。しかし、3D空間内で開催される試写会では、参加者に自由にチャットしてもらっても他の参加者の視聴を妨げずに済むため、上映中の発言を禁止する必要はない。このため、参加者に上映中もリアルタイムで自由にチャットしてもらうことができ、そのチャット内容を逐次記録することによって、各参加者が各シーン毎にどのような感想をもったのかを正確に取得することができる。そして、そのような感想を分析することによって、試写会開催後封切り前のプロモーションの方針を決定することなどが可能となる。 In addition, it is usually forbidden to speak during the screenings in the real space, and after the preview, the participants were asked to answer the questionnaire to obtain information. For this reason, there are many cases where each participant's answer is a vague impression of the whole movie, or it is not clear which scene the answer is. However, in the preview held in 3D space, it is not necessary to prohibit other participants from chatting, so it is not necessary to prohibit remarks during the screening. For this reason, participants can chat freely in real time even during the screening, and by recording the chat content in sequence, it is possible to accurately identify what each participant had for each scene. Can be acquired. And by analyzing such impressions, it becomes possible to decide the promotion policy after the preview and before the opening.
また、各映像ファイル毎にその映像ファイルを選択候補として提示する条件を設定し、各ユーザの基本情報に基づいて、各映像ファイルを選択候補として提示する、提示しないを決定することが好ましい。 Moreover, it is preferable to set conditions for presenting the video file as a selection candidate for each video file, and to determine whether to present each video file as a selection candidate or not based on the basic information of each user.
例えば、図12(c)のテーブルT431に示すように、年令制限フィールドF435を設け、映像ID”E402”に対応する映像ファイルに関しては年令制限”有り”とする。また、クライアント1aのユーザ基本情報中には”年令:18”と記録されているものとする。このような場合、サーバ3は、ステップS201において、クライアント1aから空間ID”K401”を受信したら、ステップS203において、映像ID”E401”、”E403”に対応する映像ファイルのみが選択候補として表示され、映像ID”E402”に対応する映像ファイルは選択候補として表示されないように変更してから、空間構成ファイル”401.html”をクライアント1aに送信する。
For example, as shown in a table T431 in FIG. 12C, an age restriction field F435 is provided, and the age restriction is “present” for the video file corresponding to the video ID “E402”. In addition, it is assumed that “age: 18” is recorded in the user basic information of the
一方、クライアント1bのユーザ基本情報中には”年令:22”と記録されているものとする。このような場合、サーバ3は、ステップS209において、クライアント1bから空間ID”K401”を受信したら、ステップS211において、映像ID”E401”、”E403”に対応する映像ファイルのみならず、映像ID”E402”に対応する映像ファイルも選択候補として表示される状態のまま、空間構成ファイル”401.html”をクライアント1aに送信する。
On the other hand, it is assumed that “year: 22” is recorded in the user basic information of the
このようにすることにより、多くの選択候補の中から適切な映像ファイルのみを選択可能な状態とした空間構成ファイルをクライアントに送信することが可能となる。このように予めユーザの年齢などの属性に基づいて選択候補を絞り込むことによって、本来そのユーザが選択してはいけない映像ファイルのタイトルは表示されなくなる。また、ユーザの性別、年齢に基づいて特定の性別、年齢層向けの映像ファイルのタイトルを上位に表示するなど、選択候補の表示順序を変えることによって、ユーザが映像タイトルを選択する際の労力が軽減される。 By doing so, it becomes possible to transmit to the client a spatial configuration file in which only an appropriate video file can be selected from many selection candidates. By narrowing selection candidates in advance based on attributes such as the user's age in this way, titles of video files that the user should not select are no longer displayed. In addition, by changing the display order of the selection candidates, such as displaying the title of a video file for a specific gender and age group based on the gender and age of the user, the effort when the user selects a video title can be reduced. It is reduced.
301…主制御部(CPU)
303…記憶装置
305…入出力制御部
307…送受信部
311…3D空間表示ファイル
313…動画ファイル
317…チャットログファイル
319…ユーザ管理情報ファイル
301 ... Main control unit (CPU)
303 ...
Claims (15)
空間IDと、前記空間IDに対応する空間構成情報と映像情報とを記憶し、
前記第1クライアントコンピュータから前記空間IDと、第1アバターの第1位置情報とを受信したら、第1ユーザの第1ユーザIDと前記空間IDと前記第1位置情報と第1時刻情報とを関連付けて記憶し、前記第2クライアントコンピュータへ前記第1位置情報を送信し、
前記第2クライアントコンピュータから前記空間IDと、第2アバターの第2位置情報とを受信したら、第2ユーザの第2ユーザIDと前記空間IDと前記第2位置情報と第2時刻情報とを関連付けて記憶し、前記第1クライアントコンピュータへ前記第2位置情報を送信する、アバター情報送受信方法。 A server computer capable of transmitting and receiving data to and from the first and second client computers;
Storing a space ID, space configuration information corresponding to the space ID, and video information;
When the space ID and the first position information of the first avatar are received from the first client computer, the first user ID of the first user, the space ID, the first position information, and the first time information are associated with each other. And storing the first location information to the second client computer,
When the space ID and the second position information of the second avatar are received from the second client computer, the second user ID of the second user, the space ID, the second position information, and the second time information are associated with each other. The avatar information transmitting / receiving method of storing and transmitting the second position information to the first client computer.
前記第1クライアントコンピュータから前記第1アバターの第1視線情報を受信したら、前記第1ユーザIDと前記第1視線情報とを関連付けて記憶し、前記第2クライアントコンピュータへ前記第1視線情報を送信し、
前記第2クライアントコンピュータから前記第2アバターの第2視線情報を受信したら、前記第2ユーザIDと前記第2視線情報とを関連付けて記憶し、前記第1クライアントコンピュータへ前記第2視線情報を送信する、請求項1に記載のアバター情報送受信方法。 When the server computer further receives the first line-of-sight information of the first avatar from the first client computer, the server computer stores the first user ID and the first line-of-sight information in association with each other to the second client computer. Send first line of sight information,
When the second line-of-sight information of the second avatar is received from the second client computer, the second user ID and the second line-of-sight information are stored in association with each other, and the second line-of-sight information is transmitted to the first client computer. The avatar information transmitting / receiving method according to claim 1.
前記第1クライアントコンピュータから前記第1アバターの第1発言情報を受信したら、前記第1ユーザIDと前記第1発言情報とを関連付けて記憶し、前記第2クライアントコンピュータへ前記第1発言情報を送信し、
前記第2クライアントコンピュータから前記第2アバターの第2発言情報を受信したら、前記第2ユーザIDと前記第2発言情報とを関連付けて記憶し、前記第1クライアントコンピュータへ前記第2発言情報を送信する、請求項1又は2に記載のアバター情報送受信方法。 When the server computer further receives the first message information of the first avatar from the first client computer, the server computer stores the first user ID and the first message information in association with each other, and stores the first message information in the second client computer. Send the first message information,
When the second message information of the second avatar is received from the second client computer, the second user ID and the second message information are stored in association with each other, and the second message information is transmitted to the first client computer. The avatar information transmission / reception method according to claim 1 or 2.
1つの前記空間IDに対して、複数の映像IDと複数の前記映像情報を関連付けて記憶し、
前記第1クライアントコンピュータから前記空間IDを受信したら、前記空間IDに関連付けられている複数の前記映像IDを選択候補として前記第1クライアントコンピュータに送信し、前記選択候補の中から選択された前記映像IDを前記第1クライアントコンピュータから受信したら、前記第1クライアントコンピュータに前記選択された前記映像IDに関連付けられている前記映像情報を送信し、
前記第2クライアントコンピュータから前記空間IDを受信したら、前記空間IDに関連付けられている複数の前記映像IDを選択候補として前記第2クライアントコンピュータに送信し、前記選択候補の中から選択された前記映像IDを前記第2クライアントコンピュータから受信したら、前記第2クライアントコンピュータに前記選択された前記映像IDに関連付けられている前記映像情報を送信する、請求項1乃至3のいずれかに記載のアバター情報送受信方法。 The server computer further comprises:
A plurality of video IDs and a plurality of the video information are stored in association with one space ID,
Upon receiving the space ID from the first client computer, the plurality of video IDs associated with the space ID are transmitted as selection candidates to the first client computer, and the video selected from the selection candidates Upon receiving the ID from the first client computer, the video information associated with the selected video ID is transmitted to the first client computer,
Upon receiving the space ID from the second client computer, the plurality of video IDs associated with the space ID are transmitted as selection candidates to the second client computer, and the video selected from the selection candidates The avatar information transmission / reception according to any one of claims 1 to 3, wherein when receiving an ID from the second client computer, the video information associated with the selected video ID is transmitted to the second client computer. Method.
前記第1,第2ユーザIDのそれぞれに第1,第2ユーザ属性情報を関連付けて記憶し、また前記映像情報のそれぞれに対象ユーザ条件を関連付けて記憶し、
前記第1クライアントコンピュータから前記空間IDを受信したら、前記空間IDに関連付けられている複数の前記映像IDの前記対象ユーザ条件と前記第1ユーザ属性情報とを比較して、前記対象ユーザ条件が満たされた前記映像IDのみを前記選択候補として前記第1クライアントコンピュータに送信し、
前記第2クライアントコンピュータから前記空間IDを受信したら、前記空間IDに関連付けられている複数の前記映像IDの前記対象ユーザ条件と前記第2ユーザ属性情報とを比較して、前記対象ユーザ条件が満たされた前記映像IDのみを前記選択候補として前記第2クライアントコンピュータに送信する、請求項4に記載のアバター情報送受信方法。 The server computer further stores first and second user attribute information in association with the first and second user IDs, and stores target user conditions in association with the video information;
When the space ID is received from the first client computer, the target user condition is satisfied by comparing the target user condition of the plurality of video IDs associated with the space ID with the first user attribute information. Only the selected video ID is transmitted as the selection candidate to the first client computer,
When the space ID is received from the second client computer, the target user condition is satisfied by comparing the target user condition of the plurality of video IDs associated with the space ID with the second user attribute information. The avatar information transmitting / receiving method according to claim 4, wherein only the video ID that has been set is transmitted as the selection candidate to the second client computer.
空間IDと、前記空間IDに対応する空間構成情報と映像情報とを記憶させ、
第1クライアントコンピュータから前記空間IDと、第1アバターの第1位置情報とを受信したら、第1ユーザの第1ユーザIDと前記空間IDと前記第1位置情報と第1時刻情報とを関連付けて記憶させ、前記第2クライアントコンピュータへ前記第1位置情報を送信させ、
第2クライアントコンピュータから前記空間IDと、第2アバターの第2位置情報とを受信したら、第2ユーザの第2ユーザIDと前記空間IDと前記第2位置情報と第2時刻情報とを関連付けて記憶させ、前記第1クライアントコンピュータへ前記第2位置情報を送信させる、アバター情報送受信プログラム。 A server computer capable of transmitting and receiving data to and from the first and second client computers;
Storing space ID, space configuration information corresponding to the space ID, and video information;
When the space ID and the first position information of the first avatar are received from the first client computer, the first user ID of the first user, the space ID, the first position information, and the first time information are associated with each other. Storing the first position information to the second client computer;
When the space ID and the second position information of the second avatar are received from the second client computer, the second user ID of the second user, the space ID, the second position information, and the second time information are associated with each other. An avatar information transmission / reception program for storing and transmitting the second position information to the first client computer.
前記第1クライアントコンピュータから前記第1アバターの第1視線情報を受信したら、前記第1ユーザIDと前記第1視線情報とを関連付けて記憶させ、前記第2クライアントコンピュータへ前記第1視線情報を送信させ、
前記第2クライアントコンピュータから前記第2アバターの第2視線情報を受信したら、前記第2ユーザIDと前記第2視線情報とを関連付けて記憶させ、前記第1クライアントコンピュータへ前記第2視線情報を送信させる、請求項6に記載のアバター情報送受信プログラム。 When the server computer further receives the first line-of-sight information of the first avatar from the first client computer, the server computer stores the first user ID and the first line-of-sight information in association with each other, and the second client computer stores the first line-of-sight information. Send the first line-of-sight information,
When the second line-of-sight information of the second avatar is received from the second client computer, the second user ID and the second line-of-sight information are stored in association with each other, and the second line-of-sight information is transmitted to the first client computer. The avatar information transmitting / receiving program according to claim 6.
第1クライアントコンピュータから前記第1アバターの第1発言情報を受信したら、前記第1ユーザIDと前記第1発言情報とを関連付けて記憶させ、前記第2クライアントコンピュータへ前記第1発言情報を送信させ、
第2クライアントコンピュータから前記第2アバターの第2発言情報を受信したら、前記第2ユーザIDと前記第2発言情報とを関連付けて記憶させ、前記第1クライアントコンピュータへ前記第2発言情報を送信させる、請求項6又は7に記載のアバター情報送受信プログラム。 When the server computer further receives the first message information of the first avatar from the first client computer, the server computer stores the first user ID and the first message information in association with each other, and the second client computer stores the first message information. Send 1 remark information,
When the second message information of the second avatar is received from the second client computer, the second user ID and the second message information are stored in association with each other, and the second message information is transmitted to the first client computer. The avatar information transmission / reception program according to claim 6 or 7.
1つの前記空間IDに対して、複数の映像IDと複数の前記映像情報を関連付けて記憶させ、
前記第1クライアントコンピュータから前記空間IDを受信したら、前記空間IDに関連付けられている複数の前記映像IDを選択候補として前記第1クライアントコンピュータに送信させ、前記選択候補の中から選択された前記映像IDを前記第1クライアントコンピュータから受信したら、前記第1クライアントコンピュータに前記選択された前記映像IDに関連付けられている前記映像情報を送信させ、
前記第2クライアントコンピュータから前記空間IDを受信したら、前記空間IDに関連付けられている複数の前記映像IDを選択候補として前記第2クライアントコンピュータへ送信させ、前記選択候補の中から選択された前記映像IDを前記第2クライアントコンピュータから受信したら、前記第2クライアントコンピュータへ前記選択された前記映像IDに関連付けられている前記映像情報を送信させる、請求項6乃至8のいずれかに記載のアバター情報送受信プログラム。 In addition to the server computer,
A plurality of video IDs and a plurality of the video information are stored in association with one space ID,
Upon receiving the space ID from the first client computer, the plurality of video IDs associated with the space ID are transmitted as selection candidates to the first client computer, and the video selected from the selection candidates When the ID is received from the first client computer, the first client computer is caused to transmit the video information associated with the selected video ID,
When the space ID is received from the second client computer, a plurality of the video IDs associated with the space ID are transmitted as selection candidates to the second client computer, and the video selected from the selection candidates The avatar information transmission / reception according to any one of claims 6 to 8, wherein when the ID is received from the second client computer, the video information associated with the selected video ID is transmitted to the second client computer. program.
前記第1,第2ユーザIDのそれぞれに第1,第2ユーザ属性情報を関連付けて記憶させ、また前記映像情報のそれぞれに対象ユーザ条件を関連付けて記憶させ、
前記第1クライアントコンピュータから前記空間IDを受信したら、前記空間IDに関連付けられている複数の前記映像IDの前記対象ユーザ条件と前記第1ユーザ属性情報とを比較させ、前記対象ユーザ条件が満たされた前記映像IDのみを前記選択候補として前記第1クライアントコンピュータへ送信させ、
前記第2クライアントコンピュータから前記空間IDを受信したら、前記空間IDに関連付けられている複数の前記映像IDの前記対象ユーザ条件と前記第2ユーザ属性情報とを比較させ、前記対象ユーザ条件が満たされた前記映像IDのみを前記選択候補として前記第2クライアントコンピュータへ送信させる、請求項9に記載のアバター情報送受信プログラム。 The server computer further stores the first and second user attribute information in association with the first and second user IDs, and stores the target user condition in association with each of the video information,
When the space ID is received from the first client computer, the target user condition of the plurality of video IDs associated with the space ID is compared with the first user attribute information, and the target user condition is satisfied. And sending only the video ID as the selection candidate to the first client computer,
When the space ID is received from the second client computer, the target user condition of the plurality of video IDs associated with the space ID is compared with the second user attribute information, and the target user condition is satisfied. The avatar information transmission / reception program according to claim 9, wherein only the video ID is transmitted to the second client computer as the selection candidate.
第1クライアントコンピュータから前記空間IDと第1アバターの第1位置情報とを受信し、第2クライアントコンピュータから前記空間IDと第2アバターの第2位置情報とを受信する受信手段と、
前記第1クライアントコンピュータへ前記第2位置情報を送信し、前記第2クライアントコンピュータへ前記第1位置情報を送信する送信手段と、
前記受信手段が、前記第1クライアントコンピュータから前記空間IDと前記第1位置情報とを受信したら、前記記憶手段に、第1ユーザの第1ユーザIDと前記空間IDと前記第1位置情報と第1時刻情報とを関連付けて記憶させ、前記送信手段に、前記第2クライアントコンピュータへ前記第1位置情報を送信させ、
前記受信手段が、前記第2クライアントコンピュータから前記空間IDと前記第2位置情報とを受信したら、前記記憶手段に、第2ユーザの第2ユーザIDと前記空間IDと前記第2位置情報と第2時刻情報とを関連付けて記憶させ、前記送信手段に、前記第1クライアントコンピュータへ前記第2位置情報を送信させる制御手段と、を備えるアバター情報送受信装置。 Storage means for storing a space ID, space configuration information corresponding to the space ID, and video information;
Receiving means for receiving the space ID and the first position information of the first avatar from the first client computer, and receiving the space ID and the second position information of the second avatar from the second client computer;
Transmitting means for transmitting the second position information to the first client computer and transmitting the first position information to the second client computer;
When the receiving unit receives the space ID and the first location information from the first client computer, the storage unit stores the first user ID, the space ID, the first location information, and the first location information of the first user. 1 time information is associated and stored, and the transmission means transmits the first location information to the second client computer,
When the receiving unit receives the space ID and the second location information from the second client computer, the storage unit stores the second user ID, the space ID, the second location information, and the second location information of the second user. An avatar information transmitting / receiving apparatus comprising: control means for storing two-time information in association with each other, and causing the transmission means to transmit the second position information to the first client computer.
前記受信手段が、前記第1クライアントコンピュータから前記第1アバターの第1視線情報を受信したら、前記記憶手段に、前記第1ユーザIDと前記第1視線情報とを関連付けて記憶させ、前記送信手段に、前記第1クライアントコンピュータへ前記第2視線情報を送信させ、
前記受信手段が、前記第2クライアントコンピュータから前記第2アバターの第2視線情報を受信したら、前記記憶手段に、前記第2ユーザIDと前記第2視線情報とを関連付けて記憶させ、前記送信手段に、前記第2クライアントコンピュータへ前記第1視線情報を送信させる、請求項11に記載のアバター情報送受信装置。 When the receiving means receives the first line-of-sight information of the first avatar from the first client computer, the control means associates the first user ID and the first line-of-sight information with the storage means. Storing, causing the transmission means to transmit the second line-of-sight information to the first client computer,
When the receiving means receives the second line-of-sight information of the second avatar from the second client computer, the storage means associates and stores the second user ID and the second line-of-sight information, and the transmitting means The avatar information transmitting / receiving apparatus according to claim 11, wherein the first line-of-sight information is transmitted to the second client computer.
前記受信手段が、第1クライアントコンピュータから前記第1アバターの第1発言情報を受信したら、前記記憶手段に、前記第1ユーザIDと前記第1発言情報とを関連付けて記憶させ、前記送信手段に、前記第1クライアントコンピュータへ前記第2発言情報を送信させ、
前記受信手段が、第2クライアントコンピュータから前記第2アバターの第2発言情報を受信したら、前記記憶手段に、前記第2ユーザIDと前記第2発言情報とを関連付けて記憶させ、前記送信手段に、前記第2クライアントコンピュータへ前記第1発言情報を送信させる、請求項11又は12に記載のアバター情報送受信装置。 The control means further stores the first user ID and the first message information in association with each other when the receiving means receives the first message information of the first avatar from the first client computer. And causing the transmission means to transmit the second message information to the first client computer,
When the receiving means receives the second speech information of the second avatar from the second client computer, the storage means associates and stores the second user ID and the second speech information, and the transmitting means The avatar information transmitting / receiving apparatus according to claim 11, wherein the first utterance information is transmitted to the second client computer.
前記記憶手段に、1つの前記空間IDに対して、複数の映像IDと複数の前記映像情報を関連付けて記憶させ、
前記受信手段が、前記第1クライアントコンピュータから前記空間IDを受信したら、前記送信手段に、前記空間IDに関連付けられている複数の前記映像IDを選択候補として前記第1クライアントコンピュータへ送信させ、前記受信手段が、前記選択候補の中から選択された前記映像IDを前記第1クライアントコンピュータから受信したら、前記送信手段に、前記第1クライアントコンピュータへ前記選択された前記映像IDに関連付けられている前記映像情報を送信させ、
前記受信手段が、前記第2クライアントコンピュータから前記空間IDを受信したら、前記送信手段に、前記空間IDに関連付けられている複数の前記映像IDを選択候補として前記第2クライアントコンピュータへ送信させ、前記受信手段が、前記選択候補の中から選択された前記映像IDを前記第2クライアントコンピュータから受信したら、前記第2クライアントコンピュータへ前記選択された前記映像IDに関連付けられている前記映像情報を送信させる、請求項11乃至13のいずれかに記載のアバター情報送受信装置。 The control means further includes
The storage means stores a plurality of video IDs and a plurality of the video information in association with one space ID,
When the reception unit receives the space ID from the first client computer, the transmission unit causes the plurality of video IDs associated with the space ID to be transmitted as selection candidates to the first client computer, and When receiving means receives the video ID selected from the selection candidates from the first client computer, the transmitting means associates the selected video ID with the selected video ID to the first client computer. Send video information,
When the receiving unit receives the space ID from the second client computer, the transmitting unit causes the plurality of video IDs associated with the space ID to be transmitted as selection candidates to the second client computer, and When the receiving unit receives the video ID selected from the selection candidates from the second client computer, the receiving unit transmits the video information associated with the selected video ID to the second client computer. The avatar information transmitting / receiving apparatus according to any one of claims 11 to 13.
前記記憶手段に、前記第1,第2ユーザIDのそれぞれに第1,第2ユーザ属性情報を関連付けて記憶させ、また前記映像情報のそれぞれに対象ユーザ条件を関連付けて記憶させ、
前記受信手段が、前記第1クライアントコンピュータから前記空間IDを受信したら、前記比較手段に、前記空間IDに関連付けられている複数の前記映像IDの前記対象ユーザ条件と前記第1ユーザ属性情報とを比較させ、前記対象ユーザ条件が満たされた前記映像IDのみを、前記送信手段に、前記選択候補として前記第1クライアントコンピュータへ送信させ、
前記受信手段が、前記第2クライアントコンピュータから前記空間IDを受信したら、前記比較手段に、前記空間IDに関連付けられている複数の前記映像IDの前記対象ユーザ条件と前記第2ユーザ属性情報とを比較させ、前記対象ユーザ条件が満たされた前記映像IDのみを、前記送信手段に、前記選択候補として前記第2クライアントコンピュータへ送信させる、請求項14に記載のアバター情報送受信装置。
The control means further comprises a comparison means,
The storage means stores the first and second user attribute information in association with the first and second user IDs respectively, and stores the target user condition in association with each of the video information,
When the receiving unit receives the space ID from the first client computer, the comparing unit receives the target user condition of the plurality of video IDs associated with the space ID and the first user attribute information. Let the transmission means transmit only the video ID that satisfies the target user condition as the selection candidate to the first client computer,
When the receiving means receives the space ID from the second client computer, the comparing means sends the target user condition and the second user attribute information of the plurality of video IDs associated with the space ID. The avatar information transmitting / receiving apparatus according to claim 14, wherein the avatar information transmitting / receiving apparatus causes the transmitting unit to transmit only the video ID satisfying the target user condition as the selection candidate to the second client computer.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003332367A JP2005100053A (en) | 2003-09-24 | 2003-09-24 | Method, program and device for sending and receiving avatar information |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003332367A JP2005100053A (en) | 2003-09-24 | 2003-09-24 | Method, program and device for sending and receiving avatar information |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2005100053A true JP2005100053A (en) | 2005-04-14 |
Family
ID=34460731
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2003332367A Pending JP2005100053A (en) | 2003-09-24 | 2003-09-24 | Method, program and device for sending and receiving avatar information |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2005100053A (en) |
Cited By (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008107895A (en) * | 2006-10-23 | 2008-05-08 | Nomura Research Institute Ltd | Virtual space providing server, virtual space providing system, and computer program |
JP2008117042A (en) * | 2006-11-01 | 2008-05-22 | Nomura Research Institute Ltd | Virtual space providing server, virtual space providing system, and computer program |
JP2009199198A (en) * | 2008-02-20 | 2009-09-03 | Nomura Research Institute Ltd | Virtual space providing server, virtual space providing method, and computer program |
WO2009136605A1 (en) | 2008-05-08 | 2009-11-12 | 株式会社エヌ・ティ・ティ・ドコモ | Virtual space provision device, program, and virtual space provision system |
JP2010015333A (en) * | 2008-07-02 | 2010-01-21 | Yahoo Japan Corp | Advertisement distribution server and method for displaying advertisement viewed by user inside metaverse in web page |
JP2010535363A (en) * | 2007-03-01 | 2010-11-18 | ソニー コンピュータ エンタテインメント アメリカ リミテッド ライアビリテイ カンパニー | Virtual world avatar control, interactivity and communication interactive messaging |
JP2011518612A (en) * | 2008-04-24 | 2011-06-30 | ソニー コンピュータ エンタテインメント アメリカ リミテッド ライアビリテイ カンパニー | System and method for participating in real-time media demonstration and game system |
JP2011229614A (en) * | 2010-04-26 | 2011-11-17 | Square Enix Co Ltd | Network game system, client device and program |
JP2011244081A (en) * | 2010-05-14 | 2011-12-01 | Funai Electric Co Ltd | Communication method, master display device, slave display devices, and communication system with the same |
JP2013080486A (en) * | 2012-11-26 | 2013-05-02 | Funai Electric Co Ltd | Communication method, master display device, slave display device, and communication system equipped with them |
WO2014061715A1 (en) * | 2012-10-19 | 2014-04-24 | グリー株式会社 | Image distribution method, image distribution server device and chat system |
JP2014086077A (en) * | 2013-05-09 | 2014-05-12 | Gree Inc | Image distribution method, image distribution server device and chat system |
JP2015195039A (en) * | 2015-06-09 | 2015-11-05 | グリー株式会社 | Image distribution method, image distribution server device, and chat system |
JP2022180373A (en) * | 2021-01-29 | 2022-12-06 | グリー株式会社 | Computer program, method, and server |
JP2022184842A (en) * | 2020-11-19 | 2022-12-13 | グリー株式会社 | Computer program, method, and server device |
-
2003
- 2003-09-24 JP JP2003332367A patent/JP2005100053A/en active Pending
Cited By (24)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008107895A (en) * | 2006-10-23 | 2008-05-08 | Nomura Research Institute Ltd | Virtual space providing server, virtual space providing system, and computer program |
JP2008117042A (en) * | 2006-11-01 | 2008-05-22 | Nomura Research Institute Ltd | Virtual space providing server, virtual space providing system, and computer program |
JP2010535363A (en) * | 2007-03-01 | 2010-11-18 | ソニー コンピュータ エンタテインメント アメリカ リミテッド ライアビリテイ カンパニー | Virtual world avatar control, interactivity and communication interactive messaging |
JP2010535362A (en) * | 2007-03-01 | 2010-11-18 | ソニー コンピュータ エンタテインメント アメリカ リミテッド ライアビリテイ カンパニー | Monitoring the opinions and reactions of users in the virtual world |
JP2009199198A (en) * | 2008-02-20 | 2009-09-03 | Nomura Research Institute Ltd | Virtual space providing server, virtual space providing method, and computer program |
JP2016025876A (en) * | 2008-04-24 | 2016-02-12 | ソニー コンピュータ エンタテインメント アメリカ リミテッド ライアビリテイ カンパニー | System and method for real-time participation in video presentation, and game system |
US8904430B2 (en) | 2008-04-24 | 2014-12-02 | Sony Computer Entertainment America, LLC | Method and apparatus for real-time viewer interaction with a media presentation |
JP2011518612A (en) * | 2008-04-24 | 2011-06-30 | ソニー コンピュータ エンタテインメント アメリカ リミテッド ライアビリテイ カンパニー | System and method for participating in real-time media demonstration and game system |
US9584862B2 (en) | 2008-04-24 | 2017-02-28 | Sony Interactive Entertainment America Llc | Method and apparatus for real-time viewer interaction with a media presentation |
US10412456B2 (en) | 2008-04-24 | 2019-09-10 | Sony Interactive Entertainment, LLC | Method and apparatus for real-time viewer interaction with a media presentation |
WO2009136605A1 (en) | 2008-05-08 | 2009-11-12 | 株式会社エヌ・ティ・ティ・ドコモ | Virtual space provision device, program, and virtual space provision system |
JP2010015333A (en) * | 2008-07-02 | 2010-01-21 | Yahoo Japan Corp | Advertisement distribution server and method for displaying advertisement viewed by user inside metaverse in web page |
JP2011229614A (en) * | 2010-04-26 | 2011-11-17 | Square Enix Co Ltd | Network game system, client device and program |
JP2011244081A (en) * | 2010-05-14 | 2011-12-01 | Funai Electric Co Ltd | Communication method, master display device, slave display devices, and communication system with the same |
US11169655B2 (en) | 2012-10-19 | 2021-11-09 | Gree, Inc. | Image distribution method, image distribution server device and chat system |
WO2014061715A1 (en) * | 2012-10-19 | 2014-04-24 | グリー株式会社 | Image distribution method, image distribution server device and chat system |
US11662877B2 (en) | 2012-10-19 | 2023-05-30 | Gree, Inc. | Image distribution method, image distribution server device and chat system |
JP2013080486A (en) * | 2012-11-26 | 2013-05-02 | Funai Electric Co Ltd | Communication method, master display device, slave display device, and communication system equipped with them |
JP2014086077A (en) * | 2013-05-09 | 2014-05-12 | Gree Inc | Image distribution method, image distribution server device and chat system |
JP2015195039A (en) * | 2015-06-09 | 2015-11-05 | グリー株式会社 | Image distribution method, image distribution server device, and chat system |
JP2022184842A (en) * | 2020-11-19 | 2022-12-13 | グリー株式会社 | Computer program, method, and server device |
JP7479017B2 (en) | 2020-11-19 | 2024-05-08 | グリー株式会社 | Computer program, method, and server device |
JP2022180373A (en) * | 2021-01-29 | 2022-12-06 | グリー株式会社 | Computer program, method, and server |
JP7480965B2 (en) | 2021-01-29 | 2024-05-10 | グリー株式会社 | Computer program, method, and server |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11228555B2 (en) | Interactive content in a messaging platform | |
US10136168B2 (en) | System and method for recognition of items in media data and delivery of information related thereto | |
US11166074B1 (en) | Creating customized programming content | |
US8572177B2 (en) | 3D social platform for sharing videos and webpages | |
US9723335B2 (en) | Serving objects to be inserted to videos and tracking usage statistics thereof | |
US20090063983A1 (en) | System and method for representing content, user presence and interaction within virtual world advertising environments | |
CN111435999B (en) | Method, device, equipment and storage medium for displaying information on video | |
US20090313324A1 (en) | Interactive viewing of media content | |
US20110244954A1 (en) | Online social media game | |
US8667402B2 (en) | Visualizing communications within a social setting | |
US20110225515A1 (en) | Sharing emotional reactions to social media | |
US20110239136A1 (en) | Instantiating widgets into a virtual social venue | |
US20100095326A1 (en) | Program content tagging system | |
US20110225039A1 (en) | Virtual social venue feeding multiple video streams | |
US20120257112A1 (en) | System for Combining Video Data Streams into a Composite Video Data Stream | |
US9224156B2 (en) | Personalizing video content for Internet video streaming | |
JP2005100053A (en) | Method, program and device for sending and receiving avatar information | |
US20110225516A1 (en) | Instantiating browser media into a virtual social venue | |
JP2013513304A (en) | System and method for determining proximity of media objects in a 3D media environment | |
US20110225498A1 (en) | Personalized avatars in a virtual social venue | |
CN102968729A (en) | User-based advertisement target location | |
US20110225518A1 (en) | Friends toolbar for a virtual social venue | |
US20110225517A1 (en) | Pointer tools for a virtual social venue | |
Cecil | Online video revolution: How to reinvent and market your business using video | |
Lei | [Retracted] Design of Digital Media Advertisement from the Perspective of Base Image Schema Based on Web |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20060614 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20080916 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20081113 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20081216 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20090206 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20090310 |