JP4889690B2 - Conversation display method and server apparatus - Google Patents

Conversation display method and server apparatus Download PDF

Info

Publication number
JP4889690B2
JP4889690B2 JP2008171197A JP2008171197A JP4889690B2 JP 4889690 B2 JP4889690 B2 JP 4889690B2 JP 2008171197 A JP2008171197 A JP 2008171197A JP 2008171197 A JP2008171197 A JP 2008171197A JP 4889690 B2 JP4889690 B2 JP 4889690B2
Authority
JP
Japan
Prior art keywords
conversation
avatar
user
speech
avatars
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2008171197A
Other languages
Japanese (ja)
Other versions
JP2010009512A (en
Inventor
郁成 結城
太郎 児玉
博 高橋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yahoo Japan Corp
Original Assignee
Yahoo Japan Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yahoo Japan Corp filed Critical Yahoo Japan Corp
Priority to JP2008171197A priority Critical patent/JP4889690B2/en
Publication of JP2010009512A publication Critical patent/JP2010009512A/en
Application granted granted Critical
Publication of JP4889690B2 publication Critical patent/JP4889690B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、仮想空間におけるアバタが発する会話のログを表示する会話表示法及びサーバ装置に関する。 The present invention relates to a conversational display side Ho及 beauty server device that displays a log of the conversation avatar in the virtual space emitted.

近年、コンピュータネットワーク上のサーバ装置が作り出す仮想空間(仮想世界ともいう)において、コンピュータネットワーク上のサーバ装置に接続された端末におけるユーザの分身であるアバタ(Avatar)を利用したコミュニケーションが行われている。アバタを利用したコミュニケーションには、一般に、チャットが用いられる。なお、チャットとは、1対1、1対多数、多数対多数による文字による会話であり、会話内容は発言者アバタの近傍にキャプションとして表示される。   In recent years, in a virtual space (also referred to as a virtual world) created by a server device on a computer network, communication using an avatar (Avatar) which is a user's alternation in a terminal connected to the server device on the computer network is performed. . Generally, chat is used for communication using an avatar. Note that chat is a one-to-one, one-to-many, and many-to-many conversation with characters, and the conversation content is displayed as a caption near the speaker avatar.

仮想空間において、偶然に自己のアバタ近くで行われている会話のキャプションを見たユーザが、その会話に関心を持つ場合がある。このような場合に、自己のアバタを関心を持った会話に参加させることなく、ユーザが会話の内容を知ることができる装置がある(特許文献1)。   In a virtual space, a user who accidentally sees a caption of a conversation being performed near his avatar may be interested in the conversation. In such a case, there is an apparatus that allows the user to know the content of the conversation without allowing his / her avatar to participate in the conversation with interest (Patent Document 1).

特許文献1に記載の装置は、メッセージ交換を行っている複数のアバタが位置する場所の近傍に配置された第三者のアバタのユーザに対してもメッセージを送信する。即ち、メッセージの交換に参加していない第三者のアバタのユーザに対してもメッセージを送信することにより、現実の世界において、実際に会話には参加していないが、近くにいることにより会話の内容を聴取することができる状態と同様の状態を作り出している。
特開2003−67317号公報
The apparatus described in Patent Literature 1 also transmits a message to a third-party avatar user arranged near a place where a plurality of avatars performing message exchange are located. In other words, by sending a message to a third-party avatar user who has not participated in the message exchange, in the real world, he / she is not actually participating in the conversation, but is conversing when he / she is nearby. This creates a state that is similar to the state in which the content of the content can be heard.
JP 2003-67317 A

特許文献1に記載の装置では、ユーザは、会話が行われている場所の近傍に自己のアバタを配置した時点からの会話の内容を知ることができる。しかし、会話は連続しているため、自己のアバタを配置した時点からの会話の内容を知るだけでは、会話の内容が理解しにくいという問題点がある。また、自己のアバタを配置した時点より前の会話の内容がユーザの知りたい内容である場合もある。   In the device described in Patent Literature 1, the user can know the content of the conversation from the time when the user's own avatar is arranged in the vicinity of the place where the conversation is performed. However, since the conversation is continuous, there is a problem that it is difficult to understand the content of the conversation only by knowing the content of the conversation from the time when the own avatar is arranged. In some cases, the content of the conversation prior to the time when the own avatar is arranged is the content that the user wants to know.

そこで、上記問題点を解決するため、ユーザが会話に関心を持ち、会話の内容を知るために何らかのアクションを行うまでの会話のログを表示する装置またはシステムが求められている。   Therefore, in order to solve the above problems, there is a need for a device or system that displays a conversation log until a user is interested in conversation and takes some action to know the content of the conversation.

また、仮想空間において、発言者に対する会話相手を判断するのは困難である。なぜならば、会話を行っているアバタが必ずしも向き合っているとは限らず、また、アバタやキャプションがひしめきあっている場所において、発言者のキャプションに対応する他のキャプションを内容から判断することは困難であるからである。そのため、後から会話に加わったアバタのユーザが会話相手がわからず会話についていけないという問題点がある。   Also, it is difficult to determine the conversation partner for the speaker in the virtual space. This is because the avatars who are talking are not necessarily facing each other, and it is difficult to judge other captions corresponding to the captions of the speaker from the content in places where avatars and captions are crowded. Because there is. For this reason, there is a problem in that an avatar user who joined the conversation later cannot follow the conversation because the conversation partner is not known.

そこで、上記問題点を解決するため、ユーザが関心をもった会話の発言者及び会話相手を判定し、ユーザに表示する装置またはシステムが求められている。   Therefore, in order to solve the above problems, there is a need for an apparatus or system that determines the speaker and conversation partner of a conversation in which the user is interested and displays the conversation to the user.

本発明は、仮想空間におけるアバタが発する会話の発言者に対する会話相手を判定し、発言者及び会話相手を明示した会話ログを表示する会話表示方法及びサーバ装置を提供することを目的とする。   An object of the present invention is to provide a conversation display method and a server device that determine a conversation partner with respect to a speaker of a conversation that an avatar utters in a virtual space and display a conversation log that clearly indicates the speaker and the conversation partner.

本発明では、以下のような解決手段を提供する。   The present invention provides the following solutions.

(1) ネットワークを介して提供する仮想空間において、仮想空間内のアバタが行う会話を制御するサーバ装置と、当該サーバ装置と通信可能に接続された端末が実行する会話表示方法であって、
仮想空間内のアバタに対応するユーザを識別するユーザ識別ステップと、
識別されたユーザからの発言を受け付ける発言受付ステップと、
受け付けた発言の会話相手となるユーザを判定する会話相手判定ステップと、
前記受け付けた発言と、発言したユーザと、会話相手となるユーザとを対応付けて会話ログとして記憶する会話ログ記憶ステップと、
前記発言を、発言したユーザに対応するアバタと共に表示する会話表示ステップと、
表示された発言に対して、他のユーザからの選択を受け付ける会話選択受付ステップと、
前記選択を受け付けた発言に対応する会話ログを抽出する会話ログ抽出ステップと、
前記抽出した会話ログを、前記判定した会話相手との対話形式で表示する会話ログ表示ステップと、
を備える会話表示方法。
(1) In a virtual space provided via a network, a server device that controls a conversation performed by an avatar in the virtual space, and a conversation display method executed by a terminal connected to be communicable with the server device,
A user identification step for identifying a user corresponding to the avatar in the virtual space;
A speech acceptance step for accepting speech from the identified user;
A conversation partner determination step for determining a user who is a conversation partner of the received speech;
A conversation log storage step for storing the received utterance, the uttered user, and the user as the conversation partner in association with each other and storing it as a conversation log;
A conversation display step for displaying the remarks together with an avatar corresponding to the reciting user;
Conversation selection reception step for receiving selections from other users in response to the displayed remarks;
A conversation log extracting step of extracting a conversation log corresponding to the utterance that accepted the selection;
A conversation log display step for displaying the extracted conversation log in a conversation format with the determined conversation partner ;
A conversation display method comprising:

(1)の構成によれば、表示された発言が他のユーザから選択されたことに応じて、選択された発言に対応する会話ログを抽出し、抽出した会話ログを対話形式で表示することができる。例えば、ユーザCが自己の端末にてアバタAの会話の発言を選択した場合には、アバタAの過去の会話ログが表示される。表示される会話ログとは、例えば、アバタAがアバタBと会話をしているとすると、アバタAとアバタBとの会話が対話形式で表示されたものである。従って、選択された発言に対応する会話のログが発言者及び会話相手を明示した対話形式で表示されることにより、発言を選択した他のユーザが容易に会話内容及び会話参加者を知ることができる。   According to the configuration of (1), in response to the displayed utterance being selected by another user, the conversation log corresponding to the selected utterance is extracted, and the extracted conversation log is displayed in an interactive format. Can do. For example, when the user C selects the speech of the avatar A conversation at his / her terminal, the past conversation log of the avatar A is displayed. The displayed conversation log is, for example, a conversation between the avatar A and the avatar B displayed in an interactive form when the avatar A has a conversation with the avatar B. Accordingly, the conversation log corresponding to the selected utterance is displayed in an interactive form in which the utterer and the conversation partner are clearly indicated, so that other users who have selected the utterance can easily know the conversation contents and the conversation participants. it can.

(2) 前記アバタに対応するユーザの操作指示に応じて、前記仮想空間内において、前記アバタを移動する移動ステップと、
前記発言したユーザに対応するアバタの前記仮想空間内の位置を判別する位置判別ステップと、
を更に備え、
判別した前記アバタの仮想空間内の位置から、所定の距離内に他のアバタが位置するかを判定すると共に、前記他のアバタが前記所定の範囲内に所定の時間以上位置するかを判定し、前記他のアバタに対応するユーザを前記受け付けた発言の会話相手となるユーザと判定する(1)に記載の会話表示方法。
(2) a moving step of moving the avatar in the virtual space in response to a user operation instruction corresponding to the avatar;
A position determining step of determining a position in the virtual space of an avatar corresponding to the speaking user;
Further comprising
From the determined position of the avatar in the virtual space, it is determined whether another avatar is positioned within a predetermined distance, and whether the other avatar is positioned within the predetermined range for a predetermined time or more is determined. The conversation display method according to (1), wherein a user corresponding to the other avatar is determined to be a user who is a conversation partner of the received speech.

(2)の構成によれば、仮想空間における発言したユーザに対応するアバタと他のアバタとの位置に基づいて、発言したユーザがアバタを介して行っている会話の会話相手である他のユーザを判定することができる。例えば、複数のアバタが存在する仮想空間において、自己の分身であるアバタを介して会話を行っているユーザAがいる場合に、ユーザAのアバタの位置から所定の範囲内に位置し、かつ所定の範囲内に所定の時間以上位置するアバタBをアバタAの会話相手と判定する。ここで、所定の範囲内とは、アバタAから等距離の範囲を意味し、例えば、アバタAから5mの範囲、つまり、アバタAを中心とした半径5mの円内のことである。また、所定の時間とは、例えば、会話表示サーバ装置が発言を受信してからの一定時間であり、具体的には、アバタAの発言をサーバ装置が受信してから5分のことである。従って、複数のユーザが存在する仮想空間においてアバタ同士の会話が行われてる際に、発言したユーザに対応するアバタの会話相手となるアバタをアバタ同士の一定時間の位置関係に基づいて適切に特定することにより、発言したユーザの会話相手となるユーザを適切に判定することができる。   According to the configuration of (2), the other user who is the conversation partner of the conversation that the speaking user is performing via the avatar based on the position of the avatar corresponding to the speaking user and the other avatar in the virtual space Can be determined. For example, in a virtual space where a plurality of avatars exist, when there is a user A who is having a conversation via his / her own avatar, the user A is located within a predetermined range from the position of the avatar and The avatar B located within the range of a predetermined time or more is determined as the conversation partner of the avatar A. Here, “within a predetermined range” means a range equidistant from the avatar A, for example, within a range of 5 m from the avatar A, that is, within a circle with a radius of 5 m centering on the avatar A. The predetermined time is, for example, a fixed time after the conversation display server apparatus receives the message, and specifically, is five minutes after the server apparatus receives the message of the avatar A. . Therefore, when avatars are talking in a virtual space where there are multiple users, the avatar that is the conversation partner of the avatar corresponding to the user who spoke is appropriately identified based on the positional relationship between the avatars for a certain period of time. By doing so, it is possible to appropriately determine the user who is the conversation partner of the speaking user.

(3) 前記アバタの仮想空間内の位置から所定の距離内に複数の前記他のアバタが存在する場合に、
前記位置判別ステップは、所定の時間内において、前記アバタまたは複数の前記他のアバタそれぞれに対応するユーザの操作指示に応じて、移動した前記アバタまたは複数の前記他のアバタそれぞれの位置を判別し、
判別された前記アバタの位置と複数の前記他のアバタそれぞれの位置とに基づいて、前記所定の時間内において、複数の前記他のアバタであって前記アバタに接近しているアバタに対応するユーザを、前記受け付けた発言の会話相手となるユーザと判定する(2)に記載の会話表示方法。
(3) When there are a plurality of the other avatars within a predetermined distance from the position of the avatar in the virtual space,
The position determining step determines a position of the moved avatar or the plurality of other avatars in accordance with a user operation instruction corresponding to the avatar or the plurality of other avatars within a predetermined time. ,
Based on the determined position of the avatar and the position of each of the plurality of other avatars, the user corresponding to the avatar that is the plurality of other avatars and is approaching the avatar within the predetermined time (2) The conversation display method according to (2), wherein it is determined that the user is a conversation partner of the received speech.

(3)の構成によれば、(2)に記載の構成により発言したユーザに対応するアバタの会話相手と判定されたアバタが複数の場合に(以下、(2)に記載の構成により発言したユーザに対応するアバタの会話相手と判定された複数のアバタを会話相手候補アバタという)、所定の時間内において、発言をしたユーザまたは会話相手候補アバタそれぞれに対応するユーザの操作指示に応じて、移動したアバタそれぞれの位置を判別する。発言をしたユーザに対応するアバタまたは会話相手候補アバタそれぞれの判別された位置に基づいて、所定の時間内において、会話相手候補アバタの内、発言をしたユーザに対応するアバタに接近しているアバタに対応するユーザを、発言したユーザの会話相手となるユーザと判定する。従って、複数のユーザが存在する仮想空間においてアバタ同士の会話が行われている際に、会話相手の判断基準にアバタ同士の距離の変化を用いることにより、発言したユーザの会話相手をより適切に特定することができる。   According to the configuration of (3), when there are a plurality of avatars determined as conversation partners of the avatar corresponding to the user who has spoken by the configuration described in (2) (hereinafter, the configuration described in (2) A plurality of avatars determined to be conversation partners of the avatar corresponding to the user are referred to as conversation partner candidate avatars), and within a predetermined time, in accordance with user operation instructions corresponding to each of the user who made a statement or the conversation partner candidate avatar, The position of each moved avatar is determined. Based on the determined positions of the avatar corresponding to the user who made the speech or the conversation partner candidate avatar, the avatar approaching the avatar corresponding to the user who made the speech among the conversation partner candidate avatars within a predetermined time. The user corresponding to is determined to be a user who is a conversation partner of the speaking user. Therefore, when conversations between avatars are conducted in a virtual space where a plurality of users exist, the change in the distance between the avatars is used as a criterion for determining the conversation partner, so that the conversation partner of the speaking user can be more appropriately Can be identified.

(4) 前記アバタの仮想空間内の位置から所定の距離内に複数の前記他のアバタが存在する場合に、
前記アバタに対して友達関係を有する複数のアバタをリストとして記憶するステップと、
複数の前記他のアバタであって前記リストに記憶されているアバタに対応するユーザを前記受け付けた発言の会話相手となるユーザと判定する(2)または(3)に記載の会話表示方法。
(4) When there are a plurality of the other avatars within a predetermined distance from the position of the avatar in the virtual space,
Storing a plurality of avatars having a friendship relationship with the avatar as a list;
The conversation display method according to (2) or (3 ), wherein a plurality of other avatars and users corresponding to the avatars stored in the list are determined as users who are conversation partners of the accepted speech.

(4)の構成によれば、会話相手候補アバタがいる場合に、発言したユーザに対応するアバタに対して友達関係を有する複数のアバタをリストとして記憶する。会話相手候補アバタの内、リストに記憶されているアバタに対応するユーザを、発言したユーザの会話相手となるユーザと判定することができる。従って、複数のユーザが存在する仮想空間においてアバタ同士の会話が行われてる際に、会話相手の判断にアバタ同士の友達関係を加味することにより、発言したユーザに対応するの会話相手をより適切に特定することができる。   According to the configuration of (4), when there is a conversation partner candidate avatar, a plurality of avatars having a friend relationship with the avatar corresponding to the speaking user are stored as a list. Among the conversation partner candidate avatars, the user corresponding to the avatar stored in the list can be determined as the user who is the conversation partner of the speaking user. Therefore, when conversations between avatars are conducted in a virtual space where there are a plurality of users, the conversation partner corresponding to the user who spoke is more appropriate by adding the friendship between the avatars to the judgment of the conversation partner. Can be specified.

(5) 前記アバタの仮想空間内の位置から所定の距離内に複数の前記他のアバタが存在する場合に、
ユーザが発言をした発言時刻を受け付ける時刻受付ステップと、
前記発言時刻を前記発言と、前記発言したユーザと、前記会話相手となるユーザとを対応付けて記憶する時刻記憶ステップと、
を更に備え、
複数の前記他のアバタそれぞれに対応するユーザであって、前記ユーザの発言時刻から所定の時間以内である発言時刻に対応付けられている前記発言したユーザを、前記受け付けた言の会話相手となるユーザと判定する(2)から(4)のいずれかに記載の会話表示方法。
(5) When there are a plurality of the other avatars within a predetermined distance from the position of the avatar in the virtual space,
A time reception step for receiving a speech time when the user made a speech;
A time storage step of storing the utterance time in association with the utterance, the uttered user, and the conversation partner user;
Further comprising
A user corresponding to each of a plurality of the other avatars, users who have the talk from speech time of the user associated with the speech time is within the predetermined time, the conversation partner of the accepted remarks The conversation display method according to any one of (2) to (4), wherein the user is determined to be a user.

(5)の構成によれば、会話相手候補アバタがいる場合に、ユーザが発言した発言時刻を発言等に対応付けて記憶し、会話相手候補アバタに対応するユーザの内、発言時刻から所定の時間以内に発言したユーザを発言したユーザの会話相手となるユーザと判定することができる。例えば、発言したユーザの発言時刻の直後に発言した他のユーザのアバタを会話相手と判定する。従って、複数のユーザが存在する仮想空間においてアバタ同士の会話が行われてる際に、会話相手の判断基準に会話のキャッチボールのタイミングを用いることにより、発言したユーザに対応するの会話相手をより適切に特定することができる。   According to the configuration of (5), when there is a conversation partner candidate avatar, the speech time spoken by the user is stored in association with the speech or the like, and among the users corresponding to the conversation partner candidate avatar, a predetermined time is determined from the speech time. A user who has spoken within the time can be determined as a user who is a conversation partner of the user who has spoken. For example, an avatar of another user who has spoken immediately after the speaking time of the user who has spoken is determined as a conversation partner. Therefore, when avatars are talking in a virtual space where a plurality of users are present, the conversation partner corresponding to the speaking user can be selected by using the timing of the conversation catch ball as a criterion for the conversation partner. Can be identified appropriately.

(6) 前記アバタの仮想空間内の位置から所定の距離内に複数の前記他のアバタが存在する場合に、
前記アバタ及び複数の前記他のアバタのユーザがした発言の形態素解析により特徴量を抽出する抽出ステップと、
複数の前記他のアバタに対応するユーザであって、前記アバタのユーザがした発言と前記特徴量によって関連する発言をしたユーザを、前記受け付けた発言の会話相手となるユーザと判定する(2)から(5)のいずれかに記載の会話表示方法。
(6) When there are a plurality of the other avatars within a predetermined distance from the position of the avatar in the virtual space,
An extraction step of extracting feature values by morphological analysis of a statement made by a user of the avatar and the plurality of other avatars;
A user who corresponds to a plurality of the other avatars and who makes a comment related to the utterance made by the avatar user and the feature amount is determined as a user who is a conversation partner of the accepted utterance (2) To 5. The conversation display method according to any one of (5).

(6)の構成によれば、会話相手候補アバタがいる場合に、発言したユーザ及び会話相手候補アバタのユーザが入力した発言を形態素解析することによりそれら発言それぞれの特徴量を抽出し、発言したユーザの発言と抽出された特徴量によって関連する発言を入力した会話相手候補アバタのユーザを、発言したユーザの会話相手となるユーザと判定する。従って、複数のユーザが存在する仮想空間においてアバタ同士の会話が行われている際に、会話相手の判断基準に発言の内容、つまり、発言間の関連性を用いることにより、発言したユーザに対応する会話相手をより適切に特定することができる。   According to the configuration of (6), when there is a conversation partner candidate avatar, a feature amount of each of the utterances is extracted by performing morphological analysis on the utterance input by the user who has spoken and the user of the conversation partner candidate avatar, The user of the conversation partner candidate avatar who has input a remark related to the user's remark and the extracted feature amount is determined to be a user who is a conversation partner of the remarked user. Therefore, when avatars have conversations in a virtual space where multiple users exist, it is possible to respond to the users who have spoken by using the content of the speech, that is, the relationship between the speeches, as the criteria for determining the conversation partner. The conversation partner to be able to be identified can be identified more appropriately.

(7) 端末と通信可能に接続され、ネットワークを介して提供する仮想空間において、仮想空間内のアバタが行う会話を制御する会話表示サーバ装置であって、
仮想空間内のアバタに対応するユーザを識別するユーザ識別手段と、
識別されたユーザからの発言を受け付ける発言受付手段と、
受け付けた発言の会話相手となるユーザを判定する会話相手判定手段と、
前記受け付けた発言と、発言したユーザと、会話相手となるユーザとを対応付けて会話ログとして記憶する会話ログ記憶手段と、
前記発言を、発言したユーザに対応するアバタと共に表示する会話表示手段と、
表示された発言に対して、他のユーザからの選択を受け付ける会話選択受付手段と、
前記選択を受け付けた発言に対応する会話ログを抽出する会話ログ抽出手段と、
前記抽出した会話ログを、前記判定した会話相手との対話形式で表示する会話ログ表示手段と、
を備える会話表示サーバ装置。
(7) A conversation display server device that controls a conversation performed by an avatar in a virtual space in a virtual space that is communicably connected to a terminal and provided via a network,
User identification means for identifying a user corresponding to an avatar in the virtual space;
A speech accepting means for accepting speech from the identified user;
A conversation partner determination means for determining a user who is a conversation partner of the received speech;
Conversation log storage means for storing the received utterance, the uttered user, and the user who is the conversation partner in association with each other, and storing it as a conversation log;
Conversation display means for displaying the remarks together with an avatar corresponding to the reciting user;
Conversation selection accepting means for accepting selections from other users in response to the displayed remarks;
A conversation log extracting means for extracting a conversation log corresponding to the utterance that accepted the selection;
A conversation log display means for displaying the extracted conversation log in a conversation format with the determined conversation partner ;
A conversation display server device comprising:

(8) 前記アバタに対応するユーザの操作指示に応じて、前記仮想空間内において、前記アバタを移動する移動手段と、
前記発言したユーザに対応するアバタの前記仮想空間内の位置を判別する位置判別手段と、
を更に備え、
前記会話相手判定手段は、判別した前記アバタの仮想空間内の位置から、所定の距離内に他のアバタが位置するかを判定すると共に、前記他のアバタが前記所定の範囲内に所定の時間以上位置するかを判定し、前記他のアバタに対応するユーザを前記受け付けた発言の会話相手となるユーザと判定する(7)に記載の会話表示サーバ装置。
(8) moving means for moving the avatar in the virtual space in response to an operation instruction of a user corresponding to the avatar;
Position determining means for determining a position of the avatar corresponding to the user in the virtual space in the virtual space;
Further comprising
The conversation partner determination means determines whether another avatar is located within a predetermined distance from the determined position of the avatar in the virtual space, and the other avatar is within the predetermined range for a predetermined time. The conversation display server device according to (7), wherein it is determined whether or not the user is located and the user corresponding to the other avatar is determined to be a user who is a conversation partner of the received speech.

(9) 前記アバタの仮想空間内の位置から所定の距離内に複数の前記他のアバタが存在する場合に、
前記位置判別手段は、所定の時間内において、前記アバタまたは複数の前記他のアバタそれぞれに対応するユーザの操作指示に応じて、移動した前記アバタまたは複数の前記他のアバタそれぞれの位置を判別し、
前記会話相手判定手段は、判別された前記アバタの位置と複数の前記他のアバタそれぞれの位置とに基づいて、前記所定の時間内において、複数の前記他のアバタであって前記アバタに接近しているアバタに対応するユーザを、前記受け付けた発言の会話相手となるユーザと判定する(8)に記載の会話表示サーバ装置。
(9) When there are a plurality of the other avatars within a predetermined distance from the position of the avatar in the virtual space,
The position determining means determines the position of the moved avatar or the plurality of other avatars in accordance with a user operation instruction corresponding to the avatar or the plurality of other avatars within a predetermined time. ,
The conversation partner determination unit, based on the discriminated said other avatar position of each position and the plurality of the avatar, within the predetermined time, a plurality of the other avatar closer to the avatar (8) The conversation display server device according to (8), wherein a user corresponding to the avatar is determined to be a user who is a conversation partner of the received speech.

(10) 前記アバタの仮想空間内の位置から所定の距離内に複数の前記他のアバタが存在する場合に、
前記アバタに対して友達関係を有する複数のアバタをリストとして記憶する友達記憶手段を更に備え、
前記会話相手判定手段は、複数の前記他のアバタであって前記リストに記憶されているアバタに対応するユーザを前記受け付けた発言の会話相手となるユーザと判定する(8)または(9)に記載の会話表示サーバ装置。
(10) When there are a plurality of the other avatars within a predetermined distance from the position of the avatar in the virtual space,
A friend storage means for storing a plurality of avatars having a friendship relationship with the avatar as a list;
The conversation partner determination means determines that the user corresponding to the avatar stored in the list as a plurality of other avatars is the user who is the conversation partner of the received speech (8) or (9 ). The conversation display server device described.

(11) 前記アバタの仮想空間内の位置から所定の距離内に複数の前記他のアバタが存在する場合に、
前記発言受付手段は、ユーザが発言をした発言時刻を受け付け、
前記会話ログ記憶手段は、前記発言時刻を前記発言と、前記発言したユーザと、前記会話相手となるユーザとを対応付けて記憶し、
前記会話相手判定手段は、複数の前記他のアバタそれぞれに対応するユーザであって、前記ユーザの発言時刻から所定の時間以内である発言時刻に対応付けられている前記発言したユーザを、前記受け付けた発言の会話相手となるユーザと判定する(8)から(10)のいずれかに記載の会話表示サーバ装置。
(11) When there are a plurality of the other avatars within a predetermined distance from a position in the virtual space of the avatar,
The speech accepting means accepts the speech time when the user made a speech,
The conversation log storage means stores the speech time in association with the speech, the user who made the speech, and the user who is the conversation partner,
The conversation partner determination means is a user corresponding to each of a plurality of other avatars, and accepts the user who has said the speech that is associated with a speech time that is within a predetermined time from the speech time of the user. The conversation display server device according to any one of (8) to (10), wherein the user is determined as a user who is a conversation partner of the remark.

(12) 前記アバタの仮想空間内の位置から所定の距離内に複数の前記他のアバタが存在する場合に、
前記会話相手判定手段は、前記アバタ及び複数の前記他のアバタのユーザがした発言の形態素解析により特徴量を抽出し、複数の前記他のアバタに対応するユーザであって、前記アバタのユーザがした発言と前記特徴量によって関連する発言をしたユーザを、前記受け付けた発言の会話相手となるユーザと判定する(8)から(11)のいずれかに記載の会話表示サーバ装置。
(12) When there are a plurality of the other avatars within a predetermined distance from the position of the avatar in the virtual space,
The conversation partner determining means is a user corresponding to a plurality of the other avatars by extracting a feature amount by morphological analysis of a statement made by the user of the avatar and the plurality of other avatars, and the user of the avatar is The conversation display server device according to any one of (8) to (11), wherein a user who made a comment related to the received comment by the feature amount is determined to be a user who is a conversation partner of the received comment.

本発明によれば、仮想空間におけるアバタが発する会話の発言者に対する会話相手を判定し、発言者及び会話相手を明示した会話ログを表示する会話表示方法及びサーバ装置を提供することができる。   ADVANTAGE OF THE INVENTION According to this invention, the conversation display method and server apparatus which determine the conversation partner with respect to the speaker of the conversation which the avatar utters in virtual space, and display the conversation log which specified the speaker and the conversation partner can be provided.

以下、本発明を実施するための最良の形態について図を参照しながら説明する。なお、これはあくまでも一例であって、本発明の技術的範囲はこれに限られるものではない。   Hereinafter, the best mode for carrying out the present invention will be described with reference to the drawings. This is merely an example, and the technical scope of the present invention is not limited to this.

(第1実施形態)
[会話表示システムの全体構成]
図1は、本発明の第1実施形態に係る会話表示サーバ装置1(以下、「サーバ装置1」という)と、端末2との全体構成を示す図である。図示されているように、本実施形態のサーバ装置1は、インターネットやイントラネットに代表されるネットワーク3の通信回線を介して、端末2とデータをやり取り可能に接続されている。ここで、端末2とは、仮想空間のアバタを操作するユーザが使用する端末であり、ネットワーク3を介して、あるいは直接、他の機器等とデータのやり取り可能な機器であればよく、例えば、パーソナル・コンピュータが挙げられる。なお、本構成におけるサーバ装置1は必ずしも1台とは限らず、複数台で構成されてもよい。また、サーバ装置1は、会話管理手段10及び記憶手段30を備える。会話管理手段10は、仮想空間における、アバタの会話ログの管理や会話ログの提供を行う。記憶手段30は、会話管理手段10にて使用される情報が記憶されている。
(First embodiment)
[Overall Configuration of the meeting talking about Display System]
FIG. 1 is a diagram showing an overall configuration of a conversation display server device 1 (hereinafter referred to as “server device 1”) and a terminal 2 according to the first embodiment of the present invention. As illustrated, the server device 1 according to the present embodiment is connected to the terminal 2 so as to exchange data via a communication line of a network 3 represented by the Internet or an intranet. Here, the terminal 2 is a terminal used by a user who operates an avatar in the virtual space, and may be any device that can exchange data with other devices or the like via the network 3, for example, A personal computer may be mentioned. In addition, the server apparatus 1 in this structure is not necessarily one unit, and may be composed of a plurality of units. The server device 1 includes a conversation manager 1 0及 beauty storage means 30. The conversation management means 10 manages avatar conversation logs and provides conversation logs in the virtual space. The storage unit 30 stores information used by the conversation management unit 10.

[会話表示サーバ装置の機能構成]
図2は、本発明の第1実施形態のサーバ装置1の機能構成を示す図である。会話管理手段10は、会話選択受付手段としてキャプション受付手段11、会話ログ抽出手段12、会話ログ表示手段として会話ログ送信手段13、発言受付手段14、ユーザ識別手段15、会話表示手段としてキャプション表示送信手段16、位置判別手段17、会話相手判定手段18、操作受付手段19及び移動手段20を備える。また、記憶手段30は、会話ログ記憶手段として会話ログDB31、アバタDB32、位置履歴DB33及び友達記憶手段として友達DB34を備える。
Functional Configuration of the meeting talking Display Server]
FIG. 2 is a diagram illustrating a functional configuration of the server device 1 according to the first embodiment of this invention. The conversation management unit 10 includes a caption reception unit 11 as a conversation selection reception unit, a conversation log extraction unit 12, a conversation log transmission unit 13 as a conversation log display unit, a speech reception unit 14, a user identification unit 15, and a caption display transmission as a conversation display unit. comprising means 16, position determination means 17, the conversation partner determination unit 18, the operation reception unit 1 9及 beauty moving means 20. The storage unit 30 includes the conversation as the conversation log storage unit log DB31, avatar DB 32, includes a friends DB34 as the position history DB3 3及 beauty friends storage means.

キャプション受付手段11は、端末2の画面に表示されているキャプションが、ユーザにて選択された際に、選択されたキャプションの情報を受信する。選択されたキャプションの情報とは、キャプションの発言に対応する発言IDでもよいし、その発言が紐付けられているアバタのアバタIDでもよい。会話ログ抽出手段12は、選択されたキャプションの情報に基づいて、会話ログDB31から過去の発言及びその発言をしたユーザのユーザIDを取得する。会話ログ送信手段13は、会話ログ抽出手段12にて取得された過去の発言及びその発言をしたユーザのユーザIDを会話ログとして、端末2に送信する。その結果、会話ログを受信した端末2の画面には、会話ログが表示される。   When the caption displayed on the screen of the terminal 2 is selected by the user, the caption receiving unit 11 receives information on the selected caption. The selected caption information may be a speech ID corresponding to the speech of the caption, or an avatar ID of the avatar to which the speech is linked. The conversation log extraction means 12 acquires a past utterance and the user ID of the user who made the utterance from the conversation log DB 31 based on the selected caption information. The conversation log transmission unit 13 transmits the past utterance acquired by the conversation log extraction unit 12 and the user ID of the user who made the utterance to the terminal 2 as a conversation log. As a result, the conversation log is displayed on the screen of the terminal 2 that has received the conversation log.

発言受付手段14は、端末2のユーザが入力した会話の発言と、発言をしたユーザのユーザIDとを受信し、会話ログDB31に記憶する。ユーザ識別手段15は、アバタDB32を用いて、ユーザIDを対応するアバタIDへ変換し、また、その逆の変換を行う。キャプション表示送信手段16は、発言受付手段14にて取得した発言及び発言を入力したユーザのアバタIDを、発言を入力したユーザと異なる端末2に送信する。発言及び発言を入力したユーザのアバタIDを受信した端末2の画面には、受信したアバタIDに対応するアバタの近傍にキャプションとして発言が表示される。 The speech receiving means 14 receives the speech of the conversation input by the user of the terminal 2 and the user ID of the user who made the speech, and stores them in the conversation log DB 31. The user identification means 15 uses the avatar DB 32 to convert a user ID into a corresponding avatar ID and vice versa. Captioning transmitting means 16, the avatar ID of the user who entered the originating mention beauty utterance acquired by speaking receiving unit 14, and transmits a different terminal 2 user entering remarks. The originating mention beauty remarks terminal 2 receives the avatar ID of the user who entered the screen, speaking as a caption are displayed in the vicinity of the avatar corresponding to the received avatar ID.

位置判別手段17は、発言受付手段14にて受信した発言を入力したユーザのアバタ及びそのアバタの会話相手候補のアバタの仮想空間における位置をアバタDB32から取得する。会話相手判定手段18は、位置判別手段17にて取得された発言を入力したユーザのアバタの位置に基づいて、会話相手を判定する。また、発言を入力したユーザのアバタの位置に基づいて判定された会話相手を会話相手候補として、更にその他の条件にて会話相手候補の中から会話相手を判定する。 Position determining means 17 acquires a position in the virtual space of the avatar of the conversation partner candidate user Abba data及 Bisono avatar enter remarks received by speech reception means 14 from the avatar DB 32. The conversation partner determination unit 18 determines a conversation partner based on the position of the user's avatar who has input the speech acquired by the position determination unit 17. Further, the conversation partner determined based on the position of the avatar of the user who has input the speech is set as a conversation partner candidate, and the conversation partner is determined from the conversation partner candidates under other conditions.

操作受付手段19は、端末2にてユーザが入力したアバタに対する操作指示、例えば、アバタのA地点からB地点への移動の操作指示を受け付ける。移動手段20は、操作受付手段19にて受け付けた操作に基づいて、サーバ装置1のアバタを移動し、移動後の位置をアバタDB32に記憶する。それにより、アバタ移動の操作を行った以外の端末2においても、そのアバタを移動させることができる。   The operation accepting unit 19 accepts an operation instruction for the avatar input by the user at the terminal 2, for example, an operation instruction for moving the avatar from the A point to the B point. The moving unit 20 moves the avatar of the server device 1 based on the operation received by the operation receiving unit 19 and stores the moved position in the avatar DB 32. Accordingly, the avatar can be moved also in the terminal 2 other than the avatar moving operation.

会話ログDB31は、端末2にてユーザが入力した発言、つまり、仮想空間におけるアバタの発言を、それを入力したユーザを特定するユーザID等に対応付けて格納している。アバタDB32は、アバタに関連する情報が格納されており、アバタに関連する情報とは、例えば、アバタを特定するアバタID、アバタのユーザを特定するユーザID、アバタの位置情報、アバタの画像等である。操作受付手段19にて、アバタの移動の操作を端末2から受信すると、アバタDB32は更新される。位置履歴DB33は、会話相手判定手段18にて、発言に対する会話相手を判定するために、所定時間内のアバタの位置を記憶しておく。なお、相手判定が終了すると、記憶されたアバタの位置は削除される。友達DB34は、アバタに対して友達関係を有するアバタのアバタIDまたはそのアバタに対するユーザのユーザIDをアバタ毎にリストとして記憶している。なお、友達関係は、既存のSNS(Social Network Service)と同様、ユーザ同士の合意に基づいて任意に設定できる。以下、このリストを友達リストという。   The conversation log DB 31 stores an utterance input by the user at the terminal 2, that is, an avatar utterance in the virtual space, in association with a user ID or the like that identifies the user who has input the utterance. The avatar DB 32 stores information related to the avatar. The information related to the avatar includes, for example, an avatar ID that identifies the avatar, a user ID that identifies the avatar user, avatar position information, an avatar image, and the like. It is. When the operation accepting unit 19 receives an avatar movement operation from the terminal 2, the avatar DB 32 is updated. The position history DB 33 stores the position of the avatar within a predetermined time in order for the conversation partner determination means 18 to determine the conversation partner for the speech. When the opponent determination is completed, the stored avatar position is deleted. The friend DB 34 stores the avatar ID of the avatar having a friendship relationship with the avatar or the user ID of the user for the avatar as a list for each avatar. Note that the friendship can be arbitrarily set based on an agreement between users, as in the case of an existing SNS (Social Network Service). Hereinafter, this list is referred to as a friend list.

[会話表示サーバ装置のハードウェア構成]
図3は、本発明の各実施形態に係るサーバ装置1のハードウェア構成を示す図である。以下は、コンピュータを典型とする情報処理装置として全般的な構成を説明するが、専用機や組込型装置の場合、その環境に応じて必要最小限な構成を選択できることはいうまでもない。
[Hardware Configuration of the meeting talking Display Server]
FIG. 3 is a diagram showing a hardware configuration of the server device 1 according to each embodiment of the present invention. In the following, an overall configuration of an information processing apparatus typified by a computer will be described. Needless to say, in the case of a dedicated machine or an embedded apparatus, a minimum required configuration can be selected according to the environment.

サーバ装置1は、制御部300を構成するCPU(Central Processing Unit)310(マルチプロセッサ構成ではCPU320等複数のCPUが追加されてもよい)、バスライン200、通信I/F(I/F:インターフェイス)330、メインメモリ340、BIOS(Basic Input Output System)350、表示装置360、I/Oコントローラ370、キーボード及びマウス等の入力装置380、ハード・ディスク390、光ディスク・ドライブ400並びに半導体メモリ420を備える。なお、ハード・ディスク390、光ディスク・ドライブ400及び半導体メモリ420はまとめて記憶装置430と呼ぶ。 The server device 1 includes a CPU (Central Processing Unit) 310 (a plurality of CPUs such as a CPU 320 may be added in a multiprocessor configuration), a bus line 200, and a communication I / F (I / F: interface) that configure the control unit 300. ) 330, a main memory 340, BIOS (Basic input Output system ) 350, a display device 360, I / O controller 370, an input device 380 such as a keyboard and a mouse, a hard disk 390, a semiconductor memory 420 to 40 0 parallel beauty optical drive Is provided. Incidentally, the hard disk 390, optical disk drives 40 0 and the semiconductor memory 420 are collectively referred to as storage device 430.

制御部300は、サーバ装置1を統括的に制御する部分であり、ハード・ディスク390(後述)に記憶された各種プログラムを適宜読み出して実行することにより、上述したハードウェアと協働し、本発明に係る各種機能を実現している。   The control unit 300 is a part that controls the server device 1 in an integrated manner. By appropriately reading and executing various programs stored in a hard disk 390 (described later), the control unit 300 cooperates with the hardware described above. Various functions according to the invention are realized.

通信I/F330は、サーバ装置1が、ネットワーク3を介して他の情報処理装置と情報を送受信する場合のネットワーク・アダプタである。通信I/F330は、モデム、ケーブル・モデム及びイーサネット(登録商標)・アダプタを含んでよい。 Communication I / F330, the server apparatus 1 is a network adapter for sending and receiving other information processing apparatus and the information via the network 3. The communication I / F 330 may include a modem, a cable modem, and an Ethernet (registered trademark) adapter.

BIOS350は、サーバ装置1の起動時にCPU310が実行するブートプログラムや、サーバ装置1のハードウェアに依存するプログラム等を記録する。 BIOS350 a boot program that CPU310 at the time of start-up of the server device 1 is executed, the program dependent on the hardware of the servers apparatus 1 will be recorded.

表示装置360は、ブラウン管表示装置(CRT)、液晶表示装置(LCD)等のディスプレイ装置を含む。   The display device 360 includes a display device such as a cathode ray tube display device (CRT) or a liquid crystal display device (LCD).

I/Oコントローラ370には、ハード・ディスク390、光ディスク・ドライブ400及び半導体メモリ420等の記憶装置430を接続することができる。 The I / O controller 370 may connect the hard disk 390, optical disk drives 40 0及 beauty storage device 430 such as a semiconductor memory 420.

入力装置380は、サーバ装置1のユーザによる入力の受け付けを行うものである。   The input device 380 receives input from the user of the server device 1.

ハード・ディスク390は、各種プログラムや各種データを記憶し、図2の記憶手段30と対応する。なお、サーバ装置1は、外部に別途設けたハード・ディスク(図示せず)を外部記憶装置として利用することもできる。   The hard disk 390 stores various programs and various data, and corresponds to the storage unit 30 in FIG. The server device 1 can also use a hard disk (not shown) separately provided as an external storage device.

光ディスク・ドライブ400としては、例えば、DVD−ROMドライブ、CD−ROMドライブ、DVD−RAMドライブ、CD−RAMドライブを使用することができる。この場合は各ドライブに対応した光ディスク410を使用する。光ディスク410から光ディスク・ドライブ400によりプログラムまたはデータを読み取り、I/Oコントローラ370を介してメインメモリ340またはハード・ディスク390に提供することもできる。   As the optical disk drive 400, for example, a DVD-ROM drive, a CD-ROM drive, a DVD-RAM drive, or a CD-RAM drive can be used. In this case, the optical disk 410 corresponding to each drive is used. A program or data may be read from the optical disk 410 by the optical disk drive 400 and provided to the main memory 340 or the hard disk 390 via the I / O controller 370.

なお、本発明でいうコンピュータとは、記憶装置、制御部等を備えた情報処理装置をいい、サーバ装置1は、記憶装置430、制御部300等を備えた情報処理装置により構成され、この情報処理装置は、本発明のコンピュータの概念に含まれる。   The computer referred to in the present invention refers to an information processing device including a storage device, a control unit, and the like, and the server device 1 includes an information processing device including a storage device 430, a control unit 300, and the like. The processing device is included in the concept of the computer of the present invention.

会話管理手段10は、制御部300によってプログラムが実行されることで実現される。また、会話ログDB31、アバタDB32、位置履歴DB33及び友達DB34は、主としてハード・ディスク390に実装される。 The conversation management unit 10 is realized by executing a program by the control unit 300. In addition, the conversation log DB31, avatar DB32, position history DB3 3及 beauty friend DB34 is mainly implemented in the hard disk 390.

[端末のハードウェア構成]
端末2も、上述のサーバ装置1と同様な構成を持つ。また、上述の例ではいわゆるコンピュータで実現した例について説明したが、更に、本発明の原理が適用可能である限り、携帯電話、PDA(Personal Data Assistant)、ゲーム機等の様々な端末で実現してよい。
[Device hardware configuration]
The terminal 2 has the same configuration as the server device 1 described above. In the above-described example, an example realized by a so-called computer has been described. Furthermore, as long as the principle of the present invention is applicable, it can be realized by various terminals such as a mobile phone, a PDA (Personal Data Assistant), and a game machine. It's okay.

[会話表示サーバ装置の処理概要]
サーバ装置1は、2つの処理を行う。1つは、アバタのユーザが入力した会話を記録する会話ログ記憶処理である。もう1つは、会話に参加していないアバタのユーザに、会話ログ記憶処理にて記憶された会話ログのうち、ユーザが要求する会話ログを表示する会話ログ表示処理である。以下にそれぞれの処理について説明する。
[Outline of processing of conversation display server device]
The server device 1 performs two processes. One is a conversation log storage process for recording a conversation input by an avatar user. The other one, the user's avatar not participating in the conversation, the conversation among the stored conversation log in the log storage processing, Ru conversation log display processing der see the conversation by going to log the user requests. Each process will be described below.

[会話ログDB]
まず、会話ログ記憶処理及び会話ログ表示処理で用いられる会話ログDB31について説明する。図4は、本発明の第1実施形態に係る記憶手段30に格納される会話ログDB31を示す図である。会話ログDB31は、発言ID40aと、発言時刻40bと、発言者ユーザID40cと、会話相手ユーザID40dと、発言内容40eとを有する。発言ID40aには、発言を一意に示す記号が格納される。この記号は、端末2からサーバ装置1が会話を示す発言を発言受付手段14が受け付け、会話ログDB31に格納する際に適宜付与する。発言時刻40bには、発言がされた時刻が格納される。発言がされた時刻は、例えば、端末2に発言が入力された時刻でもよいし、アバタの近傍に発言がキャプションとして表示された時刻でもよい。
[Conversation Log DB]
First, the conversation log DB 31 used in the conversation log storage process and the conversation log display process will be described. FIG. 4 is a diagram showing the conversation log DB 31 stored in the storage unit 30 according to the first embodiment of the present invention. The conversation log DB 31 includes a speech ID 40a, a speech time 40b, a speaker user ID 40c, a conversation partner user ID 40d, and a speech content 40e. In the speech ID 40a, a symbol uniquely indicating a speech is stored. This symbol is appropriately given when the message reception means 14 receives a message indicating that the server apparatus 1 is talking from the terminal 2 and stores it in the conversation log DB 31. The time when the utterance is made is stored in the utterance time 40b. The time when the utterance is made may be, for example, the time when the utterance is input to the terminal 2 or the time when the utterance is displayed as a caption near the avatar.

発言者ユーザID40cには、端末2にて発言を入力したユーザ(以下、「発言者ユーザ」という)を一意に特定する記号であるユーザIDが格納される。会話相手ユーザID40dには、発言者ユーザのアバタ(以下、「発言者アバタ」という)の会話相手であるアバタ(以下、「会話相手アバタ」という)のユーザ(以下、「会話相手ユーザ」という)を一意に特定する記号であるユーザIDが格納される。なお、発言者ユーザID及び会話相手ユーザIDには、アバタDB32に格納されているユーザIDのいずれかが格納される。発言者ユーザID及び会話相手ユーザIDは、会話ログ表示処理において、会話ログDB31に格納されている複数の発言から表示対象の会話を構成する1以上の発言を抽出する際に用いる。   The speaker user ID 40c stores a user ID that is a symbol for uniquely specifying a user who has input a message at the terminal 2 (hereinafter referred to as “speaker user”). The conversation partner user ID 40d includes an avatar (hereinafter referred to as “conversation partner avatar”) user (hereinafter referred to as “conversation partner avatar”) who is a conversation partner of the speaker user avatar (hereinafter referred to as “speaker avatar”). A user ID, which is a symbol for uniquely identifying the user ID, is stored. One of the user IDs stored in the avatar DB 32 is stored in the speaker user ID and the conversation partner user ID. The speaker user ID and the conversation partner user ID are used in the conversation log display process to extract one or more comments constituting the display target conversation from a plurality of comments stored in the conversation log DB 31.

[位置履歴DB]
次に、会話ログ記憶処理にて、発言者の会話相手を判定する際に用いられる位置履歴DB33について説明する。図5は、本発明の第1実施形態に係る記憶手段30に格納される位置履歴DB33を示す図である。位置履歴DB33は、操作受付手段19が、発言者アバタ、または発言者アバタの会話相手である他のアバタが操作されたことを、操作受付手段19が受け付けた際に、それらの位置を格納してもよいし、アバタの操作に関係なく、一定時間間隔で、それらの位置を記憶してもよい。位置履歴DB33は、時刻41aと、アバタ1の位置41bと、アバタ2の位置41cと、距離41dとを有する。
[Location history DB]
Next, the position history DB 33 used when determining the conversation partner of the speaker in the conversation log storage process will be described. FIG. 5 is a diagram showing the position history DB 33 stored in the storage unit 30 according to the first embodiment of the present invention. The position history DB 33 stores the positions of the operation accepting unit 19 when the operation accepting unit 19 accepts that the speaker avatar or another avatar that is a conversation partner of the speaker avatar is operated. Alternatively, the positions may be stored at regular time intervals regardless of the operation of the avatar. The position history DB 33 includes a time 41a, a position 41b of the avatar 1, a position 41c of the avatar 2, and a distance 41d.

時刻41aには、アバタ1の位置41bと、アバタ2の位置41cとを取得した時刻が格納される。アバタ1の位置41bと、アバタ2の位置41cとには、発言者アバタ及び会話相手判定手段18にて会話相手と判定された会話相手候補アバタの位置が格納される。なお、アバタ1を発言者アバタ、アバタ2を会話相手候補アバタとしてもよいし、その逆でもよい。距離41dには、アバタ1の位置41bとアバタ2の位置41cとから求められた、アバタ1とアバタ2の間の距離が格納される。なお、会話相手候補アバタが複数いる場合には、アバタ1と複数の会話相手候補アバタそれぞれとを対応させて位置等を格納する。 The time 41a stores the time when the position 41b of the avatar 1 and the position 41c of the avatar 2 are acquired. The position 41b of the avatar 1, the position 41c of the avatar 2, the position of the conversation partner candidate avatar it is determined that the conversation phase hand at speaker avatars and conversation partner determination unit 18 is stored. Avatar 1 may be a speaker avatar, and avatar 2 may be a conversation partner candidate avatar, or vice versa. In the distance 41d, the distance between the avatar 1 and the avatar 2 obtained from the position 41b of the avatar 1 and the position 41c of the avatar 2 is stored. In addition, when there are a plurality of conversation partner candidate avatars, the position and the like are stored in correspondence with avatar 1 and each of the plurality of conversation partner candidate avatars.

[会話ログ記憶処理のフローチャート]
図6は、本発明の第1実施形態に係る会話ログ記憶処理を示すフローチャートである。会話ログ記憶処理は、仮想空間におけるアバタのユーザが入力した会話を会話ログDB31に記憶する。なお、本処理は、例えば、プログラム開始指令を受け付けて開始し、プログラム終了指令を受け付けて終了する。
[Flowchart of conversation log storage processing]
FIG. 6 is a flowchart showing the conversation log storage process according to the first embodiment of the present invention. In the conversation log storage process, the conversation input by the avatar user in the virtual space is stored in the conversation log DB 31. Note that this process starts, for example, by receiving a program start command and ends by receiving a program end command.

S1:発言受付手段14は、端末2から会話を示す発言及び発言者ユーザのユーザIDを受け付けると、端末2から受信した発言及び発言者ユーザのユーザIDを取得する。なお、発言受付手段14は、発言及び発言者ユーザのユーザID以外の発言に関する情報、例えば、発言時刻を受け付け、取得してもよい。   S1: When the speech accepting unit 14 accepts a speech indicating a conversation from the terminal 2 and the user ID of the speaker user, the speech receiving unit 14 acquires the speech received from the terminal 2 and the user ID of the speaker user. Note that the speech receiving means 14 may receive and acquire information related to speech and speech other than the user ID of the speaker user, for example, speech time.

S2:発言受付手段14は、S1にて取得した発言に発言IDを付与し、発言IDと、発言と、発言者ユーザのユーザIDとを会話ログDB31に記憶する。具体的には、発言を発言ID及び発言者ユーザIDに対応付けて記憶する。 S2: The speech accepting unit 14 assigns a speech ID to the speech acquired in S1 , and stores the speech ID, the speech, and the user ID of the speaker user in the conversation log DB 31. Specifically, the speech is stored in association with the speech ID and the speaker user ID.

S3:キャプション表示送信手段16は、S1にて取得した発言を発言者アバタの近傍にキャプションとして端末2に表示させるためのキャプション表示情報を送信する。ここで、送信する端末2は、S1にて会話を示す発言を入力した端末2とは異なる。会話を示す発言を入力した端末2は、既に、発言をキャプションとして表示するためのキャプション表示情報を保持しているため送信する必要がないからである。 S3: The caption display transmitting means 16 transmits caption display information for causing the terminal 2 to display the speech acquired in S1 as a caption in the vicinity of the speaker avatar. Here, the transmitting terminal 2 is different from the terminal 2 that has input a message indicating a conversation in S1 . This is because the terminal 2 that has input a message indicating a conversation already has caption display information for displaying the message as a caption, and thus does not need to be transmitted.

S4:会話相手判定手段18は、発言者アバタから等距離の範囲に、一定時間存在する他のアバタを発言者アバタの会話相手と判定し、そのアバタのアバタIDを会話相手アバタIDとして取得する。その後、ユーザ識別手段15は、アバタDB32に基づいて、会話相手アバタIDを会話相手ユーザIDに変換する。詳細については、後述する。なお、会話相手と判定する発言者アバタからの所定の距離は、サーバ装置1の管理者等が任意に設定できる。   S4: The conversation partner determination means 18 determines that another avatar that exists for a certain period of time in a range equidistant from the speaker avatar is the conversation partner of the speaker avatar, and acquires the avatar ID of the avatar as the conversation partner avatar ID. . Thereafter, the user identification unit 15 converts the conversation partner avatar ID into the conversation partner user ID based on the avatar DB 32. Details will be described later. The predetermined distance from the speaker avatar determined as the conversation partner can be arbitrarily set by the administrator of the server device 1 or the like.

S5:会話相手判定手段18は、S4において会話相手と判定されたユーザを、S4において会話相手の判定を行うための一定時間内にされた発言者ユーザの発言に対応付けて会話ログDB31の会話相手ユーザとして記憶する。具体的には、S4において会話相手の判定が行われていた時刻及び発言者ユーザIDに対応するデータに対して、取得された会話相手ユーザIDを記憶する。 S5: conversation partner determination unit 18, a conversation the user it is determined that the conversation partner in S 4, in association with the predetermined time remarks have been speaker users within for judging the conversation partner in S 4 log DB31 As a conversation partner user. Specifically, with respect to the data corresponding to the time and speaker user ID is determined conversation partner was done in S 4, it stores the acquired conversation partner user ID.

このようにして、仮想空間における会話を示す発言を発言者ユーザ及び会話相手ユーザと対応付けて記憶することにより、記憶された発言の中から会話を抽出することができる。会話をする者は発言者でも会話相手でもあるからである。例えば、アバタAとBとが会話している場合に、アバタAが発言者であればアバタBは会話相手となり、アバタBが発言者であればアバタAは会話相手となる。この例において、アバタAのユーザを発言者ユーザまたは会話相手ユーザとする発言を取得することにより、アバタAとBの会話を抽出することができる。   In this manner, by storing the speech indicating the conversation in the virtual space in association with the speaker user and the conversation partner user, the conversation can be extracted from the stored speech. This is because a person who has a conversation is both a speaker and a conversation partner. For example, when avatar A and B are talking, if avatar A is a speaker, avatar B is a conversation partner, and if avatar B is a speaker, avatar A is a conversation partner. In this example, a conversation between avatars A and B can be extracted by acquiring a comment that designates the user of avatar A as a speaker user or a conversation partner user.

[会話相手判定処理のフローチャート]
図7は、本発明の第1実施形態に係る会話相手判定処理を示すフローチャートである。会話相手判定処理は、発言者アバタの会話相手を判定し、そのアバタに対応するユーザIDを会話相手ユーザIDとして取得する。なお、本処理は、例えば、プログラム開始指令を受け付けて開始し、プログラム終了指令を受け付けて終了する。
[Conversation partner determination process flowchart]
FIG. 7 is a flowchart showing conversation partner determination processing according to the first embodiment of the present invention. In the conversation partner determination process, the conversation partner of the speaker avatar is determined, and the user ID corresponding to the avatar is acquired as the conversation partner user ID. Note that this process starts, for example, by receiving a program start command and ends by receiving a program end command.

S11:位置判別手段17は、発言者アバタ及び会話相手候補アバタの仮想空間内における位置を取得する。具体的には、まず、ユーザ識別手段15が、アバタDB32において、発言者ユーザIDに対応付けられているアバタIDを取得し、位置判別手段17が、そのアバタIDに基づいて、発言者アバタの位置を取得する。なお、仮想空間内の位置は座標で指定し、例えば、3次元仮想空間においてはXYZ座標にて指定する。また、座標には、絶対座標系やユーザ座標系等があるがいずれでもよい。次に、位置判別手段17は、取得した発言者アバタの位置から等距離の範囲にいる他のアバタを会話相手候補アバタと判定し、それらのアバタIDを、会話相手候補アバタIDとして取得する。このとき、合わせて、会話相手候補アバタの位置を取得する。   S11: The position determination means 17 acquires the positions of the speaker avatar and the conversation partner candidate avatar in the virtual space. Specifically, first, the user identification unit 15 acquires an avatar ID associated with the speaker user ID in the avatar DB 32, and the position determination unit 17 determines the speaker avatar's ID based on the avatar ID. Get the position. Note that the position in the virtual space is specified by coordinates, for example, in the XYZ coordinates in the three-dimensional virtual space. The coordinates include an absolute coordinate system and a user coordinate system, and any of them may be used. Next, the position discriminating means 17 determines other avatars that are equidistant from the acquired speaker avatar position as conversation partner candidate avatars, and acquires these avatar IDs as conversation partner candidate avatar IDs. At this time, the position of the conversation partner candidate avatar is also acquired.

S12:位置判別手段17は、S11にて取得した、発言者アバタの位置と会話相手候補アバタの位置とを、それらの位置を取得した時刻に対応付けて、位置履歴DB33に記憶する。なお、会話相手候補アバタが複数いる場合には、会話相手候補アバタ毎に記憶する。また、位置判別手段17は、発言者アバタと会話相手候補アバタとの距離を、発言者アバタの位置と会話相手候補アバタの位置に基づいて、例えば、2点間の距離の公式を用いて算出し、位置履歴DB33に記憶する。 S12: position determining means 17, acquired at S 11, the position of the conversation partner candidate avatar speaker avatar, in association with the time acquired their positions are stored in the position history DB 33. When there are a plurality of conversation partner candidate avatars, the information is stored for each conversation partner candidate avatar. Further, the position determination means 17 calculates the distance between the speaker avatar and the conversation partner candidate avatar based on the position of the speaker avatar and the position of the conversation partner candidate avatar, for example, using the formula for the distance between the two points. And stored in the position history DB 33.

S13:会話相手判定手段18は、最初に発言者アバタ及び会話相手候補アバタの位置を取得してから所定時間経過したか判断を行う。つまり、発言者アバタ及び会話相手候補アバタの位置を、所定時間の間、取得したか判断を行う。所定時間とは、サーバ装置1の管理者等が任意で設定する値である。会話相手判定手段18が所定時間経過したと判断すると、S14へ処理を進める。一方、会話相手判定手段18が所定時間経過していないと判断すると、S11及びS12の処理を繰り返す。なお、S11及びS12の処理を繰り返す場合、発言者アバタ及び会話相手候補アバタが移動する毎に位置を取得してもよいし、一定間隔をあけて発言者アバタ及び会話相手候補アバタの位置を取得してもよい。 S13: The conversation partner determination means 18 determines whether or not a predetermined time has elapsed since the positions of the speaker avatar and the conversation partner candidate avatar were first acquired. That is, it is determined whether the positions of the speaker avatar and the conversation partner candidate avatar have been acquired for a predetermined time. The predetermined time is a value arbitrarily set by the administrator of the server device 1 or the like. When conversation partner determination unit 18 determines that the predetermined time has passed, the process proceeds to S 14. On the other hand, the conversation when partner determination unit 18 determines that the predetermined time has not elapsed, repeats the processing of S 11 and S12. In the case where the process is repeated S 11 and S12, to the speaker avatars and conversation partner candidate avatar may obtain the position for each move, the position of the speaker avatars and conversation partner candidate avatar at regular intervals may be Tokushi taken.

S14:会話相手判定手段18は、位置履歴DB33に記憶されているデータに基づいて、会話相手候補アバタが、発言者アバタから等距離の範囲内にいる時間を算出する。具体的には、位置履歴DB33の距離が、所定の距離以下である時間を算出する。例えば、位置履歴DB33の時刻が12:00,12:01,及び12:02の距離の値が所定の距離以下であり、12:03の距離の値が所定の距離以上である場合には、12:00から12:02の2分間を会話相手候補アバタが、発言者アバタから等距離の範囲にいる時間とする。   S14: The conversation partner determination means 18 calculates the time during which the conversation partner candidate avatar is within the equidistant range from the speaker avatar based on the data stored in the position history DB 33. Specifically, the time during which the distance in the position history DB 33 is equal to or less than a predetermined distance is calculated. For example, when the time values in the position history DB 33 are 12:00, 12:01, and 12:02, the distance value is equal to or smaller than a predetermined distance, and the distance value of 12:03 is equal to or larger than the predetermined distance. The 2 minutes from 12:00 to 12:02 is the time during which the conversation partner candidate avatar is in the equidistant range from the speaker avatar.

S15:会話相手判定手段18は、S14において算出されたアバタが発言者アバタから等距離の範囲にいる時間に基づいて、会話相手候補アバタの中から会話相手を判定し、会話相手と判定されたアバタのアバタIDを会話相手アバタIDとして取得する。会話相手候補アバタの中から会話相手を判定する方法としては、例えば、発言者アバタから等距離の範囲にいる時間が所定の値以上のアバタを会話相手として判定する方法が挙げられる。 S15: conversation partner determination unit 18, based on the time being in the range calculated avatar from speaker avatar equidistant in S 14, to determine the conversation partner from the conversation partner candidate avatar, it is determined that the conversation partner The avatar ID of the avatar is acquired as the conversation partner avatar ID. As a method for determining a conversation partner from among the conversation partner candidate avatars, for example, a method of determining an avatar having a time equal to or greater than a predetermined value as a conversation partner within the equidistant range from the speaker avatar can be cited.

S16:会話相手判定手段18は、S15において取得された会話相手アバタIDを会話相手ユーザIDに変換する。具体的には、まず、ユーザ識別手段15が、アバタDB32において、S15にて取得した会話相手アバタIDに対応付けられているユーザIDを、会話相手ユーザIDとして取得する。 S16: conversation partner determination unit 18, converts the conversation partner avatar ID acquired in S 15 the conversation partner user ID. Specifically, first, the user identification means 15, in the avatar DB 32, the user ID associated with the conversation partner avatar ID acquired in S 15, and acquires as a conversation partner user ID.

このように、発言者アバタから等距離の範囲に、一定時間存在するアバタを会話相手と判定することにより、発言がされたとき等の一時に発言者アバタから等距離の範囲にいるアバタを会話相手と判定するよりも、会話相手判定の精度が向上する。例えば、発言者アバタから等距離の範囲を通過しているアバタを除くことができるからである。   In this way, an avatar that is within a certain distance from the speaker avatar is determined to be a conversation partner, and avatars that are within the same distance from the speaker avatar are spoken at a time such as when a speech is made. The accuracy of the conversation partner determination is improved as compared with the partner determination. For example, an avatar passing through an equidistant range from the speaker avatar can be excluded.

[会話相手判定の概要]
図8は、本発明の第1実施形態に係る会話相手判定を示す概要図である。図8(a)は、アバタAが発言した際の、アバタAとアバタB,D,Eとの位置関係を示す図である。図8(a)は、アバタAが発言した際に、アバタAから所定の等距離の範囲42にアバタB,E,Dが存在することを示し、会話相手候補アバタは、アバタB,E,Dであることを意味する。なお、発言者アバタAから所定の等距離の範囲42は、発言者アバタAを中心とした円となる。また、図8(b)は、所定時間経過直前に取得されたアバタAとアバタB,D,Eとの位置関係を示す図であり、アバタAから所定の等距離の範囲42にはアバタBしか存在しないことを示している。
[Outline of conversation partner judgment]
FIG. 8 is a schematic diagram showing conversation partner determination according to the first embodiment of the present invention. FIG. 8A is a diagram illustrating a positional relationship between the avatar A and the avatars B, D, and E when the avatar A speaks. FIG. 8A shows that when avatar A speaks, avatars B, E, and D exist within a predetermined equidistant range 42 from avatar A. The conversation partner candidate avatars are avatars B, E, and A, respectively. D means. Note that a predetermined equidistant range 42 from the speaker avatar A is a circle centered on the speaker avatar A. FIG. 8B is a diagram showing the positional relationship between the avatar A and the avatars B, D, E acquired immediately before the predetermined time elapses. The avatar B is within a predetermined equidistant range 42 from the avatar A. It is only present.

この場合の、アバタAとアバタB,D,Eそれぞれとの位置履歴DB33を図8(c)から(e)に示す。図8(c)から(e)に基づいて、アバタB,それぞれの範囲42にいた時間を算出すると、1.5分、1分、0.5分となる。例えば、1分以上範囲42にいたアバタを会話相手と判定するという場合には、アバタB,Eが会話相手として判定される。アバタDは、範囲42にいる時間か短いことから、偶然に、範囲42を通過しているユーザであり、会話相手でない可能性が高い。しかし、図8(a)の時だけで会話相手を判定すると、アバタDも会話相手と判定されてしまい、会話相手でない可能性が高いアバタも会話相手と判定してしまう。一方、本実施形態によれば、アバタDは範囲42にいる時間か短いことから、会話相手でない可能性が高いことを判断することができ、会話相手から除外することができる。 The position history DBs 33 of the avatar A and the avatars B, D, and E in this case are shown in FIGS. Based on FIGS. 8C to 8E, the time in each range 42 of the avatars B, E and D is calculated to be 1.5 minutes, 1 minute and 0.5 minutes. For example, when it is determined that an avatar that has been in the range 42 for one minute or longer is a conversation partner, avatars B and E are determined as conversation partners. Since the avatar D is in the range 42 for a short time, it is likely that the avatar D is a user who has accidentally passed the range 42 and is not a conversation partner. However, if the conversation partner is determined only at the time of FIG. 8A, the avatar D is also determined as the conversation partner, and the avatar that is highly likely not to be the conversation partner is also determined as the conversation partner. On the other hand, according to the present embodiment, since the avatar D is in the range 42 for a short time, it can be determined that the avatar D is not likely to be a conversation partner, and can be excluded from the conversation partner.

[会話ログ表示処理のフローチャート]
図9は、本発明の第1実施形態に係る会話ログ表示処理を示すフローチャートである。会話ログ表示処理は、キャプションが選択されたことに基づいて、そのキャプションの発言が含まれる会話ログを表示する。あるユーザが、自己の端末2に表示されているキャプションをマウス等によって選択すると、会話ログ表示処理が開始する。なお、本処理は、端末2に会話ログが表示されると終了する。
[Conversation log display processing flowchart]
FIG. 9 is a flowchart showing a conversation log display process according to the first embodiment of the present invention. The conversation log display processing displays a conversation log including the utterance of the caption based on the selection of the caption. When a user selects a caption displayed on his / her terminal 2 with a mouse or the like, a conversation log display process starts. This process ends when a conversation log is displayed on the terminal 2.

S21:キャプション受付手段11は、ユーザの端末2に表示されているキャプションが選択されたことを受け付けると、選択されたキャプションの発言者であるアバタのアバタIDを取得する。なお、取得するのは発言IDでもよいが、その場合は、S22の処理を行わず、会話ログDB31を用いて、発言IDに対応する発言者IDを求める必要がある。 S21: Caption accepting means 11 obtains the avatar ID of the avatar who is the speaker of the selected caption when accepting that the caption displayed on user's terminal 2 is selected. Although may be remark ID to obtain that case, without performing the processing of S 22, by using the conversation log DB31, it is necessary to obtain the speaker ID corresponding to the utterance ID.

S22:ユーザ識別手段15は、S21にて取得されたアバタIDに対応するユーザIDをアバタDB32から取得する。 S22: user identification means 15 obtains the user ID corresponding to the avatar ID acquired in S 21 from the avatar DB 32.

S23:会話ログ抽出手段12は、S22にて取得されたユーザIDに基づいて、会話ログDB31から発言及び発言者ユーザIDを抽出する。具体的には、S22にて取得されたユーザIDを発言者ユーザID40c、または、会話相手ユーザID40dに含む発言及びその発言に対応する発言者ユーザIDを抽出する。なお、条件に合致したすべての発言及びその発言に対応する発言者ユーザIDを抽出してもよいし、キャプションの発言がされた時刻から所定の時間前までの間、例えば、10分前までの間、にされた発言及びその発言に対応する発言者ユーザIDを抽出してもよいし、抽出される発言数を指定してもよい。 S23: conversation log extracting unit 12 based on the user ID acquired in S 22, extracts the speech and speaker user ID from the conversation log DB 31. Specifically, speaker user ID40c user ID acquired in S 22, or to extract the speaker user ID corresponding to the speech and utterance including the conversation partner user ID 40d. In addition, all the utterances that meet the conditions and the speaker user ID corresponding to the utterances may be extracted, or until a predetermined time before the caption utterance, for example, up to 10 minutes before In the meantime, the uttered comment and the speaker user ID corresponding to the utterance may be extracted, or the number of extracted comments may be designated.

S24:会話ログ送信手段13は、S23にて抽出された発言及びその発言に対応する発言者ユーザIDを時系列に並べてまとめた会話ログを、選択されたキャプションの発言者であるアバタの近傍に発言とは別のキャプションにて端末2に表示させるための会話ログ情報を送信する。なお、会話ログは、選択されたキャプションの発言者であるアバタが表示されている端末2すべてに表示してもよいし、キャプションを選択したユーザの端末2のみに表示してもよい。 S24: conversation log transmitting section 13, the vicinity of the avatar of the conversation log summarizing side by side speaker user ID corresponding to the speech and speech extracted by S 23 in time series, a speaker of the selected caption The conversation log information to be displayed on the terminal 2 is transmitted with a caption different from the remark. The conversation log may be displayed on all the terminals 2 on which the avatar who is the speaker of the selected caption is displayed, or may be displayed only on the terminal 2 of the user who has selected the caption.

以上述べたように、端末2に表示されていて、たまたま目に入った他のアバタの会話の一部であるキャプションをマウス等にて選択することにより、そのキャプションを含む会話の過去の発言とその発言をしたユーザとを明示した対話形式の会話ログを端末2に表示することができる。それにより、自分が参加していない会話の過去の内容及びその会話の参加者を知ることができ、途中からでも会話に参加しやすくなる。また、対話形式の会話ログであることにより、会話の進行や会話参加者の役割を容易に把握することができる。更に、従来は、会話が行われている場所の近くにアバタを配置しなければ、参加していない会話の内容を知ることができなかったが、このように、キャプションを1つ選択するだけで、容易に会話の内容を知ることができる。 As described above, by selecting a caption that is displayed on the terminal 2 and that is part of another avatar's conversation that happens to be in the eyes with a mouse or the like, An interactive conversation log clearly indicating the user who made the statement can be displayed on the terminal 2. Thereby, it is possible to know the past contents of the conversation that the user does not participate in and the participants of the conversation, and it becomes easy to participate in the conversation even from the middle. In addition, since the conversation log is an interactive conversation log, it is possible to easily grasp the progress of the conversation and the roles of the conversation participants. Furthermore, in the past, if the avatar was not placed near the place where the conversation was taking place, the contents of the conversation that did not participate could not be known, but in this way, only one caption was selected. , You can easily know the content of the conversation.

[会話ログ表示の概要]
図10は、本発明の第1実施形態に係る会話ログ表示処理の概要を示す図である。図10は、会話をしているアバタA,B,Eの過去の会話内容を知りたいアバタDのユーザが、アバタAのキャプション43をマウス等にて選択する。その結果、選択されたキャプションの発言者であるアバタAがアバタB,Eと行っている会話の会話ログ44が画面に表示されることを示している。このように、キャプションを選択することにより、容易に過去の会話を知ることができ、会話に参加しやすくなる。また発言のキャプションとは別のキャプションにて会話ログが表示されることにより、現在の会話と過去の会話の両方を知ることができる。なお、過去の会話内容を知りたいとアバタDのユーザが思う場合とは、例えば、たまたま目に入ったアバタAの「私もそう思う!」というキャプションにて、アバタDのユーザがアバタAが参加している会話に関心を持った場合が挙げられる。
[Overview of conversation log display]
FIG. 10 is a diagram showing an outline of the conversation log display process according to the first embodiment of the present invention. In FIG. 10, the user of avatar D who wants to know the past conversation contents of avatars A, B, and E having a conversation selects caption 43 of avatar A with a mouse or the like. As a result, it is shown that the conversation log 44 of the conversation that the avatar A who is the speaker of the selected caption is performing with the avatars B and E is displayed on the screen. Thus, by selecting a caption, past conversations can be easily known and participation in the conversation is facilitated. Also, by displaying the conversation log with a caption different from the caption of the speech, it is possible to know both the current conversation and the past conversation. Note that the case where the user of Avatar D wants to know the content of the past conversation is, for example, that the user of Avatar D is avatar A who has accidentally entered Avatar A's caption “I think so!” You may be interested in participating conversations.

会話ログ44に示すように、過去の会話は、発言とその発言の発言者ユーザとが対応した対話形式で表示される。それにより、会話の参加者がアバタA,B,Eであることを知ることができると共に、アバタAの発言をきっかけとして、その発言に同意する方向で会話が発展していることを知ることができ、会話の進行や会話におけるその参加者の役割、例えば、会話の中心人物や話題提供者等を把握することができる。   As shown in the conversation log 44, past conversations are displayed in a dialogue format in which the utterance and the speaker user of the utterance correspond. As a result, it is possible to know that the participants of the conversation are avatars A, B, and E, and to know that the conversation has been developed in the direction of agreeing with the remarks from the remarks of avatar A. It is possible to grasp the progress of the conversation and the role of the participant in the conversation, such as the central person of the conversation and the topic provider.

(第2実施形態)
第1実施形態との相違を中心に、第2実施形態を説明する。第1実施形態と第2実施形態とは、会話相手判定処理が異なる。図11は、本発明の第2実施形態に係る会話相手判定の概要を示す図である。図11を用いて、アバタAを発言者アバタとし、第2実施形態に係るアバタAの会話相手を判定する場合について説明する。
(Second Embodiment)
The second embodiment will be described focusing on the differences from the first embodiment. The conversation partner determination process is different between the first embodiment and the second embodiment. FIG. 11 is a diagram showing an outline of conversation partner determination according to the second embodiment of the present invention. The case where avatar A is a speaker avatar and a conversation partner of avatar A according to the second embodiment is determined will be described with reference to FIG.

[第2実施形態に係る会話相手判定の概要]
図11(a)は、アバタAが発言した時の、アバタAとアバタB,D,Eとの位置関係を示す図である。以下、図11(a)に示されるアバタA,B,D,Eのそれぞれの位置を、それぞれの初期位置とする。図11(a)は、第1実施形態同様に、アバタAが発言した際に、アバタAから所定の等距離の範囲45にアバタB,E,Dがいることを示し、会話相手候補アバタは、アバタB,E,Dであることを意味する。図11(a)の状態から、第1実施形態同様に、所定時間の間、アバタA及び会話相手候補のアバタB,D,Eの位置を取得し、取得された結果に基づいてアバタAとアバタB,D,Eそれぞれとの距離を算出する。
[Outline of Conversation Partner Determination According to Second Embodiment]
FIG. 11A is a diagram showing a positional relationship between the avatar A and the avatars B, D, and E when the avatar A speaks. Hereinafter, the respective positions of the avatars A, B, D, and E shown in FIG. FIG. 11A shows that avatars B, E, and D are within a predetermined equidistant range 45 from avatar A when avatar A speaks, as in the first embodiment. , Avatars B, E, and D. From the state of FIG. 11A, as in the first embodiment, the positions of the avatar A and the conversation partner candidate avatars B, D, E are acquired for a predetermined time, and based on the acquired results, The distance to each of the avatars B, D, and E is calculated.

図11(b)は、アバタAが発言をしてから所定時間経過後の、アバタAとアバタB,D,Eとの位置関係を示す図である。図11(b)は、所定時間にアバタが移動した様子も合わせて示す。図11(b)は、アバタBが初期位置から矢印46の方向に移動し、所定時間経過後に図11(b)に示す位置に移動したことを示す。なお、点線アバタBは、アバタBの初期位置を示す。図11(b)は、アバタBがアバタAから遠ざかる方向へ移動していることを示すことから、所定時間の間に取得されるアバタA及びアバタBの位置から算出されるアバタ間の距離は、時間が経過するにつれ大きくなる。   FIG. 11B is a diagram illustrating a positional relationship between the avatar A and the avatars B, D, and E after a predetermined time has elapsed since the avatar A spoke. FIG. 11B also shows how the avatar moves during a predetermined time. FIG. 11B shows that the avatar B has moved from the initial position in the direction of the arrow 46 and has moved to the position shown in FIG. The dotted line avatar B indicates the initial position of the avatar B. FIG. 11B shows that the avatar B is moving in a direction away from the avatar A. Therefore, the distance between the avatars calculated from the positions of the avatar A and the avatar B acquired during the predetermined time is , Grows over time.

同様に、アバタEが、初期位置から矢印47の方向に移動し、所定時間経過後に図11(b)に示す位置に移動したことを示す。なお、点線アバタEは点線アバタB同様、アバタEの初期位置を示す。図11(b)はアバタEがアバタAに近づく方向へ移動していることを示すことから、所定時間の間に取得されるアバタA及びアバタEの位置から算出されるアバタ間の距離は、時間が経過するにつれ小さくなる。一方、アバタDは、所定時間の間、初期位置から移動していない。   Similarly, it shows that the avatar E has moved from the initial position in the direction of the arrow 47 and has moved to the position shown in FIG. The dotted line avatar E, like the dotted line avatar B, indicates the initial position of the avatar E. Since FIG. 11B shows that the avatar E is moving in a direction approaching the avatar A, the distance between the avatar calculated from the positions of the avatar A and the avatar E acquired during a predetermined time is Smaller as time passes. On the other hand, the avatar D has not moved from the initial position for a predetermined time.

このようなアバタAから所定の等距離の範囲45におけるアバタの移動を会話相手判定に反映させる実施形態が第2実施形態である。具体的には、第2実施形態において、第1実施形態において会話相手と判定されたアバタ、ここではアバタB,D,Eそれぞれについて、アバタAとの「会話相手度」を算出し、会話相手判定に「会話相手度」を利用する。   The second embodiment is an embodiment in which the movement of the avatar in the predetermined equidistant range 45 from the avatar A is reflected in the conversation partner determination. Specifically, in the second embodiment, for each of the avatars determined as the conversation partner in the first embodiment, here each of the avatars B, D, and E, the “conversation partner degree” with the avatar A is calculated, and the conversation partner Use "conversation partner" for judgment.

「会話相手度」は、会話の相手である可能性の度合いを示し、会話相手アバタと発言者アバタとの間の距離の変化に基づいて決定され、会話相手アバタと発言者アバタとの距離が近づく変化の場合に「会話相手度」は大きく、逆に、距離が遠くなる変化の場合に「会話相手度」は小さくなる。ここで、「会話相手度」の値は、会話相手アバタと発言者アバタとの間の距離の単位時間当たりの変化量とし、会話相手アバタと発言者アバタとの距離が近づく変化の場合の「会話相手度」をプラスの値、距離が遠くなる変化の場合の「会話相手度」をマイナスの値で表す。   The “conversation partner level” indicates the degree of possibility of being a conversation partner and is determined based on a change in the distance between the conversation partner avatar and the speaker avatar, and the distance between the conversation partner avatar and the speaker avatar is determined. In the case of a change that approaches, the “conversation partner” is large, and conversely, in the case of a change that increases the distance, the “conversation partner” decreases. Here, the value of the “conversation partner degree” is the amount of change per unit time of the distance between the conversation partner avatar and the speaker avatar, and the value when the distance between the conversation partner avatar and the speaker avatar approaches is “ The “conversation partner” is expressed as a positive value, and the “conversation partner” is expressed as a negative value in the case of a change in distance.

図11に示す例において、アバタBは「会話相手度」がマイナスであり、アバタEは「会話相手度」がプラスである。なお、アバタDは、移動していないので、「会話相手度」は0である。第2の実施形態において、例えば、「会話相手度」がプラスのアバタを会話相手に判定するとした場合には、アバタEのみが会話相手として判定される。   In the example shown in FIG. 11, “conversation partner degree” is negative for avatar B, and “conversation partner degree” is positive for avatar E. Since the avatar D is not moving, the “degree of conversation partner” is 0. In the second embodiment, for example, when an avatar having a positive “conversation partner level” is determined as the conversation partner, only the avatar E is determined as the conversation partner.

会話相手判定に「会話相手度」を利用することにより、発言者アバタから所定の等距離の範囲にいたアバタの移動を会話相手判定に反映させることができる。それにより、所定の時間の間、範囲内にいても、会話相手でない可能性が高いアバタを除き、適切に会話相手を判定することできる。   By using “conversation partner degree” for conversation partner determination, it is possible to reflect the movement of the avatar within a predetermined equidistant range from the speaker avatar in the conversation partner determination. Thereby, even if it is within the range for a predetermined time, it is possible to appropriately determine a conversation partner except for an avatar that is highly likely not to be a conversation partner.

[第2実施形態に係る会話相手判定処理のフローチャート]
図12は、本発明の第2実施形態に係る会話相手判定処理を示すフローチャートである。なお、S31からS34及びS38は図7におけるS11からS14及びS16の処理とそれぞれ同じであるため説明を省略する。
[Flowchart of conversation partner determination processing according to second embodiment]
FIG. 12 is a flowchart showing conversation partner determination processing according to the second embodiment of the present invention. Incidentally, S3 4及 beauty S38 from S 31 is omitted from the S 11 that put in FIG. 7 S1 4 treatment beauty S16 and is for each same.

S35:会話相手判定手段18は、S34において算出されたアバタが発言者アバタから等距離の範囲にいる時間に基づいて、会話相手候補を絞る。   S35: The conversation partner determination means 18 narrows down the conversation partner candidates based on the time during which the avatar calculated in S34 is in the equidistant range from the speaker avatar.

S36:会話相手判定手段18は、会話相手候補アバタそれぞれの発言者アバタとの「会話相手度」を算出する。具体的には、位置履歴DB33に格納されている時刻と、発言者アバタと会話相手候補アバタとの間の距離とに基づいて、単位時間当たりの変化量を算出し、「会話相手度」とする。   S36: The conversation partner determination means 18 calculates the “conversation partner degree” with each speaker avatar of each conversation partner candidate avatar. Specifically, the amount of change per unit time is calculated based on the time stored in the position history DB 33 and the distance between the speaker avatar and the conversation partner candidate avatar, To do.

図5に示す位置履歴DB33を用いて「会話相手度」の求め方について説明する。なお、レコードを順位上からデータ1,2,3・・・とする。まず、データ1とデータ2、データ2とデータ3、・・・のように隣り合う時刻のデータ毎の変化量を算出し、算出したそれぞれの変化量の平均を取ることで算出される。例えば、データ1とデータ2の場合には、距離:(44.72―38.08) ÷ 時間:30秒 =0.22が、データ2とデータ3の場合には、距離:(38.08―26.93)÷ 時間:30秒 =0.37がデータ毎の変化量として算出され、そして、(0.22+0.37)÷2=0.295が単位時間当たりの変化量、つまり「会話相手度」となる。   A method of obtaining the “conversation partner level” will be described using the position history DB 33 shown in FIG. Note that the records are data 1, 2, 3,. First, a change amount for each data at adjacent times such as data 1 and data 2, data 2 and data 3,... Is calculated, and an average of the calculated change amounts is calculated. For example, in the case of data 1 and data 2, the distance: (44.72−38.08) ÷ time: 30 seconds = 0.22, but in the case of data 2 and data 3, the distance: (38.08) -26.93) ÷ Time: 30 seconds = 0.37 is calculated as the amount of change for each data, and (0.22 + 0.37) ÷ 2 = 0.295 is the amount of change per unit time, that is, “conversation It becomes "degree of opponent".

S37:会話相手判定手段18は、S36にて算出された「会話相手度」に基づいて、会話相手候補アバタの中から会話相手を判定し、会話相手と判定されたアバタのアバタIDを会話相手アバタIDとして取得する。会話相手候補アバタの中から会話相手を判定する方法としては、例えば、「会話相手度」がプラスの値であるアバタを会話相手として判定する方法が挙げられる。 S37: conversation partner determination unit 18, based on the calculated at S 36 "conversation partner level" determines the conversation partner from the conversation partner candidate avatar, conversation avatar ID of an avatar that has been determined to conversation partner Acquired as the partner avatar ID. As a method for determining a conversation partner from among the conversation partner candidate avatars, for example, a method of determining an avatar having a positive “conversation partner degree” as a conversation partner can be cited.

会話相手を発言者アバタから等距離の範囲であることだけでなく、会話相手アバタと発言者アバタとの間の距離の変化に基づいて決定することにより、具体的には、会話の相手である可能性の度合いを示す「会話相手度」を会話相手判定処理に用いることにより、会話相手判定の精度を上げることができる。   Specifically, the conversation partner is determined to be based on a change in the distance between the conversation avatar and the speaker avatar as well as being equidistant from the speaker avatar. By using the “conversation partner degree” indicating the degree of possibility for the conversation partner determination process, the accuracy of the conversation partner determination can be increased.

(第3実施形態)
第1実施形態との相違を中心に、第3実施形態を説明する。第1実施形態と第3実施形態とは、会話相手判定処理が異なる。図13は、本発明の第3実施形態に係る会話相手判定の概要を示す図である。図13を用いて、アバタAを発言者アバタとし、第3実施形態に係るアバタAの会話相手を判定する場合について説明する。
(Third embodiment)
The third embodiment will be described focusing on the differences from the first embodiment. The conversation partner determination process is different between the first embodiment and the third embodiment. FIG. 13 is a diagram showing an outline of conversation partner determination according to the third embodiment of the present invention. A case where avatar A is a speaker avatar and a conversation partner of avatar A according to the third embodiment is determined will be described with reference to FIG.

[第3実施形態に係る会話相手判定の概要]
図13(a)は、アバタAが発言した時の、アバタAとアバタB,Eとの位置関係を示す図である。図13(a)は、第1実施形態同様に、アバタAが発言した際に、アバタAから所定の等距離の範囲48にアバタB,Eが存在することを示し、会話相手候補アバタは、アバタB,Eであることを意味する。
[Outline of Conversation Partner Determination According to Third Embodiment]
FIG. 13A is a diagram showing the positional relationship between avatar A and avatars B and E when avatar A speaks. FIG. 13 (a) shows that avatars B and E exist within a predetermined equidistant range 48 from avatar A when avatar A speaks, as in the first embodiment. It means avatars B and E.

図11(b)は、友達DB34に記憶されているアバタAの友達リストの一例を示す図である。アバタAの友達リストとは、既存のSNSと同様、アバタAのユーザと合意して友達関係を結んだユーザのアバタのリストである。図11(b)に示すように、アバタAの友達リストには、アバタAと友人関係を結んだアバタEとアバタGとが登録されている。   FIG. 11B is a diagram showing an example of the avatar A's friend list stored in the friend DB 34. The friend list of avatar A is a list of avatars of users who have agreed with the user of avatar A and have made a friendship like the existing SNS. As shown in FIG. 11B, the avatar A and the avatar G that have a friendship with the avatar A are registered in the friend list of the avatar A.

第3実施形態は、アバタAから所定の等距離の範囲48にいるアバタのうち、発言者アバタと友達関係を有するアバタを会話相手と判定する実施形態である。具体的には、第1実施形態において会話相手と判定されたアバタB,EそれぞれについてアバタAの友達リストに登録されているか否かの判断がなされ、友達リストに登録されているアバタEを会話相手と判定する。 The third embodiment is an embodiment in which an avatar having a friendship with a speaker avatar among the avatars in a predetermined equidistant range 48 from the avatar A is determined as a conversation partner. Specifically, it is determined whether or not each of avatars B and E determined as conversation partners in the first embodiment is registered in the friend list of avatar A, and the avatar E registered in the friend list is conversed. Judge as opponent.

会話相手判定に「友達リスト」を利用することにより、会話相手候補アバタの中から友達であるアバタを会話相手と判定することができる。これにより、適切に会話相手を判定することできる。発言者アバタは、近くに友達のアバタがいる場合に、友達のアバタと会話している可能性が高いからである。   By using the “friend list” for the conversation partner determination, it is possible to determine the avatar that is a friend from the conversation partner candidate avatars as the conversation partner. Thereby, a conversation partner can be determined appropriately. This is because the speaker avatar has a high possibility of talking with the friend's avatar when the friend's avatar is nearby.

[第3実施形態に係る会話相手判定処理のフローチャート]
図14は、本発明の第3実施形態に係る会話相手判定処理を示すフローチャートである。なお、S41からS44及びS49は図7におけるS11からS14及びS16の処理と、S45は図12のS35の処理と、それぞれ同じであるため説明を省略する。
[Flowchart of Conversation Partner Determination Process According to Third Embodiment]
FIG. 14 is a flowchart showing conversation partner determination processing according to the third embodiment of the present invention. Incidentally, S4 4及 beauty S49 from S 41, the processing and, S 45 of S 11 from S1 4及 beauty S16 that put in FIG. 7, omission processing S 35 in FIG. 12, a description is respectively the same To do.

S46:会話相手判定手段18は、友達リストから発言者アバタの友達リストを取得し、会話相手候補アバタの中に友達リストに記憶されているアバタがいるか否かの判断を行う。会話相手候補アバタの中に友達リストに記憶されているアバタがいると判断された場合には、S47へ処理が進む。一方、いないと判断された場合には、S48へ処理が進む。 S46: The conversation partner determination means 18 acquires the friend list of the speaker avatar from the friend list, and determines whether there is an avatar stored in the friend list among the conversation partner candidate avatars. If it is determined that there are avatars that are stored in the friends list in the conversation partner candidate avatar, the processing to S 47 is advanced. On the other hand, if it is determined that no, the process to S 48 proceeds.

S47:友達リストに記憶されている会話候補アバタを会話相手と判定し、会話相手と判定されたアバタのアバタIDを会話相手アバタIDとして取得する。   S47: The conversation candidate avatar stored in the friend list is determined as the conversation partner, and the avatar ID of the avatar determined as the conversation partner is acquired as the conversation partner avatar ID.

S48:会話候補アバタ全員を会話相手と判定し、会話相手と判定されたアバタのアバタIDを会話相手アバタIDとして取得する。この場合、会話相手と判定されるアバタは第1実施形態と同じである。   S48: All conversation candidate avatars are determined as conversation partners, and the avatar ID of the avatar determined as the conversation partner is acquired as the conversation partner avatar ID. In this case, the avatar determined as the conversation partner is the same as in the first embodiment.

会話相手の判定に、発言者アバタの友達であるかの判断を加えることにより、会話相手判定の精度を上げることができる。   The accuracy of the conversation partner determination can be increased by determining whether or not the conversation partner is a friend of the speaker avatar.

(第4実施形態)
第1実施形態との相違を中心に、第4実施形態を説明する。第1実施形態と第4実施形態とは、会話相手判定処理が異なる。
(Fourth embodiment)
The fourth embodiment will be described with a focus on differences from the first embodiment. The conversation partner determination process differs between the first embodiment and the fourth embodiment.

[第4実施形態に係る会話相手判定の概要]
第4実施形態は、発言者アバタが発言し終わった時刻から所定時間内で、発言した他のアバタを会話相手と判定する発明である。発言者アバタが発言し終わったタイミングで、発言をしている他のアバタは、発言者アバタと会話をしている可能性が高いためである。
[Outline of conversation partner determination according to the fourth embodiment]
The fourth embodiment is an invention in which another avatar that speaks is determined as a conversation partner within a predetermined time from the time when the speaker avatar finishes speaking. This is because there is a high possibility that other avatars who are speaking at the timing when the speaker avatar has finished speaking have a conversation with the speaker avatar.

[第4実施形態に係る会話相手判定処理のフローチャート]
図15は、本発明の第4実施形態に係る会話相手判定処理を示すフローチャートである。なお、S51からS54は図7におけるS11からS14に、S55図12のS35の処理とそれぞれ同じであるため説明を省略する。
[Flowchart of Conversation Partner Determination Process According to Fourth Embodiment]
FIG. 15 is a flowchart showing conversation partner determination processing according to the fourth embodiment of the present invention. Incidentally, S54 from S 51 is to S14 from S 11 that put in FIG. 7, S55 is omitted because it is same as respectively the processing of S 35 of FIG 12.

S56:会話相手判定手段18は、発言者アバタの発言時刻から所定の時間経過までの時刻に対応付けられている発言者ユーザIDを取得する。本処理は、複数回行うのが望ましい。仮想空間には、大勢のアバタがいるため、発言者アバタが発言をした時刻から所定の時間経過までに、偶然されたような会話を除くためである。なお、回数はサーバ装置1の管理者等が設定した任意であり、2回目以降の処理は、発言受付手段14が発言者アバタの発言を受け付けると行われるとしてもよいし、会話ログDB31に記録されるタイミングに行ってもよい。   S56: The conversation partner determination means 18 acquires a speaker user ID associated with a time from a speaker avatar's speaking time to a lapse of a predetermined time. This process is desirably performed a plurality of times. This is because, since there are many avatars in the virtual space, conversations that have been made accidentally are excluded from the time when the speaker avatar speaks until a predetermined time elapses. Note that the number of times is arbitrary set by the administrator of the server device 1, and the second and subsequent processing may be performed when the speech accepting unit 14 accepts the speech of the speaker avatar, or is recorded in the conversation log DB 31. You may go to the timing.

S57:会話相手判定手段18は、S56にて取得されたユーザIDのうち取得された回数が多いユーザを会話相手アバタのユーザであると判定し、相手ユーザIDとして取得する。 S57: conversation partner determination unit 18 determines that the user a large number of times obtained among the acquired user ID in S 56 is the user of the conversation partner avatar, acquires a partner user ID.

会話相手の判定に、会話のタイミングを用いることにより、会話相手判定の精度を上げることができる。   By using the timing of conversation for the determination of the conversation partner, the accuracy of the conversation partner determination can be improved.

(第5実施形態)
第1実施形態との相違を中心に、第5実施形態を説明する。第1実施形態と第5実施形態とは、会話相手判定処理が異なる。
(Fifth embodiment)
The fifth embodiment will be described with a focus on differences from the first embodiment. The conversation partner determination process is different between the first embodiment and the fifth embodiment.

[第5実施形態に係る会話相手判定の概要]
第5実施形態は、発言アバタの発言の内容やカテゴリー等が一致する発言を行った他のアバタを会話相手と判定する発明である。発言アバタの発言の内容を解析し、その結果得られた発言の内容やカテゴリー等が一致する発言を行った他のアバタは、発言者アバタと会話をしている可能性が高いためである。
[Outline of conversation partner determination according to the fifth embodiment]
The fifth embodiment is an invention in which other avatars who have made a statement in which the content, category, etc. of the statement of the statement avatar match are determined as conversation partners. This is because other avatars who have analyzed the content of the speech of the speech avatar and made a speech that matches the content or category of the speech obtained as a result are likely to have a conversation with the speaker avatar.

[第5実施形態に係る会話相手判定処理のフローチャート]
図16は、本発明の第5実施形態に係る会話相手判定処理を示すフローチャートである。なお、S61からS64は図7におけるS11からS14に、S65は図12のS35の処理とそれぞれ同じであるため説明を省略する。
[Flowchart of conversation partner determination process according to fifth embodiment]
FIG. 16 is a flowchart showing conversation partner determination processing according to the fifth embodiment of the present invention. Incidentally, S64 from S 61 is to S14 from S 11 that put in FIG. 7, S 65 is omitted because it is same as respectively the processing of S 35 of FIG 12.

S66:会話相手判定手段18は、発言者ユーザの発言及び会話相手候補ユーザの発言を会話ログDB31から取得する。   S66: The conversation partner determination means 18 acquires the speech of the speaker user and the conversation partner candidate user from the conversation log DB 31.

S67:S66において取得した発言それぞれの形態素解析を行う。なお、形態素解析には既存の技術を用い、本サーバ装置1内に形態素解析部を設けて行ってもよいし、形態素解析部をもつ外部接続装置に接続してそちらにて行ってもよい。 S67 : Morphological analysis of each of the statements acquired in S66 is performed. The morpheme analysis may be performed by using an existing technique and providing a morpheme analysis unit in the server device 1 or by connecting to an external connection device having the morpheme analysis unit.

S68:S67にて形態素解析された単語に基づいて、予め記憶されたカテゴリーDBを検索し、発言のカテゴリーを取得する。なお、複数取得されてもよい。カテゴリーDBは、複数のカテゴリーと、カテゴリーそれぞれに関連する複数の単語が記憶されている。S68についてもS67同様外部接続装置に接続してそちらにて行ってもよい。 S68 : Based on the word subjected to morphological analysis in S67, a pre-stored category DB is searched to obtain a category of speech. A plurality may be acquired. The category DB stores a plurality of categories and a plurality of words related to each category. Also S 67 similar for S68, it may be performed at there are connected to the external connection device.

S69:会話相手判定手段18は、発言者ユーザの発言のカテゴリーと会話相手候補ユーザの発言のカテゴリーを比較し、カテゴリーが一致する会話相手候補ユーザを会話相手ユーザであると判定し、会話相手ユーザIDとして取得する。   S69: The conversation partner determination means 18 compares the speech category of the speaker user with the conversation category of the conversation partner candidate user, determines that the conversation partner candidate user whose category matches is the conversation partner user, and the conversation partner user. Obtained as an ID.

会話相手の判定に、会話の内容を考慮、つまり、発言の関連性から会話相手を判定することにより、会話相手判定の精度を上げることができる。   The accuracy of conversation partner determination can be increased by determining the conversation partner in consideration of the content of the conversation, that is, by determining the conversation partner from the relevance of the speech.

図17は、本発明の第5実施形態にかかる会話相手判定処理前後の会話ログDB31を示す図である。図17(a)は、会話相手がまだ判定されていない会話相手判定処理前の会話ログDB31であり、図17(b)は、会話相手が判定され、会話相手ユーザが更新登録された会話相手判定処理後の会話ログDB31である。発言者ユーザID「A」の「夏だし、やせたいよね。」という発言を例に第5実施形態に係る会話相手判定について具体的に説明する。 FIG. 17 is a diagram showing the conversation log DB 31 before and after the conversation partner determination process according to the fifth embodiment of the present invention. FIG. 17A shows the conversation log DB 31 before the conversation partner determination process in which the conversation partner has not yet been determined. FIG. 17B shows the conversation partner in which the conversation partner is determined and the conversation partner user is updated and registered. It is conversation log DB31 after a determination process. The conversation partner determination according to the fifth embodiment will be specifically described by taking as an example the comment “It is summer and I want to lose weight” of the speaker user ID “A”.

発言者ユーザID「A」、会話相手候補がユーザID「B」,「C」,「D」である場合には、ユーザID「A」,「B」,「C」,「D」の発言について形態素解析が行われ、発言のカテゴリーが取得される。例えば、発言者ユーザID「A」の「夏だし、やせたいよね。」という発言については、「夏」と「ダイエット」、発言者ユーザID「C」の「私もやせたいー。でも、ついチョコとか間食しちゃうんだよね。」という発言については、「ダイエット」と「お菓子」、発言者ユーザID「D」の「私も!ダイエット日記つけてる!」という発言については、「ダイエット」、のようにカテゴリーDBを用いて発言のカテゴリーが取得される。 Speaker Yu over The ID "A", conversation partner candidate user ID "B", "C", in the case of "D", the user ID "A", "B", "C", "D" The morphological analysis is performed on the utterances, and the category of the utterance is acquired. For example, for the utterance of the speaker user ID “A” “It's summer, I want to lose weight”, “Summer” and “Diet”, and the speaker user ID “C” “I want to lose weight too. For the remarks that "I'll eat a snack", "Diet" and "Sweets", and for the remark "I am also a diet diary!" Of the speaker user ID "D", "Diet" As described above, the category of the message is acquired using the category DB.

発言者ユーザID「A」の会話相手を決定するので、発言者ユーザID「A」の発言のカテゴリー「夏」または「ダイエット」を含む発言をした、ユーザID「C」及びユーザID「D」がユーザID「A」の会話相手として判定され、会話ログDB31に記憶される。このようにして、会話相手が決定され、会話ログDB31に記憶された図を図17(b)に示す。また、名前等が発言に含まれる場合に、形態素解析によって名前が抽出され、それに基づいて会話相手を判定することもできる。図17において、発言ID111の発言には「Eさん」と名前が入っていることより、図17(b)に示すように発言ID111の会話相手にはEさんとなる。   Since the conversation partner of the speaker user ID “A” is determined, the user ID “C” and the user ID “D” who have made a statement including the category “summer” or “diet” of the speaker user ID “A”. Is determined as the conversation partner of the user ID “A” and stored in the conversation log DB 31. FIG. 17B shows a diagram in which the conversation partner is determined and stored in the conversation log DB 31 in this way. In addition, when a name or the like is included in an utterance, the name is extracted by morphological analysis, and a conversation partner can be determined based on the extracted name. In FIG. 17, since the name “Mr. E” is included in the utterance of the utterance ID 111, the conversation partner of the utterance ID 111 is E as shown in FIG.

本発明の第1実施形態に係る会話表示サーバ装置と、端末との全体構成を示す図である。It is a figure which shows the whole structure of the conversation display server apparatus which concerns on 1st Embodiment of this invention, and a terminal. 本発明の第1実施形態のサーバ装置の機能構成を示す図である。It is a figure which shows the function structure of the server apparatus of 1st Embodiment of this invention. 本発明の各実施形態に係るサーバ装置のハードウェア構成を示す図である。It is a figure which shows the hardware constitutions of the server apparatus which concerns on each embodiment of this invention. 本発明の第1実施形態に係る記憶手段に格納される会話ログDBを示す図である。It is a figure which shows conversation log DB stored in the memory | storage means which concerns on 1st Embodiment of this invention. 本発明の第1実施形態に係る記憶手段に格納される位置履歴DBを示す図である。It is a figure which shows location log | history DB stored in the memory | storage means which concerns on 1st Embodiment of this invention. 本発明の第1実施形態に係る会話ログ記憶処理を示すフローチャートである。It is a flowchart which shows the conversation log storage process which concerns on 1st Embodiment of this invention. 本発明の第1実施形態に係る会話相手判定処理を示すフローチャートである。It is a flowchart which shows the conversation other party determination process which concerns on 1st Embodiment of this invention. 本発明の第1実施形態に係る会話相手判定を示す概要図である。It is a schematic diagram which shows the conversation other party determination which concerns on 1st Embodiment of this invention. 本発明の第1実施形態に係る会話ログ表示処理を示すフローチャートである。It is a flowchart which shows the conversation log display process which concerns on 1st Embodiment of this invention. 本発明の第1実施形態に係る会話ログ表示処理の概要を示す図である。It is a figure which shows the outline | summary of the conversation log display process which concerns on 1st Embodiment of this invention. 本発明の第2実施形態に係る会話相手判定の概要を示す図である。It is a figure which shows the outline | summary of the conversation partner determination which concerns on 2nd Embodiment of this invention. 本発明の第2実施形態に係る会話相手判定処理を示すフローチャートである。It is a flowchart which shows the conversation other party determination process which concerns on 2nd Embodiment of this invention. 本発明の第3実施形態に係る会話相手判定の概要を示す図である。It is a figure which shows the outline | summary of the conversation other party determination which concerns on 3rd Embodiment of this invention. 本発明の第3実施形態に係る会話相手判定処理を示すフローチャートである。It is a flowchart which shows the conversation other party determination process which concerns on 3rd Embodiment of this invention. 本発明の第4実施形態に係る会話相手判定処理を示すフローチャートである。It is a flowchart which shows the conversation other party determination process which concerns on 4th Embodiment of this invention. 本発明の第5実施形態に係る会話相手判定処理を示すフローチャートである。It is a flowchart which shows the conversation other party determination process which concerns on 5th Embodiment of this invention. 本発明の第5実施形態に係る会話相手判定処理前後の会話ログDBを示す図である。It is a figure which shows conversation log DB before and behind the conversation other party determination process which concerns on 5th Embodiment of this invention.

符号の説明Explanation of symbols

1 会話表示サーバ装置
10 会話管理手段
11 キャプション受付手段
12 会話ログ抽出手段
13 会話ログ送信手段
14 発言受付手段
15 ユーザ識別手段
16 キャプション表示送信手段
17 位置判別手段
18 会話相手判定手段
19 操作受付手段
20 移動手段
30 記憶手段
31 会話ログDB
32 アバタDB
33 位置履歴DB
34 友達DB
1 meeting story Display server device 10 the conversation manager 11 caption receiving unit 12 conversation log extracting unit 13 conversation log transmitting unit 14 speech reception means 15 user identifying unit 16 captioning transmitting means 17 position determining means 18 conversation partner determination unit 19 operation receiving Means 20 Moving means 30 Storage means 31 Conversation log DB
32 Avatar DB
33 Location history DB
34 Friends DB

Claims (10)

ネットワークを介して提供する仮想空間において、仮想空間内のアバタが行う会話を制御するサーバ装置と、当該サーバ装置と通信可能に接続された端末が実行する会話表示方法であって、
仮想空間内のアバタに対応するユーザを識別するユーザ識別ステップと、
識別されたユーザからの発言を受け付ける発言受付ステップと、
受け付けた発言の会話相手となるユーザを判定する会話相手判定ステップと、
前記受け付けた発言と、発言したユーザと、会話相手となるユーザとを対応付けて会話ログとして記憶する会話ログ記憶ステップと、
前記発言を、発言したユーザに対応するアバタと共に表示する会話表示ステップと、
表示された発言に対して、他のユーザからの選択を受け付ける会話選択受付ステップと、
前記選択を受け付けた発言に対応する会話ログを抽出する会話ログ抽出ステップと、
前記抽出した会話ログを、前記判定した会話相手との対話形式で表示する会話ログ表示ステップと、
前記アバタに対応するユーザの操作指示に応じて、前記仮想空間内において、前記アバタを移動する移動ステップと、
前記発言したユーザに対応するアバタの前記仮想空間内の位置を判別する位置判別ステップと、
を備え
前記アバタの仮想空間内の位置から所定の距離内に複数の前記他のアバタが存在する場合に、
ユーザが発言をした発言時刻を受け付ける時刻受付ステップと、
前記発言時刻を前記発言と、前記発言したユーザと、前記会話相手となるユーザとを対応付けて記憶する時刻記憶ステップと、
を更に備え、
複数の前記他のアバタそれぞれに対応するユーザであって、前記ユーザの発言時刻から所定の時間以内である発言時刻に対応付けられている前記発言したユーザを、前記受け付けた発言の会話相手となるユーザと判定する会話表示方法。
In a virtual space provided via a network, a server device that controls a conversation performed by an avatar in the virtual space, and a conversation display method executed by a terminal connected to be communicable with the server device,
A user identification step for identifying a user corresponding to the avatar in the virtual space;
A speech acceptance step for accepting speech from the identified user;
A conversation partner determination step for determining a user who is a conversation partner of the received speech;
A conversation log storage step for storing the received utterance, the uttered user, and the user as the conversation partner in association with each other and storing it as a conversation log;
A conversation display step for displaying the remarks together with an avatar corresponding to the reciting user;
Conversation selection reception step for receiving selections from other users in response to the displayed remarks;
A conversation log extracting step of extracting a conversation log corresponding to the utterance that accepted the selection;
A conversation log display step for displaying the extracted conversation log in a conversation format with the determined conversation partner;
A moving step of moving the avatar in the virtual space in response to a user operation instruction corresponding to the avatar;
A position determining step of determining a position in the virtual space of an avatar corresponding to the speaking user;
Equipped with a,
When there are a plurality of the other avatars within a predetermined distance from the position of the avatar in the virtual space,
A time reception step for receiving a speech time when the user made a speech;
A time storage step of storing the utterance time in association with the utterance, the uttered user, and the conversation partner user;
Further comprising
A user corresponding to each of a plurality of other avatars, the user who has said a speech that is associated with a speech time that is within a predetermined time from the user's speech time becomes a conversation partner of the accepted speech conversation display how to determine the user.
ネットワークを介して提供する仮想空間において、仮想空間内のアバタが行う会話を制御するサーバ装置と、当該サーバ装置と通信可能に接続された端末が実行する会話表示方法であって、
仮想空間内のアバタに対応するユーザを識別するユーザ識別ステップと、
識別されたユーザからの発言を受け付ける発言受付ステップと、
受け付けた発言の会話相手となるユーザを判定する会話相手判定ステップと、
前記受け付けた発言と、発言したユーザと、会話相手となるユーザとを対応付けて会話ログとして記憶する会話ログ記憶ステップと、
前記発言を、発言したユーザに対応するアバタと共に表示する会話表示ステップと、
表示された発言に対して、他のユーザからの選択を受け付ける会話選択受付ステップと、
前記選択を受け付けた発言に対応する会話ログを抽出する会話ログ抽出ステップと、
前記抽出した会話ログを、前記判定した会話相手との対話形式で表示する会話ログ表示ステップと、
前記アバタに対応するユーザの操作指示に応じて、前記仮想空間内において、前記アバタを移動する移動ステップと、
前記発言したユーザに対応するアバタの前記仮想空間内の位置を判別する位置判別ステップと、
を備え、
前記アバタの仮想空間内の位置から所定の距離内に複数の前記他のアバタが存在する場合に、
前記アバタ及び複数の前記他のアバタのユーザがした発言の形態素解析により特徴量を抽出する抽出ステップを更に備え、
複数の前記他のアバタに対応するユーザであって、前記アバタのユーザがした発言と前記特徴量によって関連する発言をしたユーザを、前記受け付けた発言の会話相手となるユーザと判定する会話表示方法。
In a virtual space provided via a network, a server device that controls a conversation performed by an avatar in the virtual space, and a conversation display method executed by a terminal connected to be communicable with the server device,
A user identification step for identifying a user corresponding to the avatar in the virtual space;
A speech acceptance step for accepting speech from the identified user;
A conversation partner determination step for determining a user who is a conversation partner of the received speech;
A conversation log storage step for storing the received utterance, the uttered user, and the user as the conversation partner in association with each other and storing it as a conversation log;
A conversation display step for displaying the remarks together with an avatar corresponding to the reciting user;
Conversation selection reception step for receiving selections from other users in response to the displayed remarks;
A conversation log extracting step of extracting a conversation log corresponding to the utterance that accepted the selection;
A conversation log display step for displaying the extracted conversation log in a conversation format with the determined conversation partner;
A moving step of moving the avatar in the virtual space in response to a user operation instruction corresponding to the avatar;
A position determining step of determining a position in the virtual space of an avatar corresponding to the speaking user;
With
When there are a plurality of the other avatars within a predetermined distance from the position of the avatar in the virtual space,
An extraction step of extracting a feature amount by morphological analysis of a statement made by a user of the avatar and the plurality of other avatars;
A user corresponding to a plurality of the other avatars, conversational users who have the relevant statements, it determined that user as a conversation partner of the accepted speech by saying to the feature amount the user was the avatar Display method.
前記アバタの仮想空間内の位置から所定の距離内に複数の前記他のアバタが存在する場合に、
前記位置判別ステップは、所定の時間内において、前記アバタまたは複数の前記他のアバタそれぞれに対応するユーザの操作指示に応じて、移動した前記アバタまたは複数の前記他のアバタそれぞれの位置を判別し、
判別された前記アバタの位置と複数の前記他のアバタそれぞれの位置とに基づいて、前記所定の時間内において、複数の前記他のアバタであって前記アバタに接近しているアバタに対応するユーザを、前記受け付けた発言の会話相手となるユーザと判定する請求項1又は請求項2に記載の会話表示方法。
When there are a plurality of the other avatars within a predetermined distance from the position of the avatar in the virtual space,
The position determining step determines a position of the moved avatar or the plurality of other avatars in accordance with a user operation instruction corresponding to the avatar or the plurality of other avatars within a predetermined time. ,
Based on the determined position of the avatar and the position of each of the plurality of other avatars, the user corresponding to the avatar that is the plurality of other avatars and is approaching the avatar within the predetermined time The conversation display method according to claim 1 , wherein the user is determined to be a user who is a conversation partner of the received speech.
前記アバタの仮想空間内の位置から所定の距離内に複数の前記他のアバタが存在する場合に、
前記アバタに対して友達関係を有する複数のアバタをリストとして記憶するステップと、
複数の前記他のアバタであって前記リストに記憶されているアバタに対応するユーザを前記受け付けた発言の会話相手となるユーザと判定する請求項1から請求項3までのいずれかに記載の会話表示方法。
When there are a plurality of the other avatars within a predetermined distance from the position of the avatar in the virtual space,
Storing a plurality of avatars having a friendship relationship with the avatar as a list;
The conversation according to any one of claims 1 to 3 , wherein a plurality of other avatars and users corresponding to the avatars stored in the list are determined as users who are conversation partners of the received speech. Display method.
前記会話ログ抽出ステップは、前記記憶された会話ログから、前記選択を受け付けた発言をしたユーザが前記発言したユーザ又は前記会話相手となるユーザとして対応付けられている発言及びこの発言に発言者として対応付けられているユーザを、前記選択を受け付けた発言に対応する会話ログとして抽出する請求項1から請求項4までのいずれかに記載の会話表示方法。In the conversation log extraction step, the user who made the utterance that accepted the selection from the stored conversation log is associated with the utterance user or the conversation partner user, and the utterance as a speaker. The conversation display method according to any one of claims 1 to 4, wherein the associated user is extracted as a conversation log corresponding to the utterance for which the selection has been accepted. 端末と通信可能に接続され、ネットワークを介して提供する仮想空間において、仮想空間内のアバタが行う会話を制御する会話表示サーバ装置であって、
仮想空間内のアバタに対応するユーザを識別するユーザ識別手段と、
識別されたユーザからの発言を受け付ける発言受付手段と、
受け付けた発言の会話相手となるユーザを判定する会話相手判定手段と、
前記受け付けた発言と、発言したユーザと、会話相手となるユーザとを対応付けて会話ログとして記憶する会話ログ記憶手段と、
前記発言を、発言したユーザに対応するアバタと共に表示する会話表示手段と、
表示された発言に対して、他のユーザからの選択を受け付ける会話選択受付手段と、
前記選択を受け付けた発言に対応する会話ログを抽出する会話ログ抽出手段と、
前記抽出した会話ログを、前記判定した会話相手との対話形式で表示する会話ログ表示手段と、
前記アバタに対応するユーザの操作指示に応じて、前記仮想空間内において、前記アバタを移動する移動手段と、
前記発言したユーザに対応するアバタの前記仮想空間内の位置を判別する位置判別手段と、
を備え
前記アバタの仮想空間内の位置から所定の距離内に複数の前記他のアバタが存在する場合に、
前記発言受付手段は、ユーザが発言をした発言時刻を受け付け、
前記会話ログ記憶手段は、前記発言時刻を前記発言と、前記発言したユーザと、前記会話相手となるユーザとを対応付けて記憶し、
前記会話相手判定手段は、複数の前記他のアバタそれぞれに対応するユーザであって、前記ユーザの発言時刻から所定の時間以内である発言時刻に対応付けられている前記発言したユーザを、前記受け付けた発言の会話相手となるユーザと判定する会話表示サーバ装置。
In a virtual space that is communicably connected to a terminal and provided via a network, a conversation display server device that controls a conversation performed by an avatar in the virtual space,
User identification means for identifying a user corresponding to an avatar in the virtual space;
A speech accepting means for accepting speech from the identified user;
A conversation partner determination means for determining a user who is a conversation partner of the received speech;
Conversation log storage means for storing the received utterance, the uttered user, and the user who is the conversation partner in association with each other, and storing it as a conversation log;
Conversation display means for displaying the remarks together with an avatar corresponding to the reciting user;
Conversation selection accepting means for accepting selections from other users in response to the displayed remarks;
A conversation log extracting means for extracting a conversation log corresponding to the utterance that accepted the selection;
A conversation log display means for displaying the extracted conversation log in a conversation format with the determined conversation partner;
A moving means for moving the avatar in the virtual space in response to a user operation instruction corresponding to the avatar;
Position determining means for determining a position of the avatar corresponding to the user in the virtual space in the virtual space;
Equipped with a,
When there are a plurality of the other avatars within a predetermined distance from the position of the avatar in the virtual space,
The speech accepting means accepts the speech time when the user made a speech,
The conversation log storage means stores the speech time in association with the speech, the user who made the speech, and the user who is the conversation partner,
The conversation partner determination means is a user corresponding to each of a plurality of other avatars, and accepts the user who has said the speech that is associated with a speech time that is within a predetermined time from the speech time of the user. conversation display server device determines that the user to be a conversation partner of the speech was.
端末と通信可能に接続され、ネットワークを介して提供する仮想空間において、仮想空間内のアバタが行う会話を制御する会話表示サーバ装置であって、
仮想空間内のアバタに対応するユーザを識別するユーザ識別手段と、
識別されたユーザからの発言を受け付ける発言受付手段と、
受け付けた発言の会話相手となるユーザを判定する会話相手判定手段と、
前記受け付けた発言と、発言したユーザと、会話相手となるユーザとを対応付けて会話ログとして記憶する会話ログ記憶手段と、
前記発言を、発言したユーザに対応するアバタと共に表示する会話表示手段と、
表示された発言に対して、他のユーザからの選択を受け付ける会話選択受付手段と、
前記選択を受け付けた発言に対応する会話ログを抽出する会話ログ抽出手段と、
前記抽出した会話ログを、前記判定した会話相手との対話形式で表示する会話ログ表示手段と、
前記アバタに対応するユーザの操作指示に応じて、前記仮想空間内において、前記アバタを移動する移動手段と、
前記発言したユーザに対応するアバタの前記仮想空間内の位置を判別する位置判別手段と、
を備え、
前記アバタの仮想空間内の位置から所定の距離内に複数の前記他のアバタが存在する場合に、
前記会話相手判定手段は、前記アバタ及び複数の前記他のアバタのユーザがした発言の形態素解析により特徴量を抽出し、複数の前記他のアバタに対応するユーザであって、前記アバタのユーザがした発言と前記特徴量によって関連する発言をしたユーザを、前記受け付けた発言の会話相手となるユーザと判定する会話表示サーバ装置。
In a virtual space that is communicably connected to a terminal and provided via a network, a conversation display server device that controls a conversation performed by an avatar in the virtual space,
User identification means for identifying a user corresponding to an avatar in the virtual space;
A speech accepting means for accepting speech from the identified user;
A conversation partner determination means for determining a user who is a conversation partner of the received speech;
Conversation log storage means for storing the received utterance, the uttered user, and the user who is the conversation partner in association with each other, and storing it as a conversation log;
Conversation display means for displaying the remarks together with an avatar corresponding to the reciting user;
Conversation selection accepting means for accepting selections from other users in response to the displayed remarks;
A conversation log extracting means for extracting a conversation log corresponding to the utterance that accepted the selection;
A conversation log display means for displaying the extracted conversation log in a conversation format with the determined conversation partner;
A moving means for moving the avatar in the virtual space in response to a user operation instruction corresponding to the avatar;
Position determining means for determining a position of the avatar corresponding to the user in the virtual space in the virtual space;
With
When there are a plurality of the other avatars within a predetermined distance from the position of the avatar in the virtual space,
The conversation partner determining means is a user corresponding to a plurality of the other avatars by extracting a feature amount by morphological analysis of a statement made by the user of the avatar and the plurality of other avatars, and the user of the avatar is the remarks to the users who have the relevant speech by the feature quantity, the conversational display server device determines that the user of a conversation partner remarks accepted.
前記アバタの仮想空間内の位置から所定の距離内に複数の前記他のアバタが存在する場合に、
前記位置判別手段は、所定の時間内において、前記アバタまたは複数の前記他のアバタそれぞれに対応するユーザの操作指示に応じて、移動した前記アバタまたは複数の前記他のアバタそれぞれの位置を判別し、
前記会話相手判定手段は、判別された前記アバタの位置と複数の前記他のアバタそれぞれの位置とに基づいて、前記所定の時間内において、複数の前記他のアバタであって前記アバタに接近しているアバタに対応するユーザを、前記受け付けた発言の会話相手となるユーザと判定する請求項6又は請求項7に記載の会話表示サーバ装置。
When there are a plurality of the other avatars within a predetermined distance from the position of the avatar in the virtual space,
The position determining means determines the position of the moved avatar or the plurality of other avatars in accordance with a user operation instruction corresponding to the avatar or the plurality of other avatars within a predetermined time. ,
The conversation partner determination unit is configured to approach the avatar at the plurality of other avatars within the predetermined time based on the determined position of the avatar and the positions of the plurality of other avatars. The conversation display server device according to claim 6 or 7 , wherein a user corresponding to the avatar who is receiving is determined to be a user who is a conversation partner of the received speech.
前記アバタの仮想空間内の位置から所定の距離内に複数の前記他のアバタが存在する場合に、
前記アバタに対して友達関係を有する複数のアバタをリストとして記憶する友達記憶手段を更に備え、
前記会話相手判定手段は、複数の前記他のアバタであって前記リストに記憶されているアバタに対応するユーザを前記受け付けた発言の会話相手となるユーザと判定する請求項6から請求項8までのいずれかに記載の会話表示サーバ装置。
When there are a plurality of the other avatars within a predetermined distance from the position of the avatar in the virtual space,
A friend storage means for storing a plurality of avatars having a friendship relationship with the avatar as a list;
The conversation partner determination unit, the user and determines claim 6 users the conversation partner remarks accepted the corresponding avatar stored a plurality of the other avatars in the list until claim 8 The conversation display server device according to any one of the above.
前記会話ログ抽出手段は、前記記憶された会話ログから、前記選択を受け付けた発言をしたユーザが前記発言したユーザ又は前記会話相手となるユーザとして対応付けられている発言及びこの発言に発言者として対応付けられているユーザを、前記選択を受け付けた発言に対応する会話ログとして抽出する請求項6から請求項9までのいずれかに記載の会話表示サーバ装置。The conversation log extracting means is configured to, from the stored conversation log, a user who made a utterance that accepted the selection is associated with the utterance user or the conversation partner user, and the utterance The conversation display server apparatus in any one of Claim 6 to 9 which extracts the matched user as a conversation log corresponding to the utterance which accepted the said selection.
JP2008171197A 2008-06-30 2008-06-30 Conversation display method and server apparatus Expired - Fee Related JP4889690B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008171197A JP4889690B2 (en) 2008-06-30 2008-06-30 Conversation display method and server apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008171197A JP4889690B2 (en) 2008-06-30 2008-06-30 Conversation display method and server apparatus

Publications (2)

Publication Number Publication Date
JP2010009512A JP2010009512A (en) 2010-01-14
JP4889690B2 true JP4889690B2 (en) 2012-03-07

Family

ID=41589883

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008171197A Expired - Fee Related JP4889690B2 (en) 2008-06-30 2008-06-30 Conversation display method and server apparatus

Country Status (1)

Country Link
JP (1) JP4889690B2 (en)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8814693B2 (en) 2011-05-27 2014-08-26 Microsoft Corporation Avatars of friends as non-player-characters
US9369543B2 (en) 2011-05-27 2016-06-14 Microsoft Technology Licensing, Llc Communication between avatars in different games
JP5845200B2 (en) 2012-06-25 2016-01-20 株式会社コナミデジタルエンタテインメント Message browsing system, server, terminal device, control method, and program
WO2014002550A1 (en) * 2012-06-25 2014-01-03 株式会社コナミデジタルエンタテインメント Message-browsing system, server, terminal device, control method, and recording medium
JP5726935B2 (en) * 2012-06-25 2015-06-03 株式会社コナミデジタルエンタテインメント Terminal device
JP5937992B2 (en) 2012-06-25 2016-06-22 株式会社コナミデジタルエンタテインメント Message browsing system, server, terminal device, control method, and program
JP6069619B2 (en) * 2012-12-13 2017-02-01 株式会社コナミデジタルエンタテインメント Server apparatus, server apparatus control method, and program
JP6342024B1 (en) * 2017-02-10 2018-06-13 株式会社コロプラ Method for providing virtual space, program for causing computer to execute the method, and information processing apparatus for executing the program
JP7290977B2 (en) * 2019-03-28 2023-06-14 株式会社日本総合研究所 Program and information processing device

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3203615B2 (en) * 1995-06-16 2001-08-27 日本電信電話株式会社 Virtual space sharing system
JP3644580B2 (en) * 1999-03-19 2005-04-27 富士通株式会社 Display control method and apparatus
JP4001455B2 (en) * 2000-08-29 2007-10-31 富士通株式会社 Information exchange promotion method and apparatus
JP2002312295A (en) * 2001-04-09 2002-10-25 Nec Interchannel Ltd Virtual three-dimensional space conversation system
JP2003067317A (en) * 2001-08-30 2003-03-07 Fuji Xerox Co Ltd Message exchange method, computer, management device and recording medium

Also Published As

Publication number Publication date
JP2010009512A (en) 2010-01-14

Similar Documents

Publication Publication Date Title
JP4889690B2 (en) Conversation display method and server apparatus
CN110869969B (en) Virtual assistant for generating personalized responses within a communication session
US10891952B2 (en) Speech recognition
WO2019018061A1 (en) Automatic integration of image capture and recognition in a voice-based query to understand intent
US20140278403A1 (en) Systems and methods for interactive synthetic character dialogue
CN114556354A (en) Automatically determining and presenting personalized action items from an event
US9686645B2 (en) Location information sharing method and apparatus
JP6233798B2 (en) Apparatus and method for converting data
JP2017153078A (en) Artificial intelligence learning method, artificial intelligence learning system, and answer relay method
US10192550B2 (en) Conversational software agent
US20160004299A1 (en) Systems and methods for assessing, verifying and adjusting the affective state of a user
US10140988B2 (en) Speech recognition
CN111316280B (en) Network-based learning model for natural language processing
JP2017016566A (en) Information processing device, information processing method and program
US20170256259A1 (en) Speech Recognition
WO2017157174A1 (en) Information processing method, device, and terminal device
JP5309070B2 (en) Multimodal dialogue device
CN112466302A (en) Voice interaction method and device, electronic equipment and storage medium
WO2021015948A1 (en) Measuring and responding to attention levels in group teleconferences
JP4625057B2 (en) Virtual space information summary creation device
CN110417728A (en) A kind of online interaction method, apparatus, medium and electronic equipment
US11318373B2 (en) Natural speech data generation systems and methods
WO2022001161A1 (en) Online interview method and system
US20120215843A1 (en) Virtual Communication Techniques
US11839817B1 (en) Gaming system and method including the identification of non-player characters

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110825

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110830

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20111020

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20111122

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20111213

R150 Certificate of patent or registration of utility model

Ref document number: 4889690

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20141222

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

LAPS Cancellation because of no payment of annual fees
R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350