JP4970330B2 - Conversation support apparatus and method - Google Patents

Conversation support apparatus and method Download PDF

Info

Publication number
JP4970330B2
JP4970330B2 JP2008090668A JP2008090668A JP4970330B2 JP 4970330 B2 JP4970330 B2 JP 4970330B2 JP 2008090668 A JP2008090668 A JP 2008090668A JP 2008090668 A JP2008090668 A JP 2008090668A JP 4970330 B2 JP4970330 B2 JP 4970330B2
Authority
JP
Japan
Prior art keywords
user
character string
conversation
speech trigger
speech
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2008090668A
Other languages
Japanese (ja)
Other versions
JP2009245143A (en
Inventor
正士 須崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nomura Research Institute Ltd
Original Assignee
Nomura Research Institute Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nomura Research Institute Ltd filed Critical Nomura Research Institute Ltd
Priority to JP2008090668A priority Critical patent/JP4970330B2/en
Publication of JP2009245143A publication Critical patent/JP2009245143A/en
Application granted granted Critical
Publication of JP4970330B2 publication Critical patent/JP4970330B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Information Transfer Between Computers (AREA)

Description

本発明は、通信ネットワークを介しての会話を支援するための技術に関する。   The present invention relates to a technique for supporting a conversation via a communication network.

通信ネットワークを介して行われる会話として、例えば、テレビ会議や、インターネット上で行われるチャットなどがある。   Examples of the conversation performed via the communication network include a video conference and a chat performed on the Internet.

ユーザは、会話を活性化したくても、良い話題や意見が浮かばず困ることがある。このような事態は、例えば、発言の糸口が見つからなかったり、相手との以前の会話内容を忘れてしまったりしたような場合に起こりがちである。   Even if the user wants to activate the conversation, the user may be troubled because good topics and opinions are not raised. Such a situation tends to occur when, for example, a clue for a speech is not found or a previous conversation with a partner is forgotten.

このような課題を意識した技術として、例えば特許文献1及び2に開示の技術がある。   For example, there are techniques disclosed in Patent Documents 1 and 2 as techniques that are conscious of such problems.

特許文献1によれば、相手のプロフィールと相手と共有できる話題が事前に登録され、会話の際に、ユーザに対して、事前登録された情報(相手のプロフィールと共有できる話題)が表示される(例えば、図1及び図5参照)。   According to Patent Document 1, a profile of a partner and a topic that can be shared with the partner are registered in advance, and pre-registered information (a topic that can be shared with the profile of the partner) is displayed to the user during a conversation. (See, for example, FIGS. 1 and 5).

特許文献2によれば、ユーザが、相手に関する条件(性別、年齢など)を入力すると、その条件に合致する相手プロフィールが検索される。そして、検索された相手プロフィール中からキーワードが抽出され、抽出されたキーワードを基に特定されるコンテンツが、ユーザに提供される(例えば、図1、図4及び図5参照)。   According to Patent Literature 2, when a user inputs a condition (gender, age, etc.) related to a partner, a partner profile that matches the condition is searched. Then, keywords are extracted from the retrieved partner profile, and content specified based on the extracted keywords is provided to the user (see, for example, FIGS. 1, 4 and 5).

特開2001−282687号公報JP 2001-282687 A 特開2003−223406号公報JP 2003-223406 A

しかし、特許文献1では、ユーザに対して表示される情報は、事前登録された情報である。特許文献2では、ユーザに提供されるコンテンツは、検索された相手プロフィールのみに基づくコンテンツである。   However, in Patent Document 1, information displayed to the user is pre-registered information. In Patent Document 2, the content provided to the user is content based only on the searched partner profile.

要するに、特許文献1及び2のいずれも、相手毎に、提示される話題が固定化されている。それ故、相手との会話が長く続いたり、同じ相手との会話が複数回行われたりする等、状況に変化があるにも関わらず、同じ話題がユーザに提示されることになる。   In short, in both Patent Documents 1 and 2, the topic to be presented is fixed for each partner. Therefore, the same topic is presented to the user regardless of changes in the situation, such as a long conversation with the other party or multiple conversations with the same party.

そこで、本発明の目的は、ユーザに提示する同じ相手との発言トリガを状況の変化に応じた異なる発言トリガにすることにある。   Therefore, an object of the present invention is to change a speech trigger with the same partner to be presented to the user to a different speech trigger according to a change in the situation.

第一ユーザ端末を使用する第一ユーザと第二ユーザ端末を使用する第二ユーザとの間で通信ネットワークを介して行われる会話を支援する会話支援装置を構築する。   A conversation support device that supports a conversation performed via a communication network between a first user using a first user terminal and a second user using a second user terminal is constructed.

第一の観点に従う会話支援装置は、第二ユーザに関わる第二ユーザ関連データから文字列を抽出し、その文字列をそれに関連する別の文字列に変換する。そして、変換された文字列をベースに、第一ユーザの第二ユーザに対する発言トリガを作成し、作成された発言トリガを第一ユーザ端末に送信する。これにより、第一ユーザ端末のディスプレイ画面に、第一ユーザの第二ユーザに対する発言トリガであって、第二ユーザ関連データから抽出され変換された文字列がベースの発言トリガが表示される。   The conversation support apparatus according to the first aspect extracts a character string from the second user related data related to the second user, and converts the character string into another character string related thereto. And the speech trigger with respect to the 2nd user of a 1st user is created based on the converted character string, and the created speech trigger is transmitted to a 1st user terminal. As a result, a speech trigger based on the character string extracted from the second user-related data and converted, which is a speech trigger for the second user of the first user, is displayed on the display screen of the first user terminal.

第二の観点に従う会話支援装置は、第二ユーザに関わる第二ユーザ関連データのうちの、追加又は更新された部分を含む文字列を抽出する。そして、抽出された文字列をベースに、第一ユーザの第二ユーザに対する発言トリガを作成し、作成された発言トリガを、第一ユーザ端末に送信する。これにより、第一ユーザ端末のディスプレイ画面に、第一ユーザの第二ユーザに対する発言トリガであって、第二ユーザ関連データのうちの追加又は更新された部分を含んだ文字列がベースの発言トリガが表示される。   The conversation support device according to the second aspect extracts a character string including an added or updated portion of the second user related data related to the second user. And the speech trigger with respect to the 2nd user of a 1st user is created based on the extracted character string, and the created speech trigger is transmitted to a 1st user terminal. Accordingly, the display trigger of the first user terminal is a speech trigger for the second user of the first user, and the text trigger including the added or updated portion of the second user related data is based on the speech trigger. Is displayed.

図1は、本発明の一実施形態に係るコンピュータシステムを示す。   FIG. 1 shows a computer system according to an embodiment of the present invention.

通信ネットワーク60に、複数のユーザ端末50と、会話空間提供サーバ100と、一般データソース装置70が接続されている。   A plurality of user terminals 50, a conversation space providing server 100, and a general data source device 70 are connected to the communication network 60.

ユーザ端末50は、ユーザが使用する計算機(例えば、パーソナルコンピュータ或いは携帯電話機など)である。ユーザ端末50は、例えば、入力装置(例えばキーボードやポインティングデバイス)51と、表示装置53と、CPU(Central Processing Unit)55と、記憶装置57と、通信ネットワーク60を介して通信するためのネットワークインタフェース装置(ネットワークI/F)59とを備えている。   The user terminal 50 is a computer (for example, a personal computer or a mobile phone) used by the user. The user terminal 50 includes, for example, a network interface for communicating via an input device (for example, a keyboard or pointing device) 51, a display device 53, a CPU (Central Processing Unit) 55, a storage device 57, and a communication network 60. And a device (network I / F) 59.

会話空間提供サーバ(以下、「サーバ」と略す)100は、一又は複数の計算機で構成されたシステムであり、例えば、CPU107と、記憶装置105と、ネットワークI/F111とを備えている。記憶装置105は、例えば、主記憶装置(例えばメモリ)及び/又は補助記憶装置(例えば不揮発性の記憶メディアのドライブ)である。サーバ100は、ユーザ端末50に会話空間を提供する。「会話空間」とは、会話が行われる仮想的な空間である。   A conversation space providing server (hereinafter abbreviated as “server”) 100 is a system composed of one or a plurality of computers, and includes, for example, a CPU 107, a storage device 105, and a network I / F 111. The storage device 105 is, for example, a main storage device (for example, a memory) and / or an auxiliary storage device (for example, a drive of a nonvolatile storage medium). The server 100 provides a conversation space for the user terminal 50. A “conversation space” is a virtual space in which a conversation takes place.

一般データソース装置70は、一般データのソースとなる装置(典型的には一般データを記憶している装置)であり、具体的には、例えば、通信ネットワーク60に接続されている種々のサイトである。本実施形態で言う「一般データ」とは、後述する会話ログデータ及びユーザプロフィールデータ以外のデータであって、会話ログデータ及びユーザプロフィールデータと同様に、定期的又は不定期的に追加、変更又は削除されるデータである。一般データの例として、新聞社から発行されるニュースデータや、ユーザが更新するブログデータなどを挙げることができる。   The general data source device 70 is a device that is a source of general data (typically, a device that stores general data), and specifically, for example, at various sites connected to the communication network 60. is there. The “general data” referred to in the present embodiment is data other than the conversation log data and user profile data described later, and is added, changed, or changed regularly or irregularly in the same manner as the conversation log data and user profile data. The data to be deleted. Examples of general data include news data issued by a newspaper company, blog data updated by a user, and the like.

図2は、本実施形態の概要の説明図である。   FIG. 2 is an explanatory diagram of the outline of the present embodiment.

会話空間900に、サーバ100にログインしている各ユーザを表す各オブジェクトが存在する。オブジェクトは、例えばアバタであり、図2に例示する会話空間900によれば、第一ユーザのアバタ801と第二ユーザのアバタ803が存在する。図2の会話空間900のビューは、第一ユーザアバタ801の位置を基準にした、第一ユーザの端末50に表示されるビューである。   Each object representing each user who is logged in to the server 100 exists in the conversation space 900. The object is, for example, an avatar. According to the conversation space 900 illustrated in FIG. 2, the first user avatar 801 and the second user avatar 803 exist. The view of the conversation space 900 of FIG. 2 is a view displayed on the terminal 50 of the first user based on the position of the first user avatar 801.

第一ユーザアバタ801が移動して(点線矢印805参照)、第一ユーザアバタ801と第二ユーザアバタ803との距離が所定距離以下に縮まった場合に、第一ユーザと第二ユーザとが互いに会話することが可能な状態となる。その際、第一ユーザへの会話空間900のビューには、第二ユーザアバタ803の近傍に発言トリガウィンドウ(以下、「ウィンドウ」と略す)950が展開される。このウィンドウ950には、第二ユーザとの会話のトリガが表示される。発言トリガは、例えば、話題キーワード、及び/又は、第二ユーザに対する質問文である。第一ユーザは、所望の発言トリガ(例えば図示のように“幕張○○イベント”)を糸口に第二ユーザに発言することができる。   When the first user avatar 801 moves (see dotted arrow 805) and the distance between the first user avatar 801 and the second user avatar 803 is reduced to a predetermined distance or less, the first user and the second user It becomes possible to talk. At that time, in the view of the conversation space 900 for the first user, a speech trigger window (hereinafter abbreviated as “window”) 950 is developed in the vicinity of the second user avatar 803. This window 950 displays a conversation trigger with the second user. The speech trigger is, for example, a topic keyword and / or a question sentence for the second user. The first user can speak to the second user using a desired speech trigger (for example, “Makuhari XX event” as shown).

本実施形態の一つの特徴として、ウィンドウ950に表示される発言トリガが、状況の変化に応じた発言トリガとされることにある。例えば、第一ユーザと第二ユーザとの会話の進行に応じて、ウィンドウ950に表示される発言トリガが変更される。具体的には、例えば、図3に示すように、第二ユーザからの発言にキーワード“銚子”や“旅行”が含まれていた場合に、“銚子”或いは“旅行”に関わる発言トリガ(例えば“犬吠崎”及び“旅行するならどこが良い?”)が高い優先順位とされウィンドウ950に表示される(つまり、ウィンドウ950への表示が、(A)から(B)に変わる)。これにより、第一ユーザは、“銚子”或いは“旅行”について会話を発展させていくことができる。   One feature of the present embodiment is that the speech trigger displayed in the window 950 is a speech trigger corresponding to a change in the situation. For example, the speech trigger displayed on the window 950 is changed according to the progress of the conversation between the first user and the second user. Specifically, for example, as shown in FIG. 3, when a keyword “reiko” or “travel” is included in a remark from the second user, a replay trigger related to “reiko” or “travel” (for example, “Inu Kashiwazaki” and “Which would you like to travel?” Are given high priority and displayed on the window 950 (that is, the display on the window 950 changes from (A) to (B)). As a result, the first user can develop a conversation about “lion” or “travel”.

以下、図2、図4、図5及び図6を参照して、このように状況の変化に応じた発言トリガを第一ユーザに提示できるよう構成されたサーバ100について説明する。なお、以下の説明では、サーバ100からの情報の提供先として第一ユーザを例に採るが、その説明は、第一ユーザの会話の相手となる第二ユーザにも適用可能である(例えば、第一ユーザには、第一ユーザの相手となる第二ユーザとの発言トリガが提示されるが、同様に、第二ユーザには、第一ユーザとの発言トリガが表示される)。   Hereinafter, with reference to FIG. 2, FIG. 4, FIG. 5 and FIG. 6, the server 100 configured to be able to present a speech trigger according to a change in the situation to the first user will be described. In the following description, the first user is taken as an example of the information providing destination from the server 100, but the description is also applicable to the second user who is the partner of the first user's conversation (for example, The first user is presented with a speech trigger with the second user who is the counterpart of the first user, but similarly, the second user is presented with a speech trigger with the first user).

サーバ100には、会話空間提供部501と、会話支援部503と、プロフィールデータベース(プロフィールDB)1011と、会話ログデータベース(会話ログDB)1013とがある。会話空間提供部501及び会話支援部503は、例えば、CPU107で実行されるコンピュータプログラムである。プロフィールDB1011及び会話ログDB1013は、記憶装置105(又は、サーバ100外の遠隔の記憶装置)に記憶される。プロフィールDB1011には、ユーザ毎のプロフィールデータが含まれている。プロフィールデータには、ユーザのプロフィールに関する各種属性項目に対応した文字列(以下、便宜上「キーワード」と言う)が記述されている(例えば、属性項目が[出身地]であればキーワードは“山形県”である)。会話ログDB1013には、ユーザ毎の会話ログデータが含まれている。会話ログデータには、その会話ログデータに対応したユーザが行った会話毎の会話ログが記録されている。各会話ログには、例えば、会話の時間長や、発言毎に本文や発言したユーザIDなどが含まれている。   The server 100 includes a conversation space providing unit 501, a conversation support unit 503, a profile database (profile DB) 1011, and a conversation log database (conversation log DB) 1013. The conversation space providing unit 501 and the conversation support unit 503 are computer programs executed by the CPU 107, for example. The profile DB 1011 and the conversation log DB 1013 are stored in the storage device 105 (or a remote storage device outside the server 100). The profile DB 1011 includes profile data for each user. In the profile data, character strings corresponding to various attribute items related to the user's profile (hereinafter referred to as “keyword” for convenience) are described (for example, if the attribute item is “Birthplace”, the keyword is “Yamagata Prefecture”). ”). The conversation log DB 1013 includes conversation log data for each user. In the conversation log data, a conversation log for each conversation performed by the user corresponding to the conversation log data is recorded. Each conversation log includes, for example, the length of the conversation, the text for each utterance, and the user ID that made the utterance.

会話空間提供部501は、第一ユーザ端末50に、第一ユーザアバタ801の位置を基準にしたビューの会話空間900に関する情報を送信する。その情報には、例えば、会話空間900それ自体に関する情報や、第一ユーザアバタ801に関する情報や、第二ユーザアバタ803に関する情報(例えば会話空間900内での位置など)が含まれている。ユーザ端末50内のCPU55で実行されるWEBブラウザ(例えば専用のビューワがプラグインされている)501が、会話空間提供部501からの情報に基づいて、第一ユーザアバタ801や第二ユーザアバタ803が存在する会話空間900を、表示装置53に表示する。   The conversation space providing unit 501 transmits information related to the conversation space 900 of the view based on the position of the first user avatar 801 to the first user terminal 50. The information includes, for example, information about the conversation space 900 itself, information about the first user avatar 801, and information about the second user avatar 803 (for example, a position in the conversation space 900). A WEB browser (for example, a dedicated viewer is plugged in) 501 executed by the CPU 55 in the user terminal 50 is based on the information from the conversation space providing unit 501, and the first user avatar 801 and the second user avatar 803. Is displayed on the display device 53.

会話空間提供部501が、第一ユーザからの操作に応答して、例えば点線矢印805で示すように、第一ユーザアバタ801を会話空間内900で移動させる。会話空間提供部501は、第一ユーザアバタ801と第二ユーザアバタ803との距離が所定距離以下になったことを検知すると、第二ユーザアバタ803の近傍に、第一ユーザの第二ユーザに対する発言のトリガを表示したウィンドウ950を展開し、第一ユーザから発言の入力を受け付ける。具体的には、例えば、会話空間提供部501は、第一ユーザと第二ユーザとの会話開始を会話支援部503に通知し、その通知に応答して、第一ユーザに提示する発言トリガを会話支援部503から受ける。会話空間提供部501は、第一ユーザと第二ユーザとの会話の終了を検知した場合(例えば第一ユーザアバタ801と第二ユーザアバタ803との一方が移動してそれらの間の距離が所定距離より離れたことを検知した場合)、会話終了を会話支援部503に通知する。また、会話空間提供部501は、会話が開始されてから終了されるまでの間、第一ユーザや第二ユーザから発言される都度に、その会話に対応した会話ログ(第一ユーザに対応した会話ログデータにおける会話ログ)に、その発言を追加する。   In response to an operation from the first user, the conversation space providing unit 501 moves the first user avatar 801 in the conversation space 900 as indicated by a dotted arrow 805, for example. When the conversation space providing unit 501 detects that the distance between the first user avatar 801 and the second user avatar 803 is equal to or less than a predetermined distance, the conversation space providing unit 501 closes the second user avatar 803 to the second user of the first user. A window 950 displaying a speech trigger is expanded to accept speech input from the first user. Specifically, for example, the conversation space providing unit 501 notifies the conversation support unit 503 of the start of the conversation between the first user and the second user, and in response to the notification, a speech trigger to be presented to the first user. Received from the conversation support unit 503. When the conversation space providing unit 501 detects the end of the conversation between the first user and the second user (for example, one of the first user avatar 801 and the second user avatar 803 moves and a distance between them is predetermined). When it is detected that the user is away from the distance), the conversation support unit 503 is notified of the end of the conversation. In addition, the conversation space providing unit 501 has a conversation log corresponding to the conversation (corresponding to the first user) every time the first user or the second user speaks until the conversation is started and ended. The message is added to the conversation log in the conversation log data.

会話支援部503は、会話空間提供部501からの会話開始の通知に応答して、第一ユーザに提示する発言トリガを、最新のプロフィールDB1011、最新の会話ログ1013及び最新の一般データから抽出したキーワードをベースに生成し、生成した発言トリガを会話空間提供部501に出力する。従って、ここで出力される発言トリガは、第二ユーザの最新の状況に応じた発言トリガとなる。すなわち、第二ユーザが初めての相手でなくても、前回の第二ユーザとの会話のときと状況が変化していれば、前回の会話の際に提示された発言トリガと違った発言トリガを第一ユーザに提示することができる。   In response to the conversation start notification from the conversation space providing unit 501, the conversation support unit 503 extracts the speech trigger to be presented to the first user from the latest profile DB 1011, the latest conversation log 1013, and the latest general data. It generates based on the keyword, and outputs the generated speech trigger to the conversation space providing unit 501. Therefore, the speech trigger output here is a speech trigger according to the latest status of the second user. That is, even if the second user is not the first partner, if the situation has changed from the previous conversation with the second user, a speech trigger different from the speech trigger presented at the previous conversation is It can be presented to the first user.

会話支援部503は、プロフィールDB1011、会話ログDB1013及び一般データの状況の変化を検知する機能を有している。会話支援部503は、その状況の変化を検知する都度に、その状況変化に応じた発言トリガを生成し会話空間提供部501に出力する。それにより、会話中に、ウィンドウ950には、状況変化前に表示されていた発言トリガに代えて、状況の変化に応じた発言トリガが表示されることになる。   The conversation support unit 503 has a function of detecting changes in the status of the profile DB 1011, conversation log DB 1013, and general data. Each time the conversation support unit 503 detects a change in the situation, the conversation support unit 503 generates a speech trigger according to the change in the situation and outputs it to the conversation space providing unit 501. As a result, during a conversation, a speech trigger corresponding to a change in the situation is displayed in the window 950 instead of the speech trigger that was displayed before the situation change.

以下、図4を参照して、会話支援部503の機能をより詳細に説明する。   Hereinafter, the function of the conversation support unit 503 will be described in more detail with reference to FIG.

図4は、会話支援部503の機能ブロックを示す。   FIG. 4 shows functional blocks of the conversation support unit 503.

会話支援部503は、親密度テーブル1027、親密度監視部1028、相手情報抽出部1029、変化検知部1031、共通項抽出部1033、発言抽出部1035、キーワード変換部1037、キーワード抽出部1039、重み付け調整部1041、出力部701及び選択検知部1043を有する。   The conversation support unit 503 includes a familiarity table 1027, a familiarity monitoring unit 1028, a partner information extraction unit 1029, a change detection unit 1031, a common term extraction unit 1033, a speech extraction unit 1035, a keyword conversion unit 1037, a keyword extraction unit 1039, weighting An adjustment unit 1041, an output unit 701, and a selection detection unit 1043 are included.

親密度テーブル1027には、ユーザ間の親しさの度合いを表す親密度が各ユーザ間について記録されている。ユーザ間の親密度は、例えば、そのユーザ間のトータル会話時間長及び/又は会話回数に基づいて決定される。より具体的には、例えば、親密度は3段階あり、トータル会話時間長が10時間未満又は会話回数が3回未満であれば、親密度は、最低値“1”とされ、トータル会話時間長が30時間以上且つ会話回数が5回以上であれば、最高値“3”とされ、それ以外は、“2”とされる。   The familiarity table 1027 records the familiarity indicating the degree of familiarity between users for each user. The familiarity between users is determined based on, for example, the total conversation time length and / or the number of conversations between the users. More specifically, for example, if there are three levels of intimacy and the total conversation time length is less than 10 hours or the number of conversations is less than 3, the familiarity is set to the minimum value “1”, and the total conversation time length Is 30 or more and the number of conversations is 5 or more, the maximum value is "3", otherwise it is "2".

親密度監視部1028は、会話ログDB1013を監視して、監視の結果(例えば、ユーザ間の最新のトータル会話時間長及び/又は会話回数)を基に、親密度テーブル1207を更新する。   The intimacy monitoring unit 1028 monitors the conversation log DB 1013 and updates the intimacy table 1207 based on the monitoring result (for example, the latest total conversation time length and / or the number of conversations between users).

相手情報抽出部1029は、第二ユーザプロフィールデータ(要するに相手のプロフィールデータ)における特定の属性項目に対応したキーワードを抽出し、特定の属性項目の名称とキーワードとをキーワード変換部1037に送る。ここで、「特定の属性項目」とは、第二ユーザと第一ユーザとの間の親密度に応じた属性項目のことである。具体的には、例えば、親密度“1”に応じた項目として、[性別]、[名前]、[出身地]などがあり、親密度“2”に応じた項目として、[家族構成]があり、親密度“3”に応じた項目として、[宗教]、[支持政党]がある。相手情報抽出部1029は、第二ユーザと第一ユーザとの間の親密度以下の項目に対応したキーワードを抽出する。例えば、その親密度が“2”であれば、相手情報抽出部1029は、[家族構成]に対応したキーワードの他に、[性別]、[名前]、[出身地]などに対応したキーワードを抽出する。   The partner information extraction unit 1029 extracts a keyword corresponding to a specific attribute item in the second user profile data (in other words, the partner profile data), and sends the name and keyword of the specific attribute item to the keyword conversion unit 1037. Here, the “specific attribute item” is an attribute item according to the familiarity between the second user and the first user. Specifically, for example, there are [sex], [name], [hometown], etc. as items according to the familiarity “1”, and [family composition] as items according to the familiarity “2”. There are [Religion] and [Supporting Political Party] as items according to intimacy “3”. The partner information extraction unit 1029 extracts a keyword corresponding to an item below the familiarity between the second user and the first user. For example, if the closeness is “2”, the partner information extraction unit 1029 selects keywords corresponding to [gender], [name], [birthplace], etc. in addition to keywords corresponding to [family composition]. Extract.

変化検知部1031は、例えばプロフィールDB1011を定期的にチェックすることにより、第二ユーザプロフィールデータにおける複数の属性項目のうちの或る属性項目に対応したキーワードに変化があったことを検知する。変化検知部1031は、変化後のキーワードを第二ユーザプロフィールデータから抽出し、そのキーワードとそれの属性項目名とを、キーワード変換部1037に送る。なお、変化したキーワードが、第一ユーザと第二ユーザとの親密度より高い項目のキーワードである場合には、その変化したキーワードは取得されない。   For example, the change detection unit 1031 periodically checks the profile DB 1011 to detect that a keyword corresponding to an attribute item among a plurality of attribute items in the second user profile data has changed. The change detection unit 1031 extracts the changed keyword from the second user profile data, and sends the keyword and its attribute item name to the keyword conversion unit 1037. In addition, when the changed keyword is a keyword of an item higher than the intimacy between the first user and the second user, the changed keyword is not acquired.

共通項抽出部1033は、第一ユーザプロフィールデータと第二ユーザプロフィールデータの複数の属性項目において共通するキーワード(例えば、[性別]であれば“男”、[出身地]であれば“山形”など)を抽出し、抽出したキーワードとそれの属性項目名とを、キーワード変換部1037に送る。   The common term extraction unit 1033 uses a keyword common to a plurality of attribute items of the first user profile data and the second user profile data (for example, “male” for “sex”, “Yamagata” for “hometown”. And the extracted keyword and its attribute item name are sent to the keyword conversion unit 1037.

発言抽出部1035は、第二ユーザに対応した会話ログデータから、頻出度の高いワード(例えば、単位文字数当りに所定個数以上あるワード)をキーワードとして抽出する。発言抽出部1035は、キーワードの抽出元の会話ログが、第一ユーザとの会話のログであるか別のユーザとの会話のログであるかに応じて、抽出されたキーワードの送り先を違える。具体的には、第一ユーザとの会話のログから抽出されたキーワードは、重み付け調整部206に送られる。一方、第一ユーザとは別のユーザとの会話のログから抽出されたキーワードは、キーワード変換部1037に送られる(但し、第一ユーザも参加している会話であれば、抽出されたキーワードは重み付け調整部206に送られる)。重み付け調整部206に送られたキーワードは、そのまま第一ユーザに提示される可能性があるが、キーワード変換部1037に送られたキーワードは、そのキーワードには関連するものの別のキーワードとなって重み付け調整部206に送られ、その後、第一ユーザに提示される。従って、第一ユーザが参加していない会話の内容を第一ユーザに推測されてしまわないようにすることができる。   The speech extraction unit 1035 extracts words having a high frequency of occurrence (for example, words having a predetermined number or more per unit character) as keywords from the conversation log data corresponding to the second user. The speech extraction unit 1035 changes the destination of the extracted keyword depending on whether the conversation log from which the keyword is extracted is a conversation log with the first user or a conversation log with another user. Specifically, the keyword extracted from the log of the conversation with the first user is sent to the weighting adjustment unit 206. On the other hand, the keyword extracted from the log of the conversation with the user other than the first user is sent to the keyword conversion unit 1037 (however, if the conversation is also in which the first user is participating, the extracted keyword is Sent to the weight adjustment unit 206). The keyword sent to the weight adjustment unit 206 may be presented to the first user as it is, but the keyword sent to the keyword conversion unit 1037 is weighted as another keyword related to the keyword. It is sent to the adjustment unit 206 and then presented to the first user. Therefore, it is possible to prevent the first user from guessing the content of the conversation in which the first user has not participated.

キーワード変換部1037は、キーワードを受けた場合、受けたキーワードを、そのキーワードに関連する別のキーワードに変換し、変換後のキーワードと、それのベースとなったキーワード(受けたキーワード)のソースとなったデータの種別とを、重み付け調整部1041に送る。具体的には、例えば、受けたキーワードが、相手抽出部1029、変化検知部1031又は共通項抽出部1033からのキーワードであれば、ソースデータ種別が第二ユーザプロフィールデータであると判定され、発言抽出部1035からのキーワードであれば、ソースデータ種別が会話ログデータであると判定される。なお、受けたキーワードをそれに関連する別のキーワードに変換する方法としては、例えば特開平5−282367号に開示の方法など、既存の方法が採用されても良い。   When the keyword conversion unit 1037 receives a keyword, the keyword conversion unit 1037 converts the received keyword into another keyword related to the keyword, and converts the converted keyword and the source of the keyword (received keyword) as a basis thereof. The type of the data that has been changed is sent to the weight adjustment unit 1041. Specifically, for example, if the received keyword is a keyword from the partner extraction unit 1029, the change detection unit 1031 or the common term extraction unit 1033, it is determined that the source data type is the second user profile data, If it is a keyword from the extraction unit 1035, it is determined that the source data type is conversation log data. As a method for converting the received keyword into another keyword related thereto, an existing method such as a method disclosed in Japanese Patent Laid-Open No. 5-282367 may be employed.

キーワード抽出部1039は、一般データからキーワードを抽出し、抽出したキーワードを重み付け調整部1041に送る。ここでのキーワードの抽出元となる一般データは、キーワード抽出部1039によって検索された一般データである。キーワード抽出部1039は、下記6種類のキーワード、
(1)相手情報抽出部1029からキーワード変換部1037に送られるキーワード、
(2)変化検知部1031からキーワード変換部1037に送られるキーワード、
(3)共通項抽出部1033からキーワード変換部1037に送られるキーワード、
(4)発言抽出部1035からキーワード変換部1037に送られるキーワード、
(5)発言抽出部1035から重み付け調整部1041に送られるキーワード、
(6)キーワード変換部1037から重み付け調整部1041に送られるキーワード、
のうちの少なくとも一つに関連する一般データを、一般データソース装置70から検索し、検索された一般データから、キーワードを抽出する。一般データは、第一と第二のユーザ間の会話に依存しないタイミングで変更されることがあるため、キーワード抽出部1039は、定期的に、上記6種類のキーワードのうちの少なくとも一つに関連する一般データを検索してキーワードを抽出しても良い。
The keyword extraction unit 1039 extracts keywords from the general data, and sends the extracted keywords to the weight adjustment unit 1041. Here, the general data from which the keyword is extracted is the general data searched by the keyword extraction unit 1039. The keyword extraction unit 1039 includes the following six types of keywords:
(1) a keyword sent from the partner information extraction unit 1029 to the keyword conversion unit 1037;
(2) a keyword sent from the change detection unit 1031 to the keyword conversion unit 1037;
(3) a keyword sent from the common term extraction unit 1033 to the keyword conversion unit 1037;
(4) a keyword sent from the speech extraction unit 1035 to the keyword conversion unit 1037;
(5) a keyword sent from the speech extraction unit 1035 to the weighting adjustment unit 1041;
(6) a keyword sent from the keyword conversion unit 1037 to the weighting adjustment unit 1041;
The general data related to at least one of them is searched from the general data source device 70, and keywords are extracted from the searched general data. Since the general data may be changed at a timing that does not depend on the conversation between the first and second users, the keyword extraction unit 1039 periodically relates to at least one of the six types of keywords. Keywords may be extracted by searching general data.

重み付け調整部1041は、キーワード変換部1037、発言抽出部1035及びキーワード抽出部1039からそれぞれキーワードを受け、受けたキーワードそれ自体を話題キーワードとしたものや、受けたキーワードを基に作成した質問文といった発言トリガを作成する。その際、重み付け調整部1041は、発言トリガの優先順位を決定し、各発言トリガとそれの優先順位とを出力部701に送る。   The weighting adjustment unit 1041 receives keywords from the keyword conversion unit 1037, the speech extraction unit 1035, and the keyword extraction unit 1039, and uses the received keyword itself as a topic keyword or a question sentence created based on the received keyword. Create a speech trigger. At that time, the weight adjustment unit 1041 determines the priority order of the speech triggers, and sends each speech trigger and its priority order to the output unit 701.

出力部701は、重み付け調整部1041から各発言トリガと各発言トリガの優先順位とを受けて、その優先順位に従って各発言トリガをWEBブラウザ501に送信する。それにより、WEBブラウザ501によって、ウィンドウ950内に、優先順位の高い順に上から並んだ発言トリガが表示される。ウィンドウ950に表示された各発言トリガは、第一ユーザが選択することが可能である。第一ユーザから選択された発言トリガは、例えば、第一ユーザの図示しない発言入力画面(会話のための入力画面)に反映される。それにより、発言トリガの入力の手間が省ける。   The output unit 701 receives each speech trigger and the priority order of each speech trigger from the weight adjustment unit 1041, and transmits each speech trigger to the WEB browser 501 according to the priority order. As a result, the speech triggers arranged in the descending order of priority are displayed in the window 950 by the WEB browser 501. Each speech trigger displayed in the window 950 can be selected by the first user. The speech trigger selected by the first user is reflected on a speech input screen (input screen for conversation) (not shown) of the first user, for example. Thereby, the labor of inputting the speech trigger can be saved.

選択検知部1043は、ウィンドウ950上で選択された発言トリガ(例えば、ポインティングデバイスを使用して指定された発言トリガ)を検知して、検知された発言トリガを重み付け調整部1043に通知する。重み付け調整部1043は、選択検知部1043からの通知を基に、第一ユーザが第二ユーザとの会話において選択した発言トリガのソースデータ種別を学習する。重み付け調整部1043は、その後の優先順位の決定では、その学習の結果を基にする。これにより、会話の状況に応じた発言トリガ提示が期待できる。具体的には、例えば、同じ発言トリガが第一ユーザに提示されることになっても、会話の状況によって高い優先順位になったり低い優先順位になったりすることがある。   The selection detection unit 1043 detects a speech trigger selected on the window 950 (for example, a speech trigger specified using a pointing device), and notifies the weighting adjustment unit 1043 of the detected speech trigger. The weight adjustment unit 1043 learns the source data type of the speech trigger selected by the first user in the conversation with the second user based on the notification from the selection detection unit 1043. The weighting adjustment unit 1043 is based on the learning result in subsequent priority determination. As a result, a speech trigger presentation according to the conversation situation can be expected. Specifically, for example, even if the same speech trigger is presented to the first user, the priority may be higher or lower depending on the situation of the conversation.

以下、キーワード変換部1037及び重み付け調整部1041について詳細に説明する。   Hereinafter, the keyword conversion unit 1037 and the weight adjustment unit 1041 will be described in detail.

図5は、キーワード変換部1037の機能ブロックを示す。   FIG. 5 shows functional blocks of the keyword conversion unit 1037.

キーワード変換部1037は、強変換部601Aと、弱変化部601Bと、選択部603とを有する。   The keyword conversion unit 1037 includes a strong conversion unit 601A, a weak change unit 601B, and a selection unit 603.

強変換部601A及び弱変換部601Bは、いずれも、キーワード変換を行うモジュールである。強変換部601Aが行う変換の強度(複雑さ)の方が、弱変換部601Bが行う変換の強度よりも強い。変換の強度が強いほど、変換後のキーワードからそのベースとなっているキーワードの特定が困難である。例えば、キーワード変換部1037に入力されたキーワードが、第二ユーザプロフィールデータの変化後のキーワード“結婚しました”である場合、変換強度の弱い変換部601Bで変換されると、結婚との関連性が強いキーワード(“結婚”を連想し易いキーワード)が出力され、一方、変換強度の強い変換部601Aで変換されると、結婚と弱い関連性を持つキーワード(“結婚”という言葉を直接的に連想できないキーワード)が出力される。   Both the strong conversion unit 601A and the weak conversion unit 601B are modules that perform keyword conversion. The strength (complexity) of the conversion performed by the strong conversion unit 601A is stronger than the strength of the conversion performed by the weak conversion unit 601B. The stronger the conversion is, the more difficult it is to identify the keyword that is the base from the converted keywords. For example, if the keyword input to the keyword conversion unit 1037 is the keyword “married” after the change in the second user profile data, if converted by the conversion unit 601B having a low conversion strength, the relevance to marriage Keywords that are strong (keywords that are easily associated with “marriage”) are output. On the other hand, when converted by the conversion unit 601A with high conversion strength, keywords that are weakly related to marriage (the word “marriage” is directly Keywords that cannot be associated) are output.

選択部603は、キーワード変換部1037が受けたキーワードを強変換部601Aと弱変換部601Bのいずれに振り分けるかを選択する。その際、適宜に、第一と第二のユーザ間の親密度が参照される。具体的には、例えば、選択部603は、受けたキーワードが第二ユーザプロフィールデータからのキーワードである場合、そのキーワードの属性項目に対応する親密度が、第一と第二のユーザ間の親密度よりも低ければ、弱変換部601Bにそのキーワードを送り、それらの親密度が同じであれば、強変換部601Aにそのキーワードを送る。また、例えば、選択部603は、受けたキーワードが発言抽出部1035からのキーワードであるならば、そのキーワードを強変換部601Aに送る。   The selection unit 603 selects whether the keyword received by the keyword conversion unit 1037 is distributed to the strong conversion unit 601A or the weak conversion unit 601B. At that time, the closeness between the first and second users is referred to as appropriate. Specifically, for example, when the received keyword is a keyword from the second user profile data, the selection unit 603 determines that the closeness corresponding to the attribute item of the keyword is the parent between the first and second users. If it is lower than the density, the keyword is sent to the weak conversion unit 601B, and if the closeness is the same, the keyword is sent to the strong conversion unit 601A. For example, if the received keyword is a keyword from the utterance extraction unit 1035, the selection unit 603 sends the keyword to the strong conversion unit 601A.

このように、キーワードの種類や、第一と第二のユーザ間の親密度を基に、キーワードの変換強度を違えることができる。   In this way, the keyword conversion strength can be varied based on the type of keyword and the familiarity between the first and second users.

図6は、重み付け調整部1041の機能ブロックを示す。   FIG. 6 shows functional blocks of the weight adjustment unit 1041.

重み付け調整部1041は、ユーザ間毎に履歴データ650を管理しており、履歴更新部672と、出力制御部671とを備える。   The weight adjustment unit 1041 manages the history data 650 for each user, and includes a history update unit 672 and an output control unit 671.

履歴データ650には、第一と第二のユーザ間の今回の(或いはこれまでの)会話におけるソースデータ種別の遷移の履歴が記録される。この「ソースデータ種別の遷移の履歴」とは、第一ユーザに選択された発言トリガのベースとなったキーワードのソースデータの種別の遷移の履歴である。ソースデータ種別としては、プロフィールデータ、会話ログデータ及び一般データがある。   In the history data 650, a history of transition of the source data type in the current (or so far) conversation between the first and second users is recorded. The “transition history of source data type” is a history of transition of the source data type of the keyword that is the base of the speech trigger selected by the first user. Source data types include profile data, conversation log data, and general data.

履歴更新部672は、選択された発言トリガの通知を選択検知部1043から受け、その発言トリガのベースとなったキーワードのソースデータ種別を、履歴データ650に追記する。そのソースデータ種別は、以下の方法で判定される。すなわち、例えば、出力制御部671が、出力部701に出力した発言トリガ毎に、ベースとなったキーワードのソースデータ種別を管理する。そのキーワードが、キーワード抽出部1039からのものであれば、それのソースデータ種別は一般データとして管理され、キーワード変換部1037からのものであれば、変換後のキーワードと共に通知されるソースデータ種別(プロフィールデータ又は会話ログデータ)として管理される。履歴更新部672は、選択検知部1043から受けた発言トリガに対応するソースデータ種別を出力制御部671に問い合わせることで、追記すべきソースデータ種別を判別することができる。   The history update unit 672 receives the notification of the selected speech trigger from the selection detection unit 1043, and adds the source data type of the keyword that is the base of the speech trigger to the history data 650. The source data type is determined by the following method. In other words, for example, the output control unit 671 manages the source data type of the base keyword for each speech trigger output to the output unit 701. If the keyword is from the keyword extraction unit 1039, the source data type is managed as general data, and if the keyword is from the keyword conversion unit 1037, the source data type notified together with the converted keyword ( Profile data or conversation log data). The history update unit 672 can determine the source data type to be added by inquiring of the output control unit 671 the source data type corresponding to the speech trigger received from the selection detection unit 1043.

出力制御部671は、キーワード変換部1037、発言抽出部1035及びキーワード抽出部1039からのキーワードそれ自体、或いはそのキーワードを基に生成した質問文を、発言トリガとして作成する。出力制御部671は、履歴データ650に基づいて、出力する各発言トリガの優先順位を決定する。具体的には、例えば、出力制御部671は、図6に例示する履歴データ650によれば、最近所定回数連続してソースデータ種別が“会話ログデータ”となっているため、会話ログデータから抽出されたキーワードがベースとなっている発言トリガの優先順位を高くする。この「高くする」とは、他のソースデータ種別に対応した発言トリガよりも高くすることであっても良いし、直前回に出力されたときの、ソースデータ種別“会話ログデータ”に対応した発言トリガの優先順位よりも高くすることであっても良い。   The output control unit 671 creates the keyword itself from the keyword conversion unit 1037, the statement extraction unit 1035, and the keyword extraction unit 1039 or a question sentence generated based on the keyword as a statement trigger. The output control unit 671 determines the priority order of each speech trigger to be output based on the history data 650. Specifically, for example, according to the history data 650 illustrated in FIG. 6, the output control unit 671 indicates that the source data type has been “conversation log data” for a predetermined number of consecutive times. The priority of the speech trigger based on the extracted keyword is increased. This “raising” may be higher than the speech trigger corresponding to another source data type, or corresponding to the source data type “conversation log data” when output immediately before It may be higher than the priority level of the speech trigger.

以上、本発明の実施形態を説明したが、この実施形態は本発明の説明のための例示にすぎず、本発明の範囲をこの実施形態にのみ限定する趣旨ではない。本発明は、その要旨を逸脱することなく、その他の様々な態様でも実施することができる。   As mentioned above, although embodiment of this invention was described, this embodiment is only the illustration for description of this invention, and is not the meaning which limits the scope of the present invention only to this embodiment. The present invention can be implemented in various other modes without departing from the gist thereof.

例えば、上記実施形態では、会話は、文字の入出力で行われるが、それに代えて又は加えて、音声の入出力で行われても良い。また、上記実施形態は、テレビ会議など、通信ネットワークを介した他種の会話にも応用可能である。また、上記実施形態は、三人以上が参加する会話にも適用可能である(その場合には、例えば、共通項抽出部1033は、一つの会話に参加している三人以上のユーザに共通の情報項目を抽出する)。   For example, in the above embodiment, the conversation is performed by inputting / outputting characters, but may be performed by inputting / outputting voice instead of or in addition thereto. Moreover, the said embodiment is applicable also to other kinds of conversations via a communication network, such as a video conference. The above embodiment can also be applied to a conversation in which three or more people participate (in this case, for example, the common term extraction unit 1033 is common to three or more users participating in one conversation. Information items).

また、例えば、履歴データ650に代えて又は加えて、第一ユーザから発言トリガとして選択された回数がソースデータ種別毎に記録されたデータなど、発言トリガの選択の都度に更新される他種のデータが採用されても良い。   In addition, for example, instead of or in addition to the history data 650, other types of data that are updated each time a speech trigger is selected, such as data recorded for each source data type, the number of times the first user has been selected as the speech trigger. Data may be adopted.

また、出力制御部671は、発言トリガの優先順位に代えて又は加えて、発言トリガの表示態様(例えば、表示位置、文字の太さ、色など)を決定しても良い。具体的には、例えば、出力制御部671は、選択された発言トリガのソースデータ種別として会話ログデータが最も多い場合には、会話ログデータからのキーワードがベースになっている発言トリガの表示態様を、他のソースデータ種別に対応した発言トリガの表示態様と違えても良い。   Further, the output control unit 671 may determine the display mode (for example, display position, character thickness, color, etc.) of the speech trigger instead of or in addition to the priority order of the speech trigger. Specifically, for example, the output control unit 671, when there is the largest amount of conversation log data as the source data type of the selected speech trigger, the display mode of the speech trigger based on the keyword from the conversation log data May be different from the display mode of the speech trigger corresponding to other source data types.

また、例えば、第一と第二のユーザ間の親密度に関係なく第二ユーザプロフィールデータからキーワードが取得されても良い。この場合、例えば、キーワード変換部1037が、そのキーワードに対応した属性項目のセキュリティレベルに応じて、受けたキーワードの変換強度を制御しても良い。例えば、選択部603は、セキュリティレベル“高”の項目(例えば[宗教]、[支持政党])に対応したキーワードを、強変換部600Aに振り分け、セキュリティレベル“小”の項目(例えば[出身地])に対応したキーワードを、弱変換部600Bに振り分けても良い。   Further, for example, the keyword may be acquired from the second user profile data regardless of the closeness between the first and second users. In this case, for example, the keyword conversion unit 1037 may control the conversion strength of the received keyword according to the security level of the attribute item corresponding to the keyword. For example, the selection unit 603 distributes keywords corresponding to items with a security level “high” (for example, [religion], [supporting political party]) to the strong conversion unit 600A, and sets an item with a security level “low” (for example, [birthplace ]) May be distributed to the weak conversion unit 600B.

また、選択検知部1043は、ウィンドウ950上で選択された発言トリガに代えて又は加えて、他種の方法で入力された発言トリガを検知することもできる。例えば、選択検知部1043は、発言入力画面にキー操作で第一ユーザから入力された文字列(例えばキーボードで入力された文字列)と、ウィンドウ950に提示されている発言トリガとを比較し、その文字列が、ウィンドウ950に提示されているいずれかの発言トリガと一致または関連していることを検知した場合に、その発言トリガを重み付け調整部1041に通知することができる。   Further, the selection detection unit 1043 can detect a speech trigger input by another type of method instead of or in addition to the speech trigger selected on the window 950. For example, the selection detection unit 1043 compares a character string (for example, a character string input with a keyboard) input from the first user by a key operation on the message input screen with a message trigger presented in the window 950, When it is detected that the character string matches or is associated with any of the speech triggers presented in the window 950, the speech trigger can be notified to the weight adjustment unit 1041.

本発明の一実施形態に係るコンピュータシステムを示す。1 shows a computer system according to an embodiment of the present invention. 本発明の一実施形態の概要の説明図である。It is explanatory drawing of the outline | summary of one Embodiment of this invention. 相手の発言に応じた発言トリガの変更の一例を示す。An example of the change of the speech trigger according to an other party's speech is shown. 会話支援部の機能ブロックを示す。The functional block of a conversation support part is shown. キーワード変換部の機能ブロックを示す。The functional block of a keyword conversion part is shown. 重み付け調整部の機能ブロックを示す。The functional block of a weight adjustment part is shown.

符号の説明Explanation of symbols

50…ユーザ端末 100…会話空間提供サーバ 50 ... User terminal 100 ... Conversation space providing server

Claims (9)

第一ユーザ端末を使用する第一ユーザと第二ユーザ端末を使用する第二ユーザとの間で通信ネットワークを介して行われる会話を支援する装置であって、
前記第二ユーザに関わる第二ユーザ関連データから文字列を抽出する抽出手段と、
前記抽出手段が抽出した文字列を該文字列に関連する別の文字列に変換する変換手段と、
前記変換手段により変換された結果の文字列をベースに、前記第一ユーザの前記第二ユーザに対する発言のトリガを表す文字列である発言トリガを作成する作成手段と、
作成された前記発言トリガを前記第一ユーザ端末に送信する送信手段と
を備え、
前記変換手段が、前記第一ユーザと前記第二ユーザとの親しさを表す親密度に応じた複雑さの変換を、前記抽出手段が抽出した文字列に施し、
前記親密度は、前記第二ユーザが前記第一ユーザと行った会話に対応した会話ログに基づいて決定された値である、
会話支援装置。
An apparatus for supporting a conversation performed via a communication network between a first user using a first user terminal and a second user using a second user terminal,
Extracting means for extracting a character string from second user related data related to the second user;
Conversion means for converting the character string extracted by the extraction means into another character string related to the character string;
Creating means for creating a speech trigger that is a character string representing a trigger of speech for the second user of the first user, based on the character string of the result converted by the conversion means;
Transmission means for transmitting the created speech trigger to the first user terminal,
The conversion means performs a conversion of complexity corresponding to the familiarity representing the closeness between the first user and the second user on the character string extracted by the extraction means,
The intimacy is a value determined based on a conversation log corresponding to a conversation performed by the second user with the first user.
Conversation support device.
第一ユーザ端末を使用する第一ユーザと第二ユーザ端末を使用する第二ユーザとの間で通信ネットワークを介して行われる会話を支援する装置であって、  An apparatus for supporting a conversation performed via a communication network between a first user using a first user terminal and a second user using a second user terminal,
前記第二ユーザに関するプロフィールの各種項目に対応した文字列を含む第二ユーザ関連データから文字列を抽出する抽出手段と、  Extraction means for extracting a character string from second user-related data including character strings corresponding to various items of the profile relating to the second user;
前記抽出した文字列又はその文字列の変換後の文字列をベースに、前記第一ユーザの前記第二ユーザに対する発言のトリガを表す文字列である発言トリガを作成する作成手段と、  Creation means for creating a speech trigger that is a character string representing a trigger of speech for the second user of the first user, based on the extracted character string or a character string after conversion of the character string;
作成された前記発言トリガを前記第一ユーザ端末に送信する送信手段と  Transmitting means for transmitting the created speech trigger to the first user terminal;
を備え、With
前記抽出手段が、前記第一ユーザと前記第二ユーザとの親しさを表す親密度に応じた項目に対応する文字列を抽出し、  The extraction means extracts a character string corresponding to an item according to a closeness representing a closeness between the first user and the second user;
前記親密度は、前記第二ユーザが前記第一ユーザと行った会話に対応した会話ログに基づいて決定された値である、  The intimacy is a value determined based on a conversation log corresponding to a conversation performed by the second user with the first user.
会話支援装置。Conversation support device.
前記第二ユーザ関連データとして、前記各種項目に対応した文字列が記述されている第二ユーザプロフィールデータと、前記第二ユーザが行った会話のログが記述されている会話ログデータとがあり、
前記抽出手段によって抽出される文字列の種類として、以下の(A)乃至(C)があり、
前記作成手段は、前記(A)及び(B)の変換後の文字列と、変換されなかった前記(C)の文字列とをベースに、1以上の前記発言トリガを作成する、
ことを特徴とする請求項記載の会話支援装置。
(A)前記第二ユーザプロフィールデータから抽出された文字列、
(B)前記第二ユーザが前記第一ユーザ以外のユーザと行った会話に対応した会話ログから抽出された文字列、
(C)前記会話ログから抽出された文字列。
As the second user-related data, a second user profile data string is written corresponding to the various items, log conversations the second user is performed by have a conversation log data written,
The types of character strings extracted by the extracting means include the following (A) to (C):
The creation means creates one or more speech triggers based on the converted character strings of (A) and (B) and the character string of (C) that has not been converted,
The conversation support apparatus according to claim 2 .
(A) a character string extracted from the second user profile data;
(B) the second user is extracted from the conversational log corresponding to conversation conducted with the user other than the first user string,
(C) A character string extracted from the conversation log.
前記抽出手段が、前記通信ネットワークに接続されているサイトから、変換後の文字列に関連したデータを検索し、検索されたデータから、文字列を抽出し、
前記作成手段が、更に、前記検索されたデータから抽出された文字列にも基づいて、前記発言トリガを作成する、
請求項1乃至3のうちのいずれか1項に記載の会話支援装置。
The extraction means searches for data related to the converted character string from a site connected to the communication network, extracts the character string from the searched data,
The creation means further creates the speech trigger based on a character string extracted from the retrieved data;
The conversation support device according to any one of claims 1 to 3.
第一ユーザ端末を使用する第一ユーザと第二ユーザ端末を使用する第二ユーザとの間で通信ネットワークを介して行われる会話を支援する装置であって、
種類の異なる複数のソースデータから文字列を抽出する抽出手段と、
前記抽出された文字列をベースに、前記第一ユーザの前記第二ユーザに対する発言のトリガを表す文字列である発言トリガを作成する作成手段と、
どんなソースデータ種類の発言トリガが選択されてきたかの履歴を表す履歴データと、作成された発言トリガのベースとなった文字列のソースデータの種類とに基づいて、前記発言トリガの表示態様を決定する表示態様決定手段と
前記決定された表示態様に従う前記発言トリガを前記第一ユーザ端末に送信する送信手段と
前記第一ユーザから選択された発言トリガを検知する選択検知手段と、
前記検知された前記発言トリガのベースとなった文字列のソースデータの種類を特定するソース特定手段と、
前記特定されたソースデータ種類を基に前記履歴データを更新する履歴更新手段と
を備える会話支援装置。
An apparatus for supporting a conversation performed via a communication network between a first user using a first user terminal and a second user using a second user terminal,
An extraction means for extracting a character string from a plurality of different types of source data ;
Creating means for creating a speech trigger that is a character string representing a trigger of speech for the second user of the first user based on the extracted character string;
The display mode of the speech trigger is determined based on history data indicating the history of what kind of source data has been selected and the source data type of the character string that is the basis of the generated speech trigger. Display mode determining means;
Transmitting means for transmitting the speech trigger according to the determined display mode to the first user terminal ;
Selection detection means for detecting a speech trigger selected from the first user;
Source identifying means for identifying the type of source data of the character string that is the basis of the detected speech trigger;
A conversation support device comprising history update means for updating the history data based on the identified source data type .
前記複数のソースデータが、前記第二ユーザに関するプロフィールの各種項目に対応した文字列を含むソースデータである第二ユーザ関連データを含み、  The plurality of source data includes second user related data which is source data including character strings corresponding to various items of the profile relating to the second user;
前記抽出手段が、前記第一ユーザと前記第二ユーザとの親しさを表す親密度に応じた項目に対応する文字列を前記第二ユーザ関連データから抽出し、  The extraction means extracts a character string corresponding to an item corresponding to an intimacy representing a closeness between the first user and the second user from the second user related data,
前記親密度は、前記第二ユーザが前記第一ユーザと行った会話に対応した会話ログに基づいて決定された値である、  The intimacy is a value determined based on a conversation log corresponding to a conversation performed by the second user with the first user.
請求項5記載の会話支援装置。The conversation support device according to claim 5.
第一ユーザ端末を使用する第一ユーザと第二ユーザ端末を使用する第二ユーザとの間で通信ネットワークを介して行われる会話を支援する方法であって、
コンピュータが、前記第二ユーザに関わる第二ユーザ関連データから文字列を抽出するステップと、
コンピュータが、前記抽出手段が抽出した文字列を該文字列に関連する別の文字列に変換するステップと、
コンピュータが、前記変換された結果の文字列をベースに、前記第一ユーザの前記第二ユーザに対する発言のトリガを表す文字列である発言トリガを作成するステップと、
コンピュータが、作成された前記発言トリガを前記第一ユーザ端末に送信するステップと
を有し、
前記変換するステップでは、前記第一ユーザと前記第二ユーザとの親しさを表す親密度に応じた複雑さの変換を、前記抽出された文字列に施し、
前記親密度は、前記第二ユーザが前記第一ユーザと行った会話に対応した会話ログに基づいて決定された値である、
会話支援方法。
A method for supporting a conversation performed via a communication network between a first user using a first user terminal and a second user using a second user terminal,
A computer extracting a character string from second user related data relating to the second user;
A computer converting the character string extracted by the extracting means into another character string related to the character string;
The computer creates a speech trigger that is a character string representing a speech trigger for the second user of the first user based on the character string of the converted result;
Computer, possess and transmitting the speech trigger created in the first user terminal,
In the step of converting, the extracted character string is subjected to a conversion of complexity corresponding to the familiarity representing the closeness between the first user and the second user,
The intimacy is a value determined based on a conversation log corresponding to a conversation performed by the second user with the first user.
Conversation support method.
第一ユーザ端末を使用する第一ユーザと第二ユーザ端末を使用する第二ユーザとの間で通信ネットワークを介して行われる会話を支援する方法であって、  A method for supporting a conversation performed via a communication network between a first user using a first user terminal and a second user using a second user terminal,
コンピュータが、前記第二ユーザに関わり各種項目に対応した文字列を含む第二ユーザ関連データから文字列を抽出するステップと、  A computer extracting a character string from second user-related data including character strings corresponding to various items related to the second user;
コンピュータが、前記抽出した文字列又はその文字列の変換後の文字列をベースに、前記第一ユーザの前記第二ユーザに対する発言のトリガを表す文字列である発言トリガを作成するステップと、  The computer creates a speech trigger that is a character string representing a trigger of speech for the second user of the first user, based on the extracted character string or a character string after conversion of the character string;
コンピュータが、作成された前記発言トリガを前記第一ユーザ端末に送信するステップと  A computer transmitting the created speech trigger to the first user terminal;
を有し、Have
前記抽出するステップでは、前記第一ユーザと前記第二ユーザとの親しさを表す親密度に応じた項目に対応する文字列を抽出し、  In the extracting step, a character string corresponding to an item corresponding to a closeness representing a closeness between the first user and the second user is extracted,
前記親密度は、前記第二ユーザが前記第一ユーザと行った会話に対応した会話ログに基づいて決定された値である、  The intimacy is a value determined based on a conversation log corresponding to a conversation performed by the second user with the first user.
会話支援方法。Conversation support method.
第一ユーザ端末を使用する第一ユーザと第二ユーザ端末を使用する第二ユーザとの間で通信ネットワークを介して行われる会話を支援する方法であって、  A method for supporting a conversation performed via a communication network between a first user using a first user terminal and a second user using a second user terminal,
コンピュータが、前記第二ユーザに関わる第二ユーザ関連データが含まれる種類の異なる複数のソースデータから文字列を抽出するステップと、  A computer extracting a character string from a plurality of different types of source data including second user related data related to the second user;
コンピュータが、前記抽出された文字列をベースに、前記第一ユーザの前記第二ユーザに対する発言のトリガを表す文字列である発言トリガを作成するステップと、  A computer creating a speech trigger based on the extracted character string, which is a character string representing a speech trigger for the second user of the first user;
コンピュータが、どんなソースデータ種類の発言トリガが選択されてきたかの履歴を表す履歴データと、作成された前記発言トリガのベースとなった文字列のソースデータの種類とに基づいて、その発言トリガの表示態様を決定するステップと  The display of the speech trigger based on the history data representing the history of what kind of speech trigger has been selected by the computer and the type of the source data of the character string on which the speech trigger was created. Determining an aspect;
コンピュータが、前記決定された表示態様に従う前記発言トリガを前記第一ユーザ端末に送信するステップと、  A computer transmitting the speech trigger according to the determined display mode to the first user terminal;
前記第一ユーザから選択された前記発言トリガを検知するステップと、  Detecting the speech trigger selected from the first user;
前記検知された前記発言トリガのベースとなった文字列のソースデータの種類を特定するステップと、  Identifying the type of character string source data that is the basis of the detected speech trigger;
前記特定されたソースデータ種類を基に前記履歴データを更新するステップと  Updating the historical data based on the identified source data type;
を有する会話支援方法。A conversation support method.
JP2008090668A 2008-03-31 2008-03-31 Conversation support apparatus and method Active JP4970330B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008090668A JP4970330B2 (en) 2008-03-31 2008-03-31 Conversation support apparatus and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008090668A JP4970330B2 (en) 2008-03-31 2008-03-31 Conversation support apparatus and method

Publications (2)

Publication Number Publication Date
JP2009245143A JP2009245143A (en) 2009-10-22
JP4970330B2 true JP4970330B2 (en) 2012-07-04

Family

ID=41306955

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008090668A Active JP4970330B2 (en) 2008-03-31 2008-03-31 Conversation support apparatus and method

Country Status (1)

Country Link
JP (1) JP4970330B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5715390B2 (en) * 2009-12-03 2015-05-07 パナソニック インテレクチュアル プロパティ コーポレーション オブアメリカPanasonic Intellectual Property Corporation of America Viewing terminal device, viewing statistics device, viewing statistics processing system, and viewing statistics processing method
JP5864273B2 (en) * 2012-01-06 2016-02-17 Kddi株式会社 Inter-user familiarity estimation apparatus, method and program
JP5791565B2 (en) * 2012-05-18 2015-10-07 日本電信電話株式会社 User attribute estimation device, user attribute estimation method, and program

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001282687A (en) * 2000-03-28 2001-10-12 Fuji Xerox Co Ltd Relative information presenting device

Also Published As

Publication number Publication date
JP2009245143A (en) 2009-10-22

Similar Documents

Publication Publication Date Title
US11349991B2 (en) Systems and methods to present voice message information to a user of a computing device
US9990052B2 (en) Intent-aware keyboard
US9288000B2 (en) Monitoring a communication and retrieving information relevant to the communication
US7251495B2 (en) Command based group SMS with mobile message receiver and server
US20010054041A1 (en) System and method for registering or searching in multiple relationship-searching hosts
US11551697B2 (en) Processing system for intelligently linking messages using markers based on language data
CN103365833B (en) A kind of input candidate word reminding method based on context and system
US20090249198A1 (en) Techniques for input recogniton and completion
US10826854B1 (en) Message guardian
US20230117765A1 (en) Systems and methods for enabling topic-based verbal interaction with a virtual assistant
JP2021099862A (en) Improvement of dialog with electronic chat interface
JP4970330B2 (en) Conversation support apparatus and method
JP2010026686A (en) Interactive communication terminal with integrative interface, and communication system using the same
JP7028179B2 (en) Information processing equipment, information processing methods and computer programs
US10847161B2 (en) Processing system using intelligent messaging flow markers based on language data
EP2740045A1 (en) Contextual based communication method and user interface
US20210374194A1 (en) Systems and methods for subjectively modifying social media posts
US20210374193A1 (en) Systems and methods for subjectively modifying social media posts
JP2005196356A (en) System, method and program for dialogue with pseudo-character
JP6697172B1 (en) Information processing apparatus and information processing program
JP2019021157A (en) Information presentation system, information presentation method, and program
JP2019102033A (en) Topic presentation device, topic presentation method, and topic presentation program
JP2007052806A (en) Program, method and apparatus for retrieving history

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100317

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20111228

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120118

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120313

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120403

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120404

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150413

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4970330

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250