JP4970330B2 - Conversation support apparatus and method - Google Patents
Conversation support apparatus and method Download PDFInfo
- Publication number
- JP4970330B2 JP4970330B2 JP2008090668A JP2008090668A JP4970330B2 JP 4970330 B2 JP4970330 B2 JP 4970330B2 JP 2008090668 A JP2008090668 A JP 2008090668A JP 2008090668 A JP2008090668 A JP 2008090668A JP 4970330 B2 JP4970330 B2 JP 4970330B2
- Authority
- JP
- Japan
- Prior art keywords
- user
- character string
- conversation
- speech trigger
- speech
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 15
- 238000006243 chemical reaction Methods 0.000 claims description 52
- 238000000605 extraction Methods 0.000 claims description 35
- 238000004891 communication Methods 0.000 claims description 14
- 238000001514 detection method Methods 0.000 claims description 13
- 239000000284 extract Substances 0.000 claims description 12
- 230000005540 biological transmission Effects 0.000 claims 1
- 238000012544 monitoring process Methods 0.000 description 3
- 230000004044 response Effects 0.000 description 3
- 230000007704 transition Effects 0.000 description 3
- 230000006870 function Effects 0.000 description 2
- 239000000203 mixture Substances 0.000 description 2
- 241000282320 Panthera leo Species 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
Images
Landscapes
- Information Transfer Between Computers (AREA)
Description
本発明は、通信ネットワークを介しての会話を支援するための技術に関する。 The present invention relates to a technique for supporting a conversation via a communication network.
通信ネットワークを介して行われる会話として、例えば、テレビ会議や、インターネット上で行われるチャットなどがある。 Examples of the conversation performed via the communication network include a video conference and a chat performed on the Internet.
ユーザは、会話を活性化したくても、良い話題や意見が浮かばず困ることがある。このような事態は、例えば、発言の糸口が見つからなかったり、相手との以前の会話内容を忘れてしまったりしたような場合に起こりがちである。 Even if the user wants to activate the conversation, the user may be troubled because good topics and opinions are not raised. Such a situation tends to occur when, for example, a clue for a speech is not found or a previous conversation with a partner is forgotten.
このような課題を意識した技術として、例えば特許文献1及び2に開示の技術がある。 For example, there are techniques disclosed in Patent Documents 1 and 2 as techniques that are conscious of such problems.
特許文献1によれば、相手のプロフィールと相手と共有できる話題が事前に登録され、会話の際に、ユーザに対して、事前登録された情報(相手のプロフィールと共有できる話題)が表示される(例えば、図1及び図5参照)。 According to Patent Document 1, a profile of a partner and a topic that can be shared with the partner are registered in advance, and pre-registered information (a topic that can be shared with the profile of the partner) is displayed to the user during a conversation. (See, for example, FIGS. 1 and 5).
特許文献2によれば、ユーザが、相手に関する条件(性別、年齢など)を入力すると、その条件に合致する相手プロフィールが検索される。そして、検索された相手プロフィール中からキーワードが抽出され、抽出されたキーワードを基に特定されるコンテンツが、ユーザに提供される(例えば、図1、図4及び図5参照)。 According to Patent Literature 2, when a user inputs a condition (gender, age, etc.) related to a partner, a partner profile that matches the condition is searched. Then, keywords are extracted from the retrieved partner profile, and content specified based on the extracted keywords is provided to the user (see, for example, FIGS. 1, 4 and 5).
しかし、特許文献1では、ユーザに対して表示される情報は、事前登録された情報である。特許文献2では、ユーザに提供されるコンテンツは、検索された相手プロフィールのみに基づくコンテンツである。 However, in Patent Document 1, information displayed to the user is pre-registered information. In Patent Document 2, the content provided to the user is content based only on the searched partner profile.
要するに、特許文献1及び2のいずれも、相手毎に、提示される話題が固定化されている。それ故、相手との会話が長く続いたり、同じ相手との会話が複数回行われたりする等、状況に変化があるにも関わらず、同じ話題がユーザに提示されることになる。 In short, in both Patent Documents 1 and 2, the topic to be presented is fixed for each partner. Therefore, the same topic is presented to the user regardless of changes in the situation, such as a long conversation with the other party or multiple conversations with the same party.
そこで、本発明の目的は、ユーザに提示する同じ相手との発言トリガを状況の変化に応じた異なる発言トリガにすることにある。 Therefore, an object of the present invention is to change a speech trigger with the same partner to be presented to the user to a different speech trigger according to a change in the situation.
第一ユーザ端末を使用する第一ユーザと第二ユーザ端末を使用する第二ユーザとの間で通信ネットワークを介して行われる会話を支援する会話支援装置を構築する。 A conversation support device that supports a conversation performed via a communication network between a first user using a first user terminal and a second user using a second user terminal is constructed.
第一の観点に従う会話支援装置は、第二ユーザに関わる第二ユーザ関連データから文字列を抽出し、その文字列をそれに関連する別の文字列に変換する。そして、変換された文字列をベースに、第一ユーザの第二ユーザに対する発言トリガを作成し、作成された発言トリガを第一ユーザ端末に送信する。これにより、第一ユーザ端末のディスプレイ画面に、第一ユーザの第二ユーザに対する発言トリガであって、第二ユーザ関連データから抽出され変換された文字列がベースの発言トリガが表示される。 The conversation support apparatus according to the first aspect extracts a character string from the second user related data related to the second user, and converts the character string into another character string related thereto. And the speech trigger with respect to the 2nd user of a 1st user is created based on the converted character string, and the created speech trigger is transmitted to a 1st user terminal. As a result, a speech trigger based on the character string extracted from the second user-related data and converted, which is a speech trigger for the second user of the first user, is displayed on the display screen of the first user terminal.
第二の観点に従う会話支援装置は、第二ユーザに関わる第二ユーザ関連データのうちの、追加又は更新された部分を含む文字列を抽出する。そして、抽出された文字列をベースに、第一ユーザの第二ユーザに対する発言トリガを作成し、作成された発言トリガを、第一ユーザ端末に送信する。これにより、第一ユーザ端末のディスプレイ画面に、第一ユーザの第二ユーザに対する発言トリガであって、第二ユーザ関連データのうちの追加又は更新された部分を含んだ文字列がベースの発言トリガが表示される。 The conversation support device according to the second aspect extracts a character string including an added or updated portion of the second user related data related to the second user. And the speech trigger with respect to the 2nd user of a 1st user is created based on the extracted character string, and the created speech trigger is transmitted to a 1st user terminal. Accordingly, the display trigger of the first user terminal is a speech trigger for the second user of the first user, and the text trigger including the added or updated portion of the second user related data is based on the speech trigger. Is displayed.
図1は、本発明の一実施形態に係るコンピュータシステムを示す。 FIG. 1 shows a computer system according to an embodiment of the present invention.
通信ネットワーク60に、複数のユーザ端末50と、会話空間提供サーバ100と、一般データソース装置70が接続されている。
A plurality of
ユーザ端末50は、ユーザが使用する計算機(例えば、パーソナルコンピュータ或いは携帯電話機など)である。ユーザ端末50は、例えば、入力装置(例えばキーボードやポインティングデバイス)51と、表示装置53と、CPU(Central Processing Unit)55と、記憶装置57と、通信ネットワーク60を介して通信するためのネットワークインタフェース装置(ネットワークI/F)59とを備えている。
The
会話空間提供サーバ(以下、「サーバ」と略す)100は、一又は複数の計算機で構成されたシステムであり、例えば、CPU107と、記憶装置105と、ネットワークI/F111とを備えている。記憶装置105は、例えば、主記憶装置(例えばメモリ)及び/又は補助記憶装置(例えば不揮発性の記憶メディアのドライブ)である。サーバ100は、ユーザ端末50に会話空間を提供する。「会話空間」とは、会話が行われる仮想的な空間である。
A conversation space providing server (hereinafter abbreviated as “server”) 100 is a system composed of one or a plurality of computers, and includes, for example, a
一般データソース装置70は、一般データのソースとなる装置(典型的には一般データを記憶している装置)であり、具体的には、例えば、通信ネットワーク60に接続されている種々のサイトである。本実施形態で言う「一般データ」とは、後述する会話ログデータ及びユーザプロフィールデータ以外のデータであって、会話ログデータ及びユーザプロフィールデータと同様に、定期的又は不定期的に追加、変更又は削除されるデータである。一般データの例として、新聞社から発行されるニュースデータや、ユーザが更新するブログデータなどを挙げることができる。
The general
図2は、本実施形態の概要の説明図である。 FIG. 2 is an explanatory diagram of the outline of the present embodiment.
会話空間900に、サーバ100にログインしている各ユーザを表す各オブジェクトが存在する。オブジェクトは、例えばアバタであり、図2に例示する会話空間900によれば、第一ユーザのアバタ801と第二ユーザのアバタ803が存在する。図2の会話空間900のビューは、第一ユーザアバタ801の位置を基準にした、第一ユーザの端末50に表示されるビューである。
Each object representing each user who is logged in to the
第一ユーザアバタ801が移動して(点線矢印805参照)、第一ユーザアバタ801と第二ユーザアバタ803との距離が所定距離以下に縮まった場合に、第一ユーザと第二ユーザとが互いに会話することが可能な状態となる。その際、第一ユーザへの会話空間900のビューには、第二ユーザアバタ803の近傍に発言トリガウィンドウ(以下、「ウィンドウ」と略す)950が展開される。このウィンドウ950には、第二ユーザとの会話のトリガが表示される。発言トリガは、例えば、話題キーワード、及び/又は、第二ユーザに対する質問文である。第一ユーザは、所望の発言トリガ(例えば図示のように“幕張○○イベント”)を糸口に第二ユーザに発言することができる。
When the
本実施形態の一つの特徴として、ウィンドウ950に表示される発言トリガが、状況の変化に応じた発言トリガとされることにある。例えば、第一ユーザと第二ユーザとの会話の進行に応じて、ウィンドウ950に表示される発言トリガが変更される。具体的には、例えば、図3に示すように、第二ユーザからの発言にキーワード“銚子”や“旅行”が含まれていた場合に、“銚子”或いは“旅行”に関わる発言トリガ(例えば“犬吠崎”及び“旅行するならどこが良い?”)が高い優先順位とされウィンドウ950に表示される(つまり、ウィンドウ950への表示が、(A)から(B)に変わる)。これにより、第一ユーザは、“銚子”或いは“旅行”について会話を発展させていくことができる。
One feature of the present embodiment is that the speech trigger displayed in the
以下、図2、図4、図5及び図6を参照して、このように状況の変化に応じた発言トリガを第一ユーザに提示できるよう構成されたサーバ100について説明する。なお、以下の説明では、サーバ100からの情報の提供先として第一ユーザを例に採るが、その説明は、第一ユーザの会話の相手となる第二ユーザにも適用可能である(例えば、第一ユーザには、第一ユーザの相手となる第二ユーザとの発言トリガが提示されるが、同様に、第二ユーザには、第一ユーザとの発言トリガが表示される)。
Hereinafter, with reference to FIG. 2, FIG. 4, FIG. 5 and FIG. 6, the
サーバ100には、会話空間提供部501と、会話支援部503と、プロフィールデータベース(プロフィールDB)1011と、会話ログデータベース(会話ログDB)1013とがある。会話空間提供部501及び会話支援部503は、例えば、CPU107で実行されるコンピュータプログラムである。プロフィールDB1011及び会話ログDB1013は、記憶装置105(又は、サーバ100外の遠隔の記憶装置)に記憶される。プロフィールDB1011には、ユーザ毎のプロフィールデータが含まれている。プロフィールデータには、ユーザのプロフィールに関する各種属性項目に対応した文字列(以下、便宜上「キーワード」と言う)が記述されている(例えば、属性項目が[出身地]であればキーワードは“山形県”である)。会話ログDB1013には、ユーザ毎の会話ログデータが含まれている。会話ログデータには、その会話ログデータに対応したユーザが行った会話毎の会話ログが記録されている。各会話ログには、例えば、会話の時間長や、発言毎に本文や発言したユーザIDなどが含まれている。
The
会話空間提供部501は、第一ユーザ端末50に、第一ユーザアバタ801の位置を基準にしたビューの会話空間900に関する情報を送信する。その情報には、例えば、会話空間900それ自体に関する情報や、第一ユーザアバタ801に関する情報や、第二ユーザアバタ803に関する情報(例えば会話空間900内での位置など)が含まれている。ユーザ端末50内のCPU55で実行されるWEBブラウザ(例えば専用のビューワがプラグインされている)501が、会話空間提供部501からの情報に基づいて、第一ユーザアバタ801や第二ユーザアバタ803が存在する会話空間900を、表示装置53に表示する。
The conversation
会話空間提供部501が、第一ユーザからの操作に応答して、例えば点線矢印805で示すように、第一ユーザアバタ801を会話空間内900で移動させる。会話空間提供部501は、第一ユーザアバタ801と第二ユーザアバタ803との距離が所定距離以下になったことを検知すると、第二ユーザアバタ803の近傍に、第一ユーザの第二ユーザに対する発言のトリガを表示したウィンドウ950を展開し、第一ユーザから発言の入力を受け付ける。具体的には、例えば、会話空間提供部501は、第一ユーザと第二ユーザとの会話開始を会話支援部503に通知し、その通知に応答して、第一ユーザに提示する発言トリガを会話支援部503から受ける。会話空間提供部501は、第一ユーザと第二ユーザとの会話の終了を検知した場合(例えば第一ユーザアバタ801と第二ユーザアバタ803との一方が移動してそれらの間の距離が所定距離より離れたことを検知した場合)、会話終了を会話支援部503に通知する。また、会話空間提供部501は、会話が開始されてから終了されるまでの間、第一ユーザや第二ユーザから発言される都度に、その会話に対応した会話ログ(第一ユーザに対応した会話ログデータにおける会話ログ)に、その発言を追加する。
In response to an operation from the first user, the conversation
会話支援部503は、会話空間提供部501からの会話開始の通知に応答して、第一ユーザに提示する発言トリガを、最新のプロフィールDB1011、最新の会話ログ1013及び最新の一般データから抽出したキーワードをベースに生成し、生成した発言トリガを会話空間提供部501に出力する。従って、ここで出力される発言トリガは、第二ユーザの最新の状況に応じた発言トリガとなる。すなわち、第二ユーザが初めての相手でなくても、前回の第二ユーザとの会話のときと状況が変化していれば、前回の会話の際に提示された発言トリガと違った発言トリガを第一ユーザに提示することができる。
In response to the conversation start notification from the conversation
会話支援部503は、プロフィールDB1011、会話ログDB1013及び一般データの状況の変化を検知する機能を有している。会話支援部503は、その状況の変化を検知する都度に、その状況変化に応じた発言トリガを生成し会話空間提供部501に出力する。それにより、会話中に、ウィンドウ950には、状況変化前に表示されていた発言トリガに代えて、状況の変化に応じた発言トリガが表示されることになる。
The
以下、図4を参照して、会話支援部503の機能をより詳細に説明する。
Hereinafter, the function of the
図4は、会話支援部503の機能ブロックを示す。
FIG. 4 shows functional blocks of the
会話支援部503は、親密度テーブル1027、親密度監視部1028、相手情報抽出部1029、変化検知部1031、共通項抽出部1033、発言抽出部1035、キーワード変換部1037、キーワード抽出部1039、重み付け調整部1041、出力部701及び選択検知部1043を有する。
The
親密度テーブル1027には、ユーザ間の親しさの度合いを表す親密度が各ユーザ間について記録されている。ユーザ間の親密度は、例えば、そのユーザ間のトータル会話時間長及び/又は会話回数に基づいて決定される。より具体的には、例えば、親密度は3段階あり、トータル会話時間長が10時間未満又は会話回数が3回未満であれば、親密度は、最低値“1”とされ、トータル会話時間長が30時間以上且つ会話回数が5回以上であれば、最高値“3”とされ、それ以外は、“2”とされる。 The familiarity table 1027 records the familiarity indicating the degree of familiarity between users for each user. The familiarity between users is determined based on, for example, the total conversation time length and / or the number of conversations between the users. More specifically, for example, if there are three levels of intimacy and the total conversation time length is less than 10 hours or the number of conversations is less than 3, the familiarity is set to the minimum value “1”, and the total conversation time length Is 30 or more and the number of conversations is 5 or more, the maximum value is "3", otherwise it is "2".
親密度監視部1028は、会話ログDB1013を監視して、監視の結果(例えば、ユーザ間の最新のトータル会話時間長及び/又は会話回数)を基に、親密度テーブル1207を更新する。
The
相手情報抽出部1029は、第二ユーザプロフィールデータ(要するに相手のプロフィールデータ)における特定の属性項目に対応したキーワードを抽出し、特定の属性項目の名称とキーワードとをキーワード変換部1037に送る。ここで、「特定の属性項目」とは、第二ユーザと第一ユーザとの間の親密度に応じた属性項目のことである。具体的には、例えば、親密度“1”に応じた項目として、[性別]、[名前]、[出身地]などがあり、親密度“2”に応じた項目として、[家族構成]があり、親密度“3”に応じた項目として、[宗教]、[支持政党]がある。相手情報抽出部1029は、第二ユーザと第一ユーザとの間の親密度以下の項目に対応したキーワードを抽出する。例えば、その親密度が“2”であれば、相手情報抽出部1029は、[家族構成]に対応したキーワードの他に、[性別]、[名前]、[出身地]などに対応したキーワードを抽出する。
The partner
変化検知部1031は、例えばプロフィールDB1011を定期的にチェックすることにより、第二ユーザプロフィールデータにおける複数の属性項目のうちの或る属性項目に対応したキーワードに変化があったことを検知する。変化検知部1031は、変化後のキーワードを第二ユーザプロフィールデータから抽出し、そのキーワードとそれの属性項目名とを、キーワード変換部1037に送る。なお、変化したキーワードが、第一ユーザと第二ユーザとの親密度より高い項目のキーワードである場合には、その変化したキーワードは取得されない。
For example, the
共通項抽出部1033は、第一ユーザプロフィールデータと第二ユーザプロフィールデータの複数の属性項目において共通するキーワード(例えば、[性別]であれば“男”、[出身地]であれば“山形”など)を抽出し、抽出したキーワードとそれの属性項目名とを、キーワード変換部1037に送る。
The common
発言抽出部1035は、第二ユーザに対応した会話ログデータから、頻出度の高いワード(例えば、単位文字数当りに所定個数以上あるワード)をキーワードとして抽出する。発言抽出部1035は、キーワードの抽出元の会話ログが、第一ユーザとの会話のログであるか別のユーザとの会話のログであるかに応じて、抽出されたキーワードの送り先を違える。具体的には、第一ユーザとの会話のログから抽出されたキーワードは、重み付け調整部206に送られる。一方、第一ユーザとは別のユーザとの会話のログから抽出されたキーワードは、キーワード変換部1037に送られる(但し、第一ユーザも参加している会話であれば、抽出されたキーワードは重み付け調整部206に送られる)。重み付け調整部206に送られたキーワードは、そのまま第一ユーザに提示される可能性があるが、キーワード変換部1037に送られたキーワードは、そのキーワードには関連するものの別のキーワードとなって重み付け調整部206に送られ、その後、第一ユーザに提示される。従って、第一ユーザが参加していない会話の内容を第一ユーザに推測されてしまわないようにすることができる。
The
キーワード変換部1037は、キーワードを受けた場合、受けたキーワードを、そのキーワードに関連する別のキーワードに変換し、変換後のキーワードと、それのベースとなったキーワード(受けたキーワード)のソースとなったデータの種別とを、重み付け調整部1041に送る。具体的には、例えば、受けたキーワードが、相手抽出部1029、変化検知部1031又は共通項抽出部1033からのキーワードであれば、ソースデータ種別が第二ユーザプロフィールデータであると判定され、発言抽出部1035からのキーワードであれば、ソースデータ種別が会話ログデータであると判定される。なお、受けたキーワードをそれに関連する別のキーワードに変換する方法としては、例えば特開平5−282367号に開示の方法など、既存の方法が採用されても良い。
When the
キーワード抽出部1039は、一般データからキーワードを抽出し、抽出したキーワードを重み付け調整部1041に送る。ここでのキーワードの抽出元となる一般データは、キーワード抽出部1039によって検索された一般データである。キーワード抽出部1039は、下記6種類のキーワード、
(1)相手情報抽出部1029からキーワード変換部1037に送られるキーワード、
(2)変化検知部1031からキーワード変換部1037に送られるキーワード、
(3)共通項抽出部1033からキーワード変換部1037に送られるキーワード、
(4)発言抽出部1035からキーワード変換部1037に送られるキーワード、
(5)発言抽出部1035から重み付け調整部1041に送られるキーワード、
(6)キーワード変換部1037から重み付け調整部1041に送られるキーワード、
のうちの少なくとも一つに関連する一般データを、一般データソース装置70から検索し、検索された一般データから、キーワードを抽出する。一般データは、第一と第二のユーザ間の会話に依存しないタイミングで変更されることがあるため、キーワード抽出部1039は、定期的に、上記6種類のキーワードのうちの少なくとも一つに関連する一般データを検索してキーワードを抽出しても良い。
The
(1) a keyword sent from the partner
(2) a keyword sent from the
(3) a keyword sent from the common
(4) a keyword sent from the
(5) a keyword sent from the
(6) a keyword sent from the
The general data related to at least one of them is searched from the general
重み付け調整部1041は、キーワード変換部1037、発言抽出部1035及びキーワード抽出部1039からそれぞれキーワードを受け、受けたキーワードそれ自体を話題キーワードとしたものや、受けたキーワードを基に作成した質問文といった発言トリガを作成する。その際、重み付け調整部1041は、発言トリガの優先順位を決定し、各発言トリガとそれの優先順位とを出力部701に送る。
The
出力部701は、重み付け調整部1041から各発言トリガと各発言トリガの優先順位とを受けて、その優先順位に従って各発言トリガをWEBブラウザ501に送信する。それにより、WEBブラウザ501によって、ウィンドウ950内に、優先順位の高い順に上から並んだ発言トリガが表示される。ウィンドウ950に表示された各発言トリガは、第一ユーザが選択することが可能である。第一ユーザから選択された発言トリガは、例えば、第一ユーザの図示しない発言入力画面(会話のための入力画面)に反映される。それにより、発言トリガの入力の手間が省ける。
The
選択検知部1043は、ウィンドウ950上で選択された発言トリガ(例えば、ポインティングデバイスを使用して指定された発言トリガ)を検知して、検知された発言トリガを重み付け調整部1043に通知する。重み付け調整部1043は、選択検知部1043からの通知を基に、第一ユーザが第二ユーザとの会話において選択した発言トリガのソースデータ種別を学習する。重み付け調整部1043は、その後の優先順位の決定では、その学習の結果を基にする。これにより、会話の状況に応じた発言トリガ提示が期待できる。具体的には、例えば、同じ発言トリガが第一ユーザに提示されることになっても、会話の状況によって高い優先順位になったり低い優先順位になったりすることがある。
The
以下、キーワード変換部1037及び重み付け調整部1041について詳細に説明する。
Hereinafter, the
図5は、キーワード変換部1037の機能ブロックを示す。
FIG. 5 shows functional blocks of the
キーワード変換部1037は、強変換部601Aと、弱変化部601Bと、選択部603とを有する。
The
強変換部601A及び弱変換部601Bは、いずれも、キーワード変換を行うモジュールである。強変換部601Aが行う変換の強度(複雑さ)の方が、弱変換部601Bが行う変換の強度よりも強い。変換の強度が強いほど、変換後のキーワードからそのベースとなっているキーワードの特定が困難である。例えば、キーワード変換部1037に入力されたキーワードが、第二ユーザプロフィールデータの変化後のキーワード“結婚しました”である場合、変換強度の弱い変換部601Bで変換されると、結婚との関連性が強いキーワード(“結婚”を連想し易いキーワード)が出力され、一方、変換強度の強い変換部601Aで変換されると、結婚と弱い関連性を持つキーワード(“結婚”という言葉を直接的に連想できないキーワード)が出力される。
Both the
選択部603は、キーワード変換部1037が受けたキーワードを強変換部601Aと弱変換部601Bのいずれに振り分けるかを選択する。その際、適宜に、第一と第二のユーザ間の親密度が参照される。具体的には、例えば、選択部603は、受けたキーワードが第二ユーザプロフィールデータからのキーワードである場合、そのキーワードの属性項目に対応する親密度が、第一と第二のユーザ間の親密度よりも低ければ、弱変換部601Bにそのキーワードを送り、それらの親密度が同じであれば、強変換部601Aにそのキーワードを送る。また、例えば、選択部603は、受けたキーワードが発言抽出部1035からのキーワードであるならば、そのキーワードを強変換部601Aに送る。
The
このように、キーワードの種類や、第一と第二のユーザ間の親密度を基に、キーワードの変換強度を違えることができる。 In this way, the keyword conversion strength can be varied based on the type of keyword and the familiarity between the first and second users.
図6は、重み付け調整部1041の機能ブロックを示す。
FIG. 6 shows functional blocks of the
重み付け調整部1041は、ユーザ間毎に履歴データ650を管理しており、履歴更新部672と、出力制御部671とを備える。
The
履歴データ650には、第一と第二のユーザ間の今回の(或いはこれまでの)会話におけるソースデータ種別の遷移の履歴が記録される。この「ソースデータ種別の遷移の履歴」とは、第一ユーザに選択された発言トリガのベースとなったキーワードのソースデータの種別の遷移の履歴である。ソースデータ種別としては、プロフィールデータ、会話ログデータ及び一般データがある。
In the
履歴更新部672は、選択された発言トリガの通知を選択検知部1043から受け、その発言トリガのベースとなったキーワードのソースデータ種別を、履歴データ650に追記する。そのソースデータ種別は、以下の方法で判定される。すなわち、例えば、出力制御部671が、出力部701に出力した発言トリガ毎に、ベースとなったキーワードのソースデータ種別を管理する。そのキーワードが、キーワード抽出部1039からのものであれば、それのソースデータ種別は一般データとして管理され、キーワード変換部1037からのものであれば、変換後のキーワードと共に通知されるソースデータ種別(プロフィールデータ又は会話ログデータ)として管理される。履歴更新部672は、選択検知部1043から受けた発言トリガに対応するソースデータ種別を出力制御部671に問い合わせることで、追記すべきソースデータ種別を判別することができる。
The
出力制御部671は、キーワード変換部1037、発言抽出部1035及びキーワード抽出部1039からのキーワードそれ自体、或いはそのキーワードを基に生成した質問文を、発言トリガとして作成する。出力制御部671は、履歴データ650に基づいて、出力する各発言トリガの優先順位を決定する。具体的には、例えば、出力制御部671は、図6に例示する履歴データ650によれば、最近所定回数連続してソースデータ種別が“会話ログデータ”となっているため、会話ログデータから抽出されたキーワードがベースとなっている発言トリガの優先順位を高くする。この「高くする」とは、他のソースデータ種別に対応した発言トリガよりも高くすることであっても良いし、直前回に出力されたときの、ソースデータ種別“会話ログデータ”に対応した発言トリガの優先順位よりも高くすることであっても良い。
The
以上、本発明の実施形態を説明したが、この実施形態は本発明の説明のための例示にすぎず、本発明の範囲をこの実施形態にのみ限定する趣旨ではない。本発明は、その要旨を逸脱することなく、その他の様々な態様でも実施することができる。 As mentioned above, although embodiment of this invention was described, this embodiment is only the illustration for description of this invention, and is not the meaning which limits the scope of the present invention only to this embodiment. The present invention can be implemented in various other modes without departing from the gist thereof.
例えば、上記実施形態では、会話は、文字の入出力で行われるが、それに代えて又は加えて、音声の入出力で行われても良い。また、上記実施形態は、テレビ会議など、通信ネットワークを介した他種の会話にも応用可能である。また、上記実施形態は、三人以上が参加する会話にも適用可能である(その場合には、例えば、共通項抽出部1033は、一つの会話に参加している三人以上のユーザに共通の情報項目を抽出する)。
For example, in the above embodiment, the conversation is performed by inputting / outputting characters, but may be performed by inputting / outputting voice instead of or in addition thereto. Moreover, the said embodiment is applicable also to other kinds of conversations via a communication network, such as a video conference. The above embodiment can also be applied to a conversation in which three or more people participate (in this case, for example, the common
また、例えば、履歴データ650に代えて又は加えて、第一ユーザから発言トリガとして選択された回数がソースデータ種別毎に記録されたデータなど、発言トリガの選択の都度に更新される他種のデータが採用されても良い。
In addition, for example, instead of or in addition to the
また、出力制御部671は、発言トリガの優先順位に代えて又は加えて、発言トリガの表示態様(例えば、表示位置、文字の太さ、色など)を決定しても良い。具体的には、例えば、出力制御部671は、選択された発言トリガのソースデータ種別として会話ログデータが最も多い場合には、会話ログデータからのキーワードがベースになっている発言トリガの表示態様を、他のソースデータ種別に対応した発言トリガの表示態様と違えても良い。
Further, the
また、例えば、第一と第二のユーザ間の親密度に関係なく第二ユーザプロフィールデータからキーワードが取得されても良い。この場合、例えば、キーワード変換部1037が、そのキーワードに対応した属性項目のセキュリティレベルに応じて、受けたキーワードの変換強度を制御しても良い。例えば、選択部603は、セキュリティレベル“高”の項目(例えば[宗教]、[支持政党])に対応したキーワードを、強変換部600Aに振り分け、セキュリティレベル“小”の項目(例えば[出身地])に対応したキーワードを、弱変換部600Bに振り分けても良い。
Further, for example, the keyword may be acquired from the second user profile data regardless of the closeness between the first and second users. In this case, for example, the
また、選択検知部1043は、ウィンドウ950上で選択された発言トリガに代えて又は加えて、他種の方法で入力された発言トリガを検知することもできる。例えば、選択検知部1043は、発言入力画面にキー操作で第一ユーザから入力された文字列(例えばキーボードで入力された文字列)と、ウィンドウ950に提示されている発言トリガとを比較し、その文字列が、ウィンドウ950に提示されているいずれかの発言トリガと一致または関連していることを検知した場合に、その発言トリガを重み付け調整部1041に通知することができる。
Further, the
50…ユーザ端末 100…会話空間提供サーバ
50 ...
Claims (9)
前記第二ユーザに関わる第二ユーザ関連データから文字列を抽出する抽出手段と、
前記抽出手段が抽出した文字列を該文字列に関連する別の文字列に変換する変換手段と、
前記変換手段により変換された結果の文字列をベースに、前記第一ユーザの前記第二ユーザに対する発言のトリガを表す文字列である発言トリガを作成する作成手段と、
作成された前記発言トリガを前記第一ユーザ端末に送信する送信手段と
を備え、
前記変換手段が、前記第一ユーザと前記第二ユーザとの親しさを表す親密度に応じた複雑さの変換を、前記抽出手段が抽出した文字列に施し、
前記親密度は、前記第二ユーザが前記第一ユーザと行った会話に対応した会話ログに基づいて決定された値である、
会話支援装置。 An apparatus for supporting a conversation performed via a communication network between a first user using a first user terminal and a second user using a second user terminal,
Extracting means for extracting a character string from second user related data related to the second user;
Conversion means for converting the character string extracted by the extraction means into another character string related to the character string;
Creating means for creating a speech trigger that is a character string representing a trigger of speech for the second user of the first user, based on the character string of the result converted by the conversion means;
Transmission means for transmitting the created speech trigger to the first user terminal,
The conversion means performs a conversion of complexity corresponding to the familiarity representing the closeness between the first user and the second user on the character string extracted by the extraction means,
The intimacy is a value determined based on a conversation log corresponding to a conversation performed by the second user with the first user.
Conversation support device.
前記第二ユーザに関するプロフィールの各種項目に対応した文字列を含む第二ユーザ関連データから文字列を抽出する抽出手段と、 Extraction means for extracting a character string from second user-related data including character strings corresponding to various items of the profile relating to the second user;
前記抽出した文字列又はその文字列の変換後の文字列をベースに、前記第一ユーザの前記第二ユーザに対する発言のトリガを表す文字列である発言トリガを作成する作成手段と、 Creation means for creating a speech trigger that is a character string representing a trigger of speech for the second user of the first user, based on the extracted character string or a character string after conversion of the character string;
作成された前記発言トリガを前記第一ユーザ端末に送信する送信手段と Transmitting means for transmitting the created speech trigger to the first user terminal;
を備え、With
前記抽出手段が、前記第一ユーザと前記第二ユーザとの親しさを表す親密度に応じた項目に対応する文字列を抽出し、 The extraction means extracts a character string corresponding to an item according to a closeness representing a closeness between the first user and the second user;
前記親密度は、前記第二ユーザが前記第一ユーザと行った会話に対応した会話ログに基づいて決定された値である、 The intimacy is a value determined based on a conversation log corresponding to a conversation performed by the second user with the first user.
会話支援装置。Conversation support device.
前記抽出手段によって抽出される文字列の種類として、以下の(A)乃至(C)があり、
前記作成手段は、前記(A)及び(B)の変換後の文字列と、変換されなかった前記(C)の文字列とをベースに、1以上の前記発言トリガを作成する、
ことを特徴とする請求項2記載の会話支援装置。
(A)前記第二ユーザプロフィールデータから抽出された文字列、
(B)前記第二ユーザが前記第一ユーザ以外のユーザと行った会話に対応した会話ログから抽出された文字列、
(C)前記会話ログから抽出された文字列。 As the second user-related data, a second user profile data string is written corresponding to the various items, log conversations the second user is performed by have a conversation log data written,
The types of character strings extracted by the extracting means include the following (A) to (C):
The creation means creates one or more speech triggers based on the converted character strings of (A) and (B) and the character string of (C) that has not been converted,
The conversation support apparatus according to claim 2 .
(A) a character string extracted from the second user profile data;
(B) the second user is extracted from the conversational log corresponding to conversation conducted with the user other than the first user string,
(C) A character string extracted from the conversation log.
前記作成手段が、更に、前記検索されたデータから抽出された文字列にも基づいて、前記発言トリガを作成する、
請求項1乃至3のうちのいずれか1項に記載の会話支援装置。 The extraction means searches for data related to the converted character string from a site connected to the communication network, extracts the character string from the searched data,
The creation means further creates the speech trigger based on a character string extracted from the retrieved data;
The conversation support device according to any one of claims 1 to 3.
種類の異なる複数のソースデータから文字列を抽出する抽出手段と、
前記抽出された文字列をベースに、前記第一ユーザの前記第二ユーザに対する発言のトリガを表す文字列である発言トリガを作成する作成手段と、
どんなソースデータ種類の発言トリガが選択されてきたかの履歴を表す履歴データと、作成された発言トリガのベースとなった文字列のソースデータの種類とに基づいて、前記発言トリガの表示態様を決定する表示態様決定手段と
前記決定された表示態様に従う前記発言トリガを前記第一ユーザ端末に送信する送信手段と、
前記第一ユーザから選択された発言トリガを検知する選択検知手段と、
前記検知された前記発言トリガのベースとなった文字列のソースデータの種類を特定するソース特定手段と、
前記特定されたソースデータ種類を基に前記履歴データを更新する履歴更新手段と
を備える会話支援装置。 An apparatus for supporting a conversation performed via a communication network between a first user using a first user terminal and a second user using a second user terminal,
An extraction means for extracting a character string from a plurality of different types of source data ;
Creating means for creating a speech trigger that is a character string representing a trigger of speech for the second user of the first user based on the extracted character string;
The display mode of the speech trigger is determined based on history data indicating the history of what kind of source data has been selected and the source data type of the character string that is the basis of the generated speech trigger. Display mode determining means;
Transmitting means for transmitting the speech trigger according to the determined display mode to the first user terminal ;
Selection detection means for detecting a speech trigger selected from the first user;
Source identifying means for identifying the type of source data of the character string that is the basis of the detected speech trigger;
A conversation support device comprising history update means for updating the history data based on the identified source data type .
前記抽出手段が、前記第一ユーザと前記第二ユーザとの親しさを表す親密度に応じた項目に対応する文字列を前記第二ユーザ関連データから抽出し、 The extraction means extracts a character string corresponding to an item corresponding to an intimacy representing a closeness between the first user and the second user from the second user related data,
前記親密度は、前記第二ユーザが前記第一ユーザと行った会話に対応した会話ログに基づいて決定された値である、 The intimacy is a value determined based on a conversation log corresponding to a conversation performed by the second user with the first user.
請求項5記載の会話支援装置。The conversation support device according to claim 5.
コンピュータが、前記第二ユーザに関わる第二ユーザ関連データから文字列を抽出するステップと、
コンピュータが、前記抽出手段が抽出した文字列を該文字列に関連する別の文字列に変換するステップと、
コンピュータが、前記変換された結果の文字列をベースに、前記第一ユーザの前記第二ユーザに対する発言のトリガを表す文字列である発言トリガを作成するステップと、
コンピュータが、作成された前記発言トリガを前記第一ユーザ端末に送信するステップと
を有し、
前記変換するステップでは、前記第一ユーザと前記第二ユーザとの親しさを表す親密度に応じた複雑さの変換を、前記抽出された文字列に施し、
前記親密度は、前記第二ユーザが前記第一ユーザと行った会話に対応した会話ログに基づいて決定された値である、
会話支援方法。 A method for supporting a conversation performed via a communication network between a first user using a first user terminal and a second user using a second user terminal,
A computer extracting a character string from second user related data relating to the second user;
A computer converting the character string extracted by the extracting means into another character string related to the character string;
The computer creates a speech trigger that is a character string representing a speech trigger for the second user of the first user based on the character string of the converted result;
Computer, possess and transmitting the speech trigger created in the first user terminal,
In the step of converting, the extracted character string is subjected to a conversion of complexity corresponding to the familiarity representing the closeness between the first user and the second user,
The intimacy is a value determined based on a conversation log corresponding to a conversation performed by the second user with the first user.
Conversation support method.
コンピュータが、前記第二ユーザに関わり各種項目に対応した文字列を含む第二ユーザ関連データから文字列を抽出するステップと、 A computer extracting a character string from second user-related data including character strings corresponding to various items related to the second user;
コンピュータが、前記抽出した文字列又はその文字列の変換後の文字列をベースに、前記第一ユーザの前記第二ユーザに対する発言のトリガを表す文字列である発言トリガを作成するステップと、 The computer creates a speech trigger that is a character string representing a trigger of speech for the second user of the first user, based on the extracted character string or a character string after conversion of the character string;
コンピュータが、作成された前記発言トリガを前記第一ユーザ端末に送信するステップと A computer transmitting the created speech trigger to the first user terminal;
を有し、Have
前記抽出するステップでは、前記第一ユーザと前記第二ユーザとの親しさを表す親密度に応じた項目に対応する文字列を抽出し、 In the extracting step, a character string corresponding to an item corresponding to a closeness representing a closeness between the first user and the second user is extracted,
前記親密度は、前記第二ユーザが前記第一ユーザと行った会話に対応した会話ログに基づいて決定された値である、 The intimacy is a value determined based on a conversation log corresponding to a conversation performed by the second user with the first user.
会話支援方法。Conversation support method.
コンピュータが、前記第二ユーザに関わる第二ユーザ関連データが含まれる種類の異なる複数のソースデータから文字列を抽出するステップと、 A computer extracting a character string from a plurality of different types of source data including second user related data related to the second user;
コンピュータが、前記抽出された文字列をベースに、前記第一ユーザの前記第二ユーザに対する発言のトリガを表す文字列である発言トリガを作成するステップと、 A computer creating a speech trigger based on the extracted character string, which is a character string representing a speech trigger for the second user of the first user;
コンピュータが、どんなソースデータ種類の発言トリガが選択されてきたかの履歴を表す履歴データと、作成された前記発言トリガのベースとなった文字列のソースデータの種類とに基づいて、その発言トリガの表示態様を決定するステップと The display of the speech trigger based on the history data representing the history of what kind of speech trigger has been selected by the computer and the type of the source data of the character string on which the speech trigger was created. Determining an aspect;
コンピュータが、前記決定された表示態様に従う前記発言トリガを前記第一ユーザ端末に送信するステップと、 A computer transmitting the speech trigger according to the determined display mode to the first user terminal;
前記第一ユーザから選択された前記発言トリガを検知するステップと、 Detecting the speech trigger selected from the first user;
前記検知された前記発言トリガのベースとなった文字列のソースデータの種類を特定するステップと、 Identifying the type of character string source data that is the basis of the detected speech trigger;
前記特定されたソースデータ種類を基に前記履歴データを更新するステップと Updating the historical data based on the identified source data type;
を有する会話支援方法。A conversation support method.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008090668A JP4970330B2 (en) | 2008-03-31 | 2008-03-31 | Conversation support apparatus and method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008090668A JP4970330B2 (en) | 2008-03-31 | 2008-03-31 | Conversation support apparatus and method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2009245143A JP2009245143A (en) | 2009-10-22 |
JP4970330B2 true JP4970330B2 (en) | 2012-07-04 |
Family
ID=41306955
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2008090668A Active JP4970330B2 (en) | 2008-03-31 | 2008-03-31 | Conversation support apparatus and method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4970330B2 (en) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5715390B2 (en) * | 2009-12-03 | 2015-05-07 | パナソニック インテレクチュアル プロパティ コーポレーション オブアメリカPanasonic Intellectual Property Corporation of America | Viewing terminal device, viewing statistics device, viewing statistics processing system, and viewing statistics processing method |
JP5864273B2 (en) * | 2012-01-06 | 2016-02-17 | Kddi株式会社 | Inter-user familiarity estimation apparatus, method and program |
JP5791565B2 (en) * | 2012-05-18 | 2015-10-07 | 日本電信電話株式会社 | User attribute estimation device, user attribute estimation method, and program |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001282687A (en) * | 2000-03-28 | 2001-10-12 | Fuji Xerox Co Ltd | Relative information presenting device |
-
2008
- 2008-03-31 JP JP2008090668A patent/JP4970330B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2009245143A (en) | 2009-10-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11349991B2 (en) | Systems and methods to present voice message information to a user of a computing device | |
US9990052B2 (en) | Intent-aware keyboard | |
US9288000B2 (en) | Monitoring a communication and retrieving information relevant to the communication | |
US7251495B2 (en) | Command based group SMS with mobile message receiver and server | |
US20010054041A1 (en) | System and method for registering or searching in multiple relationship-searching hosts | |
US11551697B2 (en) | Processing system for intelligently linking messages using markers based on language data | |
CN103365833B (en) | A kind of input candidate word reminding method based on context and system | |
US20090249198A1 (en) | Techniques for input recogniton and completion | |
US10826854B1 (en) | Message guardian | |
US20230117765A1 (en) | Systems and methods for enabling topic-based verbal interaction with a virtual assistant | |
JP2021099862A (en) | Improvement of dialog with electronic chat interface | |
JP4970330B2 (en) | Conversation support apparatus and method | |
JP2010026686A (en) | Interactive communication terminal with integrative interface, and communication system using the same | |
JP7028179B2 (en) | Information processing equipment, information processing methods and computer programs | |
US10847161B2 (en) | Processing system using intelligent messaging flow markers based on language data | |
EP2740045A1 (en) | Contextual based communication method and user interface | |
US20210374194A1 (en) | Systems and methods for subjectively modifying social media posts | |
US20210374193A1 (en) | Systems and methods for subjectively modifying social media posts | |
JP2005196356A (en) | System, method and program for dialogue with pseudo-character | |
JP6697172B1 (en) | Information processing apparatus and information processing program | |
JP2019021157A (en) | Information presentation system, information presentation method, and program | |
JP2019102033A (en) | Topic presentation device, topic presentation method, and topic presentation program | |
JP2007052806A (en) | Program, method and apparatus for retrieving history |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20100317 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20111228 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20120118 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20120313 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20120403 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20120404 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20150413 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 4970330 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |