JP6034459B1 - Interactive interface - Google Patents

Interactive interface Download PDF

Info

Publication number
JP6034459B1
JP6034459B1 JP2015160189A JP2015160189A JP6034459B1 JP 6034459 B1 JP6034459 B1 JP 6034459B1 JP 2015160189 A JP2015160189 A JP 2015160189A JP 2015160189 A JP2015160189 A JP 2015160189A JP 6034459 B1 JP6034459 B1 JP 6034459B1
Authority
JP
Japan
Prior art keywords
keyword
user
unit
word
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015160189A
Other languages
Japanese (ja)
Other versions
JP2017037603A (en
Inventor
裕子 石若
裕子 石若
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
PS Solutions Corp
Original Assignee
PS Solutions Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by PS Solutions Corp filed Critical PS Solutions Corp
Priority to JP2015160189A priority Critical patent/JP6034459B1/en
Application granted granted Critical
Publication of JP6034459B1 publication Critical patent/JP6034459B1/en
Publication of JP2017037603A publication Critical patent/JP2017037603A/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Abstract

【課題】質問に対し、話し相手の性格を考慮したうえで、言葉がそれぞれのユーザーに与える影響度を推定し、ユーザーの興味を惹いたり、対話を継続させられるような情報を選択し、ユーザーを面白がらせるように加工して、回答を出力する。【解決手段】情報ソースを取得する情報ソース取得部101と、テキストデータからキーワードを抽出するキーワード解析部106と、各キーワード間の関係の強弱を示す群体パラメーターを設定する群体パラメーター設定部301と、対話に含まれるキーワードを抽出し、対話に含まれるキーワードについて設定された群体パラメーターに基づいて、ワード間距離を算出する動的クラスタリング部303と、エゴグラムパラメーター及び群体パラメーターに基づいて、ワード間距離を補正し、各キーワードに対するユーザーの反応パターンを示すユーザーポテンシャル場を算出するポテンシャル場形成部402とを備える。【選択図】図2C[PROBLEMS] To estimate the impact of words on each user, taking into account the personality of the other person, select information that will attract users' interests and continue dialogue, Process it to make it interesting and output the answer. An information source acquisition unit for acquiring an information source, a keyword analysis unit for extracting a keyword from text data, a group parameter setting unit for setting a group parameter indicating the strength of a relationship between the keywords, The keyword included in the dialogue is extracted, the dynamic clustering unit 303 that calculates the distance between words based on the group parameter set for the keyword included in the dialogue, and the distance between words based on the egogram parameter and the group parameter. And a potential field forming unit 402 for correcting and calculating a user potential field indicating a user reaction pattern for each keyword. [Selection] Figure 2C

Description

本発明は、スマートフォンやパーソナルコンピュータその他の情報処理装置、ロボットなどに備えられ、ユーザーとの対話により情報を入力したり、検索して応答するための対話インターフェースに関する。   The present invention relates to an interactive interface that is provided in smartphones, personal computers, other information processing apparatuses, robots, and the like, for inputting information by interacting with a user or searching and responding.

近年では、情報がデータ化され手軽に検索してアクセスすることで、利用が可能であり、その膨大な情報データの中から適切な情報を検索して利用するためのインターフェースとして様々な方式が提案されている。スマートフォンやモバイルPC等の小型・軽量化が進んだ情報処理端末、身近なデジタル家電商品、さらには最新のロボット等あらゆる分野で、利用者との対話に基づいて、適切な情報を入力したり、検索して応答することが望まれている。   In recent years, information has been converted into data and can be used by easily searching and accessing it, and various methods have been proposed as interfaces for searching and using appropriate information from the enormous amount of information data. Has been. Enter appropriate information based on dialogue with users in various fields such as information processing terminals such as smartphones and mobile PCs that have become smaller and lighter, familiar digital home appliances, and the latest robots, It is desirable to search and respond.

従前より、このような対話方式によるコミュニケーションのコア技術として汎用人工知能が注目されている。この汎用人工知能によれば、検索対象となる検索キーワードなどを音声その他の入力デバイスにより入力することにより、その入力されたキーワードに応じた情報を検索し、見つかった情報を自動的に提示する(特許文献1参照。)。   Conventionally, general-purpose artificial intelligence has been attracting attention as a core technology for such interactive communication. According to this general-purpose artificial intelligence, by inputting a search keyword or the like to be searched with a voice or other input device, information corresponding to the input keyword is searched, and the found information is automatically presented ( (See Patent Document 1).

特に、この対話方式によるコミュニケーションでは、形態素解析(自然文章中の単語解析)の技術などを利用して、単語ではなくフリーテキスト(自然文章)をキーワードとして検索することができる検索エンジンも開発されており(特許文献2参照。)、このような検索エンジンによれば、複合名詞や数値範囲を含んだ自然文章を検索することができる。   In particular, in this interactive communication, a search engine that can search for free text (natural text) as a keyword instead of a word has been developed using morphological analysis (word analysis in natural text). (Refer to Patent Document 2), such a search engine can search for natural sentences including compound nouns and numerical ranges.

特開2004−280346号公報JP 2004-280346 A 特開平11−120193号公報JP-A-11-120193

しかしながら、人間による日常的な会話は、極めて大まかであり無造作に交わされるものであることから、上述した汎用人工知能による、自然文章をキーワードとして検索する方式では、ユーザーによって入力された文章若しくは発せられた音声に含まれる文字列を抽出してデータベースやネットワークの検索を行い、マッチした情報を返すだけの知識ベースの知能であることから、正確な検索を行うために適切な自然文章を入力しなければならず、マッチした情報がなければ情報が見つからない旨の回答を画一的に返すのみであり、高度なコミュニケーションが図れないという問題があった。
特に、話し手の感情が大きく影響する日常会話では、同じ意味合いの言葉であっても、ユーザーの性格により、その言葉に対するユーザーの受け止め方が異なり、その言葉がユーザーに与える心的な影響度も変化してしまう。そのため、従来のように、単純に音声を解析して得られるキーワードを組合せて検索するのみでは、話し手である個々のユーザーを面白がらせて、対話を継続させられるような検索結果を提供することは困難であった。
However, since everyday human conversations are very rough and random, the above-mentioned general-purpose artificial intelligence search method using natural text as a keyword is a text input or uttered by the user. Because it is a knowledge-based intelligence that simply searches a database or network by extracting character strings contained in the voice and returns matched information, you must enter appropriate natural texts to perform an accurate search. In other words, if there is no matching information, it simply returns a reply that the information cannot be found, and there is a problem that advanced communication cannot be achieved.
Especially in everyday conversations where the speaker's emotions have a great influence, even if the words have the same meaning, the user's perception of the words differs depending on the user's personality, and the mental influence of the words on the user also changes. Resulting in. For this reason, as in the past, simply searching by combining keywords obtained by analyzing speech, it is possible to provide a search result that makes each user who is a speaker interesting and allows the conversation to continue. Was difficult.

そこで、本発明は、上記のような問題を解決するものであり、話し相手の性格を考慮したうえで、言葉がそれぞれのユーザーに与える影響度を推定し、ユーザーの興味を惹いたり、対話を継続させられるような情報を選択し、ユーザーを面白がらせるような加工して回答できる思考方法を模倣したコミュニケーションが可能なシステムを提供することを目的とする。   Therefore, the present invention solves the above-mentioned problems, taking into account the personality of the other party, estimating the degree of influence that words have on each user, attracting the user's interest, and continuing the dialogue It is an object of the present invention to provide a system capable of communication that imitates a thinking method that can select information that can be processed, and that can be processed and answered to make the user interesting.

上記課題を解決するために、本発明は、ユーザーと対話する対話インターフェースであって、
前記ユーザーが利用した情報を情報ソースとして取得する情報ソース取得部と、
入力されたテキストデータから、キーワードを抽出するキーワード解析部と、
入力されたキーワードの重要度、及びキーワード間の関連性の度合いに関する群体パラメーターを設定する群体パラメーター設定部と、
前記情報ソースに含まれるテキストデータについて前記キーワード解析部が抽出したキーワードを、それぞれのキーワードについて前記群体パラメーター設定部が設定した群体パラメーターと関連づけて蓄積するユーザー情報データベースと、
前記キーワードのうち、特定の人、物又は事象に関するキーワードを前記群体パラメーターに従って、各キーワードの分布状態をマップとして作成し、前記マップ上における各キーワードに対する前記ユーザーの自我状態を示すエゴグラムパラメーターを設定するエゴグラム設定部と、
前記各キーワードを、各キーワードに設定された前記群体パラメーターに応じた動的オブジェクトとして仮想空間上にそれぞれ配置する動的クラスタリング部と、
前記エゴグラム設定部によって設定された前記エゴグラムパラメーター、及び前記群体パラメーター設定部が設定した群体パラメーターに基づいて、前記動的オブジェクトの大きさ又は位置を補正するとともに、前記マップ上に配置された動的オブジェクト全体の重心位置を前記ユーザーの自我の中心として設定し、前記仮想空間上における前記重心位置から各キーワードまでのワード間距離、及び各キーワードの大きさに基づいて、各キーワードに対する前記ユーザーの反応パターンを示すユーザーポテンシャル場を算出するポテンシャル場形成部と
を備えることを特徴とする。
In order to solve the above problems, the present invention provides an interactive interface for interacting with a user,
An information source acquisition unit that acquires information used by the user as an information source;
A keyword analysis unit that extracts keywords from the input text data;
A group parameter setting unit for setting group parameters regarding the importance of the input keyword and the degree of relevance between the keywords;
A user information database for storing the keywords extracted by the keyword analysis unit for text data included in the information source in association with the group parameters set by the group parameter setting unit for each keyword;
Among the keywords, a keyword related to a specific person, thing or event is created as a map according to the group parameter, and an egogram parameter indicating the user's ego state for each keyword on the map is set. Egogram setting part,
A dynamic clustering unit that arranges each keyword in a virtual space as a dynamic object according to the group parameter set in each keyword;
Based on the egogram parameter set by the egogram setting unit and the group parameter set by the group parameter setting unit, the size or position of the dynamic object is corrected, and the dynamic object arranged on the map The center of gravity position of the entire object is set as the center of the user's ego, and the user's reaction to each keyword based on the distance between words from the center of gravity position to each keyword in the virtual space and the size of each keyword And a potential field forming unit that calculates a user potential field indicating a pattern.

また、本発明は、ユーザーと対話する対話インターフェースプログラムであって、コンピュータを、
前記ユーザーが利用した情報を情報ソースとして取得する情報ソース取得部、
入力されたテキストデータから、キーワードを抽出するキーワード解析部と、
入力されたキーワードの重要度、及びキーワード間の関連性の度合いに関する群体パラメーターを設定する群体パラメーター設定部、
前記情報ソースに含まれるテキストデータについて前記キーワード解析部が抽出したキーワードを、それぞれのキーワードについて前記パラメーター設定部が設定した群体パラメーターと関連づけて蓄積するユーザー情報データベース、
前記キーワードのうち、特定の人、物又は事象に関するキーワードを前記群体パラメーターに従って、各キーワードの分布状態をマップとして作成し、前記マップ上における各キーワードに対する前記ユーザーの自我状態を示すエゴグラムパラメーターを設定するエゴグラム設定部、
前記各キーワードを、各キーワードに設定された前記群体パラメーターに応じた動的オブジェクトとして仮想空間上にそれぞれ配置する動的クラスタリング部、
前記エゴグラム設定部によって設定された前記エゴグラムパラメーター、及び前記群体パラメーター設定部が設定した群体パラメーターに基づいて、前記動的オブジェクトの大きさ又は位置を補正するとともに、前記マップ上に配置された動的オブジェクト全体の重心位置を前記ユーザーの自我の中心として設定し、前記仮想空間上における前記重心位置から各キーワードまでのワード間距離、及び各キーワードの大きさに基づいて、各キーワードに対する前記ユーザーの反応パターンを示すユーザーポテンシャル場を算出するポテンシャル場形成部
として機能させることを特徴とする。
The present invention also provides an interactive interface program for interacting with a user, the computer,
An information source acquisition unit that acquires information used by the user as an information source;
A keyword analysis unit that extracts keywords from the input text data;
A group parameter setting unit for setting group parameters regarding the importance of the input keyword and the degree of relevance between the keywords,
A user information database that accumulates the keywords extracted by the keyword analysis unit for text data included in the information source in association with the group parameters set by the parameter setting unit for each keyword;
Among the keywords, a keyword related to a specific person, thing or event is created as a map according to the group parameter, and an egogram parameter indicating the user's ego state for each keyword on the map is set. Egogram setting section,
A dynamic clustering unit that arranges each keyword on a virtual space as a dynamic object according to the group parameter set for each keyword;
Based on the egogram parameter set by the egogram setting unit and the group parameter set by the group parameter setting unit, the size or position of the dynamic object is corrected, and the dynamic object arranged on the map The center of gravity position of the entire object is set as the center of the user's ego, and the user's reaction to each keyword based on the distance between words from the center of gravity position to each keyword in the virtual space and the size of each keyword It is made to function as a potential field formation part which calculates the user potential field which shows a pattern.

さらに、本発明は、 ユーザーと対話する対話インターフェースを用いた情報処理方法であって、
情報取得部が、情報ソースを取得する情報ソース取得ステップと、
キーワード解析部が、前記情報ソースから得られるテキストデータからキーワードを抽出するキーワード解析ステップと、
群体パラメーター設定部が、入力されたキーワードの重要度、及びキーワード間の関連性の度合いに関する群体パラメーターを設定する群体パラメーター設定ステップと、
前記情報ソースから得られるテキストデータについて前記キーワード解析部が抽出したキーワードと、各キーワードについて前記群体パラメーター設定部が設定した群体パラメーターとを関連づけて、ユーザー情報データベースに蓄積するユーザー情報蓄積ステップと、
エゴグラム設定部が、前記キーワードのうち、特定の人、物又は事象に関するキーワードを前記群体パラメーターに従って、各キーワードの分布状態をマップとして作成し、前記マップ上における各キーワードに対する前記ユーザーの自我状態を示すエゴグラムパラメーターを設定するエゴグラム設定ステップと、
動的クラスタリング部が、各キーワードを、各キーワードに設定された前記群体パラメーターに応じた動的オブジェクトとして仮想空間上にそれぞれ配置する動的クラスタリングステップと、
ポテンシャル場形成部が、前記エゴグラム設定部によって設定された前記エゴグラムパラメーター、及び前記群体パラメーター設定部が設定した群体パラメーターに基づいて、前記動的オブジェクトの大きさ又は位置を補正するとともに、前記マップ上に配置された動的オブジェクト全体の重心位置を前記ユーザーの自我の中心として設定し、前記仮想空間上における前記重心位置から各キーワードまでのワード間距離、及び各キーワードの大きさに基づいて、各キーワードに対する前記ユーザーの反応パターンを示すユーザーポテンシャル場を算出する ポテンシャル場形成ステップと
を含むことを特徴とする。
Furthermore, the present invention is an information processing method using an interactive interface for interacting with a user,
An information acquisition unit in which the information acquisition unit acquires an information source;
A keyword analysis step in which a keyword analysis unit extracts a keyword from text data obtained from the information source;
A colony parameter setting step in which a colony parameter setting unit sets colony parameters related to the importance of the input keyword and the degree of relevance between keywords;
A user information accumulation step of associating a keyword extracted by the keyword analysis unit with respect to text data obtained from the information source and a group parameter set by the group parameter setting unit for each keyword, and accumulating it in a user information database;
An egogram setting unit creates a keyword distribution state as a map according to the group parameter for keywords related to a specific person, thing or event, and indicates the user's ego state for each keyword on the map Egogram setting step to set egogram parameters;
A dynamic clustering step in which the dynamic clustering unit arranges each keyword on the virtual space as a dynamic object corresponding to the group parameter set for each keyword;
The potential field forming unit corrects the size or position of the dynamic object based on the egogram parameter set by the egogram setting unit and the group parameter set by the group parameter setting unit, and on the map. Is set as the center of the user's ego, based on the distance between the center of gravity in the virtual space to each keyword, and the size of each keyword. And a potential field forming step of calculating a user potential field indicating a reaction pattern of the user with respect to a keyword.

これらの発明では、先ず、Web等の通信ネットワークを通じて取得される一般的な情報の他、端末内に蓄積されている各ユーザーに固有のプライベートなローカルデータなどを情報ソースとして収集し、キーワード解析部が抽出したキーワードと、各キーワードについて群体パラメーター設定部が設定した群体パラメーターとを関連づけて蓄積しておく。この群体パラメーターは、記事やWebページのパラグラフなど所定の文章単位で記事毎に、関連する単語同士の関連性、関連強度を数値化したデータであり、同一記事内に同時に使用されている頻度や、それらの文法的な結びつきを解析することにより、各単語について個別的に設定される。   In these inventions, first, in addition to general information acquired through a communication network such as the Web, private local data unique to each user stored in the terminal is collected as an information source, and a keyword analysis unit Are extracted in association with the group parameters set by the group parameter setting unit for each keyword. This group parameter is data obtained by quantifying the relevance and relevance strength of related words for each article in a predetermined sentence unit such as an article or a paragraph of a web page. Each word is set individually by analyzing their grammatical connections.

次に、特定の人、各キーワードに対する前記ユーザーの自我状態を示すエゴグラムパラメーターを設定する。このエゴグラムパラメーターは、人間の性格を5つの独立したパラメーターで表現した係数であり、エゴグラムとは、これらのパラメーターにより表される5つの自我状態が放出する心的エネルギーの高さをグラフにしたものであり、性格診断などで求めて設定することができる。   Next, an egogram parameter indicating the ego state of the user for a specific person and each keyword is set. This egogram parameter is a coefficient that expresses the human character with five independent parameters. The egogram is a graph of the level of mental energy released by the five ego states represented by these parameters. It can be obtained and set by personality diagnosis.

これと併せて、各キーワードに設定された群体パラメーターに応じた動的オブジェクトとして、各キーワードを仮想空間上にそれぞれ配置してワールドマップを生成し、このワールドマップ上における各キーワード間の距離をワード間距離として算出する。このワード間距離は、群体パラメーターに含まれる関連する単語同士の関連性、関連強度に基づいて設定されるものであり、後述する一定のルールに則ったシミュレーションによる変位処理によって定める方法の他、例えば、WordNet等の概念辞書(意味辞書)やword2vec等の単語をベクトル化して定量化する自然言語処理など、周知の手法で算出してもよい。   At the same time, as a dynamic object corresponding to the group parameter set for each keyword, each keyword is placed in the virtual space to generate a world map, and the distance between each keyword on this world map is set as a word. Calculated as the distance between. This inter-word distance is set based on the relevance and relevance strength of related words included in the group parameter. In addition to the method defined by displacement processing by simulation according to a certain rule described later, for example, It may be calculated by a known method such as a concept dictionary (semantic dictionary) such as WordNet, or natural language processing that vectorizes and quantifies words such as word2vec.

次いで、エゴグラムパラメーター及び群体パラメーターに基づいて、ユーザーの性格や話題に対する関心の程度などを加味してワード間距離を補正するとともに、マップ上に配置された動的オブジェクト全体の重心位置をユーザーの自我の中心として設定し、各キーワードに対するユーザーの反応パターンを示すユーザーポテンシャル場を生成する。   Next, based on egogram parameters and group parameters, the distance between words is corrected by taking into account the personality of the user and the degree of interest in the topic, etc., and the center of gravity of the entire dynamic object placed on the map is determined by the user's ego. The user potential field indicating the user's reaction pattern for each keyword is generated.

そして、ユーザーとの対話においてユーザーからの問いかけなどの入力があった場合に、その入力された文章からキーワードを抽出し、抽出された各キーワードについてユーザー情報データベースを参照し、各キーワードについて、ユーザー自身を中心とするユーザーポテンシャル場を参照して、各キーワードのユーザーからの相対距離を算出する。   When there is an input such as a question from the user in the dialogue with the user, the keyword is extracted from the input sentence, the user information database is referred to for each extracted keyword, and the user himself The relative distance from the user of each keyword is calculated with reference to the user potential field centered at.

この結果、本発明によれば、このユーザーの性格が反映され、自己を中心としたユーザーポテンシャル場上において、ユーザー自身を意味する文言から、各キーワードに対するワード間距離、及び各キーワードの大きさ(出現頻度や重要度等)を用いることにより、各キーワードに対するユーザーの受け止め方や、ユーザーに与える心的な影響度を反応パターンとして推定したうえで、ユーザーの興味を惹いたり、対話を継続させられるような情報を選択し、ユーザーを面白がらせるような加工して回答できる思考方法を再現することができる。なお、各キーワードがユーザーに与える心的な影響度は、各キーワードに係る動的オブジェクトが、群体パラメーターに応じた、大きさや質量、重力場を有する物体(天体)と仮定して、これらの仮想的なパラメーターを用いた、引き込み現象や、引力や反発力、重力伝播などの物理現象に擬えた物理法則(クーロン力の法則、万有引力の法則、波動方程式)に当て嵌めることによって、算出してもよい。   As a result, according to the present invention, the personality of the user is reflected, and on the user potential field centered on the self, from the wording meaning the user himself, the distance between words for each keyword and the size of each keyword ( By using the appearance frequency, importance, etc.), it is possible to attract the user's interest and continue the dialogue after estimating how the user perceives each keyword and the mental influence on the user as a reaction pattern. It is possible to reproduce the thinking method that can select such information and process and answer the user's interest. Note that the mental influence of each keyword on the user is based on the assumption that the dynamic object related to each keyword is an object (celestial body) having a size, mass, and gravitational field according to the group parameter. By applying to physical laws (Coulomb force law, universal gravitation law, wave equation) that mimic physical phenomena such as pulling phenomenon, attractive force, repulsive force, gravity propagation, etc. Good.

上記発明では、前記ユーザーと対話する対話入出力部と、
前記ポテンシャル場形成部が算出したユーザーポテンシャル場に基づき前記情報ソース取得部を通じて検索を行い、前記質問に対する回答を生成する回答生成部と、
前記回答生成部が生成した回答を、前記対話入出力部を通じて前記ユーザーに向けて出力する回答出力部と
をさらに備えることが好ましい。
In the above invention, a dialogue input / output unit for dialogue with the user;
A search is performed through the information source acquisition unit based on the user potential field calculated by the potential field formation unit, and an answer generation unit that generates an answer to the question;
It is preferable to further include an answer output unit that outputs the answer generated by the answer generation unit to the user through the dialogue input / output unit.

この場合には、話し手であるユーザーとの対話において、ユーザーの受け止め方や、ユーザーに与える心的な影響度を考慮したうえで、そのユーザーにとって心地よい、興味のある或いは刺激的な情報を選定するとともに、その情報をユーザーの好みに応じて加工することができ、ユーザーが所望する検索結果や回答表現を提供することが可能となる。ここで、ユーザーにとって心地よい情報や回答表現としては、例えば、単に有益な情報であるばかりでなく、ユーザーを面白がらせたり、興味を惹く表現であったり、対話を継続するきっかけとなるような情報や、相づちのような表現も含まれる。   In this case, in the dialogue with the user who is the speaker, select information that is comfortable or interesting for the user, taking into account the user's perception and the mental influence on the user. At the same time, the information can be processed according to the user's preference, and the search result and answer expression desired by the user can be provided. Here, for example, information that is comfortable for the user and expression of the answer is not only useful information, but also information that makes the user entertained or interested, or that will continue the conversation. Also, expressions such as matching are included.

上記発明において前記エゴグラムパラメーターは、複数種の自我状態を段階的に示す独立したパラメーターであり、
前記群体パラメーターは、各キーワードの前記重要度は少なくとも出現頻度に基づいて算出され、前記キーワード間の関連性の度合いは少なくとも同じ文節内に出現した頻度に基づいて算出され、
前記ポテンシャル場形成部は、前記一定のルールとして、
前記各キーワードの重要度をそのキーワードのサイズとし、少なくとも前記各キーワードのサイズと、前記エゴグラムパラメーターの組合せに基づく定数とに基づいて各キーワードが有する影響力であるエネルギーを決定し、前記ワード間距離に係る2つのキーワード間の距離を、各キーワードの有する各エネルギーの積に比例し、当該キーワードのサイズに反比例する引力又は斥力が作用しているとして、前記ワード間距離を補正することが好ましい。
In the above invention, the egogram parameter is an independent parameter that indicates a plurality of kinds of ego states in stages,
The group parameter is calculated based on the frequency of appearance of at least the importance of each keyword, and calculated based on the frequency of occurrence of at least the same phrase in the same phrase,
The potential field forming unit is, as the certain rule,
The importance of each keyword is defined as the size of the keyword, and energy that is the influence of each keyword is determined based on at least the size of each keyword and a constant based on a combination of the egogram parameters, and the distance between the words It is preferable to correct the distance between the words, assuming that the distance between the two keywords is proportional to the product of the energy of each keyword and that an attractive or repulsive force inversely proportional to the size of the keyword is acting.

上記発明では、前記情報ソース取得部が取得した情報ソースに含まれるテキストデータからセンテンスを抽出するセンテンス解析部と、
前記センテンス解析部が抽出した各センテンスを構成する単語に関する品詞を解析し、省略された単語を検出する省略単語検出部と、
前記省略単語検出部が検出した省略単語が含まれるセンテンスの当該情報ソース内における位置関係に基づいて、当該省略単語の品詞に応じた単語を推定単語として検出する推定単語検出部と
入力されたテキストデータに対して、前記省略単語検出部が検出した省略単語の検出位置に前記推定単語を追加して、テキストデータを再構成するテキスト再構成部と、
をさらに備え、
前記キーワード解析部は、前記入力されたテキストデータを前記テキスト再構成部によって再構成し、再構成されたテキストデータから前記キーワードを抽出し、
前記群体パラメーター設定部は、前記再構成されたテキストデータ内における、各キーワードの出現頻度、センテンス内における位置関係に基づいて、前記群体パラメーターを設定することが好ましい。
In the above invention, a sentence analysis unit that extracts sentences from text data included in the information source acquired by the information source acquisition unit,
An abbreviated word detection unit that analyzes parts of speech related to words constituting each sentence extracted by the sentence analysis unit and detects omitted words;
Based on the positional relationship in the information source of the sentence including the abbreviation word detected by the abbreviation word detection unit, an estimated word detection unit that detects a word corresponding to the part of speech of the abbreviated word as an estimation word and the input text A text reconstruction unit that reconstructs text data by adding the estimated word to the detection position of the abbreviation word detected by the abbreviation word detection unit for the data;
Further comprising
The keyword analysis unit reconstructs the input text data by the text reconstruction unit, and extracts the keyword from the reconstructed text data,
It is preferable that the colony parameter setting unit sets the colony parameter based on the appearance frequency of each keyword in the reconstructed text data and the positional relationship in the sentence.

この場合には、情報ソースやユーザーからの問いかけについて、センテンスを抽出し、各センテンスを構成する単語に関する品詞を解析し、省略された単語を検出し、そのセンテンスの当該情報ソース内における位置関係に基づいて、当該省略単語の品詞に応じた単語を推定単語として検出して、この推定単語を省略単語の検出位置に推定単語を追加して、テキストデータを再構成し、この再構成されたテキストデータからキーワードを抽出する。これにより、省略された主語や目的語などを推定することにより、暗に話題の中心となっている人物や団体、場所をキーワードとして検索すべき情報を選定し、加工することができ、より正確にユーザーが所望する検索結果や回答表現を提供することが可能となる。   In this case, for questions from information sources and users, the sentence is extracted, the part of speech related to the words making up each sentence is analyzed, the omitted words are detected, and the positional relationship of the sentence in the information source is determined. Based on this, the word corresponding to the part of speech of the abbreviated word is detected as an estimated word, the estimated word is added to the detected position of the abbreviated word, the text data is reconstructed, and the reconstructed text Extract keywords from data. This makes it possible to select and process information to be searched using keywords such as the person, group, or place that is the center of the topic by estimating the omitted subject or object. It is possible to provide search results and answer expressions desired by the user.

上記発明において、前記動的クラスタリング部は、前記各キーワードを、各キーワードに設定された前記群体パラメーターに応じた挙動を取る動的オブジェクトとして仮想空間上にそれぞれ配置し、各動的オブジェクトについて、各動的オブジェクトを中心とする所定範囲に存在する他の動的オブジェクトに対する位置関係に基づき、一定のルールに則った変位処理を実行し、前記仮想空間上における各キーワード間の距離をワード間距離として算出する機能をさらに備えることが好ましい。   In the above invention, the dynamic clustering unit arranges each keyword on the virtual space as a dynamic object that takes a behavior according to the group parameter set in each keyword, and for each dynamic object, Based on the positional relationship with respect to other dynamic objects existing in a predetermined range centering on the dynamic object, a displacement process according to a certain rule is executed, and the distance between each keyword in the virtual space is set as a distance between words. It is preferable to further include a function to calculate.

この場合には、人や環境、話者の趣味や気分などいろいろな指標や切り口によって、言葉相互の関係性(距離)に基づいて、自動的にクラスタリングを行うことができるとともに、新しい言葉や話題がワールドマップ上に出現した場合など、その影響が動的にワールドマップ全体に広がることとなり、ユーザーが対話の中で用いている言葉や話題がリアルに反映され、ユーザーやユーザーを取り巻く環境の変化に即座に追従して、常にユーザーにとって心地よい情報を選定し、加工することができる。   In this case, it is possible to automatically perform clustering based on the relationship (distance) between words based on various indexes and aspects such as people, environment, speaker's hobbies and moods, as well as new words and topics. When the user appears on the world map, the impact will spread dynamically throughout the world map, and the words and topics used by the user in the dialogue will be realistically reflected, and the environment surrounding the user and the user will change. The information that is always comfortable for the user can be selected and processed.

上記発明における前記群体パラメーターは、各キーワードの前記重要度は少なくとも出現頻度に基づいて算出され、前記キーワード間の関連性の度合いは少なくとも同じ文節内に出現した頻度に基づいて算出され、
前記動的クラスタリング部による前記変位処理で用いられる前記ルールには、
前記各キーワードの関連性の度合い基づいて、前記所定範囲内に存在する他の動的オブジェクトに接近する方向に移動させること、
前記各キーワードの重要度に基づいて、移動量を決定すること、
前記各キーワードの関連性がない動的オブジェクト間は、離間する方向に移動させること、
が含まれることが好ましい。
In the invention, the group parameter is calculated based on the frequency of appearance of at least the importance of each keyword, and is calculated based on the frequency of occurrence of the keyword in at least the same phrase,
The rules used in the displacement processing by the dynamic clustering unit include
Moving in a direction approaching another dynamic object existing within the predetermined range based on a degree of relevance of each keyword;
Determining the amount of movement based on the importance of each keyword;
Moving the dynamic objects that are not related to each of the keywords in a direction away from each other,
Is preferably included.

この場合には、ユーザーが利用した情報データについて繰り返し一定のルールに則った変位処理を施すシミュレーションを実行することにより、関係性を有する単語は、重要度の高いものを中心として集まり、関係性のないものは離間していき、ユーザーの特性を反映させつつ動的に、より最適なワールドマップを形成することができる。   In this case, by executing a simulation that repeatedly performs displacement processing in accordance with certain rules on the information data used by the user, related words are gathered mainly with high importance. The ones that are not are separated, and a more optimal world map can be formed dynamically reflecting the characteristics of the user.

上記発明における前記動的クラスタリング部は、前記一定のルールにおいて、
特定の動的オブジェクトの変位が所定の振動をしているものとし、
当該特定の動的オブジェクトと、その周囲で振動する他の複数の動的オブジェクトとが、各摂動を介して相互作用を生じさせているものとし、
各動的オブジェクト間ではそれぞれの摂動を介して相互作用が生じさせ、それぞれの動的オブジェクトの前記振動が同期するとして
各動的オブジェクトについての前記変位処理を実行することが好ましい。
In the above-described invention, the dynamic clustering unit in the certain rule,
Suppose that the displacement of a specific dynamic object has a predetermined vibration,
It is assumed that the specific dynamic object and other dynamic objects that vibrate around the specific dynamic object interact with each other through perturbations.
It is preferable to execute the displacement process for each dynamic object assuming that an interaction occurs between each dynamic object through a perturbation and the vibration of each dynamic object is synchronized.

この場合には、それぞれが所定の摂動(ずれ)をもってバラバラに変位している動的オブジェクト群が、摂動を消失させる様に周囲の動的オブジェクトを引き込んで同期させることにより、特定の言葉や情報が突出して使用されるのを平準化できる一方で、関連があるにも関わらず普段使用されない言葉や情報を活性化させることができ、提供する情報の平準化と多様化を図ることができる。   In this case, a group of dynamic objects, each of which has been displaced disparately with a predetermined perturbation (deviation), pulls in and synchronizes the surrounding dynamic objects so that the perturbation disappears. Can be used to level out and use, but it can activate words and information that are not normally used even though they are related, and can level and diversify the information provided.

以上述べたように、この発明によれば、同じ言葉(単語)の組合せであっても、それらの言葉が登場する話題や分野や、話し手であるユーザーがその言葉にどのような感情を抱いているかによって変化する言葉相互の関係性の強弱を考慮することができ、曖昧な日常会話をより正確に解析することができる。この結果、本発明によれば、このユーザーの性格が反映され、自己を中心としたワールドマップを用いることにより、各言葉に対するユーザーの受け止め方や、各言葉がユーザーに与える心的な影響度を考慮したうえで、ユーザーの興味を惹いたり、対話を継続させられるような情報を選択し、ユーザーを面白がらせるような加工して回答できる思考方法を模倣したコミュニケーションが可能となる。   As described above, according to the present invention, even in the same combination of words (words), the topic and field in which those words appear, and what feeling the user who is the speaker has in the words It is possible to consider the strength of the relationship between words that change depending on whether or not, and to analyze ambiguous daily conversation more accurately. As a result, according to the present invention, the personality of the user is reflected, and by using a world map centered on the user, how the user perceives each word and the mental influence that each word has on the user. In consideration of this, communication that imitates the thinking method that can be processed and answered in such a way as to select information that will attract the user's interest or continue the conversation, and to make the user interesting will be possible.

実施形態で用いられる情報処理端末のハードウェア構成を示すブロック図である。It is a block diagram which shows the hardware constitutions of the information processing terminal used by embodiment. 実施形態に係る情報処理端末のCPU上に仮想的に構築されるPN値算出機能に関するモジュールを示すブロック図である。It is a block diagram which shows the module regarding the PN value calculation function constructed | assembled virtually on CPU of the information processing terminal which concerns on embodiment. 実施形態に係る情報処理端末のCPU上に仮想的に構築されるワード間距離算出機能に関するモジュールを示すブロック図である。It is a block diagram which shows the module regarding the distance calculation function between words virtually constructed | assembled on CPU of the information processing terminal which concerns on embodiment. 実施形態に係る情報処理端末のCPU上に仮想的に構築されるエゴグラムポテンシャル場算出機能に関するモジュールを示すブロック図である。It is a block diagram which shows the module regarding the egogram potential field calculation function virtually constructed | assembled on CPU of the information processing terminal which concerns on embodiment. 実施形態に係るPN値算出機能の動作順序を示すフローチャート図である。It is a flowchart figure which shows the operation | movement order of the PN value calculation function which concerns on embodiment. 実施形態に係るワード間距離算出機能の動作順序を示すフローチャート図である。It is a flowchart figure which shows the operation | movement order of the distance calculation function between words which concerns on embodiment. 実施形態に係るエゴグラムポテンシャル場算出機能の動作順序を示すフローチャート図である。It is a flowchart figure which shows the operation | movement order of the egogram potential field calculation function which concerns on embodiment. 実施形態に係る文章PN値算出方法の概要を示す説明図である。It is explanatory drawing which shows the outline | summary of the text PN value calculation method which concerns on embodiment. 実施形態に係る文章PN値算出の概要を示す説明図である。It is explanatory drawing which shows the outline | summary of the text PN value calculation which concerns on embodiment. PN値算出機能における学習処理の動作順序を示すフローチャート図である。It is a flowchart figure which shows the operation | movement order of the learning process in a PN value calculation function. PN値算出機能における学習処理のデータ処理に関する説明図である。It is explanatory drawing regarding the data process of the learning process in a PN value calculation function. 実施形態に係るPN値算出における木構造によるフィルタリングの概要を示す説明図である。It is explanatory drawing which shows the outline | summary of the filtering by the tree structure in PN value calculation which concerns on embodiment. ワード間距離算出機能における助詞係数に関する説明図である。It is explanatory drawing regarding the particle coefficient in the distance calculation function between words. ワード間距離算出機能における変位処理に関する説明図である。It is explanatory drawing regarding the displacement process in the distance calculation function between words. ワード間距離算出機能におけるクラスタリング及び動的パラメーターのデータ構造に関する説明図である。It is explanatory drawing regarding the data structure of the clustering in the distance calculation function between words, and a dynamic parameter. 実施形態に係るエゴグラムポテンシャル場の概要を示す説明図である。It is explanatory drawing which shows the outline | summary of the egogram potential field which concerns on embodiment. 第2実施形態に係る対話インターフェースエンジンのコア機能の概要を示す説明図である。It is explanatory drawing which shows the outline | summary of the core function of the dialog interface engine which concerns on 2nd Embodiment. 第2実施形態に係る対話インターフェースシステムの動作処理を示す説明図である。It is explanatory drawing which shows the operation processing of the dialog interface system which concerns on 2nd Embodiment. 第2実施形態に係る対話インターフェースエンジンの概略構成を示すブロック図である。It is a block diagram which shows schematic structure of the dialog interface engine which concerns on 2nd Embodiment. 第2実施形態に係る対話インターフェースシステムの全体構成を示すブロック図である。It is a block diagram which shows the whole structure of the dialog interface system which concerns on 2nd Embodiment. 第2実施形態に係る初期化処理部の構成を示すブロック図である。It is a block diagram which shows the structure of the initialization process part which concerns on 2nd Embodiment.

[第1実施形態]
以下に添付図面を参照して、本発明に係る対話インターフェースの第1実施形態を詳細に説明する。
[First Embodiment]
Hereinafter, a first embodiment of an interactive interface according to the present invention will be described in detail with reference to the accompanying drawings.

(ハードウェアの構成)
図1は、本実施形態で用いられる情報処理端末のハードウェア構成を示すブロック図であり、図2は、本実施形態に係る情報処理端末のCPU上に仮想的に構築される対話インターフェースに関するモジュールを示すブロック図である。
(Hardware configuration)
FIG. 1 is a block diagram showing a hardware configuration of an information processing terminal used in the present embodiment, and FIG. 2 is a module related to an interactive interface that is virtually constructed on the CPU of the information processing terminal according to the present embodiment. FIG.

情報処理端末1は、図1に示すように、演算処理を行うCPU11と、データを一時的に記憶するメモリ12と、通信ネットワーク2を介して外部との通信を行う通信I/F13と、データを格納しておく記憶装置14とを有している。なお、本実施形態では、これらのCPU11、メモリ12及び通信I/F13、記憶装置14,出力I/F15と、入力I/F16等は、CPUバス10を介して接続されており、相互にデータの受渡しが可能となっている。   As shown in FIG. 1, the information processing terminal 1 includes a CPU 11 that performs arithmetic processing, a memory 12 that temporarily stores data, a communication I / F 13 that communicates with the outside via the communication network 2, and data And a storage device 14 for storing. In the present embodiment, the CPU 11, the memory 12, the communication I / F 13, the storage device 14, the output I / F 15, the input I / F 16, and the like are connected via the CPU bus 10 and are mutually connected. Can be delivered.

CPU11は、各部を制御する際に必要な種々の演算処理を行う装置である。このCPU11は、メモリ12に格納されているアプリケーションプログラム及び設定情報に基づいて、入力I/F16から入力される内容に応じて、本発明に係る対話インターフェースアプリケーションを実行させる。CPU11上で、対話インターフェースアプリケーションが実行されることで、本発明の対話インターフェースが機能モジュールとして仮想的に構築される。   The CPU 11 is a device that performs various arithmetic processes necessary for controlling each unit. The CPU 11 causes the interactive interface application according to the present invention to be executed according to the contents input from the input I / F 16 based on the application program and setting information stored in the memory 12. By executing the interactive interface application on the CPU 11, the interactive interface of the present invention is virtually constructed as a functional module.

また、通信I/F13は、通信ネットワーク2を介して通信を行うモジュールであり、公知の装置を用いることができる。なお、この通信I/F13に外線若しくは内線用の電話回線を接続することにより、有線で通信を行うことができ、また、携帯電話等を接続することによって無線で通信を行うこともできる。この通信ネットワーク2は、電話回線に限られることなく、LANなどでも同様の機能を実現することができる。   The communication I / F 13 is a module that performs communication via the communication network 2, and a known device can be used. By connecting an external line or an internal telephone line to the communication I / F 13, it is possible to perform wired communication, and it is also possible to perform wireless communication by connecting a mobile phone or the like. The communication network 2 is not limited to a telephone line, and the same function can be realized by a LAN or the like.

記憶装置14は、データを記録媒体に蓄積するとともに、これら蓄積されたデータを各デバイスの要求に応じて読み出す記憶装置であり、例えば、ハードディスクドライブ(HDD)やソリッドステートドライブ(SSD)、メモリカード等により構成することができる。   The storage device 14 is a storage device that accumulates data in a recording medium and reads out the accumulated data in response to a request from each device. For example, the storage device 14 includes a hard disk drive (HDD), a solid state drive (SSD), a memory card, and the like. Or the like.

また、CPUバス10には出力I/F15と、入力I/F16が接続されており、入力されたユーザー操作信号が入力I/F16からCPUバス10を通してCPUに入力されるとともに、各部に対する操作に関する情報がCPUバス10を介して出力I/F15を介して、各出力デバイスから出力・表示される。   Further, an output I / F 15 and an input I / F 16 are connected to the CPU bus 10, and input user operation signals are input from the input I / F 16 to the CPU through the CPU bus 10, and operations related to the respective units are performed. Information is output and displayed from each output device via the CPU bus 10 and the output I / F 15.

(対話インターフェースの構成)
本実施形態に係る対話インターフェースは、スマートフォンやパーソナルコンピュータその他の情報処理装置、ロボットなどに備えられ、ユーザーとの対話により情報を入力したり、検索して応答するためのモジュールである。ここで、モジュールとは、CPU等の演算処理装置において、各種プログラムを実行することにより、CPU上に仮想的に構築される機能ブロックであり、装置や機器等のハードウェア、或いはその機能を持ったソフトウェア、又はこれらの組合せなどによって構成される。
(Configuration of interactive interface)
The interactive interface according to the present embodiment is a module that is provided in a smartphone, a personal computer, other information processing apparatuses, robots, and the like, and inputs information by searching with a user or searches and responds. Here, a module is a functional block that is virtually built on a CPU by executing various programs in an arithmetic processing unit such as a CPU, and has hardware such as a device or equipment, or a function thereof. Software, or a combination thereof.

本実施形態において対話インターフェースのエンジン部分は、CPU11上で、対話インターフェースアプリケーションが実行されることで、機能モジュールとして仮想的に構築され、具体的には、図2に示すように、ユーザーとの対話を行う対話入出力部60と、対話に必要な情報を収集したり対話入出力部60を通じて入出力されるデータに対して予め必要な処理を行う初期化処理部100と、コア機能を実行するコア機能実行部20と、ユーザー情報データベース50とから概略構成される。   In the present embodiment, the engine portion of the dialog interface is virtually constructed as a functional module by executing the dialog interface application on the CPU 11. Specifically, as shown in FIG. A dialog input / output unit 60 that performs the above, an initialization processing unit 100 that collects information necessary for the dialog and performs necessary processing on data input / output through the dialog input / output unit 60, and a core function The core function execution unit 20 and a user information database 50 are roughly configured.

対話入出力部60は、ユーザーと対話するためにデータを入出力するモジュールであり、ハードウェアとしては、出力I/F15,入力I/F16を通じて、情報処理端末1に接続されたディスプレイ5bやスピーカー5a、各種入力デバイス6a〜6c、その他のセンサーや時計、GPS機能を通じてデータを入出力する。そして、この対話入出力部60は、ユーザーからの問いかけを取得する入力部60aと、ユーザーに対して情報を提示して回答する回答出力部60bとを備えている。入力部60aは、ユーザーが入力したテキスト文章や音声の他、ユーザーの表情を撮影した画像・動画、タッチパネルへのタッチ操作、加速度センサー、時刻、GPSによる位置情報などの環境に関するデータも入力される。回答出力部60bは、回答生成部107が生成した回答を、対話入出力部60を通じてユーザーに向けて出力するモジュールであり、この出力もテキスト文章や音声の他、映像・動画、ロボットのアクションなど、種々の表現に対応できるように、所定の出力信号に変換する機能も備えている。   The dialogue input / output unit 60 is a module for inputting / outputting data for dialogue with the user. As hardware, the display 5b and the speaker connected to the information processing terminal 1 through the output I / F 15 and the input I / F 16 are used. Data is input / output through 5a, various input devices 6a to 6c, other sensors, watches, and GPS functions. The dialogue input / output unit 60 includes an input unit 60a that acquires an inquiry from the user, and an answer output unit 60b that presents and answers information to the user. The input unit 60a also receives text data and voices input by the user, as well as data related to the environment such as images / moving images of the user's facial expressions, touch operation on the touch panel, acceleration sensor, time, and GPS location information. . The answer output unit 60b is a module that outputs the answer generated by the answer generation unit 107 to the user through the dialogue input / output unit 60. This output is also a text / voice, video / video, robot action, etc. Also, a function of converting to a predetermined output signal is provided so as to be compatible with various expressions.

ユーザー情報データベース50は、情報処理端末1に備えられた記憶装置14や外部に設けられたストレージ装置に格納されるデータベースであり、他のデータベースとリレーションを設定することにより、情報を相互に参照し合えるリレーショナル・データベースである。このユーザー情報データベース50は、情報ソースから得られるテキストデータについてキーワード解析部106が抽出したキーワードと、これらのキーワードについて群体パラメーター設定部301が設定した群体パラメーターとを関連づけて蓄積する記憶装置である。また、ユーザー情報データベース50には、各キーワードに対するユーザーの自我状態を示すエゴグラムパラメーターが蓄積されている。   The user information database 50 is a database stored in the storage device 14 provided in the information processing terminal 1 or a storage device provided outside, and refers to information mutually by setting a relation with another database. It is a compatible relational database. The user information database 50 is a storage device that accumulates the keywords extracted by the keyword analysis unit 106 for text data obtained from an information source and the group parameters set by the group parameter setting unit 301 for these keywords in association with each other. The user information database 50 stores egogram parameters indicating the user's ego state for each keyword.

初期化処理部100は、情報ソース取得部101が取得した情報ソースや、ユーザーから入力された入力データについて、コア機能部での処理を行う前に予め処理し、コア機能実行部20に受渡しすモジュールである。本実施形態において、具体的に初期化処理部100は、情報ソース取得部101と、センテンス解析部102と、省略単語検出部103と、推定単語検出部104と、テキスト再構成部105とを備えている。   The initialization processing unit 100 processes in advance the information source acquired by the information source acquisition unit 101 and the input data input by the user before performing the processing in the core function unit, and delivers the processed data to the core function execution unit 20. It is a module. In the present embodiment, specifically, the initialization processing unit 100 includes an information source acquisition unit 101, a sentence analysis unit 102, an abbreviated word detection unit 103, an estimated word detection unit 104, and a text reconstruction unit 105. ing.

情報ソース取得部101は、Web等の通信ネットワークを通じて取得される一般的な情報の他、端末内に蓄積されている各ユーザーに固有のプライベートなローカルデータなどを情報ソースとして収集し、情報ソースデータベース40aやユーザー情報データベース50に蓄積するモジュールである。すなわち、この情報ソースとしては、ユーザーがアクセスした情報やその履歴についても蓄積されており、情報ソース取得部101は、一般的な情報と、ユーザーが利用したプライベートな情報とを区分して情報ソースデータベース40aやユーザー情報データベース50に蓄積され、管理されている。   The information source acquisition unit 101 collects, as general information acquired through a communication network such as the Web, private local data unique to each user stored in the terminal as an information source, and an information source database 40a and a module that accumulates in the user information database 50. That is, as the information source, information accessed by the user and its history are also accumulated, and the information source acquisition unit 101 classifies general information and private information used by the user as an information source. It is stored and managed in the database 40a and the user information database 50.

センテンス解析部102は、情報ソース取得部101が取得した情報ソースから得られるテキストデータからセンテンスを抽出するモジュールである。例えば、このセンテンス解析部102は、文章のテキストデータから、句点から句点、或いはピリオドからピリオドまでなど、一連のセンテンスを切り出し、省略単語検出部103に入力する。   The sentence analysis unit 102 is a module that extracts sentences from text data obtained from the information source acquired by the information source acquisition unit 101. For example, the sentence analysis unit 102 cuts out a series of sentences such as from a punctuation point to a punctuation point or a period to a period from the text data of a sentence, and inputs the sentence to the abbreviation word detection unit 103.

省略単語検出部103は、 センテンス解析部102が抽出した各センテンスを構成する単語に関する品詞を解析し、省略された単語を検出するモジュールである。具体的には、名詞、形容詞、動詞などの各文に含まれる単語の品詞を抽出し、主語となり得る名詞、特に固有名詞を検査し、見つからない場合は、主語が省略されているとして、その旨のフラグを文章データ中に挿入し、推定単語検出部104に入力する。   The abbreviation word detection unit 103 is a module that analyzes the part of speech related to the words constituting each sentence extracted by the sentence analysis unit 102 and detects the omitted word. Specifically, it extracts the part of speech of words included in each sentence such as nouns, adjectives, verbs, etc., inspects nouns that can be the subject, especially proper nouns, and if the subject is not found, A flag to that effect is inserted into the sentence data and input to the estimated word detection unit 104.

推定単語検出部104は、省略単語検出部103が検出した省略単語が含まれるセンテンスの当該情報ソース内における位置関係に基づいて、当該省略単語の品詞に応じた単語を推定単語として検出するモジュールである。この推定単語は、先行する直前のセンテンスや段落、記事のヘッドラインなどに含まれる固有名詞などを選定する。検出された推定単語は、テキスト再構成部105へ入力される。   The estimated word detection unit 104 is a module that detects a word corresponding to the part of speech of the abbreviated word as an estimated word based on the positional relationship in the information source of the sentence including the abbreviated word detected by the abbreviated word detection unit 103. is there. As the estimated word, a proper noun included in the immediately preceding sentence or paragraph, the headline of the article, or the like is selected. The detected estimated word is input to the text reconstruction unit 105.

テキスト再構成部105は、入力されたテキストデータに対して、省略単語検出部103が検出した省略単語の検出位置に、推定単語検出部104が検出した推定単語を追加して、センテンスとして再構成するモジュールである。このテキスト再構成部105により再構成された文書データは、原文とともに情報ソースデータベース40aに蓄積されるとともに、コア機能実行部20に入力される。   The text reconstruction unit 105 adds the estimated word detected by the estimated word detection unit 104 to the input position of the abbreviated word detected by the abbreviated word detection unit 103 and reconstructs the sentence as a sentence. It is a module to do. The document data reconstructed by the text reconstructing unit 105 is stored in the information source database 40 a together with the original text, and is input to the core function executing unit 20.

コア機能実行部20は、本実施形態では、ワード間距離算出機能300及びポテンシャル場算出機能400を有している。ワード間距離算出機能300は、キーワード解析部106と、動的クラスタリング部303と、回答生成部107と、群体パラメーター設定部301とを備えている。   In the present embodiment, the core function execution unit 20 has an interword distance calculation function 300 and a potential field calculation function 400. The interword distance calculation function 300 includes a keyword analysis unit 106, a dynamic clustering unit 303, an answer generation unit 107, and a group parameter setting unit 301.

キーワード解析部106は、入力されたテキストデータから、キーワードを抽出するモジュールであり、このキーワード解析部106で解析された各キーワードは、群体パラメーター設定部301に入力される。   The keyword analysis unit 106 is a module that extracts keywords from the input text data. Each keyword analyzed by the keyword analysis unit 106 is input to the colony parameter setting unit 301.

また、キーワード解析部106、又はテキスト再構成部105によって再構成されたテキストデータからキーワードを抽出することもできる。具体的にキーワード解析部106は、情報ソースやユーザーからの問いかけについて、省略された単語を追加して再構成されたテキストデータを初期化処理部100から受け取り、この再構成されたテキストデータから所定のキーワードを抽出する。これにより、省略された主語や目的語などを推定することによって、暗に話題の中心となっている人物や団体、場所をキーワードとして検索すべき情報を選定し、加工することができ、より正確にユーザーが所望する検索結果や回答表現を提供することが可能となる。   Also, keywords can be extracted from text data reconstructed by the keyword analysis unit 106 or the text reconstruction unit 105. Specifically, the keyword analysis unit 106 receives text data reconstructed by adding omitted words from the information source or the user's inquiry from the initialization processing unit 100, and receives predetermined text data from the reconstructed text data. Extract keywords. This makes it possible to select and process information to be searched using keywords such as the person, group, or place that is the center of the topic by estimating the omitted subject or object. It is possible to provide search results and answer expressions desired by the user.

群体パラメーター設定部301は、各キーワードに対して、入力されたキーワードの重要度、及びキーワード間の関連性の度合いに関する群体パラメーターを設定するモジュールである。本実施形態にかかる群体パラメーターとしては、
単語の出現頻度(暗黙の主語を含む。)
他のワードと同じ文節内に出現した回数
文章の木構造において並列又は直列かの回数
その単語に係る「の」、「が」、「は」の他の助詞の出現頻度
を用いる。
The group parameter setting unit 301 is a module that sets, for each keyword, a group parameter related to the importance of the input keyword and the degree of relevance between the keywords. As the colony parameters according to this embodiment,
Word frequency (including implicit subject)
In the tree structure of the number of sentences that appear in the same phrase as another word, the number of parallel or serial numbers in the tree structure is used, and the frequency of appearance of other particles related to that word is “no”, “ga”, and “ha”.

このようにして算出された群体パラメーターは、図5C(b)に示すようなデータセットとして蓄積される。すなわち、各ワードに関する出現頻度や助詞係数、木構造パターン、関連テキストなどをメインのテーブルデータD1として、このテーブルデータD1の項目「助詞係数」にはテーブルデータD11をリレーションで関連づけ、項目「木構造」には、テーブルデータD12をリレーションで関連づけた構造を有するリレーショナルデータベースとなっている。これにより、一つの単語に、その単語自身の出現頻度やや関連テキストデータの他、他の単語それぞれとの関係性を示す助詞係数、木構造などが紐付けられており、動的クラスタリングにおける変位処理を行う場合には、図5(b)に示すように、各単語を動的オブジェクトとして順番に取り上げ、その単語と紐付けられたテーブルデータD11,D12中にある単語を仮想空間上で探索し、検出されればその他の単語との関係から移動方向や移動量を決定する。このとき複数の単語が検出された場合には、それぞれに対するベクトルを計算し、その合成ベクトルに基づいて変位処理を実行する。   The colony parameters calculated in this way are accumulated as a data set as shown in FIG. 5C (b). That is, the appearance frequency, particle particle, tree structure pattern, related text, etc. relating to each word are used as the main table data D1, and the table data D11 is related to the item “particle particle” of the table data D1 by a relation. Is a relational database having a structure in which the table data D12 is related by a relation. Thus, in addition to the frequency of appearance of the word itself and related text data, a particle coefficient indicating a relationship with each other word, a tree structure, etc. are linked to one word, and displacement processing in dynamic clustering is performed. As shown in FIG. 5 (b), each word is picked up as a dynamic object in order, and the words in the table data D11 and D12 associated with the word are searched in the virtual space. If detected, the moving direction and moving amount are determined from the relationship with other words. If a plurality of words are detected at this time, a vector for each is calculated, and displacement processing is executed based on the combined vector.

また、本実施形態において群体パラメーター設定部301には、PN値算出機能200が接続されており、このPN値算出機能200にはPN値設定部201が含まれ、このPN値設定部201は、入力された各キーワードに対するユーザーのポジティブ又はネガティブの度合いを示すPN値を設定するモジュールである。PN値設定部201で設定されたPN値は、ユーザー情報データベース50に蓄積されるとともに、群体パラメーター設定部301に入力される。   In this embodiment, a PN value calculation function 200 is connected to the colony parameter setting unit 301, and the PN value calculation function 200 includes a PN value setting unit 201. This is a module for setting a PN value indicating a positive or negative degree of a user for each input keyword. The PN value set by the PN value setting unit 201 is accumulated in the user information database 50 and input to the colony parameter setting unit 301.

そして群体パラメーター設定部301は、PN値設定部201が設定したPN値を反映させつつ、群体パラメーターを設定する。群体パラメーター設定部301で設定された群体パラメーターは、ユーザー情報データベース50に蓄積されるとともに、動的クラスタリング部303に入力される。   The colony parameter setting unit 301 sets the colony parameter while reflecting the PN value set by the PN value setting unit 201. The colony parameters set by the colony parameter setting unit 301 are accumulated in the user information database 50 and input to the dynamic clustering unit 303.

動的クラスタリング部303は、各キーワードを、各キーワードに設定された群体パラメーターに応じた挙動を取る動的オブジェクトとして仮想空間上にそれぞれ配置し、前記仮想空間上における各キーワード間の距離をワード間距離として算出するモジュールである。本実施形態においてこの動的クラスタリング部303は、群体シミュレーションにより各キーワードの再配置し、再配置されたワールドマップを用いてキーワード間の距離を算出し、後述するエゴグラムパラメーターを補正処理に受けわたしている。具体的に、この群体シミュレーションでは、各動的オブジェクトについて、各動的オブジェクトを中心とする所定範囲に存在する他の動的オブジェクトに対する位置関係に基づき、一定のルールに則った変位処理を実行し、この動的クラスタリング部303により算出された各ワード間距離は、話題ワールドマップとして、ユーザー情報データベース50に蓄積されるとともに、回答生成部107に入力される。   The dynamic clustering unit 303 arranges each keyword in the virtual space as a dynamic object that takes a behavior according to the group parameter set in each keyword, and sets the distance between the keywords in the virtual space between words. This module calculates the distance. In the present embodiment, the dynamic clustering unit 303 rearranges each keyword by the group simulation, calculates the distance between the keywords using the rearranged world map, and receives the egogram parameters described later in the correction process. Yes. Specifically, in this group simulation, displacement processing according to a certain rule is executed for each dynamic object based on the positional relationship with respect to other dynamic objects existing in a predetermined range centering on each dynamic object. The distances between words calculated by the dynamic clustering unit 303 are accumulated in the user information database 50 as a topic world map and input to the answer generation unit 107.

この動的クラスタリング部303における群体シミュレーションの変位処理で用いられるルールには、
(a)各キーワードの関連性の度合い基づいて、所定範囲内に存在する他の動的オブジェクトに接近する方向に移動させること
(b)各キーワードの重要度に基づいて、移動量を決定すること
(c)各キーワードの関連性がない動的オブジェクト間は、離間する方向に移動させること
が含まれる。
The rules used in the displacement process of the crowd simulation in the dynamic clustering unit 303 include:
(a) Based on the degree of relevance of each keyword, move it in a direction approaching other dynamic objects that exist within a predetermined range.
(b) Determine the amount of movement based on the importance of each keyword
(c) It includes moving the dynamic objects that are not related to each keyword in the direction of separation.

このルールに従って変位処理をさせると、図5Bに示すように、Word_iと関連性のあるWord_k、Word_l及びWord_xが存在する場合、Word_iは、上記ルール(a)及び(b) に従って、Word_k、Word_l及びWord_xに引きつけられる。このとき、Word_iのWord_k、Word_l及びWord_xに対する関連性の度合いと、各Wordの重要度に応じて、Word_iの移動方向及び移動量が決定される。具体的には、各Wordの関連性の度合いと重要度に応じて、そのWordが位置する座標へ向けて引力F1〜F3が作用することになり、これらの引力F1〜F3の合成力により移動方向及び移動量が決定される。反対に、関連性がないWordが周囲に存在する場合には、上記ルール(c)に従って、その関連性のないWordから反発力が作用しているとして、合成力を求める。   When displacement processing is performed according to this rule, as shown in FIG. 5B, when there exists Word_k, Word_l, and Word_x related to Word_i, Word_i is converted to Word_k, Word_l and Word_k according to the above rules (a) and (b). Attracted to Word_x. At this time, the moving direction and moving amount of Word_i are determined according to the degree of relevance of Word_i to Word_k, Word_l, and Word_x and the importance of each Word. Specifically, depending on the degree of relevance and importance of each word, the attractive forces F1 to F3 will act toward the coordinates where that word is located, and it will move by the combined force of these attractive forces F1 to F3 The direction and amount of movement are determined. On the other hand, when there is an unrelated Word in the surroundings, the composite force is obtained on the assumption that a repulsive force is acting from the unrelated Word according to the rule (c).

このように群体シミュレーションによってキーワードが再配置されたワールドマップに対し、ポテンシャル場算出機能400において、エゴグラムパラメーターを用いた補正処理を行って、ユーザーポテンシャル場を形成する。   The potential map calculation function 400 performs correction processing using egogram parameters on the world map in which the keywords are rearranged by the group simulation in this way to form a user potential field.

辞書データベース40bは、単語の上位又は下位関係、部分又は全体関係、同義関係、類義関係の少なくとも一つに基づいて単語を分類し、体系付けたシソーラス辞書に基づいて、解析対象となる単語を分類するシソーラス辞書を格納している。   The dictionary database 40b classifies words based on at least one of upper or lower relations, partial or whole relations, synonymous relations, and synonymous relations of words, and selects words to be analyzed based on a structured thesaurus dictionary. The thesaurus dictionary to be classified is stored.

一方、ポテンシャル場算出機能400は、エゴグラム設定部401と、ポテンシャル場形成部402と、回答生成部107とを備えている。   On the other hand, the potential field calculation function 400 includes an egogram setting unit 401, a potential field formation unit 402, and an answer generation unit 107.

エゴグラム設定部401は、 キーワード解析部106が抽出したキーワード、或いは情報ソースデータベース40aに蓄積されたキーワードのうち、特定の人、物又は事象に関するキーワードを話題キーワードとしてグルーピングし、そのグループ毎に、群体パラメーターに従って、各キーワードの分布状態を三次元の座標で形成されたマップとして作成し、マップ上における各キーワードに対するユーザーの自我状態を示すエゴグラムパラメーターを設定するモジュールである。   The egogram setting unit 401 groups keywords related to a specific person, thing or event as topic keywords among the keywords extracted by the keyword analysis unit 106 or the keywords stored in the information source database 40a. This is a module that creates the distribution state of each keyword as a map formed with three-dimensional coordinates according to the parameters, and sets egogram parameters indicating the user's ego state for each keyword on the map.

このエゴグラムパラメーターは、人間の性格を5つの独立したパラメーターで表現した係数であり、エゴグラムとは、これらのパラメーターにより表される5つの自我状態が放出する心的エネルギーの高さをグラフにしたものであり、アンケートや性格診断などで求めることができる。エゴグラムパラメーターとしては、
CP(批判的親):厳しい心。自分の価値観を正しいものと信じて譲らず、責任を持って行動し、他人に批判的である。この部分が低いと、ルーズな性格になる。
NP(養育的親):優しい心。他人を思いやって行動し、保護的で親切である。この部分が低いと、冷淡な性格になる。
A(大人):合理的な心。現実を重視しており、物事をきちんと計算して行動し、合理的である。この部分が低いと、非合理的な性格になる。
FC(自由な子ども):自由奔放な心。明るく無邪気でユーモアがあり、わがままで自己中心的である。この部分が低いと、閉鎖的でネクラな性格になる。
AC(順応した子ども):従順な心。他人に嫌われたくないという気持ちが強く、言いたいことを言わずに我慢してしまい、妥協的である。この部分が低いと、マイペースな性格になる。
といったものが挙げられる。
This egogram parameter is a coefficient that expresses the human character with five independent parameters. The egogram is a graph of the level of mental energy released by the five ego states represented by these parameters. It can be obtained through questionnaires or personality diagnosis. As egogram parameters,
CP (Critical Parent): A hard heart. Believe that your values are right, don't yield, act responsibly, and be critical of others. If this part is low, it has a loose character.
NP (nurturing parent): A kind heart. Act with respect for others, be protective and kind. If this part is low, it becomes a cold character.
A (Adult): Reasonable mind. Reality is emphasized, things are calculated and acted reasonably. If this part is low, it becomes an irrational personality.
FC (free child): free spirit. Bright, innocent, humorous, selfish and self-centered. When this part is low, it becomes a closed and necracy personality.
AC (adapted child): obedient heart. I have a strong desire not to be disliked by others, and I endure without saying what I want to say, which is a compromise. If this part is low, it becomes a personality.
And so on.

ポテンシャル場形成部402は、エゴグラム設定部401によって設定されたエゴグラムパラメーター、及び群体パラメーター設定部301が設定した群体パラメーターに基づいて、動的クラスタリング部303が算出したワード間距離を補正し、各キーワードに対するユーザーの反応パターンを示すユーザーポテンシャル場を算出するモジュールである。本実施形態では、動的クラスタリング部303で算出された各単語に関するワード間距離は、ワールドマップデータとしてユーザー情報データベース50に蓄積されており、ポテンシャル場形成部402は、このワールドマップデータを読み出し、ワールドマップ上に配置された各単語(動的オブジェクト)に対して、前記エゴグラムパラメーターを反映させる補正処理を実行して、動的オブジェクトを再配置させる。   The potential field forming unit 402 corrects the distance between words calculated by the dynamic clustering unit 303 based on the egogram parameters set by the egogram setting unit 401 and the group parameters set by the group parameter setting unit 301, and each keyword This module calculates the user potential field that indicates the user's reaction pattern to. In the present embodiment, the distance between words related to each word calculated by the dynamic clustering unit 303 is accumulated in the user information database 50 as world map data, and the potential field forming unit 402 reads out the world map data, For each word (dynamic object) placed on the world map, correction processing that reflects the egogram parameters is executed to rearrange the dynamic object.

この補正処理は、各キーワードの重要度をそのキーワードのサイズとし、少なくとも各キーワードのサイズとエゴグラムパラメーターの組合せに基づく定数と、に基づいて行う。例えば、各キーワードが有する影響力であるエネルギーを決定し、ワード間距離に係る2つのキーワード間の距離を、各キーワードの有する各エネルギーの積に比例し、当該キーワードのサイズに反比例する引力又は斥力が作用しているとして、前記ワード間距離を補正する。   This correction processing is performed based on at least a constant based on a combination of the size of each keyword and the egogram parameter, with the importance of each keyword as the size of the keyword. For example, the energy that is the influence of each keyword is determined, and the distance between two keywords related to the distance between words is proportional to the product of each energy that each keyword has, and the attractive or repulsive force that is inversely proportional to the size of the keyword As described above, the distance between words is corrected.

具体的に、補正処理においては、図6(c)に示すように、ワールドマップ上に含まれる各単語の群体パラメーターと、エゴグラムパラメーターとを用いて、補正用の要素を以下のように定義する。
・ 各wordのサイズ半径r = size/2
・ 各wordが持っているエネルギーE=nr(A)xnr(pn)xnr(size
・ 各wordのエネルギーの及ぶ範囲σ=nr(NP)
・ 各wordのエネルギーの放出の勢いΔd=nrm(FC)
ここで、nrmはnormalize[0.7−1]
・ 各wordのまわりの影響力の濃度(強度分布)の計算 an+1=anΔd
・ 各wordの自分への引き寄せ力→初期配置の移動量=nr(cp)
ここで、nrはnormalize [0,1]
・各word(星)の単位ベクトル PNの(+)(−)でベクトルの向きを逆とする
そして、これらの要素に基づいて、単語間相互に作用する引力又は反発力を次の式により求める。
Specifically, in the correction process, as shown in FIG. 6C, the correction elements are defined as follows using the group parameters of each word included in the world map and the egogram parameters. .
-The size radius of each word r = size / 2
・ Each word has energy E = nr (A) xnr (pn) xnr (size
・ Range of energy of each word σ = nr (NP)
・ Emission momentum of each word Δd = nrm (FC)
Here, nrm is normalize [0.7-1].
・ Calculation of influence concentration (intensity distribution) around each word an + 1 = anΔd
-Attracting force of each word to itself → movement amount of initial arrangement = nr (cp)
Here, nr is normalize [0, 1].
-The unit vector of each word (star) The direction of the vector is reversed by (+) (-) of PN. And based on these elements, the attractive or repulsive force that interacts between words is obtained by the following formula. .

そして、この式において、一方の単語をユーザー自身を意味する一人称の単語群とすることにより、他方の単語との間の引力又は反発力を求めることができ、その言葉がユーザー自身に与える影響度を推定することができる。   In this equation, by making one word a first-person word group that means the user himself, the attractiveness or repulsive force between the other word can be obtained, and the degree of influence of the word on the user himself / herself Can be estimated.

さらに、動的クラスタリング部303では、引き込みのルールに従って、ユーザーポテンシャル場を補正する。この引き込みルールは、振動子群が相互作用や周期外力の作用によって振動タイミングを揃える同期現象を応用した補正処理であり、次式で表される。
なお、θは特定の動的オブジェクトの位相であり、θneiighber,tは、時刻tでの周辺の他の動的オブジェクトの位相を意味する。また、上式においてACは、エゴグラムパラメーターであり、上式の引き込み係数として用いられている。
Further, the dynamic clustering unit 303 corrects the user potential field according to the pull-in rule. This pull-in rule is a correction process that applies a synchronization phenomenon in which the vibrator group aligns the vibration timing by the interaction or the action of a periodic external force, and is expressed by the following equation.
Note that θ t is the phase of a specific dynamic object, and θ neiighber, t means the phase of other dynamic objects in the vicinity at time t. In the above equation, AC is an egogram parameter, and is used as the pull-in coefficient in the above equation.

そして、この引込のルールでは、
(1)特定の動的オブジェクトが所定の振動(位相θ)をしているものとし、
(2)当該特定の動的オブジェクトと、その周囲で振動(位相θneiighber,t)する他の複数の動的オブジェクトとが、各摂動(位相θ−θneiighber,t)を介して相互作用を生じさせているものとし、
(3)各摂動が消失されて、それぞれの動的オブジェクトの各振動が一定の周期解に漸近し、確動的オブジェクトの変位が同期するとして、
各動的オブジェクトを再配置するための変位処理を実行する。なお、本実施形態では、各単語(自身を意味する一人称の単語群を含む)に係る動的オブジェクトは、その言葉が使用された時間差などをノーマライズした値を位相とし、その言葉を発したときの音量や、その言葉の出現頻度、重要度振動をノーマライズした値を振幅として振動しているものとして演算する。
And with this pull-in rule,
(1) It is assumed that a specific dynamic object has a predetermined vibration (phase θ t ),
(2) The specific dynamic object and other dynamic objects that vibrate around it (phase θ neiighber, t ) interact through each perturbation (phase θ t −θ neiighber, t ). , And
(3) As each perturbation disappears, each vibration of each dynamic object asymptotically approaches a certain periodic solution, and the displacement of the positive dynamic object is synchronized.
A displacement process for rearranging each dynamic object is executed. In the present embodiment, when a dynamic object related to each word (including a first-person word group meaning itself) uses a value obtained by normalizing a time difference in which the word is used as a phase and emits the word Is calculated with the amplitude of the sound volume, the appearance frequency of the word, and the importance vibration as the amplitude.

この引き込みルールにより、それぞれが所定の摂動(ずれ)をもってバラバラに変位している動的オブジェクト群が、摂動を消失させるように周囲の動的オブジェクトを引き込んで同期させることにより、特定の言葉や情報が突出して使用されるのを平準化できる一方で、普段使用されない言葉や情報を活性化させることができる。引き込まれて活性化された単語はその言葉自身がまた上式により引力又は反発力を有することとなり、その言葉がユーザーに対して与える影響度が変化され、動的にワールドマップを更新されることとなる。   With this pull-in rule, a group of dynamic objects, each of which is displaced disparately with a predetermined perturbation (deviation), pulls in and synchronizes the surrounding dynamic objects so that the perturbation disappears. Can be used in a prominent manner, while words and information that are not normally used can be activated. Words that are drawn and activated are also attracted or repelled by the above formula, and the influence of the words on the user is changed and the world map is dynamically updated. It becomes.

前記回答生成部107は、ポテンシャル場形成部402が算出したユーザーポテンシャル場に基づき、情報ソース取得部101を通じて検索を行い、ユーザーに対する回答を生成するモジュールである。   The answer generation unit 107 is a module that performs a search through the information source acquisition unit 101 based on the user potential field calculated by the potential field formation unit 402 and generates an answer to the user.

(対話インターフェースの動作)
以上の構成を有する対話インターフェースは、以下のように動作する。図3は、対話インターフェースの動作順序を示すフローチャート図である。
(Interactive interface operation)
The interactive interface having the above configuration operates as follows. FIG. 3 is a flowchart showing the operation sequence of the dialog interface.

先ず、ユーザーとの対話に先行し且つ常時周期的に、予め情報ソースの収集を行う(S601)。具体的には、情報ソース取得部101が、Web等の通信ネットワークを通じて取得される一般的な情報の他、端末内に蓄積されている各ユーザーに固有のプライベートなローカルデータなどを情報ソースとして収集する。Web等の通信ネットワークにおける情報収集としては、Webクローラーと呼ばれる、通信ネットワーク上のリンクを辿ってWebデータ間を遷移することにより、通信ネットワーク上のありとあらゆる情報データを回収する検索ロボットプログラムを用いる手法が挙げられる。一方、プライベートなローカルデータの収集としては、ユーザーがWeb検索した際のキーワードや実際にアクセスしたWebページ、コンテンツの他、ユーザーが作成した文書、送受信した電子メール、ユーザーのスケジュールなどが挙げられる。また、情報ソースとしては、その情報を取得した時点の日付や時刻、場所、気象情報、関連するニュースなどを紐付けして取得するようにしてもよい。   First, prior to the dialog with the user, information sources are collected in advance at regular intervals (S601). Specifically, the information source acquisition unit 101 collects, as general information acquired through a communication network such as the Web, private local data unique to each user stored in the terminal as an information source. To do. As a method for collecting information in a communication network such as the Web, there is a technique called a Web crawler, which uses a search robot program that collects all kinds of information data on the communication network by following links on the communication network and transitioning between Web data. Can be mentioned. On the other hand, the collection of private local data includes keywords created when a user searches the Web, Web pages actually accessed, contents, documents created by the user, e-mails sent and received, user schedules, and the like. Further, as the information source, the date and time when the information is acquired, the location, the weather information, the related news, and the like may be linked and acquired.

次いで、収集された情報データがテキストデータではない場合には、必要に応じてテキストデータに変換し、不要なデータが含まれている場合にはクレンジング処理を施す(S602)。テキスト化処理としては、例えば、取得されたデータが音声であるときに音声認識処理によりテキスト化したり、映像や動画であるときに画像認識処理により写っている人物や場所等を所定の単語に置き換えたりすることが挙げられる。また、クレンジング処理としては、Webページに含まれるタグデータやその他の制御文字、音声に含まれる不要な発生やノイズなどを排除することが挙げられる。   Next, if the collected information data is not text data, it is converted to text data as necessary, and if unnecessary data is included, cleansing processing is performed (S602). As text conversion processing, for example, when the acquired data is speech, it is converted to text by speech recognition processing, or when it is a video or a moving image, a person or a place shown in the image recognition processing is replaced with a predetermined word. Can be mentioned. In addition, the cleansing process may include removing tag data and other control characters included in the Web page, unnecessary generation and noise included in the voice, and the like.

このようにテキスト化され不要なデータが削除されたテキストデータについて、形態素解析を行うとともに、省略された主語などの推定を行う(S603,S604)。具体的には、情報ソースについて、センテンスを抽出し、各センテンスを構成する単語に関する品詞を解析し、省略された単語を検出し、そのセンテンスの当該情報ソース内における位置関係に基づいて、当該省略単語の品詞に応じた単語を推定単語として検出して、この推定単語を省略単語の検出位置に推定単語を追加して、テキストデータを再構成する。   In this way, morphological analysis is performed on text data from which unnecessary data has been deleted, and the omitted subject is estimated (S603, S604). Specifically, for an information source, the sentence is extracted, the part of speech related to the words constituting each sentence is analyzed, the omitted word is detected, and the omission is performed based on the positional relationship of the sentence in the information source. A word corresponding to the part of speech of the word is detected as an estimated word, the estimated word is added to the abbreviated word detection position, and the text data is reconstructed.

次いで、情報ソースから得られたテキストデータから、キーワードを抽出するとともに、助詞係数の算出を行う(S605)。このキーワードの検出に際しては、いわゆるシソーラス辞書を用いて、類義語のマージを行う。具体的には、単語の上位又は下位関係、部分又は全体関係、同義関係、類義関係の少なくとも一つに基づいて単語を分類し、体系付けたシソーラス辞書に基づいて、解析対象となる単語を分類するシソーラス分類を行う。   Next, a keyword is extracted from the text data obtained from the information source, and a particle coefficient is calculated (S605). When this keyword is detected, synonyms are merged using a so-called thesaurus dictionary. Specifically, words are classified based on at least one of the upper or lower relationship, partial or whole relationship, synonym relationship, and synonym relationship of words, and the word to be analyzed is determined based on a structured thesaurus dictionary. Perform a thesaurus classification to classify.

また、助詞係数の算出では、ワード間距離を設定する対象となっているキーワードに付随する助詞等の付随語の種類に基づいて、群体パラメーターを設定する。例えば、図5B(a)に示すように、野球の話題において、解析対象が「チームA」という単語であった場合、その単語に続く助詞がいずれとなっているかを解析し、さらにその後に続く単語との関係性の強弱を推定する。   Further, in the calculation of the particle coefficient, the group parameter is set based on the type of the accompanying word such as the particle attached to the keyword for which the distance between words is set. For example, as shown in FIG. 5B (a), in the baseball topic, when the analysis target is the word “team A”, the analysis is made as to which particle follows the word, and then continues. Estimate the strength of the relationship with a word.

ここで、「の」>「が、は」>「と」>その他、というように助詞係数を設定している場合、図5B(a)に示した例では、単語「チームA」と単語「マジック」とは助詞「が」で連結されており、「選手S」とは助詞「の」で連結されていることから、「チームA」と「選手S」との関係性は、「チームA」と「マジック」との関係性よりも強いと設定される。ここで抽出された助詞係数は、群体パラメーター設定部301に入力される。   Here, in the example shown in FIG. 5B (a), when the particle coefficient is set such as “no”> “gahaha”> “to”> other, the word “team A” and the word “ Since “magic” is connected by the particle “ga” and “player S” is connected by the particle “no”, the relationship between “team A” and “player S” is “team A”. ”And“ magic ”are set to be stronger. The particle coefficient extracted here is input to the group parameter setting unit 301.

なお、本実施形態では、ここでいうところの「付随語」としては、単語間の関連性を示すものであれば、日本語の「助詞」に限定されず、各言語の文法に応じて適宜選択することができ、英語であれば語順や前置詞、関係代名詞やその他用法などから求めることもできる。   In the present embodiment, the “accompanying word” here is not limited to a Japanese “particle” as long as it indicates the relationship between words, and is appropriately determined according to the grammar of each language. In English, it can be obtained from the word order, preposition, relative pronouns, and other usages.

次いで、省略された単語が追加され再構成されたテキストデータについて、文章内における文節を切り出し、文節間の分岐関係を抽出して、抽出された各分岐に基づく文章の木構造を算出するとともに、群体パラメーター設定部301は、ステップS605で算出した助詞係数と、センテンス解析部102が算出した木構造とに基づいて、群体パラメーターを設定する(S606)。   Next, for the text data reconstructed by adding the omitted word, extract the clauses in the sentence, extract the branch relationship between the phrases, calculate the tree structure of the sentence based on each extracted branch, The colony parameter setting unit 301 sets colony parameters based on the particle coefficient calculated in step S605 and the tree structure calculated by the sentence analysis unit 102 (S606).

そして、各キーワードを動的オブジェクトとして、群体パラメーターに従って仮想空間上で変位処理をするシミュレーションを実行し、動的クラスタリングを行う(S607)。具体的には、各キーワードに設定された群体パラメーターに応じた挙動を取る動的オブジェクトとして仮想空間上にそれぞれ配置し、各動的オブジェクトについて、各動的オブジェクトを中心とする所定範囲に存在する他の動的オブジェクトに対する位置関係に基づき、一定のルールに則った変位処理を実行する。このシミュレーションを繰り返すことにより、各キーワードは、関係性の強い単語同士はそれぞれ集合して群体を形成し、関係性の弱い単語同士は離間していく。このシミュレーションは、話題毎に行い、このシミュレーションの結果として得られた、各単語の仮想空間上の座標を、話題毎の話題ワールドマップとして生成し、蓄積しておく(S607)。   Then, using each keyword as a dynamic object, a simulation for performing displacement processing in the virtual space according to the group parameter is executed to perform dynamic clustering (S607). Specifically, each dynamic object is arranged in a virtual space as a dynamic object that takes a behavior according to the group parameter set in each keyword, and each dynamic object exists in a predetermined range centering on each dynamic object. Based on the positional relationship with respect to other dynamic objects, displacement processing according to a certain rule is executed. By repeating this simulation, each keyword gathers words having strong relations to form a group, and words having weak relations are separated from each other. This simulation is performed for each topic, and the coordinates in the virtual space of each word obtained as a result of this simulation are generated and stored as a topic world map for each topic (S607).

その後、各キーワードとともに、各キーワードについて群体パラメーター設定部301が設定した群体パラメーターとを関連づけて、ユーザー情報データベース50に蓄積するとともに、ステップS602〜S607によって加工された情報ソースを単位記事毎に、話題ワールドマップを関連づけて、ユーザー情報データベース50に蓄積する(S608)。   Thereafter, together with each keyword, the group parameter set by the group parameter setting unit 301 for each keyword is associated and accumulated in the user information database 50, and the information source processed in steps S602 to S607 is a topic for each unit article. The world map is associated and stored in the user information database 50 (S608).

他方、この情報ソースの蓄積に合わせて、予め或いは定期的に、各単語に対する群体パラメーター及びエゴグラムの収集も行う(S301)。この群体パラメーターの収集方法としては、例えば、SNSにおける「いいね!」ボタンのクリックなど賛同操作、レビュー入力などの評価操作を収集したり、各キーワードに対する心証をアンケート手続によって収集したりするなどが挙げられる。また、エゴグラムの収集は、性格診断などにより収集される。この収集された群体パラメーターは、キーワード毎に「+」、「−」及び数値(0を含む。)として紐付けられて設定され、ユーザー情報データベース50に蓄積される。エゴグラムパラメーターも、話題毎にグルーピングしたうえで、ユーザー情報データベース50に蓄積される。   On the other hand, in accordance with the accumulation of information sources, collection of colony parameters and egograms for each word is also performed in advance or periodically (S301). This group parameter collection method includes, for example, collecting approval operations such as clicking the “Like” button in SNS, evaluation operations such as review input, and collecting evidence for each keyword through a questionnaire procedure. Can be mentioned. Also, egograms are collected by personality diagnosis. The collected group parameters are linked and set as “+”, “−” and a numerical value (including 0) for each keyword, and are accumulated in the user information database 50. The egogram parameters are also stored in the user information database 50 after being grouped for each topic.

そして、ユーザーとの対話においてユーザーからの問いかけなどの入力があった場合には(S701)、ユーザーによる入力データがテキストデータではない場合には、必要に応じてテキストデータに変換し、不要なデータが含まれている場合にはクレンジング処理を施す(S702)。テキスト化処理としては、例えば、取得されたデータが音声であるときに音声認識処理によりテキスト化したり、映像や動画であるときに画像認識処理により写っている人物や場所等を所定の単語に置き換えたりすることが挙げられる。また、クレンジング処理としては、Webページに含まれるタグデータやその他の制御文字、音声に含まれる不要な発生やノイズなどを排除することが挙げられる。   If there is an input such as a question from the user in the dialogue with the user (S701), if the input data by the user is not text data, it is converted to text data as necessary, and unnecessary data is obtained. Is included, cleansing processing is performed (S702). As text conversion processing, for example, when the acquired data is speech, it is converted to text by speech recognition processing, or when it is a video or a moving image, a person or a place shown in the image recognition processing is replaced with a predetermined word. Can be mentioned. In addition, the cleansing process may include removing tag data and other control characters included in the Web page, unnecessary generation and noise included in the voice, and the like.

このようにテキスト化され不要なデータが削除されたテキストデータについて、形態素解析を行うとともに、省略された主語などの推定を行う(S703)。具体的には、情報ソースについて、センテンスを抽出し、各センテンスを構成する単語に関する品詞を解析し、省略された単語を検出し、そのセンテンスの当該情報ソース内における位置関係に基づいて、当該省略単語の品詞に応じた単語を推定単語として検出する。そして、ステップS703で得られた推定単語を省略単語の検出位置に推定単語を追加して、テキストデータを再構成する(S704)。   The morphological analysis is performed on the text data from which unnecessary data has been deleted in this way, and the omitted subject is estimated (S703). Specifically, for an information source, the sentence is extracted, the part of speech related to the words constituting each sentence is analyzed, the omitted word is detected, and the omission is performed based on the positional relationship of the sentence in the information source. A word corresponding to the part of speech of the word is detected as an estimated word. Then, the estimated word obtained in step S703 is added to the abbreviated word detection position to reconstruct the text data (S704).

次いで、再構成されたテキストデータから、キーワードを抽出するとともに、助詞係数の算出を行う(S705)。このキーワードの検出に際しては、いわゆるシソーラス辞書を用いて、類義語のマージを行う。具体的には、単語の上位又は下位関係、部分又は全体関係、同義関係、類義関係の少なくとも一つに基づいて単語を分類し、体系付けたシソーラス辞書に基づいて、解析対象となる単語を分類するシソーラス分類を行う。   Next, a keyword is extracted from the reconstructed text data, and a particle coefficient is calculated (S705). When this keyword is detected, synonyms are merged using a so-called thesaurus dictionary. Specifically, words are classified based on at least one of the upper or lower relationship, partial or whole relationship, synonym relationship, and synonym relationship of words, and the word to be analyzed is determined based on a structured thesaurus dictionary. Perform a thesaurus classification to classify.

また、助詞係数の算出では、ワード間距離を設定する対象となっているキーワードに付随する助詞の種類に基づいて、群体パラメーターを設定する。例えば、図5B(a)に示すように、野球の話題において、解析対象が「チームA」という単語であった場合、その単語に続く助詞がいずれとなっているかを解析し、さらにその後に続く単語との関係性の強弱を推定する。ここでは、「の」>「が、は」>「と」>その他、というように助詞係数を設定している場合、図5B(a)に示した例では、単語「チームA」と単語「マジック」とは助詞「が」で連結されており、「選手S」とは助詞「の」で連結されていることから、「チームA」と「選手S」との関係性は、「チームA」と「マジック」との関係性よりも強いと設定される。ここで抽出された助詞係数は、群体パラメーター設定部301に入力される。   In the calculation of the particle coefficient, the group parameter is set based on the type of particle attached to the keyword for which the distance between words is set. For example, as shown in FIG. 5B (a), in the baseball topic, when the analysis target is the word “team A”, the analysis is made as to which particle follows the word, and then continues. Estimate the strength of the relationship with a word. Here, in the example shown in FIG. 5B (a), when the particle coefficient is set such as “no”> “gahaha”> “to”> other, the word “team A” and the word “ Since “magic” is connected by the particle “ga” and “player S” is connected by the particle “no”, the relationship between “team A” and “player S” is “team A”. ”And“ magic ”are set to be stronger. The particle coefficient extracted here is input to the group parameter setting unit 301.

次いで、省略された単語が追加され再構成されたテキストデータについて、文章内における文節を切り出し、文節間の分岐関係を抽出して、抽出された各分岐に基づく文章の木構造を算出するとともに、群体パラメーター設定部301は、ステップS605で算出した助詞係数と、センテンス解析部102が算出した木構造とに基づいて、群体パラメーターを設定する(S706)。   Next, for the text data reconstructed by adding the omitted word, extract the clauses in the sentence, extract the branch relationship between the phrases, calculate the tree structure of the sentence based on each extracted branch, The colony parameter setting unit 301 sets colony parameters based on the particle coefficient calculated in step S605 and the tree structure calculated by the sentence analysis unit 102 (S706).

そして、ユーザー情報データベース50に蓄積されているワールドマップを読み出して参照し、ユーザーポテンシャル場を生成する(S707)。具体的には、各キーワードを動的オブジェクトとして、群体パラメーターに従って仮想空間上に配置するとともに、ワールドマップ上に配置された動的オブジェクト全体の重心位置を、ユーザーの自我の中心として設定する。この重心位置は、仮想空間上に存在するすべての動的オブジェクトの座標と、質量(出現頻度や優先度から換算)とから重量を加味した座標位置として求め、この重心位置に、ユーザー自身(「わたし」、「ぼく」などの一人称)を配置する。なお、このユーザー自身を意味する一人称は、単一の単語ではなく、「わたし」、「ぼく」などの一般的な一人称のほか、本人の氏名やニックネームなどの同義語をマージしてグルーピングした単語群とする。   Then, the world map stored in the user information database 50 is read and referenced to generate a user potential field (S707). Specifically, each keyword is placed as a dynamic object in the virtual space according to the group parameter, and the center of gravity of the entire dynamic object placed on the world map is set as the center of the user's ego. This centroid position is obtained as a coordinate position that takes into account the weight from the coordinates of all the dynamic objects existing in the virtual space and the mass (converted from the appearance frequency and priority). 1st person such as “I” and “I”. The first person meaning this user is not a single word, but a general first person such as "I" or "I", and a word that is grouped by merging synonyms such as the person's name or nickname. A group.

そして、この自我の中心を示す座標原点が設定されたワールドマップ上において、変位処理を行うための群体シミュレーションを実行し、動的クラスタリングを行う。その際、ステップS301で収集されたエゴグラムパラメーター及び群体パラメーターに基づいて、ステップS607で生成されたワールドマップにおけるワード間距離を話題毎の補正し、各キーワードに対するユーザーの反応パターンを示すユーザーポテンシャル場を算出する。ユーザー自身(「わたし」、「ぼく」などの一人称を意味する単語群)を重心位置に配置したユーザーポテンシャル場を参照することで、ユーザー自身と各キーワードとの相対的なワード間距離を算出することができる。   Then, on the world map in which the coordinate origin indicating the center of the ego is set, a cluster simulation for performing displacement processing is executed, and dynamic clustering is performed. At that time, based on the egogram parameter and the group parameter collected in step S301, the distance between words in the world map generated in step S607 is corrected for each topic, and a user potential field indicating a user's reaction pattern for each keyword is obtained. calculate. By referring to the user potential field in which the user himself (words that mean the first person such as “I” and “I”) is placed at the center of gravity, the relative inter-word distance between the user and each keyword is calculated. be able to.

詳述すると、各キーワードに設定された群体パラメーターに応じた挙動を取る動的オブジェクトとして仮想空間上にそれぞれ配置し、各動的オブジェクトについて、各動的オブジェクトを中心とする所定範囲に存在する他の動的オブジェクトに対する位置関係に基づき、上式に則った単語間の引力及び反発力を求め、各言葉(キーワード)がユーザー自身に及ぼす影響力を推定することができる。   More specifically, each dynamic object is arranged in a virtual space as a dynamic object that takes a behavior according to the group parameter set in each keyword, and each dynamic object exists in a predetermined range centered on each dynamic object. Based on the positional relationship with respect to the dynamic object, the attractive force and the repulsive force between the words according to the above equation can be obtained, and the influence of each word (keyword) on the user can be estimated.

これにより、各キーワードは動的オブジェクトとして、ユーザーの性格に応じて、且つ、話題毎に関係性に応じて、その大きさや位置、影響力が設定された群体として配置され、ユーザーポテンシャル場が形成される。このとき、関係性の弱い単語同士や、ユーザーの性格上受け入れにくい単語は離間していく。また、ユーザーの性格や話題、単語との相性によっては、ユーザーが嫌いな単語が近づいてくることもあり、ユーザー自身にとってストレスフルな状態がユーザーポテンシャル場に自動的に形成される場合もある。このシミュレーションは、話題毎に行い、このシミュレーションの結果として再配置された、各単語の仮想空間上の座標を、話題毎のユーザーポテンシャル場として生成し、又は保存しておく(S707)。   As a result, each keyword is arranged as a dynamic object, a group with its size, position, and influence set according to the user's personality and according to the relationship for each topic, forming a user potential field Is done. At this time, words that are weakly related or words that are difficult to accept due to the personality of the user are separated. Also, depending on the user's personality, topic, and compatibility with words, words that the user dislikes may approach, and a stressful state for the user himself may be automatically formed in the user potential field. This simulation is performed for each topic, and the coordinates in the virtual space of each word rearranged as a result of this simulation are generated or stored as a user potential field for each topic (S707).

その後、回答生成部107は、ステップS707で生成したユーザーポテンシャル場上におけるワード間の距離を算出し、その算出結果をワード間距離として単語間の関係性の強弱として反映させつつ、情報ソース取得部101を通じて検索を行い、ユーザーに対する回答を生成する(S708)。   Thereafter, the answer generation unit 107 calculates the distance between words on the user potential field generated in step S707, and reflects the calculation result as the strength of the relationship between the words as the distance between words, while the information source acquisition unit A search is performed through 101 to generate an answer to the user (S708).

(作用・効果)
本実施形態によれば、ユーザーの性格が反映されたユーザー固有のユーザーポテンシャル場上のワード間距離を用いることにより、話し手の感情が大きく影響する日常会話において、ユーザーが対話の中で用いている言葉や話題に基づく関連性の高い単語をキーワードとして、そのユーザーの性格に合わせて、ときには心地よい或いは有益な情報を選定し、ときにはストレスフルな情報や表現となるように加工することで、個々のユーザーの性格に合わせて興味を惹いたり、対話を継続できるような検索結果や回答表現を提供することが可能となる。
(Action / Effect)
According to the present embodiment, by using the distance between words on the user-specific user potential field that reflects the user's personality, the user uses it in the conversation in daily conversations that greatly affect the speaker's emotions. By selecting words that are highly relevant based on words or topics as keywords and selecting pleasant or useful information according to the user's personality, and sometimes processing them into stressful information and expressions, It is possible to provide search results and answer expressions that can attract interest and continue dialogue according to the user's personality.

このとき、ユーザーの受け止め方や、ユーザーに与える心的な影響度を、話題毎に考慮するため、話題が順次移っていくような日常会話であっても、自然な形でユーザーの趣味嗜好に合わせたコミュニケーションを取ることができる。   At this time, in order to take into account the user's perception and the mental impact on the user for each topic, even in daily conversations where the topic moves sequentially, the user's hobbies and tastes are natural. You can communicate tailored.

特に、ユーザーが利用した情報データについて、群体シミュレーション、及びエゴグラムパラメーターによる補正処理を実行することにより、ユーザーの性格を反映させたユーザーポテンシャル場を生成できる。詳述すると、本来、ユーザー自身にとっての自己中心的な理想は、図6(a)に示すように、自分にとって心地よいものが近くに存在し、心地悪いものが遠くに存在している。ところが、現実は、同図(b)に示すように、自分の意思とは関係なく、気に入っていた物がなくなったり、嫌いな人が接近してきたり、好きな人が遠距離に転勤したり等、外からの影響で周囲の環境が変わってしまい、自己中心的な理想が崩され、ポテンシャル場がゆがめられたストレスフルな状況が形成される。   In particular, a user potential field that reflects the user's personality can be generated by executing a group simulation and correction processing using egogram parameters for information data used by the user. More specifically, as shown in FIG. 6A, the self-centered ideal for the user himself / herself is close to what is comfortable to him / her and distant to what is uncomfortable. However, in reality, as shown in the figure (b), regardless of your intention, things you like are gone, people you dislike are approaching, people you like are transferred to a long distance, etc. The surrounding environment changes due to the influence from the outside, the self-centered ideal is destroyed, and a stressful situation in which the potential field is distorted is formed.

本実施形態では、このようなリアルなユーザー固有のポテンシャル場を動的に形成することにより、このユーザーポテンシャル場を利用することで、話し相手の性格を考慮したうえで、ユーザーの興味を惹いたり、対話を継続させられるような情報を選択し、ユーザーを面白がらせるような加工して回答できる。   In this embodiment, by dynamically forming such a real user-specific potential field, by using this user potential field, in consideration of the character of the other party, You can select information that allows you to continue the dialogue, and process and answer the user's interest.

またこのとき、本実施形態では、情報ソースやユーザーからの問いかけについて、推定単語を省略単語の検出位置に推定単語を検出し、省略された主語や目的語などを推定することから、暗に話題の中心となっている人物や団体、場所をキーワードとして検索すべき情報を選定し、加工することができ、より正確にユーザーが所望する検索結果や回答表現を提供することが可能となる。   At this time, in this embodiment, for questions from information sources and users, the estimated word is detected at the detection position of the abbreviated word, and the abbreviated subject or object is estimated. It is possible to select and process information to be searched using the person, group, or place that is the center of the keyword as a keyword, and it is possible to provide the search result and answer expression desired by the user more accurately.

さらに、本実施形態では、ワード間距離を設定する対象となっているキーワードの助詞係数に基づいて前記群体パラメーターを設定することから、単語間における関連性の強度を、文章中で直接使われている「の」、「は」、「が」「と」などの助詞から求めることができ、日本人の感覚により適合した手法で、群体パラメーターを設定することができる。   Furthermore, in the present embodiment, since the group parameter is set based on the particle coefficient of the keyword for which the distance between words is set, the strength of relevance between words can be used directly in the sentence. It can be obtained from particles such as “no”, “ha”, “ga”, “to”, etc., and the colony parameters can be set by a method that is more adapted to the Japanese sense.

本実施形態では、情報ソース取得部101が取得した情報ソースに含まれるテキストデータを、情報ソースのデータ構造に基づいて記事単位で切り出し、切り出された各記事単位に含まれる固有名詞を相互に関連づける記事単位辞書を生成することから、本名とニックネームといったように、本来同一の人物や団体、場所などを示す異なる固有名詞を、同一グループとして扱うことができ、単純に音声やテキストを解析して得られるキーワード検索では別個のものとして扱われてしまう情報を適正に包含することができ、より正確にユーザーが所望する検索結果や回答表現を提供することが可能となる。このとき、Web上のニュースなどの記事単位でグルーピングを行うため、同じ言葉であっても記事、すなわち話題毎に複数のグループに分類することができ、話題を特定することによりその話題に関連性の強い単語同士を同一の人や団体として扱うことができ、無関係な単語が検索キーワードに含まれるのを回避することができる。   In the present embodiment, the text data included in the information source acquired by the information source acquisition unit 101 is cut out in units of articles based on the data structure of the information source, and the proper nouns included in the extracted article units are associated with each other. Since an article unit dictionary is generated, different proper nouns that originally indicate the same person, group, place, etc., such as real names and nicknames, can be handled as the same group, and can be obtained by simply analyzing speech and text. It is possible to properly include information that is handled as a separate item in a keyword search, and to provide search results and answer expressions desired by the user more accurately. At this time, since grouping is performed in units of articles such as news on the Web, even the same word can be classified into a plurality of groups for each article, that is, topic, and relevance to the topic by specifying the topic Strong words can be treated as the same person or group, and irrelevant words can be prevented from being included in the search keyword.

さらに、本実施形態では、群体パラメーター設定部301が、木構造に基づいて群体パラメーターを設定することから、文章構造が分岐を有する複文など文章中で直接使われている文章表現から、単語間における関連性の強度を求めることができ、その文章の作者の意図を反映させた手法で、群体パラメーターを設定することができる。   Furthermore, in this embodiment, since the group parameter setting unit 301 sets the group parameter based on the tree structure, the sentence structure is directly used in the sentence such as a compound sentence having a branching sentence structure. The strength of relevance can be obtained, and the group parameters can be set by a method that reflects the intention of the author of the sentence.

以上述べたように、本実施形態によれば、リアルなユーザー固有のポテンシャル場を動的に形成し、このユーザーポテンシャル場を利用することで、話し相手の性格を考慮したうえで、ユーザーの興味を惹いたり、対話を継続させられるような情報を選択し、ユーザーを面白がらせるような加工して回答できる思考方法を模倣したコミュニケーションを実現できる。   As described above, according to the present embodiment, a real user-specific potential field is dynamically formed, and by using this user potential field, the user's interest is considered in consideration of the character of the other party. Communication that imitates the thinking method that can select information that can be attracted or continue the dialogue, and that can be processed and answered to make the user interesting.

[第2実施形態]
以下に添付図面を参照して、本発明に係る対話インターフェースの第2実施形態を詳細に説明する。本実施形態では、上述した第1実施形態に係る対話インターフェースと、これと連動する関連対話インターフェースとを組み合わせて対話インターフェースシステムとし、核対話インターフェース間で演算結果や収集データを相互に利用し、解析・学習等を向上させることを要旨とする。
[Second Embodiment]
Hereinafter, a second embodiment of an interactive interface according to the present invention will be described in detail with reference to the accompanying drawings. In this embodiment, the dialog interface according to the first embodiment described above and the related dialog interface linked thereto are combined to form a dialog interface system, and calculation results and collected data are mutually used between the nuclear dialog interfaces for analysis.・ The main point is to improve learning.

(対話インターフェースエンジンの概要)
本実施形態に係る対話インターフェースシステムは、人間の思考方法を模倣する仕組みとしての対話インターフェースエンジンを備えている。すなわち、対話インターフェースエンジンは、従来の人工知能の機能に加えて、より人間に近い受け答えをするためのアルゴリズムを有し、入力される各種情報に対して、利用ユーザーの友人のような対応すべく、そのユーザーに関する情報や心理状態をも加味して応答するように、そのユーザー用に特化され、且つ、そのユーザーとの相性を考慮した擬人格によって、多種多様な回答(リアクション)を表現する。
(Outline of Dialogue Interface Engine)
The dialog interface system according to the present embodiment includes a dialog interface engine as a mechanism for imitating a human thinking method. In other words, in addition to the conventional artificial intelligence function, the dialogue interface engine has an algorithm for answering more like a human being, and to respond to various types of input information like a user's friend. In order to respond by taking into account information and psychological state of the user, a variety of responses (reactions) are expressed by an anthropomorphic personality that is specialized for the user and considers compatibility with the user. .

具体的に対話インターフェースエンジンは、ユーザーからの質問などがあった場合、その質問に係る文章についてユーザーが抱いている感情を計算し、質問の意図を推定する。例えば、ユーザーからの質問が、何についての話題なのか、どのような返答(回答なのか、相づちなのか)を求めているのか、回答の内容(いずれの情報源からの回答なのか、概要なのか、詳細なのか、ピンポイントなのか)、ユーザーの今の気分はどうなのかを推定する。そして、対話インターフェースエンジンは、その推定した質問の意図に従って、ユーザーの欲しがっている情報についてどのような回答をすべきかを決定することができる。例えば、どのような回答をすればユーザーが喜ぶか、検索して見つかった情報が残念なものしかなければ、回答の仕方も残念な表現とするなど、対話インターフェースエンジンがユーザーの好みや気分に合致した情報の提示の仕方を決定する。   Specifically, when there is a question or the like from the user, the dialog interface engine calculates an emotion held by the user with respect to the sentence related to the question, and estimates the intention of the question. For example, what the user's question is about what the topic is, what kind of response (whether it is an answer or a response), the content of the answer (which information source is the answer from Or whether it ’s detailed or pinpointed), and how the user ’s current mood is. Then, the dialog interface engine can determine what answer should be given to the information that the user wants according to the intent of the estimated question. For example, what kind of answer would be pleased by the user, if the information found by searching is unfortunate, and the way of answering is also unfortunate, the dialog interface engine matches the user's preference and mood Decide how to present information.

この対話インターフェースエンジンは、特定のユーザーとの対話を積み重ねるいわゆるインタラクションを継続的に行うことによって、対話インターフェースエンジンの擬人格が変化される学習機能を有する。この学習機能は、ユーザー間のインタラクションによるユーザー自身の変化に対応するように、対話インターフェースエンジン間もインタラクションできるようになっており、これにより、対話中の話題に登場する他のユーザー(或いは他の対話インターフェースエンジン)との関係性に応じて回答も変化され、十人十色の対話インターフェースエンジンが出来上がっていくように設計されている。   This dialog interface engine has a learning function in which the pseudo-personality of the dialog interface engine is changed by continuously performing so-called interaction that accumulates dialogs with a specific user. This learning function is designed to allow interaction between dialog interface engines in order to respond to changes in the user himself / herself due to interaction between users. The answer is also changed according to the relationship with the dialog interface engine), and a dialog interface engine of ten people and ten colors is completed.

(コア機能三要素)
上記対話インターフェースエンジンは、図7に示すように、人間の心理状態を計算するシステムとして、大きく分けて3つの要素からなるコア機能を備えている。具体的に、このコア機能は、文章の感情を推定する「PN値」算出機能と、言葉と言葉の関係性を示す「ワード間距離」算出機能、ユーザーの性格による各話題に対する反応の違いであるエゴグラムを用いる「ポテンシャル場」算出機能とを含んでいる。
(Three elements of core functions)
As shown in FIG. 7, the dialog interface engine has a core function that is roughly divided into three elements as a system for calculating a human psychological state. Specifically, this core function consists of a “PN value” calculation function that estimates the emotion of a sentence, a “word distance” calculation function that indicates the relationship between words, and a difference in reaction to each topic depending on the user's personality. It includes a “potential field” calculation function that uses an egogram.

「PN値」算出機能は、文章中に上がっている特定の話題に対するポジティブさ、ネガティブさの指標であるPN値を算出する。例えば、同一の話題であっても、ユーザー(若しくはその文章の書き手)の好きな人にとって嬉しいことが起こるとユーザー自身も嬉しいと感じ、ユーザーの嫌いな人に悲しいことが起こるとユーザー自身は嬉しいと感じる、というように、話題に上がっている主体(人、団体、物等)と、事象(事件等)との掛け合わせにより、ユーザーの受け捉え方がポジティブとなるか、ネガティブとなるかが変化することから、「PN値」算出機能は、この変化の度合いをPN値として算出する。   The “PN value” calculation function calculates a PN value that is an index of positiveness and negativeness for a specific topic that is raised in a sentence. For example, even if it is the same topic, the user feels happy when the user (or the writer) likes it and the user feels happy, and the user feels happy when the user dislikes Whether the user's perception is positive or negative by crossing the subject (person, group, thing, etc.) that is on the topic and the event (incident etc.) Since it changes, the “PN value” calculation function calculates the degree of change as the PN value.

「ワード間距離」算出機能は、文章中に上がっている特定の主体(人、団体、物等)同士の繋がりや類似性など、実社会における関係性の程度をワード間距離として算出する。例えば、ユーザー(若しくは文章の書き手)の好きな人の近くにいる人(団体、物等を含む)の近くにいる人(団体、物等を含む)に対してはユーザー自身も好感を抱き、ユーザーの嫌いな人の近くにいる人に対してはユーザー自身も嫌いになることから、「ワード間距離」算出機能は、このような関係性をワード間距離として算出する。   The “word-to-word distance” calculation function calculates the degree of relationship in the real world as the distance between words, such as the connection and similarity between specific subjects (people, groups, things, etc.) raised in the sentence. For example, the user himself / herself has a good feeling toward people (including groups and objects) near people (including groups and objects) who are close to the user (or the writer). Since the user himself / herself dislikes the person who is close to the user's dislike, the “word distance” calculation function calculates such a relationship as the word distance.

「ポテンシャル場」算出機能は、ユーザーの性格に基づく反応の仕方の相違を示すポテンシャル場を算出する。例えば、ユーザーは人間であり一番大切なのは自分であるとする価値観を持ち、ユーザーの各話題に対する価値観と、その人の性格とによって、厳しく反応したり、寛大に反応したりすることから、「ポテンシャル場」算出機能は、そのユーザーの性格による各話題に対する反応パターンを、ポテンシャル場として算出する。   The “potential field” calculation function calculates a potential field that indicates a difference in the way of reaction based on the user's personality. For example, users have the values that they are human beings and the most important thing is that they react harshly or generously depending on the user's values for each topic and their personality. The “potential field” calculation function calculates a reaction pattern for each topic according to the personality of the user as a potential field.

そして、これらのコア機能三要素は、相互に算出結果を利用し合うことが可能であり、三要素が個々に学習して得られたパラメーターと、他の要素から得られたパラメーターとを用いて、さらにユーザーに適した対話インターフェースエンジンとなる。   These three core function elements can mutually use the calculation results, and the parameters obtained by learning the three elements individually and the parameters obtained from other elements are used. Furthermore, it becomes a dialog interface engine suitable for the user.

例えば「PN値」算出機能は、ユーザーが発した言葉(質問)や生成した文言(文章)の感情を計算し、学習結果として蓄積し、その学習結果を、シソーラス辞書として「ワード間距離」算出機能に渡すとともに、ユーザーにとっての文章のPN値として、「ポテンシャル場」算出機能に渡す。その一方で、「PN値」算出機能は、ワード間距離算出機能からワード間距離を受け取るとともに、「ポテンシャル場」算出機能からユーザーの固有名詞に対するPN値を受け取る。   For example, the “PN value” calculation function calculates the emotion of words (questions) generated by the user and the generated words (sentences), accumulates them as learning results, and calculates the distance between words as a thesaurus dictionary. In addition to passing to the function, it passes to the “potential field” calculation function as the PN value of the sentence for the user. On the other hand, the “PN value” calculation function receives the interword distance from the interword distance calculation function and also receives the PN value for the user's proper noun from the “potential field” calculation function.

「ワード間距離」算出機能は、一般的な情報ソースや、ユーザーが発した言葉(質問)や生成した文言(文章)の感情を計算して学習結果として蓄積し、その学習結果をワード間距離として「PN値」算出機能に渡すとともに、一般的なワード間距離、頻度、助詞係数として、「ポテンシャル場」算出機能に渡す。その一方で、「ワード間距離」算出機能は、「PN値」算出機能から受け取ったシソーラス辞書、及び「ポテンシャル場」算出機能から受け取ったユーザーにとってのワード間距離を一般的なワード間距離の計算に用いる。   The “word distance” calculation function calculates emotions of general information sources, user-generated words (questions) and generated words (sentences) and accumulates them as learning results. To the “PN value” calculation function, and to the “potential field” calculation function as a general inter-word distance, frequency, and particle particle coefficient. On the other hand, the “word distance” calculation function calculates the distance between words for the thesaurus received from the “PN value” calculation function and the user received from the “potential field” calculation function. Used for.

「ポテンシャル場」算出機能は、ユーザーの性格の違いによるポテンシャル場を計算して学習結果として蓄積し、その学習結果をユーザーの固有名詞PN値として「PN値」算出機能に渡すとともに、ユーザーにとってのワード間距離として、「ワード間距離」算出機能に渡す。その一方で、「ポテンシャル場」算出機能は、「PN値」算出機能から受け取ったユーザーにとっての文章のPN値、及び「ワード間距離」算出機能から受け取った一般的なワード間距離をポテンシャル場の計算に用いる。   The “potential field” calculation function calculates the potential field according to the difference in the user's personality, accumulates it as a learning result, passes the learning result to the “PN value” calculation function as the user's proper noun PN value, and The distance between words is passed to the “word distance” calculation function. On the other hand, the “potential field” calculation function calculates the PN value of the sentence for the user received from the “PN value” calculation function and the general inter-word distance received from the “word distance” calculation function. Used for calculation.

(対話インターフェースエンジンの動作例)
このような構成の対話インターフェースエンジンは、例えば以下のように動作する。
(1)ユーザーが過去に同じ話題に触れていた場合
例えば、ユーザーが過去にも同じ話題について対話した履歴がある場合であって、「今日の試合どうだった?」と、「何の試合か」という文言を省略して対話インターフェースエンジンに対し質問をしたときには、先ず、情報ソースにアクセスしてその日にあった試合のデータを検索し、検出された試合に基づいて話題を推定する。ここでは、本日の試合がテニスのみ3試合あったことから、話題として「テニス」をピックアップしたものとする。
(Operation example of dialog interface engine)
The dialog interface engine having such a configuration operates as follows, for example.
(1) When the user has touched the same topic in the past For example, when the user has a history of conversations on the same topic in the past, “How was the game today?” And “What match? When the question is sent to the dialog interface engine without the word “”, first, the information source is accessed, the data of the game that existed on that day is searched, and the topic is estimated based on the detected game. Here, since there were only three games of today's game, it is assumed that “tennis” was picked up as a topic.

そして、先ず、ワード間距離算出機能が、テニスという文言から「選手N、勝つ」という文言を、一般的な関連性、及びユーザーにとって近しいワード間距離を有するキーワードとして「PN値」算出機能に渡す。このキーワードを受け取った 「PN値」算出機能は、これらのキーワードについて、固有名詞場又は事象場として、各場に対するユーザーのポジティブ又はネガティブの度合いを示すPN値を設定する。ここでは、ユーザーは、「選手N」に対してはポジティブな感情を抱いていることから、そのPN値は(+)であり、「勝つ」という文言に対する一般的なポジティブな意味合いから、そのPN値も(+)である。「ポテンシャル場」算出機能は、この受け取ったキーワードに基づいてユーザー感情表を「PN値」算出機能に受け渡すとともに、このユーザー感情表に基づく、「選手N、勝つ」の2つのキーワードに対するユーザーにとってのワード間距離を算出して、ワード間距離算出機能に受け渡す。   First, the interword distance calculation function passes the word “player N, win” from the word “tennis” to the “PN value” calculation function as a keyword having a general relevance and an interword distance close to the user. . The “PN value” calculation function that receives this keyword sets a PN value indicating the degree of positive or negative of the user for each field as a proper noun field or event field for these keywords. Here, since the user has a positive feeling for “player N”, the PN value is (+), and from the general positive meaning for the word “win”, the PN The value is also (+). The “potential field” calculation function passes the user emotion table to the “PN value” calculation function based on the received keyword, and for the user for the two keywords “player N, win” based on the user emotion table. The distance between words is calculated and transferred to the distance calculation function between words.

そして、「PN値」算出機能は、「選手N、勝つ」という2つのキーワードと、これらキーワードを固有名詞場又は事象場として各場に対するPN値に基づく「ユーザーPN値」を算出し、回答生成部107に出力する。ここでは、「選手N、勝つ」の2つのキーワードがともにポジティブな値(+)であることから、これらを掛け合わせて得られる全体的なユーザーPN値も(+)となる。回答生成部107では、これら2つのキーワードを用いたポジティブな表現の「選手N勝ったよ」という回答をユーザーに対して生成する。   Then, the “PN value” calculation function calculates the “user PN value” based on the two keywords “player N, win” and the PN value for each field using these keywords as proper noun fields or event fields. Output to the unit 107. Here, since the two keywords “player N, win” are both positive values (+), the overall user PN value obtained by multiplying them is also (+). The answer generation unit 107 generates a positive expression “player N won” for the user using these two keywords.

(2)ユーザーが新たな話題に触れた場合
例えば、ユーザーが過去に触れたことのない新しい話題について対話をし始めた場合であって、「囲碁、面白い?」と、対話インターフェースエンジンに対し抽象的な質問をしたときには、先ず、情報ソースにアクセスして「囲碁、面白い」をキーワードとしてデータを検索し、検出された囲碁に関する話題を絞り込む。ここでは、過去に触れた話題ではないので、ユーザー自身のワールドマップからは、なにもピックアップされなかったものとする。
(2) When a user touches a new topic For example, when a user starts a conversation on a new topic that has not been touched in the past, “Go, interesting?” Is abstract to the dialog interface engine When a specific question is asked, first, an information source is accessed, data is searched using “go, interesting” as a keyword, and topics related to the detected Go are narrowed down. Here, since it is not a topic touched in the past, it is assumed that nothing was picked up from the user's own world map.

この場合には、先ず、ワード間距離算出機能が、情報ソースに対して「囲碁」に関する問合せを行い、これに対する検索結果として「囲碁」に関する文章を取得し、その文章に記載された一般的な「囲碁」に関するキーワードを抽出するとともに、それらのワード間距離を算出する。その算出された一般的な囲碁に関連するキーワードを、それらのワード間距離とともに「PN値」算出機能に渡す。このキーワードを受け取った 「PN値」算出機能は、これらのキーワードについて、固有名詞場又は事象場として、各場に対するユーザーのポジティブ又はネガティブの度合いを示すPN値を設定する。ここでは、ユーザーは、「囲碁」に対してはポジティブな感情を抱いていることから、そのPN値は(+)であり、「面白い」という文言に対する一般的なポジティブな意味合いから、そのPN値も(+)である。「ポテンシャル場」算出機能は、この受け取ったキーワードに基づいてユーザー感情表を「PN値」算出機能に受け渡すとともに、このユーザー感情表に基づく、「囲碁、面白い」の2つのキーワードに対するユーザーにとってのワード間距離(ワールドマップ)を算出して、ワード間距離算出機能に受け渡す。   In this case, first, the inter-word distance calculation function makes an inquiry about “go” to the information source, obtains a sentence related to “go” as a search result for the query, and reads the general text described in the sentence. A keyword related to “Go” is extracted and the distance between words is calculated. The keyword related to the calculated general Go is passed to the “PN value” calculation function together with the distance between the words. Upon receiving this keyword, the “PN value” calculation function sets a PN value indicating the degree of positive or negative of the user for each field as a proper noun field or event field for these keywords. Here, because the user has a positive feeling for “Go”, the PN value is (+), and from the general positive meaning for the word “interesting”, the PN value is Is also (+). The “potential field” calculation function passes the user sentiment table to the “PN value” calculation function based on the received keyword, and for the user to the two keywords “Go, interesting” based on the user sentiment table. The distance between words (world map) is calculated and transferred to the distance calculation function between words.

そして、「PN値」算出機能は、「囲碁、面白い」という2つのキーワードと、これらキーワードを固有名詞場又は事象場として各場に対するPN値に基づく「ユーザーPN値」を算出し、回答生成部107に出力する。ここでは、「囲碁、面白い」の2つのキーワードがともにポジティブな値(+)であることから、これらを掛け合わせて得られる全体的なユーザーPN値も(+)となる。回答生成部107では、これら2つのキーワードを用いたポジティブな表現の「選手N勝ったよ」という回答をユーザーに対して生成する。   Then, the “PN value” calculation function calculates “user PN value” based on the two keywords “go, interesting” and the PN value for each field using these keywords as proper noun fields or event fields, and an answer generation unit It outputs to 107. Here, since the two keywords “go, interesting” are both positive values (+), the overall user PN value obtained by multiplying them is also (+). The answer generation unit 107 generates a positive expression “player N won” for the user using these two keywords.

(ハードウェアの構成)
以上説明した対話インターフェースエンジンの具体的な構成について以下に説明する。本実施形態に係るシステムも情報処理端末で実現することができる。この情報処理端末の構成としては、上述した第1実施形態と同様である。すなわち、本実施形態に係る情報処理端末1は、図1に示すように、演算処理を行うCPU11と、データを一時的に記憶するメモリ12と、通信ネットワーク2を介して外部との通信を行う通信I/F13と、データを格納しておく記憶装置14とを有している。なお、本実施形態では、これらのCPU11、メモリ12及び通信I/F13、記憶装置14,出力I/F15と、入力I/F16等は、CPUバス10を介して接続されており、相互にデータの受渡しが可能となっている。
(Hardware configuration)
A specific configuration of the dialog interface engine described above will be described below. The system according to this embodiment can also be realized by an information processing terminal. The configuration of this information processing terminal is the same as that of the first embodiment described above. That is, the information processing terminal 1 according to the present embodiment communicates with the outside via the CPU 11 that performs arithmetic processing, the memory 12 that temporarily stores data, and the communication network 2 as illustrated in FIG. It has a communication I / F 13 and a storage device 14 for storing data. In the present embodiment, the CPU 11, the memory 12, the communication I / F 13, the storage device 14, the output I / F 15, the input I / F 16, and the like are connected via the CPU bus 10 and are mutually connected. Can be delivered.

(対話インターフェースシステムの処理動作)
そして、対話インターフェースシステムは、上述した対話インターフェースエンジンのコア機能及び初期化処理機能が協働していくつかの処理段階を実行する。図8は、本実施形態に係る対話インターフェースシステムの動作処理を示す説明図である。具体的に、この処理段階としては、情報データ取得phase1と、入力データ分析phase2と、ユーザー意図推定phase3と、回答生成phase4と、表現生成phase5と、表現出力phase6とが含まれ、各処理段階で算出されたパラメーターや辞書、その他のデータはデータベース群との間で各機能間で共有される。
(Processing of interactive interface system)
In the dialog interface system, the core function and the initialization processing function of the dialog interface engine described above cooperate to execute several processing steps. FIG. 8 is an explanatory diagram showing operation processing of the dialog interface system according to the present embodiment. Specifically, this processing stage includes information data acquisition phase 1, input data analysis phase 2, user intention estimation phase 3, answer generation phase 4, expression generation phase 5, and expression output phase 6. The calculated parameters, dictionaries, and other data are shared among the functions with the database group.

情報データ取得phase1では、ユーザー自身が入力した文章を取得する処理であり、テキスト入力機能と、STT機能と、SPR機能と、3Dセンサー機能、手付けReward機能と、現在時刻及び現在位置を取得する時計やGPS等から情報データを取得する。   The information data acquisition phase 1 is a process for acquiring a sentence input by the user himself, and includes a text input function, an STT function, an SPR function, a 3D sensor function, a manual reward function, and a clock for acquiring the current time and current position. Get information data from GPS or GPS.

入力データ分析phase2は、ユーザーによって入力された文章や、対話、ユーザーが読んだWebページなどを入力データとして、それに含まれる文章を解析する処理であり、具体的には、クレンジング機能と、キーワード抽出機能と、単語抽出機能、品詞解析機能と、主語推定機能、フィラー機能、一般的なPN値算出機能が用いられる。   Input data analysis phase 2 is a process of analyzing sentences contained in input text, dialogs, and web pages read by the user as input data. Specifically, the cleansing function and keyword extraction A function, a word extraction function, a part of speech analysis function, a subject estimation function, a filler function, and a general PN value calculation function are used.

ユーザー意図推定phase3は、ユーザーの質問の意図を推定する処理であり、具体的には、意図推定機能と、上述した対話インターフェースエンジンのコア機能であるPN値算出機能、ワード間距離算出機能、ポテンシャル場算出機能を備えている。   The user intention estimation phase 3 is a process for estimating the intention of the user's question. Specifically, the intention estimation function, the PN value calculation function that is the core function of the dialog interface engine described above, the interword distance calculation function, the potential It has a field calculation function.

回答生成phase4は、対話インターフェースエンジンが抽出した回答に関するパラメーターに基づいて、回答を生成する処理であり、具体的には、回答候補抽出機能と、回答選択機能と、文言生成機能とが用いられる。   The answer generation phase 4 is a process for generating an answer based on the parameters relating to the answer extracted by the dialog interface engine. Specifically, an answer candidate extraction function, an answer selection function, and a word generation function are used.

表現生成phase5は、対話インターフェースエンジンにより生成された回答を、ユーザーに対して提示する際の、表現データを生成する処理であり、アバターエゴグラム機能と、アバター感情選択機能と、話題遷移機能と、感情付きTTS入力機能とが用いられる。   The expression generation phase 5 is a process for generating expression data when the answer generated by the dialog interface engine is presented to the user. The avatar egogram function, the avatar emotion selection function, the topic transition function, the emotion A TTS input function is used.

表現出力phase6は上記表現生成phase5で生成した表現データを出力する処理であり、テキスト出力機能、TTS機能、表情機能、リップシンク機能、動作制御機能とが用いられる。   The expression output phase 6 is a process for outputting the expression data generated by the expression generation phase 5, and uses a text output function, a TTS function, an expression function, a lip sync function, and an operation control function.

また、対話インターフェースエンジンは、ブラックボードデータベースと、ユーザー情報と、一般情報とを含むデータベース群を備えている。ブラックボードデータベースは、ユーザー、アバター、やり取り(アクティビティ)を蓄積しておく。 ユーザー情報としては、ユーザー固有の情報として、ユーザー固有のポテンシャル場などが含まれる。一般情報としては、いわゆる情報ソースが含まれ、この情報ソースとしては、Webなどで取得される情報に関する一般的な情報(PN値やシソーラス辞書)や、ユーザー自身が作成したり、取得したりした個別情報が含まれる。このデータベース群は、具体的には、情報ソースデータベース40a、辞書データベース40b、ユーザー情報データベース50で構成され、各情報は相互に関連づけられている。   The dialog interface engine also includes a database group including a blackboard database, user information, and general information. The blackboard database stores users, avatars, and exchanges (activities). The user information includes user-specific potential fields as user-specific information. General information includes so-called information sources. These information sources include general information (PN values and thesaurus dictionary) related to information acquired on the Web, etc., or created or acquired by the user himself / herself. Individual information is included. Specifically, this database group includes an information source database 40a, a dictionary database 40b, and a user information database 50, and each piece of information is associated with each other.

(対話インターフェースシステムの構成)
次いで、以上説明した対話インターフェースエンジンを有する対話インターフェースシステムの具体的な構成について説明する。図9は、本実施形態に係る対話インターフェースエンジンの概略構成を示すブロック図であり、図10及び図11は、対話インターフェースシステムの全体構成及び初期化処理部の構成を示すブロック図である。図9に示すように、対話インターフェースエンジンには、初期化処理部100と、コア機能実行部20とが含まれる。
(Configuration of interactive interface system)
Next, a specific configuration of the dialog interface system having the dialog interface engine described above will be described. FIG. 9 is a block diagram showing a schematic configuration of the dialog interface engine according to the present embodiment, and FIGS. 10 and 11 are block diagrams showing the overall configuration of the dialog interface system and the configuration of the initialization processing unit. As shown in FIG. 9, the dialog interface engine includes an initialization processing unit 100 and a core function execution unit 20.

初期化処理部100は、情報ソースを取得し、後段のコア機能実行部20における処理で必要なデータ加工を実行するモジュールであり、加工された情報データはコア機能実行部20に出力される。コア機能実行部20は、上述したコア機能を用いて実行するモジュールであり、PN値算出機能200と、ワード間距離算出機能300と、ポテンシャル場算出機能400とを有する。初期化処理部100で加工された情報データは、PN値算出機能200及びワード間距離算出機能300に入力される。PN値算出機能200では、PN値表(環状表)が生成され、データベース群に蓄積されるとともに、ポテンシャル場算出機能400に受け渡される。ワード間距離算出機能300では、話題ワールドマップが生成され、データベース群に蓄積されるとともに、ポテンシャル場算出機能400に受け渡される。ポテンシャル場算出機能400では、PN値表(環状表)及び話題ワールドマップに基づいて、ユーザーポテンシャル場が生成され、データベース群に蓄積される。なお、これらのモジュールでは、情報ソースデータベース40a、辞書データベース40b及びユーザー情報データベース50を介して連携され、シソーラス辞書やPN値、ワード間距離などの各種パラメーターが共有される。   The initialization processing unit 100 is a module that acquires an information source and executes data processing necessary for processing in the subsequent core function execution unit 20, and the processed information data is output to the core function execution unit 20. The core function execution unit 20 is a module that is executed using the core functions described above, and includes a PN value calculation function 200, an interword distance calculation function 300, and a potential field calculation function 400. Information data processed by the initialization processing unit 100 is input to the PN value calculation function 200 and the interword distance calculation function 300. In the PN value calculation function 200, a PN value table (annular table) is generated and stored in the database group, and is also transferred to the potential field calculation function 400. In the interword distance calculation function 300, a topic world map is generated, stored in a database group, and passed to the potential field calculation function 400. In the potential field calculation function 400, a user potential field is generated based on the PN value table (circular table) and the topic world map and stored in the database group. These modules are linked via the information source database 40a, the dictionary database 40b, and the user information database 50, and share various parameters such as a thesaurus dictionary, PN value, and distance between words.

このような対話インターフェースを含む対話インターフェースシステムの各モジュールの具体的な構成及び動作について詳述する。
(1)初期化処理部
初期化処理部100では、主として上述した情報データ取得phase1及び入力データ分析phase2を行う。すなわち、情報データ取得phase1において、記事データ等の各種情報ソースを取得し、入力データ分析phase2においてデータのクレンジングを行う。入力データ分析phase2では、コア機能による処理に対する前処理として、形態素解析により単語や助詞などを抽出するとともに、文節のツリー構造について解析を行い、解析結果をPN値算出機能200及びワード間距離算出機能300に入力する。PN値算出機能200は、これらのデータを用いてPN値表を生成する。このPN値表は、情報ソースデータベース40a及びユーザー情報データベース50に格納されるとともに、ポテンシャル場算出機能400に受けわたされる。一方、ワード間距離算出機能300は、前処理による解析結果を用いて話題ワールドマップを作成する。このワールドマップは、情報ソースデータベース40a及びユーザー情報データベース50に格納されるとともに、ポテンシャル場算出機能400に受け渡される。ポテンシャル場算出機能400では、PN値算出機能200から取得したPN値表と、ワード間距離算出機能300から取得した話題ワールドマップとに基づいて、ユーザーポテンシャル場を作成する。
A specific configuration and operation of each module of the interactive interface system including such an interactive interface will be described in detail.
(1) Initialization processing unit The initialization processing unit 100 mainly performs the above-described information data acquisition phase 1 and input data analysis phase 2. That is, various information sources such as article data are acquired in the information data acquisition phase 1, and the data is cleansed in the input data analysis phase 2. In the input data analysis phase 2, as a pre-processing for the processing by the core function, words and particles are extracted by morphological analysis, and the phrase tree structure is analyzed, and the analysis result is a PN value calculation function 200 and an inter-word distance calculation function. Enter 300. The PN value calculation function 200 generates a PN value table using these data. The PN value table is stored in the information source database 40a and the user information database 50, and is received by the potential field calculation function 400. On the other hand, the interword distance calculation function 300 creates a topic world map using the analysis result of the preprocessing. This world map is stored in the information source database 40a and the user information database 50, and is also transferred to the potential field calculation function 400. The potential field calculation function 400 creates a user potential field based on the PN value table acquired from the PN value calculation function 200 and the topic world map acquired from the interword distance calculation function 300.

上記入力データ分析phase2における前処理では、記事データのPNを計算するために必要な情報を得るために、以下の処理を実行する。
(1)固有名詞の記事単位のマージ
(2)暗黙の主語の推定
(3)単語のシソーラス分類
(4)助詞係数の算出
を行う。
In the preprocessing in the input data analysis phase 2, the following processing is executed in order to obtain information necessary for calculating the PN of article data.
(1) Merging article units of proper nouns
(2) Implicit subject estimation
(3) Thesaurus classification of words
(4) The particle coefficient is calculated.

上記入力データ分析phase2における前処理につき、それぞれの処理について以下に説明する。
(1)固有名詞の記事単位のマージ
取得した記事文章内に登場する固有名詞を、記事毎にマージしてテンポラリ辞書を作成する。例えば、プロ野球の特定のチームに関する記事であれば、記事のヘッドラインには選手名の略称や俗称、ニックネームなどが使用されている場合が多く、本文中ではその選手名の本名が主語として用いられることが多い。このため、記事毎に、その文章内に登場する固有名詞や略称、俗称をマージすることにより、特定の話題に関連する単語を検索できるようになる。
Each process of the pre-processing in the input data analysis phase 2 will be described below.
(1) Merging article names of proper nouns Create a temporary dictionary by merging proper nouns appearing in the acquired article sentences for each article. For example, for articles related to a specific team of professional baseball, abbreviations, common names, and nicknames of player names are often used in the headlines of articles, and the real name of the player name is used as the subject in the text. It is often done. Therefore, for each article, words related to a specific topic can be searched by merging proper nouns, abbreviations, and popular names appearing in the sentence.

(2)暗黙の主語の推定
日本語では主語を省略する傾向があり、単に文章中に登場する固有名詞の出現頻度をカウントするだけでは正確なユーザー意図は算出できないため、省略された主語を推定して、基の文章中に追加して再構成し、そのうえで、各固有名詞の出現頻度を家運とすることにより、より正確なユーザー意図を算出することができる。
(2) Implicit subject estimation In Japanese, there is a tendency to omit subjects, and simply counting the frequency of proper nouns appearing in sentences does not allow accurate user intentions to be calculated. Then, it is possible to calculate a more accurate user intention by adding and reconfiguring the original sentence and then setting the appearance frequency of each proper noun as home.

この暗黙の主語の推定は、一定のルールに基づいて、省略されている主語を検出する。このルールとしては、例えば、以下のものが挙げられる。
(a)推定する主語は固有名詞とする。
(b)暗黙の主語を推定する文章としては、「固有名詞+“は”」、「固有名詞+“が”」、「固有名詞+“も”」、「固有名詞+“,”:のいずれも含まれない文章を選択する。
(c)その文章が存在している段落の最初の文章で主語となっている固有名詞を、推定される”暗黙”の固有名詞とする。
(d)(c)において「推定される”暗黙”の固有名詞」が存在しない場合は、その記事のヘッドラインで最初の固有名詞とする。
(e)推定された暗黙が既に文章に含まれているときは、固有名詞となっている(直)前の文章の主語とする。
This implicit subject estimation detects missing subjects based on certain rules. Examples of this rule include the following.
(A) The subject to be estimated is a proper noun.
(B) As the sentence for estimating the implicit subject, any of “proprietary noun +“ ha ””, “proprietary noun +“ ga ””, “proprietary noun +“ m ””, “proprietary noun +“, ”: Select sentences that do not contain
(C) The proper noun that is the subject in the first sentence of the paragraph in which the sentence exists is assumed to be the “implicit” proper noun.
(D) If there is no “inferred“ implicit ”proper noun” in (c), it will be the first proper noun in the headline of the article.
(E) When the estimated tacitness is already included in the sentence, it is the subject of the previous sentence that is a proper noun.

(3)単語のシソーラス分類
一般的な単語については、個別に扱わずに、同義語又は類似語等を、体系化及びグルーピングを行う。シソーラス分類は、単語の上位 / 下位関係、部分 / 全体関係、同義関係、類義関係などによって単語を分類し、体系づけた辞書を備えており、これらの単語間の関係を、木構造又は表形式でデータ構造により保持している。PN値の設定などは、単語毎には行わず、単語の集合毎に設定する。
(3) Thesaurus classification of words For general words, synonyms or similar words are systematized and grouped without being handled individually. The thesaurus classification has a systematic dictionary that classifies words according to their upper / lower relations, partial / whole relations, synonymous relations, synonymous relations, etc. It is held in the format by the data structure. The PN value is not set for each word, but is set for each set of words.

(4)助詞係数の算出
助詞係数は、文書中における単語間の距離や関係性を計算するための重要なパラメーターであり、助詞の種類間における結合の関係を表す係数である。具体的に、初期化処理は、初期化処理部100により実行される。図11は、本実施形態に係る初期化処理部の内部構成を示すブロック図である。
(4) Calculation of particle coefficient The particle coefficient is an important parameter for calculating the distance and relationship between words in a document, and is a coefficient representing the connection relationship between particle types. Specifically, the initialization process is executed by the initialization processing unit 100. FIG. 11 is a block diagram showing the internal configuration of the initialization processing unit according to the present embodiment.

初期化処理部100は、情報ソース取得部101が取得した情報ソースや、ユーザーから入力された入力データについて、コア機能部での処理を行う前に予め処理し、コア機能実行部20に受け渡すモジュールである。本実施形態において、具体的に初期化処理部100は、情報ソース取得部101と、センテンス解析部102と、省略単語検出部103と、推定単語検出部104と、テキスト再構成部105と、キーワード解析部106とを備えている。   The initialization processing unit 100 processes in advance the information source acquired by the information source acquisition unit 101 and the input data input by the user before performing the processing in the core function unit, and passes them to the core function execution unit 20. It is a module. In the present embodiment, specifically, the initialization processing unit 100 includes an information source acquisition unit 101, a sentence analysis unit 102, an abbreviated word detection unit 103, an estimated word detection unit 104, a text reconstruction unit 105, a keyword And an analysis unit 106.

情報ソース取得部101は、Web等の通信ネットワークを通じて取得される一般的な情報の他、端末内に蓄積されている各ユーザーに固有のプライベートなローカルデータなどを情報ソースとして収集し、情報ソースデータベース40aやユーザー情報データベース50に蓄積するモジュールである。すなわち、この情報ソースとしては、ユーザーがアクセスした情報やその履歴についても蓄積されており、情報ソース取得部101は、一般的な情報と、ユーザーが利用したプライベートな情報とを区分して情報ソースデータベース40aやユーザー情報データベース50に蓄積され、管理されている。   The information source acquisition unit 101 collects, as general information acquired through a communication network such as the Web, private local data unique to each user stored in the terminal as an information source, and an information source database 40a and a module that accumulates in the user information database 50. That is, as the information source, information accessed by the user and its history are also accumulated, and the information source acquisition unit 101 classifies general information and private information used by the user as an information source. It is stored and managed in the database 40a and the user information database 50.

センテンス解析部102は、情報ソース取得部101が取得した情報ソースから得られるテキストデータからセンテンスを抽出するモジュールである。例えば、このセンテンス解析部102は、文章のテキストデータから、句点から句点、或いはピリオドからピリオドまでなど、一連のセンテンスを切り出し、省略単語検出部103に入力する。   The sentence analysis unit 102 is a module that extracts sentences from text data obtained from the information source acquired by the information source acquisition unit 101. For example, the sentence analysis unit 102 cuts out a series of sentences such as from a punctuation point to a punctuation point or a period to a period from the text data of a sentence, and inputs the sentence to the abbreviation word detection unit 103.

省略単語検出部103は、センテンス解析部102が抽出した各センテンスを構成する単語に関する品詞を解析し、省略された単語を検出するモジュールである。具体的には、名詞、形容詞、動詞などの各文に含まれる単語の品詞を抽出し、主語となり得る名詞、特に固有名詞を検査し、見つからない場合は、主語が省略されているとして、その旨のフラグを文章データ中に挿入し、推定単語検出部104に入力する。   The abbreviation word detection unit 103 is a module that analyzes parts of speech related to words constituting each sentence extracted by the sentence analysis unit 102 and detects omitted words. Specifically, it extracts the part of speech of words included in each sentence such as nouns, adjectives, verbs, etc., inspects nouns that can be the subject, especially proper nouns, and if the subject is not found, A flag to that effect is inserted into the sentence data and input to the estimated word detection unit 104.

推定単語検出部104は、省略単語検出部103が検出した省略単語が含まれるセンテンスの当該情報ソース内における位置関係に基づいて、当該省略単語の品詞に応じた単語を推定単語として検出するモジュールである。この推定単語は、先行する直前のセンテンスや段落、記事のヘッドラインなどに含まれる固有名詞などを選定する。検出された推定単語は、テキスト再構成部105へ入力される。   The estimated word detection unit 104 is a module that detects a word corresponding to the part of speech of the abbreviated word as an estimated word based on the positional relationship in the information source of the sentence including the abbreviated word detected by the abbreviated word detection unit 103. is there. As the estimated word, a proper noun included in the immediately preceding sentence or paragraph, the headline of the article, or the like is selected. The detected estimated word is input to the text reconstruction unit 105.

テキスト再構成部105は、入力されたテキストデータに対して、省略単語検出部103が検出した省略単語の検出位置に、推定単語検出部104が検出した推定単語を追加して、センテンスとして再構成するモジュールである。このテキスト再構成部105により再構成された文書データは、原文とともに情報ソースデータベース40aに蓄積されるとともに、コア機能実行部20に入力される。   The text reconstruction unit 105 adds the estimated word detected by the estimated word detection unit 104 to the input position of the abbreviated word detected by the abbreviated word detection unit 103 and reconstructs the sentence as a sentence. It is a module to do. The document data reconstructed by the text reconstructing unit 105 is stored in the information source database 40 a together with the original text, and is input to the core function executing unit 20.

キーワード解析部106は、本実施形態では、コア機能間で共通して用いられ、入力されたテキストデータから、固有名詞キーワード又は事象キーワードを抽出するモジュールであり、本実施形態では、固有名詞キーワード又は事象キーワードに加えて、日時又は場所に関する環境キーワードを抽出する機能を備えている。この環境キーワードとしては、入力された文章や対話音声のみならず、時計やGPS、天気、気温、湿度等の気象情報などからも取得することができ、日時又は場所に関する環境キーワードを加味して提供すべき情報を選定し、加工することにより、時と場所によって変動するユーザーの心理に対応した検索結果や回答表現を提供することが可能となる。そして、このキーワード解析部106で解析された各キーワードは、PN値設定部201、群体パラメーター設定部301又はポテンシャル場形成部402に入力される。   In this embodiment, the keyword analysis unit 106 is a module that is used in common among core functions and extracts a proper noun keyword or event keyword from input text data. In this embodiment, a proper noun keyword or event keyword is extracted. In addition to event keywords, it has a function to extract environmental keywords related to date and time or location. This environmental keyword can be acquired not only from input text and dialogue voice, but also from weather information such as clock, GPS, weather, temperature, humidity, etc., and provided with environmental keywords related to date and time or location By selecting and processing information to be processed, it becomes possible to provide search results and answer expressions corresponding to the user's psychology that varies depending on time and place. Each keyword analyzed by the keyword analysis unit 106 is input to the PN value setting unit 201, the colony parameter setting unit 301, or the potential field forming unit 402.

また、キーワード解析部106は、テキスト再構成部105によって再構成されたテキストデータから固有名詞キーワード又は事象キーワードを抽出する機能を有している。具体的にキーワード解析部106は、情報ソースやユーザーからの問いかけについて、省略された単語を追加して再構成されたテキストデータを初期化処理部100から受け取りし、この再構成されたテキストデータから固有名詞キーワード又は事象キーワードを抽出する。これにより、省略された主語や目的語などを推定することにより、暗に話題の中心となっている人物や団体、場所をキーワードとして検索すべき情報を選定し、加工することができ、より正確にユーザーが所望する検索結果や回答表現を提供することが可能となる。   The keyword analysis unit 106 has a function of extracting a proper noun keyword or event keyword from the text data reconstructed by the text reconstruction unit 105. Specifically, the keyword analysis unit 106 receives text data reconstructed by adding omitted words from the information source or the user's inquiry from the initialization processing unit 100, and from the reconstructed text data Extract proper noun keywords or event keywords. This makes it possible to select and process information to be searched using keywords such as the person, group, or place that is the center of the topic by estimating the omitted subject or object. It is possible to provide search results and answer expressions desired by the user.

(2)コア機能実行部
コア機能実行部20は、主として、上記ユーザー意図推定phase3などを実行するモジュールであり、PN値算出機能200、ワード間距離算出機能300及びポテンシャル場算出機能400を有している。
(2) Core Function Execution Unit The core function execution unit 20 is a module that mainly executes the user intention estimation phase 3 and the like, and has a PN value calculation function 200, an interword distance calculation function 300, and a potential field calculation function 400. ing.

(2−1)PN値算出機能
PN値算出機能200は、文章PN値算出部203と、PN値設定部201とを備えている。
PN値設定部201は、入力された各キーワードに対するユーザーのポジティブ又はネガティブの度合いを示すPN値を設定するモジュールである。本実施形態では、キーワード解析部106から入力されたテキストデータに含まれる文章内における文節を切り出し、文節間の分岐関係を抽出して、抽出された各分岐に含まれる単語の出現頻度に基づいて各単語の優先度を設定するフィルタリング部201aを備え、PN値設定部201は、フィルタリング部201aが設定した優先度に基づいてPN値を設定する。PN値設定部201で設定されたPN値は、ユーザー情報データベース50に蓄積されるとともに、文章PN値算出部203に入力される。
(2-1) PN Value Calculation Function The PN value calculation function 200 includes a text PN value calculation unit 203 and a PN value setting unit 201.
The PN value setting unit 201 is a module that sets a PN value indicating the degree of positive or negative of the user for each input keyword. In the present embodiment, a clause in a sentence included in text data input from the keyword analysis unit 106 is cut out, a branching relationship between the clauses is extracted, and based on the appearance frequency of words included in each extracted branch. A filtering unit 201a that sets the priority of each word is provided, and the PN value setting unit 201 sets a PN value based on the priority set by the filtering unit 201a. The PN value set by the PN value setting unit 201 is stored in the user information database 50 and input to the text PN value calculation unit 203.

本実施形態では、PN値設定部201は、PN値の学習機能として、テンプレート生成部201bと、トレーニングデータ作成部201cと、学習部201dとを備えている。本実施形態においてこれらの学習機能は、ユーザーがPN値を設定したキーワード以外のキーワードについて、自動的に一般的なPN値を設定する。   In the present embodiment, the PN value setting unit 201 includes a template generation unit 201b, a training data creation unit 201c, and a learning unit 201d as PN value learning functions. In the present embodiment, these learning functions automatically set general PN values for keywords other than the keywords for which the user has set PN values.

テンプレート生成部201bは、図4Dに示すように、学習処理にあたり、一般的なPN値を学習するためのテンプレートデータD101を生成するモジュールである。このテンプレートデータD101は、任意のPN値を、テキストデータ内のキーワードに当てはめて、各話題や記事毎にキーワード群にPN値をまとめて設定するためのデータであり、収集した話題毎の記事から任意の文章(テキストデータ)を抽出してレコードとして格納したテーブルデータである。このとき抽出する文章は、名詞、動詞、形容詞などの品詞のいずれかを含む単文であり、この単文は、そのまま文章中に記載されているものと、複文を分解して単文に連結し直したものが含まれる。   As shown in FIG. 4D, the template generation unit 201b is a module that generates template data D101 for learning a general PN value in the learning process. This template data D101 is data for applying an arbitrary PN value to a keyword in text data and collectively setting a PN value in a keyword group for each topic or article, and from the collected articles for each topic. This is table data in which an arbitrary sentence (text data) is extracted and stored as a record. The sentence extracted at this time is a single sentence including any part of speech such as a noun, a verb, or an adjective, and this simple sentence is directly described in the sentence and the compound sentence is decomposed and reconnected to a single sentence. Things are included.

トレーニングデータ作成部201cは、学習したPN値を評価するためのトレーニングデータD102を作成するモジュールである。このトレーニングデータD102は、テンプレートデータD101において、固有名詞や、ユーザーが既にPN値を設定したキーワードを、一般的な代名詞、動詞に置き換えたうえで、その置きかえられた文章(テキストデータ)に対する文章PN値(基準文章PN値)を設定したテーブルデータである。詳述すると、テンプレートデータD101には、固有名詞や、ユーザーが既にPN値を設定した動詞、形容動詞などのキーワードA〜Eを含むセンテンスが複数格納されており、トレーニングデータD102では、各レコードのテキスト中に含まれている固有名詞A〜Eが、「私」や「彼(彼女)」等の代名詞に置き換えられており、一般的な名詞や動詞、形容動詞など固有名詞が代名詞に置き換えられた文章について学習の基準となる基準文章PN値が設定される。この基準文章PN値は、単一又は複数のユーザー若しくはユーザー以外の操作者が入力したものであり、専門のオペレーターが入力したり、Web上のアンケートなどにより収集することができる。   The training data creation unit 201c is a module that creates training data D102 for evaluating the learned PN value. This training data D102 is a sentence PN corresponding to the replaced sentence (text data) after replacing a proper noun or a keyword for which a user has already set a PN value with a general pronoun or verb in the template data D101. This is table data in which values (reference text PN values) are set. More specifically, the template data D101 stores a plurality of sentences including keywords A to E such as proper nouns, verbs for which the user has already set PN values, and adjective verbs. Proper nouns A to E included in the text have been replaced with pronouns such as "I" and "he (she)", and proper nouns such as general nouns, verbs, and adjective verbs have been replaced with pronouns A reference sentence PN value that is a reference for learning is set for each sentence. This reference sentence PN value is input by a single or a plurality of users or an operator other than the user, and can be input by a specialized operator or collected by a questionnaire on the Web.

学習部201dは、学習用PN値セットD104を、遺伝的アルゴリズムによってランダムに生成するなどして選定し、テンプレートデータD103への当て嵌めを行い、学習用文章PN値の算出と基準文書PN値との比較を複数世代にわたり実行し、世代間で上位或いは代表的な値を選定し、それらの値を学習用PN値セットとして生成し、一般的なPN値としてPN値設定部201に設定させるモジュールである。   The learning unit 201d selects the learning PN value set D104 by, for example, randomly generating it using a genetic algorithm, fits it to the template data D103, calculates the learning text PN value, and the reference document PN value. A module that executes comparison of multiple generations, selects upper or representative values between generations, generates those values as a learning PN value set, and sets them as a general PN value in the PN value setting unit 201 It is.

詳述すると、学習部201dは、テンプレートデータD101に含まれる固有名詞、及びその文章中における品詞を解析し、各固有名詞をその品詞に応じた代名詞に置き換える機能を備えており、固有名詞以外の一般名詞や一般動詞などの単語O〜Uに対してランダムな値のPN値を設定した学習用PN値セットD104を当てはめて学習用データD105を生成する。   More specifically, the learning unit 201d has a function of analyzing the proper nouns included in the template data D101 and the part of speech in the sentence and replacing each proper noun with a pronoun corresponding to the part of speech. Learning data D105 is generated by applying a learning PN value set D104 in which random PN values are set to words OU such as general nouns and general verbs.

さらに、学習部201dは、学習用データD105について、学習文章PN値を算出するとともに、その学習用PN値セットD104の適応度を算出する機能も有している。すなわち、学習部201dは、図4Dに示すように、テンプレートデータD103内の単語O〜Uに対して学習用PN値セットD104のPN値を当てはめて文章PN値算出部203により学習文章PN値を算出させ、この学習文章PN値と基準文書PN値と比較し、その一致度から適応度を算出する。   Further, the learning unit 201d calculates a learning sentence PN value for the learning data D105 and also has a function of calculating the fitness of the learning PN value set D104. That is, as shown in FIG. 4D, the learning unit 201d applies the PN value of the learning PN value set D104 to the words O to U in the template data D103, and the sentence PN value calculation unit 203 sets the learning sentence PN value. The learning sentence PN value is compared with the reference document PN value, and the fitness is calculated from the matching degree.

この学習文章PN値と基準文書PN値との比較に際し、学習部201dは、学習用PN値セットD104内のPN値を変動させつつ、複数世代にわたり実行し、世代間で最良の、学習用PN値セットを選定する。そのために、学習部201dは、変動された各世代のPN値のセットに基づく学習文章PN値と基準文書PN値との一致度から、各世代における適応度を算出し、世代間の適応度を比較し、その時点における最良又は最悪、平均的或いは代表的なセットを記憶保持しておく。そして、記憶保持された世代数が所定数に達せず、且つ算出される適応度が所定範囲に収束していない場合には、適応度が上位である複数セットの一部を抽出して組み合わせて次世代の学習用PN値セットを生成する処理を行いつつ、学習用PN値セットの選定及び適応度の算出等を繰り返させる。   When comparing the learning sentence PN value and the reference document PN value, the learning unit 201d executes the PN value in the learning PN value set D104 while changing the PN value for a plurality of generations, and is the best learning PN among the generations. Select a value set. For this purpose, the learning unit 201d calculates the fitness in each generation from the degree of coincidence between the learning sentence PN value and the reference document PN value based on the changed set of PN values of each generation, and calculates the fitness between generations. Compare and store the best or worst, average or representative set at that time. If the number of generations stored and held does not reach the predetermined number and the calculated fitness value does not converge to the predetermined range, a part of a plurality of sets having higher fitness values are extracted and combined. While performing the process of generating the next generation learning PN value set, the selection of the learning PN value set and the calculation of the fitness are repeated.

この学習用PN値セットの選定及び適応度の算出等を繰り返させる際、学習部201dは、本実施形態では、遺伝的アルゴリズムによって、学習用PN値セット内のキーワード及びそのPN値について交叉・突然変異処理を施し、その処理結果が終了条件(本実施形態では、学習部201dに記憶保持された世代数が所定数に達するか、或いは算出される適応度が所定範囲に収束すること)を満たすまで繰り返す。ここで、交叉処理とは、それぞれのPN値セットで対応するデータ列の2つのデータ要素の値を入れ替える処理であり、突然変異とは、学習用PN値セットのデータ列のうち、ランダムに選択したデータ要素を、所定の確率をもって変化させる。   When repeating the selection of the learning PN value set and the calculation of the fitness, the learning unit 201d, in the present embodiment, performs a crossover / sudden operation on a keyword in the learning PN value set and its PN value by a genetic algorithm. Mutation processing is performed, and the processing result satisfies an end condition (in this embodiment, the number of generations stored and held in the learning unit 201d reaches a predetermined number, or the calculated fitness converges to a predetermined range). Repeat until. Here, the crossover process is a process of exchanging the values of two data elements of the corresponding data string in each PN value set, and the mutation is selected at random from the data string of the learning PN value set. The changed data element is changed with a predetermined probability.

そして、学習部201dは、記憶保持された世代数が所定数に達するか、或いは算出される適応度が所定範囲に収束した場合に、世代間において最上位の学習文章PN値に係るキーワード及び設定されたPN値のセットを、一般的なPN値としてPN値設定部201に設定させる。   Then, when the number of generations stored and reached reaches a predetermined number or when the calculated fitness converges to a predetermined range, the learning unit 201d determines the keyword and setting related to the highest learning sentence PN value among the generations. The set of PN values thus set is set in the PN value setting unit 201 as a general PN value.

文章PN値算出部203は、対話に含まれる固有名詞キーワード又は事象キーワードを抽出し、抽出された固有名詞キーワード又は事象キーワードについて、ユーザー情報データベースを参照し、対話に含まれる固有名詞キーワード又は事象キーワードについて設定されたPN値に基づいて、対話に関してユーザーが抱いている感情を数値化した文章PN値を算出するモジュールである。この文章PN値算出部203により算出された文章PN値は、回答生成部107に入力される。   The sentence PN value calculation unit 203 extracts proper noun keywords or event keywords included in the dialogue, refers to the user information database for the extracted proper noun keywords or event keywords, and includes proper noun keywords or event keywords included in the dialogue. This is a module for calculating a sentence PN value obtained by quantifying the feelings of the user regarding the dialogue based on the PN value set for. The sentence PN value calculated by the sentence PN value calculation unit 203 is input to the answer generation unit 107.

この文章PN値の算出では、文章中に含まれるキーワードに設定されたPN値を所定の演算処理により、文書全体で、ユーザーにとってどの程度ポジティブなのかネガティブなのかを判定する。この算出方法は、図4Aに示すように、各文節BL1,BL2内ではそれぞれの単語KW01とKW02、及びKW03とKW04のPN値を加算し、文節BL1,BL2間ではそれぞれの文節BL1及びBL2内で加算されたPN値を積算することを基本とする。なお、文節内のPN値が0となった場合には、積算の際には除外する。この各キーワードのPN値は、話題や記事毎に設定されており、固有名詞など特定の人や団体を意味するキーワードについては、ユーザー操作に基づくPN値が設定され、その他のキーワードには学習処理により一般的なPN値が設定されている。   In the calculation of the sentence PN value, the PN value set for the keyword included in the sentence is determined by a predetermined calculation process to determine how positive or negative it is for the user in the entire document. As shown in FIG. 4A, this calculation method adds the PN values of the respective words KW01 and KW02 and KW03 and KW04 in each of the clauses BL1 and BL2, and within the clauses BL1 and BL2 between the clauses BL1 and BL2. Basically, the PN values added in step 1 are integrated. In addition, when the PN value in the phrase becomes 0, it is excluded when integrating. The PN value of each keyword is set for each topic or article. For keywords that mean a specific person or group such as proper nouns, PN values based on user operations are set, and for other keywords, learning processing is performed. Thus, a general PN value is set.

これにより、例えば図4B(a)に示すように、情報ソースが「チームA 危険球で危険水域」というヘッドラインの記事であり、その記事の内容が「また、頑張ります。」という文章であった場合には、ユーザーがチームAのファンであるか否かで、この記事の文章PN値が変化する。   Thus, for example, as shown in FIG. 4B (a), the information source is an article of the headline “Team A dangerous sphere and dangerous water area”, and the content of the article is a sentence “I will do my best”. In this case, the sentence PN value of this article changes depending on whether or not the user is a fan of Team A.

先ず、ユーザーがチームAのファンであった場合には、「チームA」という固有名詞にはポジティブなPN値(+)が与えられており、また、「頑張る」という単語には一般的な意味合いから、ポジティブなPN値(+)が与えられている。このとき、記事本文の文章中では主語が省略されているため、主語推定を行う。ここでは、ヘッドラインに「チームA」とあることから、この文章の省略された主語は「チームA」であるため、暗黙の主語として文章中に追加して文章PN値の算出を行う。この結果、ユーザーがチームAのファンである場合には、同図(b)に示すように、暗黙の主語である固有名詞「チームA」に対するPN値(+)と、「頑張る」という一般的なPN値(+)とが含まれていることから、各文節内を加算した後、これらを積算することによって、文章全体としてもその値はポジティブな「+0.01」となる。なお、図中にある「また」の文節にはニュートラルのキーワードのみが含まれるため、この文節のPN値は0となることから積算の際には除外する。そして、各文説の数値は、ユーザーが「チームA」に付与したPN値や、ヘッドラインとの掛かり受けなどの文章構造に応じて加減される。   First, if the user is a fan of Team A, the proper noun “Team A” is given a positive PN value (+), and the word “work hard” has a general meaning. Therefore, a positive PN value (+) is given. At this time, since the subject is omitted in the text of the article body, subject estimation is performed. Here, since “Team A” is present in the headline, the omitted subject of this sentence is “Team A”, so that the sentence PN value is calculated by adding it to the sentence as an implicit subject. As a result, when the user is a fan of team A, as shown in FIG. 5B, the general PN value (+) for the proper noun “team A” as an implicit subject and “work hard” Since the PN value (+) is included, the values in the whole sentence are added to each other, and then, by adding them, the value of the whole sentence becomes positive “+0.01”. In addition, since only the neutral keyword is included in the “m” clause in the figure, the PN value of this clause is 0, so it is excluded during integration. The numerical value of each sentence is adjusted according to the PN value given to the “team A” by the user and the sentence structure such as the reception with the headline.

一方、ユーザーがチームAのファンでなかった(アンチチームAであった)場合には、「チームA」という固有名詞にはネガティブなPN値(−)が与えられており、また、「頑張る」という単語には一般的な意味合いから、ポジティブなPN値(+)が与えられている。このときにも、記事本文の文章中では主語が省略されているため、「チームA」を暗黙の主語として文章中に追加して、文章PN値の算出を行う。この結果、同図(c)に示すように、暗黙の主語である固有名詞「チームA」に対するPN値(−)と、「頑張る」という一般的なPN値(+)とが含まれていることから、ニュートラルのみの文節を除外した文節を積算することによって、文章全体としてもその値はネガティブな「−0.01」となる。   On the other hand, if the user is not a fan of Team A (is Anti-Team A), the proper noun “Team A” is given a negative PN value (−), and “I will do my best”. The word is given a positive PN value (+) because of its general meaning. Also at this time, since the subject is omitted in the text of the article body, “Team A” is added to the text as an implicit subject, and the text PN value is calculated. As a result, as shown in FIG. 6C, the PN value (−) for the proper noun “Team A” as an implicit subject and the general PN value (+) of “work hard” are included. Therefore, by integrating the clauses excluding the neutral-only clause, the value of the whole sentence becomes negative “−0.01”.

また、他の例としては、例えば図4B(d)に示すように、情報ソースが「チームA 危険球で危険水域」というヘッドラインの記事であり、その記事の内容に「2戦連続の逆転負け」という文章であった場合にも、ユーザーがチームAのファンであるか否かで、この記事の文章PN値が変化する。ただし、ここでは、「逆転」と「負け」というキーワードの組み合わせでポジティブ・ネガティブが反転する情報が環境キーワードとして保持されている。すなわち、「逆転」の意味合いとしては一般的にはポジティブであるが、前後に連結される他のキーワードの種類によっては、その意味が反転し、強調するような機能が環境キーワードに保持されている。   As another example, for example, as shown in FIG. 4B (d), the information source is an article of the headline “Team A dangerous sphere and dangerous water area”. Even in the case of the sentence “losing”, the sentence PN value of this article changes depending on whether the user is a fan of Team A or not. However, here, information that positive / negative is reversed by a combination of the keywords “reverse” and “loss” is held as an environmental keyword. In other words, the meaning of “reverse” is generally positive, but depending on the type of other keywords connected before and after, the meaning is reversed and the function that emphasizes is retained in the environmental keyword. .

そして、上記と同様に、ユーザーがチームAのファンであった場合には、「チームA」という固有名詞にはポジティブなPN値(+)が与えられている。また、「逆転」及び「負け」という単語には一般的な意味合いから、「逆転」にはポジティブなPN値(+)、「負け」にはネガティブなPN値(−)が与えられているとともに、これらの組み合わせでポジティブ・ネガティブが反転する情報が環境キーワードとして保持されている。この結果、ユーザーがチームAのファンである場合には、同図(e)に示すように、暗黙の主語である固有名詞「チームA」に対するPN値(+)と、「逆転」という一般的なPN値(+)が「負け」というキーワードによってPN値が反転されることから、これらを積算することによって、文章全体としてもその値はネガティブな「−0.01」となる。   Similarly to the above, when the user is a fan of Team A, a positive PN value (+) is given to the proper noun “Team A”. In addition, the words “reversed” and “losing” are given a general meaning, and “reversing” is given a positive PN value (+), and “losing” is given a negative PN value (−). Information in which positive / negative is reversed by these combinations is held as an environmental keyword. As a result, if the user is a fan of Team A, as shown in FIG. 5E, the PN value (+) for the proper noun “Team A” as an implicit subject and the general “reversal” Since the PN value (+) is inverted by the keyword “losing”, the PN value is inverted, and by integrating these, the value of the entire sentence becomes negative “−0.01”.

一方、ユーザーがチームAのファンでなかった(アンチチームAであった)場合には、チームA」という固有名詞にはネガティブなPN値(−)が与えられている。また、「逆転」及び「負け」という単語には一般的な意味合いから、「逆転」にはポジティブなPN値(+)、「負け」にはネガティブなPN値(−)が与えられているとともに、これらの組み合わせでポジティブ・ネガティブが反転する情報が環境キーワードとして保持されている。この結果、ユーザーがチームAのアンチファンである場合には、同図(f)に示すように、暗黙の主語である固有名詞「チームA」に対するPN値(−)と、「逆転」という一般的なPN値(+)が「負け」というキーワードによってPN値が反転されることから、これらを積算することによって、文章全体としてもその値はポジティブな「+0.01」となる。   On the other hand, if the user is not a fan of Team A (is Anti-Team A), a negative PN value (−) is given to the proper noun “Team A”. In addition, the words “reversed” and “losing” are given a general meaning, and “reversing” is given a positive PN value (+), and “losing” is given a negative PN value (−). Information in which positive / negative is reversed by these combinations is held as an environmental keyword. As a result, when the user is an anti-fan of Team A, as shown in FIG. 5F, the PN value (−) for the proper noun “Team A” as an implicit subject and “reversal” in general Since the PN value is inverted by the keyword that the average PN value (+) is “losing”, by adding these, the value becomes positive “+0.01” as a whole sentence.

なお、PN値としては、ポジティブでもないネガティブでもないニュートラルな値として「0」も設定が可能となっていることから、本実施形態では、文節単位でPN値が0のときは、積算処理に含めずに無視するか、或いは他の文節に加算することで、文章全体としての文章PN値が「0」値になるのを回避している。   As the PN value, “0” can be set as a neutral value that is neither positive nor negative. Therefore, in this embodiment, when the PN value is 0 in phrase units, the integration process is performed. By ignoring it without including it or adding it to other clauses, it is avoided that the sentence PN value of the whole sentence becomes a “0” value.

辞書データベース40bは、単語の上位又は下位関係、部分又は全体関係、同義関係、類義関係の少なくとも一つに基づいて単語を分類し、体系づけたシソーラス辞書に基づいて、解析対象となる単語を分類するシソーラス辞書を格納している。   The dictionary database 40b categorizes words based on at least one of the upper or lower relations, partial or whole relations, synonymous relations, and synonymous relations of words, and selects words to be analyzed based on a structured thesaurus dictionary. The thesaurus dictionary to be classified is stored.

(PN値算出機能の動作)
以上の構成を有するPN値算出機能は、以下のように動作する。図3Aは、PN値算出機能の動作順序を示すフローチャート図である。
(Operation of PN value calculation function)
The PN value calculation function having the above configuration operates as follows. FIG. 3A is a flowchart showing the operation sequence of the PN value calculation function.

先ず、ユーザーとの対話に先行し且つ常時周期的に、予め情報ソースの収集を行う(S101)。具体的には、情報ソース取得部101が、Web等の通信ネットワークを通じて取得される一般的な情報の他、サービス提供側で準備されたデータソース、端末内に蓄積されている各ユーザーに固有のプライベートなローカルデータなどを情報ソースとして収集する。Web等の通信ネットワークにおける情報収集としては、Webクローラーと呼ばれる、通信ネットワーク上のリンクを辿ってWebデータ間を遷移することにより、通信ネットワーク上のありとあらゆる情報データを回収する検索ロボットプログラムを用いる手法が挙げられる。サービス提供側で準備されたデータソースとしては、例えば、「選手年鑑」や辞書・辞典など、オフラインの情報を独自にデータベース化したデータが挙げられ、さらには、人物や有名建築物の画像などを解析し、同一名の人物や地名を関連情報と紐付けてデータベース化したものも含めてもよい。他方、プライベートなローカルデータの収集としては、ユーザーがWeb検索した際のキーワードや実際にアクセスしたWebページ、コンテンツの他、ユーザーが作成した文書、送受信した電子メール、ユーザーのスケジュールなどが挙げられる。また、情報ソースとしては、その情報を取得した時点の日付や時刻、場所、気象情報、関連するニュースなどを紐付けして取得するようにしてもよい。   First, prior to the dialog with the user, information sources are collected in advance at regular intervals (S101). Specifically, in addition to general information acquired by the information source acquisition unit 101 through a communication network such as the Web, a data source prepared on the service providing side, specific to each user stored in the terminal Collect private local data as information sources. As a method for collecting information in a communication network such as the Web, there is a technique called a Web crawler, which uses a search robot program that collects all kinds of information data on the communication network by following links on the communication network and transitioning between Web data. Can be mentioned. Data sources prepared by the service provider include, for example, data created by creating a database of offline information, such as the “Athletes Yearbook” and dictionaries / dictionaries, as well as images of people and famous buildings. It is also possible to include a database obtained by analyzing and linking a person or place name having the same name with related information. On the other hand, the collection of private local data includes keywords created when a user searches the Web, Web pages actually accessed, contents, documents created by the user, e-mails sent and received, user schedules, and the like. Further, as the information source, the date and time when the information is acquired, the location, the weather information, the related news, and the like may be linked and acquired.

次いで、収集された情報データがテキストデータではない場合には、必要に応じてテキストデータに変換し、不要なデータが含まれている場合にはクレンジング処理を施す(S102)。テキスト化処理としては、例えば、取得されたデータが音声であるときに音声認識処理によりテキスト化したり、映像や動画であるときに画像認識処理により写っている人物や場所等を所定の単語に置き換えたりすることが挙げられる。また、クレンジング処理としては、Webページに含まれるタグデータやその他の制御文字、音声に含まれる不要な発生やノイズなどを排除することが挙げられる。   Next, if the collected information data is not text data, it is converted to text data as necessary, and if unnecessary data is included, cleansing processing is performed (S102). As text conversion processing, for example, when the acquired data is speech, it is converted to text by speech recognition processing, or when it is a video or a moving image, a person or a place shown in the image recognition processing is replaced with a predetermined word. Can be mentioned. In addition, the cleansing process may include removing tag data and other control characters included in the Web page, unnecessary generation and noise included in the voice, and the like.

このようにテキスト化され不要なデータが削除されたテキストデータについて、形態素解析を行うとともに、省略された主語などの推定を行う(S103〜S105)。具体的には、情報ソースについて、センテンスを抽出し、各センテンスを構成する単語に関する品詞を解析し、省略された単語を検出し、そのセンテンスの当該情報ソース内における位置関係に基づいて、当該省略単語の品詞に応じた単語を推定単語として検出して、この推定単語を省略単語の検出位置に推定単語を追加して、テキストデータを再構成する。また、省略された単語が追加され再構成されたテキストデータについて、木構造の解析を行い、木構造に基づくフィルタリングを行う。具体的には、図4Eに示すように、文章構造が分岐を有する複文などになっている場合に、分岐毎に単語の出現頻度を解析して、単語の優先度を設定し、優先度の低い単語を削除するなどのフィルタリングを行う。   In this way, morphological analysis is performed on text data from which unnecessary data has been deleted, and an omitted subject is estimated (S103 to S105). Specifically, for an information source, the sentence is extracted, the part of speech related to the words constituting each sentence is analyzed, the omitted word is detected, and the omission is performed based on the positional relationship of the sentence in the information source. A word corresponding to the part of speech of the word is detected as an estimated word, the estimated word is added to the abbreviated word detection position, and the text data is reconstructed. In addition, a tree structure is analyzed for text data reconstructed by adding omitted words, and filtering based on the tree structure is performed. Specifically, as shown in FIG. 4E, when the sentence structure is a compound sentence having a branch, the word appearance frequency is analyzed for each branch, the word priority is set, and the priority Perform filtering such as deleting low words.

次いで、情報ソースから得られたテキストデータから、固有名詞キーワード、事象キーワード及び環境キーワードを抽出するとともに、抽出された各キーワードに対するユーザーのポジティブ又はネガティブの度合いを示すPN値を設定する(S106)。このキーワードの検出や、PN値の設定に際しては、いわゆるシソーラス辞書を用いて、類義語のマージを行う。具体的には、単語の上位又は下位関係、部分又は全体関係、同義関係、類義関係の少なくとも一つに基づいて単語を分類し、体系づけたシソーラス辞書に基づいて、解析対象となる単語を分類するシソーラス分類を行う。   Next, the proper noun keyword, the event keyword, and the environment keyword are extracted from the text data obtained from the information source, and a PN value indicating the degree of positive or negative of the user for each extracted keyword is set (S106). In detecting the keyword and setting the PN value, synonyms are merged using a so-called thesaurus dictionary. Specifically, the words to be analyzed are classified based on at least one of the upper or lower relationship, partial or whole relationship, synonym relationship, and synonym relationship of the words, and the systematic thesaurus dictionary Perform a thesaurus classification to classify.

併せて、本実施形態では、取得された情報ソースから得られたテキストが、一つの話題に関連する一連の文章である場合、その一連の文章を一塊の単位記事として、単位記事毎にキーワード解析部106に入力して、当該単位記事に関してユーザーが抱いている感情を数値化した文章PN値を算出する(S107)。   In addition, in the present embodiment, when the text obtained from the acquired information source is a series of sentences related to one topic, the series of sentences is regarded as a batch of unit articles, and keyword analysis is performed for each unit article. A text PN value obtained by quantifying the emotion held by the user regarding the unit article is calculated (S107).

その後、各キーワードとともに、各キーワードについてPN値設定部201が設定したPN値とを関連づけて、ユーザー情報データベース50に蓄積するとともに、ステップS102〜S107によって加工された情報ソースを単位記事毎に、文章PN値を関連づけて、情報ソースデータベース40aに蓄積する(S108)。   After that, each keyword is associated with the PN value set by the PN value setting unit 201 for each keyword and stored in the user information database 50, and the information source processed in steps S102 to S107 is written for each unit article. The PN values are associated and stored in the information source database 40a (S108).

この情報ソースの蓄積に合わせて、予め或いは定期的に、各単語に対するPN値の収集も行う(S301)。このPN値の収集方法としては、例えば、SNSにおける「いいね!」ボタンのクリックなど賛同操作、レビュー入力などの評価操作を収集したり、各キーワードに対する心証をアンケート手続によって収集したりするなどが挙げられる。この収集されたPN値は、キーワード毎に「+」、「−」及び数値(0を含む。)として紐付けられて設定され、ユーザー情報データベース50に蓄積される。   In accordance with the accumulation of information sources, PN values for each word are also collected in advance or periodically (S301). As a method for collecting the PN value, for example, an approval operation such as a click on a “Like” button in SNS, an evaluation operation such as a review input, or a testimony for each keyword is collected by a questionnaire procedure. Can be mentioned. The collected PN values are set as “+”, “−” and numerical values (including 0) for each keyword, and are stored in the user information database 50.

そして、ユーザーとの対話においてユーザーからの問いかけなどの入力があった場合には(S201)、ユーザーによる入力データがテキストデータではない場合には、必要に応じてテキストデータに変換し、不要なデータが含まれている場合にはクレンジング処理を施す(S202)。テキスト化処理としては、例えば、取得されたデータが音声であるときに音声認識処理によりテキスト化したり、映像や動画であるときに画像認識処理により写っている人物や場所等を所定の単語に置き換えたりすることが挙げられる。また、クレンジング処理としては、Webページに含まれるタグデータやその他の制御文字、音声に含まれる不要な発生やノイズなどを排除することが挙げられる。   If there is an input such as a question from the user in the dialogue with the user (S201), if the input data by the user is not text data, it is converted to text data as necessary, and unnecessary data is obtained. Is included, cleansing processing is performed (S202). As text conversion processing, for example, when the acquired data is speech, it is converted to text by speech recognition processing, or when it is a video or a moving image, a person or a place shown in the image recognition processing is replaced with a predetermined word. Can be mentioned. In addition, the cleansing process may include removing tag data and other control characters included in the Web page, unnecessary generation and noise included in the voice, and the like.

このようにテキスト化され不要なデータが削除されたテキストデータについて、形態素解析を行うとともに、省略された主語などの推定を行う(S203〜S205)。具体的には、情報ソースについて、センテンスを抽出し、各センテンスを構成する単語に関する品詞を解析し、省略された単語を検出し、そのセンテンスの当該情報ソース内における位置関係に基づいて、当該省略単語の品詞に応じた単語を推定単語として検出して、この推定単語を省略単語の検出位置に推定単語を追加して、テキストデータを再構成する。また、省略された単語が追加され再構成されたテキストデータについて、木構造の解析を行い、木構造に基づくフィルタリングを行う。具体的には、図4Eに示すように、文章構造が分岐R1,R2を有する複文などになっている場合(同図(a))に、省略された主語W301を追加して再構成されたセンテンスについて、分岐毎に単語の出現頻度を解析して、単語の優先度を設定し、優先度の低い分岐に含まれる単語を無視するなどのフィルタリングを行う。図4Eに示した例では、分岐R1には単語W101及びW102が含まれ(同図(b))、分岐R2には、単語W102〜103の3つ含まれていることから(同図(c))、分岐R2の優先度を高くして、低い分岐R1に含まれる単語W101を無視し、分岐R2側の単語のみをカウントする。   In this way, morphological analysis is performed on the text data that has been converted into text and from which unnecessary data has been deleted, and the omitted subject and the like are estimated (S203 to S205). Specifically, for an information source, the sentence is extracted, the part of speech related to the words constituting each sentence is analyzed, the omitted word is detected, and the omission is performed based on the positional relationship of the sentence in the information source. A word corresponding to the part of speech of the word is detected as an estimated word, the estimated word is added to the abbreviated word detection position, and the text data is reconstructed. In addition, a tree structure is analyzed for text data reconstructed by adding omitted words, and filtering based on the tree structure is performed. Specifically, as shown in FIG. 4E, when the sentence structure is a compound sentence having branches R1 and R2 (FIG. 4A), it is reconstructed by adding the omitted subject W301. The sentence is subjected to filtering such as analyzing the appearance frequency of the word for each branch, setting the priority of the word, and ignoring the word included in the branch having a low priority. In the example shown in FIG. 4E, the branch R1 includes the words W101 and W102 (FIG. 4B), and the branch R2 includes the three words W102 to 103 (FIG. 4C). )), The priority of the branch R2 is increased, the word W101 included in the lower branch R1 is ignored, and only the word on the branch R2 side is counted.

次いで、情報ソースから得られたテキストデータから、固有名詞キーワード、事象キーワード及び環境キーワードを抽出するとともに、抽出された各キーワードに対するユーザーのポジティブ又はネガティブの度合いを示すPN値を設定する(S206)。このキーワードの検出や、PN値の設定に際しては、いわゆるシソーラス辞書を用いて、類義語のマージを行う。具体的には、単語の上位又は下位関係、部分又は全体関係、同義関係、類義関係の少なくとも一つに基づいて単語を分類し、体系づけたシソーラス辞書に基づいて、解析対象となる単語を分類するシソーラス分類を行う。   Next, a proper noun keyword, an event keyword, and an environment keyword are extracted from the text data obtained from the information source, and a PN value indicating the degree of positive or negative of the user for each extracted keyword is set (S206). In detecting the keyword and setting the PN value, synonyms are merged using a so-called thesaurus dictionary. Specifically, the words to be analyzed are classified based on at least one of the upper or lower relationship, partial or whole relationship, synonym relationship, and synonym relationship of the words, and the systematic thesaurus dictionary Perform a thesaurus classification to classify.

併せて、本実施形態では、取得された情報ソースから得られたテキストが、一つの話題に関連する一連の文章である場合、その一連の文章を一塊の単位記事として、単位記事毎にキーワード解析部106に入力して、当該単位記事に関してユーザーが抱いている感情を数値化した文章PN値を算出する(S207)。その後、回答生成部107は、文章PN値算出部203が算出した文章PN値に基づき、情報ソース取得部101を通じて検索を行い、ユーザーに対する回答を生成する(S208)。   In addition, in the present embodiment, when the text obtained from the acquired information source is a series of sentences related to one topic, the series of sentences is regarded as a batch of unit articles, and keyword analysis is performed for each unit article. A text PN value obtained by quantifying the emotion held by the user with respect to the unit article is calculated (S207). Thereafter, the answer generation unit 107 performs a search through the information source acquisition unit 101 based on the sentence PN value calculated by the sentence PN value calculation unit 203 and generates an answer to the user (S208).

(PN値の学習処理)
上述したステップS206におけるPN値の設定では、ユーザー操作によってPN値を設定したが、本実施形態では、ユーザーがPN値を設定したキーワード以外のキーワードについては、学習機能により自動的に一般的なPN値を設定することができる。図4Dは、学習機能の動作を示すフローチャート図であり、図4Dは、学習時のデータ処理の概要を示す説明図である。
(PN value learning process)
In the setting of the PN value in step S206 described above, the PN value is set by a user operation. However, in this embodiment, a keyword other than the keyword for which the user has set the PN value is automatically set to a general PN by the learning function. A value can be set. FIG. 4D is a flowchart illustrating the operation of the learning function, and FIG. 4D is an explanatory diagram illustrating an overview of data processing during learning.

図4C及び図4Dに示すように、学習処理にあたり、先ず一般的なPN値を学習するためのテンプレートデータD101を生成する(S801)。このトレーニングデータD102は、テンプレートデータD101において、固有名詞や、ユーザーが既にPN値を設定したキーワードを、一般的な代名詞、動詞に置き換えたうえで、その置きかえられた文章(テキストデータ)に対する文章PN値(基準文章PN値)を設定したテーブルデータである。詳述すると、テンプレートデータD101には、固有名詞や、ユーザーが既にPN値を設定した動詞、形容動詞などのキーワードA〜Eを含むセンテンスが複数格納されている。   As shown in FIGS. 4C and 4D, in the learning process, first, template data D101 for learning a general PN value is generated (S801). This training data D102 is a sentence PN corresponding to the replaced sentence (text data) after replacing a proper noun or a keyword for which a user has already set a PN value with a general pronoun or verb in the template data D101. This is table data in which values (reference text PN values) are set. Specifically, the template data D101 stores a plurality of sentences including keywords A to E such as proper nouns, verbs for which the user has already set PN values, and adjective verbs.

次いで、学習したPN値を評価するためのトレーニングデータD102を作成する(S802)。このトレーニングデータD102は、テンプレートデータD101において、固有名詞や、ユーザーが既にPN値を設定したキーワードを、一般的な代名詞、動詞に置き換えたうえで、その置きかえられた文章(テキストデータ)に対する文章PN値(基準文章PN値)を設定したテーブルデータである。詳述すると、テンプレートデータD101には、固有名詞や、ユーザーが既にPN値を設定した動詞、形容動詞などのキーワードA〜Eを含むセンテンスが複数格納されており、トレーニングデータD102では、各レコードのテキスト中に含まれている固有名詞A〜Eが、「私」や「彼(彼女)」等の代名詞に置き換えられており、一般的な名詞や動詞、形容動詞など固有名詞が代名詞に置き換えられた文章について学習の基準となる基準文章PN値が設定される。この基準文章PN値は、単一又は複数のユーザー若しくはユーザー以外の操作者が入力したものであり、専門のオペレーターが入力したり、Web上のアンケートなどにより収集することができる。   Next, training data D102 for evaluating the learned PN value is created (S802). This training data D102 is a sentence PN corresponding to the replaced sentence (text data) after replacing a proper noun or a keyword for which a user has already set a PN value with a general pronoun or verb in the template data D101. This is table data in which values (reference text PN values) are set. More specifically, the template data D101 stores a plurality of sentences including keywords A to E such as proper nouns, verbs for which the user has already set PN values, and adjective verbs. Proper nouns A to E included in the text have been replaced with pronouns such as "I" and "he (she)", and proper nouns such as general nouns, verbs, and adjective verbs have been replaced with pronouns A reference sentence PN value that is a reference for learning is set for each sentence. This reference sentence PN value is input by a single or a plurality of users or an operator other than the user, and can be input by a specialized operator or collected by a questionnaire on the Web.

次いで、学習用PN値セットを選定し、テンプレートデータD103へのPN値の当て嵌めを行う(S803)。詳述すると、テンプレートデータD101に含まれる固有名詞、及びその文章中における品詞を解析し、各固有名詞をその品詞に応じた代名詞に置き換えたうえで、固有名詞以外の一般名詞や一般動詞などの単語O〜Uに対してランダムな値のPN値を設定した学習用PN値セットD104を当てはめて学習用データD105を生成する。   Next, a learning PN value set is selected, and the PN value is fitted to the template data D103 (S803). More specifically, after analyzing the proper nouns included in the template data D101 and the part of speech in the sentence and replacing each proper noun with a pronoun corresponding to the part of speech, the general noun other than the proper noun, the general verb, etc. Learning data D105 is generated by applying a learning PN value set D104 in which random PN values are set to the words O to U.

そして、学習用データD105について、学習文章PN値を算出する(S804)とともに、その学習用PN値セットD104の適応度を算出する(S805)。すなわち、テンプレートデータD103に学習用PN値セットD104のPN値を当てはめて得られる文章PN値算出部0により学習文章PN値を算出させ、この学習文章PN値と基準文書PN値と比較し、その一致度から適応度を算出する。   Then, the learning text PN value is calculated for the learning data D105 (S804), and the fitness of the learning PN value set D104 is calculated (S805). That is, the learning sentence PN value is calculated by the sentence PN value calculation unit 0 obtained by applying the PN value of the learning PN value set D104 to the template data D103, and the learning sentence PN value is compared with the reference document PN value. The fitness is calculated from the coincidence.

本実施形態では、この学習文章PN値と基準文書PN値との比較は、学習用PN値セットD104内のPN値を変動させつつ、学習用文章PN値の算出、及び基準文書PN値との比較を複数世代にわたり実行し、世代間で最良の、学習用PN値セットを選定する。そのために、変動された各世代のPN値のセットに基づく学習文章PN値と基準文書PN値との一致度から、各世代における適応度を算出し、世代間の適応度を比較し、その時点における最良又は最悪、平均的或いは代表的なセットを記憶保持しておく(S806)。   In the present embodiment, the comparison between the learning sentence PN value and the reference document PN value is performed by changing the PN value in the learning PN value set D104 and calculating the learning sentence PN value and the reference document PN value. The comparison is performed over a plurality of generations, and the best learning PN value set is selected among the generations. For this purpose, the fitness level of each generation is calculated from the matching degree between the learning text PN value and the reference document PN value based on the set of PN values of the various generations, and the fitness levels between the generations are compared. The best, worst, average, or representative set of is stored and held (S806).

次いで、記憶保持された世代数が所定数に達するか、或いは算出される適応度が所定範囲に収束するかを判断し(S807)、記憶保持された世代数が所定数に達せず、且つ算出される適応度が所定範囲に収束していない場合には(S807における”N”)、学習用PN値セットの選定及び適応度の算出等(S803〜S806)を繰り返させる。このとき、ステップS803における学習用PN値セットの選定では、適応度が上位である複数セットの一部を抽出して組み合わせて次世代の学習用PN値セットを生成する突然変異生成処理を行う。   Next, it is determined whether the number of generations stored and held reaches a predetermined number or the calculated fitness converges to a predetermined range (S807), and the number of generations stored and held does not reach the predetermined number and is calculated. When the fitness level to be applied does not converge to the predetermined range (“N” in S807), the selection of the learning PN value set, the calculation of the fitness level, and the like (S803 to S806) are repeated. At this time, in the selection of the learning PN value set in step S803, a mutation generation process for generating a next generation learning PN value set by extracting a part of a plurality of sets having higher fitness and combining them is performed.

そして、ステップS807において、記憶保持された世代数が所定数に達するか、或いは算出される適応度が所定範囲に収束した場合には(S807における”Y”)、世代間において最上位の学習文章PN値に係るキーワード及び設定されたPN値のセットを、一般的なPN値としてPN値設定部201に設定させる(S808)。   In step S807, when the number of generations stored and held reaches a predetermined number, or when the calculated fitness has converged to a predetermined range (“Y” in S807), the highest learning sentence among the generations The keyword related to the PN value and the set of the set PN value are set in the PN value setting unit 201 as a general PN value (S808).

本機能によれば、ユーザーとの対話に関してユーザーが抱いている感情を数値化した文章PN値を算出し、その文章PN値に合致した情報を検索し、選定し、加工して提示することができるため、話し手の感情が大きく影響する日常会話において、話題の中心となっている人物や団体、場所などに対して、話し手がどのような感情を抱いているかによって、ユーザーが所望する検索結果や回答表現を提供することが可能となる。   According to this function, it is possible to calculate a sentence PN value that quantifies the feelings that the user has about the dialogue with the user, search for information that matches the sentence PN value, select it, process it, and present it Therefore, in daily conversations where the speaker's emotions greatly influence, the search results desired by the user can be determined depending on what emotions the speaker has about the person, group, place, etc. It becomes possible to provide an answer expression.

特に、本実施形態では、情報ソースやユーザーからの問いかけについて、推定単語を省略単語の検出位置に推定単語を検出し、省略された主語や目的語などを推定することから、暗に話題の中心となっている人物や団体、場所をキーワードとして検索すべき情報を選定し、加工することができ、より正確にユーザーが所望する検索結果や回答表現を提供することが可能となる。   In particular, in the present embodiment, for questions from information sources and users, the estimated word is detected at the detection position of the abbreviated word, and the abbreviated subject or object is estimated, so the center of the topic is implied. It is possible to select and process information to be searched using the person, group, and place as keywords, and to provide search results and answer expressions desired by the user more accurately.

また、本実施形態では、いわゆるワードシソーラス分類を応用することにより、情報の検索や回答の生成に際し、同義関係、類義関係を考慮することができ、単純に音声やテキストを解析して得られるキーワード検索では漏れてしまう情報を適正に包含することができ、より正確にユーザーが所望する検索結果や回答表現を提供することが可能となる。   Also, in the present embodiment, by applying so-called word thesaurus classification, synonym relations and synonym relations can be taken into consideration when searching for information and generating answers, and it is obtained by simply analyzing speech and text. It is possible to properly include information that is leaked by keyword search, and it is possible to provide search results and answer expressions desired by the user more accurately.

さらに、本実施形態では、情報データから得られるテキストデータに含まれる文章内における、文章構造が分岐を有する複文などになっている場合にも、分岐毎に単語の出現頻度を解析して、単語の優先度を設定しフィルタリングすることで、主たる話題となっているキーワードを適切に抽出することができる。   Further, in the present embodiment, even when the sentence structure is a compound sentence having a branch in the sentence included in the text data obtained from the information data, the word appearance frequency is analyzed for each branch and the word is analyzed. By setting the priority of and filtering, keywords that are the main topic can be appropriately extracted.

以上述べたように、本実施形態によれば、話し手であるユーザーが、特定の話題に対してポジティブな感情を抱いているか、ネガティブな感情を抱いているかを予測することによって、曖昧な日常会話をより正確に解析することができる。この結果、日常生活の中で大まかに無造作に交わされる会話のような自然文章を正確に解析し、さらには、話し相手の意図を推定して回答できる思考方法を模倣したコミュニケーションを図ることができる。   As described above, according to this embodiment, an ambiguous daily conversation can be achieved by predicting whether a user who is a speaker has a positive emotion or a negative emotion with respect to a specific topic. Can be analyzed more accurately. As a result, it is possible to accurately analyze natural sentences such as conversations that are roughly and casually exchanged in daily life, and furthermore, it is possible to achieve communication that imitates the thinking method that can answer by estimating the intention of the other party.

(2−2)ワード間距離算出機能
ワード間距離算出機能300は、動的クラスタリング部303と、群体パラメーター設定部301とを備えている。
(2-2) Interword Distance Calculation Function The interword distance calculation function 300 includes a dynamic clustering unit 303 and a group parameter setting unit 301.

群体パラメーター設定部301は、各キーワードに対して、入力されたキーワードの重要度、及びキーワード間の関連性の度合いに関する群体パラメーターを設定するモジュールである。本実施形態にかかる群体パラメーターとしては、
単語の出現頻度(暗黙の主語を含む。)
他のワードと同じ記事(話題)や文章、段落、文節内に出現した回数
文章の木構造において並列又は直列かの回数
その単語に係る「の」、「が」、「は」の他の助詞の出現頻度
出現時刻
を用いる。
The group parameter setting unit 301 is a module that sets, for each keyword, a group parameter related to the importance of the input keyword and the degree of relevance between the keywords. As the colony parameters according to this embodiment,
Word frequency (including implicit subject)
Number of occurrences in the same article (topic), sentence, paragraph, or clause as another word Number of parallel or serial numbers in the tree structure of the sentence "No", "ga", "ha" other particles related to the word The appearance frequency appearance time of is used.

なお、固有名詞はそれぞれマージしたあとのものを使用し、一般的な用語(勝つ、負ける)は、シソーラス辞書に引き当てて同義語をグルーピングしたあとに使用してもよい。この場合、出現頻度のカウントについては、グループ単位でのシソーラス辞書に対する引き当て数とすることができる。また、同義語のグループ内でもニュアンスや強調などを考慮した重み付をして頻度を算出してもよい。例えば、「勝つ」という文言と「連勝」という文言とは、「勝つ」という括りで同義語として扱うことができるため、"勝"が2回というようにカウントすることができ、さらにはその強調するニュアンスを加味した重みをつけて、1+1×2=3というように計算してもよい。   Note that proper names may be used after merging, and general terms (winning, losing) may be used after assigning to a thesaurus dictionary and grouping synonyms. In this case, the appearance frequency count can be assigned to the thesaurus dictionary in units of groups. Also, the frequency may be calculated by weighting in consideration of nuances and emphasis even within the synonym group. For example, the word “win” and the word “continuous win” can be treated as synonyms in the group “win”, so “win” can be counted twice, and further The weight may be calculated in consideration of the nuances to be calculated, such as 1 + 1 × 2 = 3.

また、さらにこの群体パラメーターには、あるキーワードが出現しない経過時間に関する風化係数が含まれ、各キーワードに付与された風化係数に応じて、そのキーワードの重要度が減衰されるようになっている。この出現しない経過時間は上記(5)に掲げたような、最後の出現時刻からの経過時間に基づいて算出することができる。   Further, this group parameter includes a weathering coefficient relating to the elapsed time when a certain keyword does not appear, and the importance of the keyword is attenuated according to the weathering coefficient assigned to each keyword. The elapsed time that does not appear can be calculated based on the elapsed time from the last appearance time as described in (5) above.

このようにして算出された群体パラメーターは、図5C(b)に示すようなデータセットとして蓄積される。すなわち、各ワードに関する出現頻度や助詞係数、木構造パターン、関連テキストなどをメインのテーブルデータD1として、このテーブルデータD1の項目「助詞係数」にはテーブルデータD11をリレーションで関連づけ、項目「木構造」には、テーブルデータD12をリレーションで関連づけた構造を有するリレーショナルデータベースとなっている。これにより、一つの単語に、その単語自身の出現頻度やや関連テキストデータの他、他の単語それぞれとの関係性を示す助詞係数、木構造などが紐付けられており、動的クラスタリングにおける変位処理を行う場合には、図5Bに示すように、中心となる各単語を動的オブジェクトとして順番に取り上げ、その単語と紐付けられたテーブルデータD11,D12(図5C)中にある単語を仮想空間上の影響範囲R内で探索し、検出されればその他の単語との関係から移動方向や移動量を決定する。   The colony parameters calculated in this way are accumulated as a data set as shown in FIG. 5C (b). That is, the appearance frequency, particle particle, tree structure pattern, related text, etc. relating to each word are used as the main table data D1, and the table data D11 is related to the item “particle particle” of the table data D1 by a relation. Is a relational database having a structure in which the table data D12 is related by a relation. Thus, in addition to the frequency of appearance of the word itself and related text data, a particle coefficient indicating a relationship with each other word, a tree structure, etc. are linked to one word, and displacement processing in dynamic clustering is performed. 5B, as shown in FIG. 5B, each central word is picked up as a dynamic object in order, and the words in the table data D11 and D12 (FIG. 5C) linked to the word are displayed in the virtual space. A search is made within the above influence range R, and if detected, the movement direction and movement amount are determined from the relationship with other words.

このとき複数の単語が検出された場合には、それぞれに対するベクトル(F及びF)を計算し、テーブルデータD11,D12内で検出されなかった場合には、その検出されなかった単語をその中心となった単語(動的オブジェクト)の影響範囲Rから追い出すように移動方向及び移動量のベクトル(F)を決定する。さらに、他の動的オブジェクトが中心となったときに、その他の動的オブジェクトについての変位処理によるベクトル(F)も加算される。そして、それらのベクトルF〜Fの合成ベクトルに基づいて変位処理を実行する。図5Bの例では、Word_k及びWord_lが影響範囲R内で関連づけられた単語として検出され、Word_oが関連のない単語として検出されているとともに、Word_i自身は、Word_zに対して関連のない単語として検出されている。 If a plurality of words are detected at this time, vectors (F 1 and F 2 ) are calculated for the respective words. If not detected in the table data D11 and D12, the undetected words are determined as the words. A moving direction and moving amount vector (F 4 ) is determined so as to be expelled from the influence range R of the central word (dynamic object). Furthermore, when another dynamic object becomes the center, a vector (F 3 ) obtained by displacement processing for the other dynamic object is also added. Then, to execute a displacement process based on their composite vector of the vector F 1 ~F 4. In the example of FIG. 5B, Word_k and Word_l are detected as related words in the influence range R, Word_o is detected as an unrelated word, and Word_i itself is detected as an unrelated word to Word_z. Has been.

そして、群体パラメーター設定部301で設定された群体パラメーターは、ユーザー情報データベース50に蓄積されるとともに、動的クラスタリング部303に入力される。
動的クラスタリング部303は、図5C(a)に示すように、人や環境、話者の趣味や気分などいろいろな指標や切り口によって、言葉相互の関係性(距離)をクラスタリングするモジュールである。例えば、同じ野球ファンであっても、そのユーザーがピッチャーのファンである場合と、バッターのファンである場合とでは、そのチーム名や選手名、監督名などの固有名詞相互の関係性や、それぞれの重要度が異なる。
The group parameters set by the group parameter setting unit 301 are accumulated in the user information database 50 and input to the dynamic clustering unit 303.
As shown in FIG. 5C (a), the dynamic clustering unit 303 is a module for clustering relationships (distances) between words based on various indexes and points of view such as people, environments, speaker hobbies and moods. For example, even if the same baseball fan is a pitcher fan or a batter fan, the relationship between proper names such as team name, player name, manager name, etc. The importance of is different.

この動的クラスタリング部303によるクラスタリングは、各キーワードを、図5Bに示すように、各キーワードに設定された群体パラメーターに応じた挙動を取る動的オブジェクトとして仮想空間上にそれぞれ配置し、これらの動的オブジェクトに対する変位処理により行われる。具体的には、各動的オブジェクトについて、各動的オブジェクトを中心とする影響範囲Rに存在する他の動的オブジェクトに対する位置関係に基づき、一定のルールに則った変位処理を実行し、前記仮想空間上における各キーワード間の距離をワード間距離として算出する。この動的クラスタリング部303により算出された各ワード間距離は、話題ワールドマップとして、ユーザー情報データベース50に蓄積されるとともに、回答生成部107に入力される。   In the clustering by the dynamic clustering unit 303, as shown in FIG. 5B, each keyword is arranged in a virtual space as a dynamic object that takes a behavior according to a group parameter set for each keyword. This is performed by a displacement process for the target object. Specifically, for each dynamic object, based on the positional relationship with respect to other dynamic objects existing in the influence range R centering on each dynamic object, a displacement process according to a certain rule is executed, and the virtual object The distance between each keyword in the space is calculated as the distance between words. The distances between words calculated by the dynamic clustering unit 303 are accumulated in the user information database 50 as a topic world map and input to the answer generation unit 107.

この動的クラスタリング部303による変位処理では、先ず、中心となる動的オブジェクトを自動で設定し、その中心となった動的オブジェクトの影響範囲内にある他の動的オブジェクトについて、所定のルールに従って動的オブジェクトを移動させる。この中心となる動的オブジェクトの選定は、出現頻度やユーザーの切り口(話題や記事等)に応じて行う。そして、ここで用いられるルールには、
(a)各キーワードの関連性の度合い基づいて、所定の影響範囲内に存在する他の動的オブジェクトに接近する方向に移動させること
(b)各キーワードの重要度に基づいて、移動量を決定すること
(c)各キーワードの関連性がない動的オブジェクト間は、影響範囲外へ追い出すようにして、離間する方向に移動させること
が含まれる。
In the displacement processing by the dynamic clustering unit 303, first, the central dynamic object is automatically set, and other dynamic objects within the influence range of the central dynamic object are set according to a predetermined rule. Move dynamic objects. The selection of the central dynamic object is performed according to the appearance frequency and the user's point of view (topic, article, etc.). And the rules used here are:
(a) Based on the degree of relevance of each keyword, move it in a direction approaching another dynamic object that exists within the predetermined influence range.
(b) Determine the amount of movement based on the importance of each keyword
(c) Moving between dynamic objects that are not related to each keyword is moved out of the range of influence and moved away from each other.

このルールに従って変位処理をさせると、図5Bに示すように、例えば、中心となった動的オブジェクトWord_iと関連づけられた他の動的オブジェクトWord_k及びWord_lに対するベクトル(F及びF)を計算し、関連づけられていない動的オブジェクトWord_oを、影響範囲Rから追い出すように移動方向及び移動量のベクトル(F)を決定する。さらに、他の動的オブジェクトWord_zが中心となったときに、その他の動的オブジェクトWord_zについての変位処理によるベクトル(F)も加算される。そして、それらのベクトルF〜Fの合成ベクトルに基づいて変位処理を実行する。 When displacement processing is performed according to this rule, as shown in FIG. 5B, for example, vectors (F 1 and F 2 ) for other dynamic objects Word_k and Word_l associated with the central dynamic object Word_i are calculated. The vector (F 4 ) of the movement direction and the movement amount is determined so as to drive out the unrelated dynamic object Word_o from the influence range R. Further, when the other dynamic object Word_z becomes the center, the vector (F 3 ) obtained by the displacement process for the other dynamic object Word_z is also added. Then, to execute a displacement process based on their composite vector of the vector F 1 ~F 4.

なお、上記辞書データベース40bは、単語の上位又は下位関係、部分又は全体関係、同義関係、類義関係の少なくとも一つに基づいて単語を分類し、体系付けたシソーラス辞書に基づいて、解析対象となる単語を分類するシソーラス辞書を格納している。   Note that the dictionary database 40b classifies words based on at least one of upper or lower relations, partial or whole relations, synonymous relations, and synonymous relations of words, and based on a structured thesaurus dictionary, A thesaurus dictionary for classifying the following words is stored.

(群体パラメーター算出機能の動作)
以上の構成を有する群体パラメーター算出機能は、以下のように動作する。図3Bは、群体パラメーター算出機能の動作順序を示すフローチャート図である。
先ず、ユーザーとの対話に先行し且つ常時周期的に、予め情報ソースの収集を行う(S401)。具体的には、情報ソース取得部101が、Web等の通信ネットワークを通じて取得される一般的な情報の他、端末内に蓄積されている各ユーザーに固有のプライベートなローカルデータなどを情報ソースとして収集する。Web等の通信ネットワークにおける情報収集としては、Webクローラーと呼ばれる、通信ネットワーク上のリンクを辿ってWebデータ間を遷移することにより、通信ネットワーク上のありとあらゆる情報データを回収する検索ロボットプログラムを用いる手法が挙げられる。一方、プライベートなローカルデータの収集としては、ユーザーがWeb検索した際のキーワードや実際にアクセスしたWebページ、コンテンツの他、ユーザーが作成した文書、送受信した電子メール、ユーザーのスケジュールなどが挙げられる。また、情報ソースとしては、その情報を取得した時点の日付や時刻、場所、気象情報、関連するニュースなどを紐付けして取得するようにしてもよい。
(Operation of colony parameter calculation function)
The colony parameter calculation function having the above configuration operates as follows. FIG. 3B is a flowchart illustrating an operation sequence of the colony parameter calculation function.
First, information sources are collected in advance in advance and periodically before the dialogue with the user (S401). Specifically, the information source acquisition unit 101 collects, as general information acquired through a communication network such as the Web, private local data unique to each user stored in the terminal as an information source. To do. As a method for collecting information in a communication network such as the Web, there is a technique called a Web crawler, which uses a search robot program that collects all kinds of information data on the communication network by following links on the communication network and transitioning between Web data. Can be mentioned. On the other hand, the collection of private local data includes keywords created when a user searches the Web, Web pages actually accessed, contents, documents created by the user, e-mails sent and received, user schedules, and the like. Further, as the information source, the date and time when the information is acquired, the location, the weather information, the related news, and the like may be linked and acquired.

次いで、収集された情報データがテキストデータではない場合には、必要に応じてテキストデータに変換し、不要なデータが含まれている場合にはクレンジング処理を施す(S402)。テキスト化処理としては、例えば、取得されたデータが音声であるときに音声認識処理によりテキスト化したり、映像や動画であるときに画像認識処理により写っている人物や場所等を所定の単語に置き換えたりすることが挙げられる。また、クレンジング処理としては、Webページに含まれるタグデータやその他の制御文字、音声に含まれる不要な発生やノイズなどを排除することが挙げられる。   Next, if the collected information data is not text data, it is converted to text data as necessary, and if unnecessary data is included, cleansing processing is performed (S402). As text conversion processing, for example, when the acquired data is speech, it is converted to text by speech recognition processing, or when it is a video or a moving image, a person or a place shown in the image recognition processing is replaced with a predetermined word. Can be mentioned. In addition, the cleansing process may include removing tag data and other control characters included in the Web page, unnecessary generation and noise included in the voice, and the like.

このようにテキスト化され不要なデータが削除されたテキストデータについて、形態素解析を行うとともに、省略された主語などの推定を行う(S403,S404)。具体的には、情報ソースについて、センテンスを抽出し、各センテンスを構成する単語に関する品詞を解析し、省略された単語を検出し、そのセンテンスの当該情報ソース内における位置関係に基づいて、当該省略単語の品詞に応じた単語を推定単語として検出して、この推定単語を省略単語の検出位置に推定単語を追加して、テキストデータを再構成する。   In this way, morphological analysis is performed on text data from which unnecessary data has been deleted, and the omitted subject is estimated (S403, S404). Specifically, for an information source, the sentence is extracted, the part of speech related to the words constituting each sentence is analyzed, the omitted word is detected, and the omission is performed based on the positional relationship of the sentence in the information source. A word corresponding to the part of speech of the word is detected as an estimated word, the estimated word is added to the abbreviated word detection position, and the text data is reconstructed.

次いで、情報ソースから得られたテキストデータから、キーワードを抽出するとともに、助詞係数の算出を行う(S405)。このキーワードの検出に際しては、いわゆるシソーラス辞書を用いて、類義語のマージを行う。具体的には、単語の上位又は下位関係、部分又は全体関係、同義関係、類義関係の少なくとも一つに基づいて単語を分類し、体系付けたシソーラス辞書に基づいて、解析対象となる単語を分類するシソーラス分類を行う。   Next, a keyword is extracted from the text data obtained from the information source, and a particle coefficient is calculated (S405). When this keyword is detected, synonyms are merged using a so-called thesaurus dictionary. Specifically, words are classified based on at least one of the upper or lower relationship, partial or whole relationship, synonym relationship, and synonym relationship of words, and the word to be analyzed is determined based on a structured thesaurus dictionary. Perform a thesaurus classification to classify.

また、助詞係数の算出では、ワード間距離を設定する対象となっているキーワードに付随する助詞の種類に基づいて、群体パラメーターを設定する。例えば、図5Aに示すように、野球の話題において、解析対象が「チームA」という単語であった場合、その単語に続く助詞がいずれとなっているかを解析し、さらにその後に続く単語との関係性の強弱を推定する。ここでは、「の」>「が、は」>「と」>その他、というように助詞係数を設定している場合、図5Aに示した例では、単語「チームA」と単語「マジック」とは助詞「が」で連結されており、「選手S」とは助詞「の」で連結されていることから、「チームA」と「選手S」との関係性は、「チームA」と「マジック」との関係性よりも強いと設定される。ここで抽出された助詞係数は、群体パラメーター設定部301に入力される。   In the calculation of the particle coefficient, the group parameter is set based on the type of particle attached to the keyword for which the distance between words is set. For example, as shown in FIG. 5A, in a baseball topic, when the analysis target is the word “Team A”, it is analyzed which particle is followed by the word, Estimate the strength of the relationship. Here, in the example shown in FIG. 5A, when the particle coefficient is set such as “no”> “gahaha”> “to”> other, the word “team A” and the word “magic” Are connected by the particle “ga” and “player S” is connected by the particle “no”, so the relationship between “team A” and “player S” is “team A” and “ It is set to be stronger than the relationship with “magic”. The particle coefficient extracted here is input to the group parameter setting unit 301.

次いで、省略された単語が追加され再構成されたテキストデータについて、文章内における文節を切り出し、文節間の分岐関係を抽出して、抽出された各分岐に基づく文章の木構造を算出するとともに、群体パラメーター設定部301は、ステップS405で算出した助詞係数と、センテンス解析部102が算出した木構造とに基づいて、群体パラメーターを設定する(S406)。   Next, for the text data reconstructed by adding the omitted word, extract the clauses in the sentence, extract the branch relationship between the phrases, calculate the tree structure of the sentence based on each extracted branch, The colony parameter setting unit 301 sets colony parameters based on the particle coefficient calculated in step S405 and the tree structure calculated by the sentence analysis unit 102 (S406).

そして、各キーワードを動的オブジェクトとして、群体パラメーターに従って仮想空間上で変位処理をするシミュレーションを実行し、動的クラスタリングを行う(S407)。具体的には、各キーワードに設定された群体パラメーターに応じた挙動を取る動的オブジェクトとして仮想空間上にそれぞれ配置し、各動的オブジェクトについて、各動的オブジェクトを中心とする所定範囲に存在する他の動的オブジェクトに対する位置関係に基づき、一定のルールに則った変位処理を実行する。このシミュレーションを繰り返すことにより、各キーワードは、関係性の強い単語同士はそれぞれ集合して群体を形成し、関係性の弱い単語同士は離間していく。このシミュレーションは、話題毎に行い、このシミュレーションの結果として得られた、各単語の仮想空間上の座標を、話題毎の話題ワールドマップとして生成し、蓄積しておく(S407)。   Then, using each keyword as a dynamic object, a simulation for performing displacement processing in the virtual space according to the group parameter is executed to perform dynamic clustering (S407). Specifically, each dynamic object is arranged in a virtual space as a dynamic object that takes a behavior according to the group parameter set in each keyword, and each dynamic object exists in a predetermined range centering on each dynamic object. Based on the positional relationship with respect to other dynamic objects, displacement processing according to a certain rule is executed. By repeating this simulation, each keyword gathers words having strong relations to form a group, and words having weak relations are separated from each other. This simulation is performed for each topic, and the coordinates in the virtual space of each word obtained as a result of this simulation are generated and stored as a topic world map for each topic (S407).

その後、各キーワードとともに、各キーワードについて群体パラメーター設定部301が設定した群体パラメーターとを関連づけて、ユーザー情報データベース50に蓄積するとともに、ステップS402〜S407によって加工された情報ソースを単位記事毎に、話題ワールドマップを関連づけて、ユーザー情報データベース50に蓄積する(S408)。   Then, together with each keyword, the group parameter set by the group parameter setting unit 301 for each keyword is associated and stored in the user information database 50, and the information source processed in steps S402 to S407 is the topic for each unit article. The world map is associated and stored in the user information database 50 (S408).

そして、ユーザーとの対話においてユーザーからの問いかけなどの入力があった場合には(S501)、ユーザーによる入力データがテキストデータではない場合には、必要に応じてテキストデータに変換し、不要なデータが含まれている場合にはクレンジング処理を施す(S502)。テキスト化処理としては、例えば、取得されたデータが音声であるときに音声認識処理によりテキスト化したり、映像や動画であるときに画像認識処理により写っている人物や場所等を所定の単語に置き換えたりすることが挙げられる。また、クレンジング処理としては、Webページに含まれるタグデータやその他の制御文字、音声に含まれる不要な発生やノイズなどを排除することが挙げられる。   If there is an input such as a question from the user in the dialog with the user (S501), if the input data by the user is not text data, it is converted to text data as necessary, and unnecessary data is obtained. Is included, cleansing processing is performed (S502). As text conversion processing, for example, when the acquired data is speech, it is converted to text by speech recognition processing, or when it is a video or a moving image, a person or a place shown in the image recognition processing is replaced with a predetermined word. Can be mentioned. In addition, the cleansing process may include removing tag data and other control characters included in the Web page, unnecessary generation and noise included in the voice, and the like.

このようにテキスト化され不要なデータが削除されたテキストデータについて、形態素解析を行うとともに、省略された主語などの推定を行う(S503)。具体的には、情報ソースについて、センテンスを抽出し、各センテンスを構成する単語に関する品詞を解析し、省略された単語を検出し、そのセンテンスの当該情報ソース内における位置関係に基づいて、当該省略単語の品詞に応じた単語を推定単語として検出する。そして、ステップS503で得られた推定単語を省略単語の検出位置に推定単語を追加して、テキストデータを再構成する(S504)。   In this way, morphological analysis is performed on the text data that has been converted into text and from which unnecessary data has been deleted, and the omitted subject and the like are estimated (S503). Specifically, for an information source, the sentence is extracted, the part of speech related to the words constituting each sentence is analyzed, the omitted word is detected, and the omission is performed based on the positional relationship of the sentence in the information source. A word corresponding to the part of speech of the word is detected as an estimated word. Then, the estimated word obtained in step S503 is added to the omitted word detection position to reconstruct the text data (S504).

次いで、再構成されたテキストデータから、キーワードを抽出するとともに、助詞係数の算出を行う(S505)。このキーワードの検出に際しては、いわゆるシソーラス辞書を用いて、類義語のマージを行う。具体的には、単語の上位又は下位関係、部分又は全体関係、同義関係、類義関係の少なくとも一つに基づいて単語を分類し、体系付けたシソーラス辞書に基づいて、解析対象となる単語を分類するシソーラス分類を行う。   Next, a keyword is extracted from the reconstructed text data, and a particle coefficient is calculated (S505). When this keyword is detected, synonyms are merged using a so-called thesaurus dictionary. Specifically, words are classified based on at least one of the upper or lower relationship, partial or whole relationship, synonym relationship, and synonym relationship of words, and the word to be analyzed is determined based on a structured thesaurus dictionary. Perform a thesaurus classification to classify.

また、助詞係数の算出では、ワード間距離を設定する対象となっているキーワードに付随する助詞の種類に基づいて、群体パラメーターを設定する。例えば、図5Aに示すように、野球の話題において、解析対象が「チームA」という単語であった場合、その単語に続く助詞がいずれとなっているかを解析し、さらにその後に続く単語との関係性の強弱を推定する。ここでは、「の」>「が、は」>「と」>その他、というように助詞係数を設定している場合、図5Aに示した例では、単語「チームA」と単語「マジック」とは助詞「が」で連結されており、「選手S」とは助詞「の」で連結されていることから、「チームA」と「選手S」との関係性は、「チームA」と「マジック」との関係性よりも強いと設定される。ここで抽出された助詞係数は、群体パラメーター設定部301に入力される。   In the calculation of the particle coefficient, the group parameter is set based on the type of particle attached to the keyword for which the distance between words is set. For example, as shown in FIG. 5A, in a baseball topic, when the analysis target is the word “Team A”, it is analyzed which particle is followed by the word, Estimate the strength of the relationship. Here, in the example shown in FIG. 5A, when the particle coefficient is set such as “no”> “gahaha”> “to”> other, the word “team A” and the word “magic” Are connected by the particle “ga” and “player S” is connected by the particle “no”, so the relationship between “team A” and “player S” is “team A” and “ It is set to be stronger than the relationship with “magic”. The particle coefficient extracted here is input to the group parameter setting unit 301.

次いで、省略された単語が追加され再構成されたテキストデータについて、文章内における文節を切り出し、文節間の分岐関係を抽出して、抽出された各分岐に基づく文章の木構造を算出するとともに、群体パラメーター設定部301は、ステップS405で算出した助詞係数と、センテンス解析部102が算出した木構造とに基づいて、群体パラメーターを設定する(S506)。   Next, for the text data reconstructed by adding the omitted word, extract the clauses in the sentence, extract the branch relationship between the phrases, calculate the tree structure of the sentence based on each extracted branch, The colony parameter setting unit 301 sets colony parameters based on the particle coefficient calculated in step S405 and the tree structure calculated by the sentence analysis unit 102 (S506).

そして、各キーワードを動的オブジェクトとして、群体パラメーターに従って仮想空間上で変位処理をするシミュレーションを実行し、動的クラスタリングを行う(S407)。具体的には、各キーワードに設定された群体パラメーターに応じた挙動を取る動的オブジェクトとして仮想空間上にそれぞれ配置し、各動的オブジェクトについて、各動的オブジェクトを中心とする所定範囲に存在する他の動的オブジェクトに対する位置関係に基づき、一定のルールに則った変位処理を実行する。このシミュレーションを繰り返すことにより、各キーワードは、関係性の強い単語同士はそれぞれ集合して群体を形成し、関係性の弱い単語同士は離間していく。このシミュレーションは、話題毎に行い、このシミュレーションの結果として得られた、各単語の仮想空間上の座標を、話題毎の話題ワールドマップとして生成し、又は更新しておく(S507)。   Then, using each keyword as a dynamic object, a simulation for performing displacement processing in the virtual space according to the group parameter is executed to perform dynamic clustering (S407). Specifically, each dynamic object is arranged in a virtual space as a dynamic object that takes a behavior according to the group parameter set in each keyword, and each dynamic object exists in a predetermined range centering on each dynamic object. Based on the positional relationship with respect to other dynamic objects, displacement processing according to a certain rule is executed. By repeating this simulation, each keyword gathers words having strong relations to form a group, and words having weak relations are separated from each other. This simulation is performed for each topic, and the coordinates in the virtual space of each word obtained as a result of this simulation are generated or updated as a topic world map for each topic (S507).

その後、回答生成部107は、ステップS507で生成した話題ワールドマップ上におけるワード間の距離を算出し、その算出結果をワード間距離として単語間の関係性の強弱として反映させつつ、情報ソース取得部101を通じて検索を行い、ユーザーに対する回答を生成する(S508)。   Thereafter, the answer generation unit 107 calculates the distance between words on the topic world map generated in step S507, and reflects the calculation result as the strength of the relationship between words as the distance between words, while the information source acquisition unit A search is performed through 101 to generate an answer to the user (S508).

本機能によれば、話題ワールドマップ上のワード間距離を用いることにより、ユーザーの指標や切り口によって、そのユーザーが対話の中で用いている言葉相互の関係性や、話題に関する指標に基づいて関連性の高い単語をキーワードとして、そのユーザーにとって最適な情報を選定し、加工することができ、個々のユーザーが所望する検索結果や回答表現を提供することが可能となる。   According to this function, by using the distance between words on the topic world map, the user's index and point of view can be related based on the relationship between words used by the user in the conversation and the index related to the topic. Information that is most suitable for the user can be selected and processed using high-quality words as keywords, and search results and answer expressions desired by individual users can be provided.

特に、ユーザーが利用した情報データについて繰り返し一定のルールに則った変位処理を施すシミュレーションを実行することにより、関係性を有する単語は、重要度の高いものを中心として集まり、関係性のないものは離間していき、ユーザーの特性を反映させつつ動的に、より最適なワールドマップを形成することができる。また、本実施形態では、キーワードが使用されない期間に応じた風化係数によって、その使用されなくなったキーワードの重要度を減衰させるため、話題に上がらなくなった情報や死語となった流行語など、風化した単語がいつまでも検索結果に登場してしまうことを回避できる。   In particular, by executing a simulation that repeatedly performs displacement processing in accordance with certain rules for information data used by users, related words are gathered mainly with high importance, and those that are not related It is possible to form a more optimal world map dynamically while reflecting the user's characteristics. In the present embodiment, the importance of the keyword that is no longer used is attenuated by the weathering coefficient according to the period when the keyword is not used, so that the information that no longer appears on the topic or the buzzword that became a dead word is weathered. You can avoid words appearing in search results forever.

またこのとき、本実施形態では、情報ソースやユーザーからの問いかけについて、推定単語を省略単語の検出位置に推定単語を検出し、省略された主語や目的語などを推定することから、暗に話題の中心となっている人物や団体、場所をキーワードとして検索すべき情報を選定し、加工することができ、より正確にユーザーが所望する検索結果や回答表現を提供することが可能となる。   At this time, in this embodiment, for questions from information sources and users, the estimated word is detected at the detection position of the abbreviated word, and the abbreviated subject or object is estimated. It is possible to select and process information to be searched using the person, group, or place that is the center of the keyword as a keyword, and it is possible to provide the search result and answer expression desired by the user more accurately.

さらに、本実施形態では、ワード間距離を設定する対象となっているキーワードの助詞係数に基づいて前記群体パラメーターを設定することから、単語間における関連性の強度を、文章中で直接使われている「の」、「は」、「が」、「と」などの助詞から求めることができ、日本人の感覚により適合した手法で、群体パラメーターを設定することができる。   Furthermore, in the present embodiment, since the group parameter is set based on the particle coefficient of the keyword for which the distance between words is set, the strength of relevance between words can be used directly in the sentence. It can be obtained from particles such as “no”, “ha”, “ga”, “to”, etc., and the colony parameters can be set by a method more suited to the Japanese sense.

本実施形態では、情報ソース取得部101が取得した情報ソースに含まれるテキストデータを、情報ソースのデータ構造に基づいて記事単位で切り出し、切り出された各記事単位に含まれる固有名詞を相互に関連づける記事単位辞書を生成することから、本名とニックネームといったように、本来同一の人物や団体、場所などを示す異なる固有名詞を、同一グループとして扱うことができ、単純に音声やテキストを解析して得られるキーワード検索では別個のものとして扱われてしまう情報を適正に包含することができ、より正確にユーザーが所望する検索結果や回答表現を提供することが可能となる。このとき、Web上のニュースなどの記事単位でグルーピングを行うため、同じ言葉であっても記事、すなわち話題毎に複数のグループに分類することができ、話題を特定することによりその話題に関連性の強い単語同士を同一の人や団体として扱うことができ、無関係な単語が検索キーワードに含まれるのを回避することができる。   In the present embodiment, the text data included in the information source acquired by the information source acquisition unit 101 is cut out in units of articles based on the data structure of the information source, and the proper nouns included in the extracted article units are associated with each other. Since an article unit dictionary is generated, different proper nouns that originally indicate the same person, group, place, etc., such as real names and nicknames, can be handled as the same group, and can be obtained by simply analyzing speech and text. It is possible to properly include information that is handled as a separate item in a keyword search, and to provide search results and answer expressions desired by the user more accurately. At this time, since grouping is performed in units of articles such as news on the Web, even the same word can be classified into a plurality of groups for each article, that is, topic, and relevance to the topic by specifying the topic Strong words can be treated as the same person or group, and irrelevant words can be prevented from being included in the search keyword.

また、本実施形態では、いわゆるワードシソーラス分類を応用することにより、情報の検索や回答の生成に際し、同義関係、類義関係を考慮することができ、単純に音声やテキストを解析して得られるキーワード検索では漏れてしまう情報を適正に包含することができ、より正確にユーザーが所望する検索結果や回答表現を提供することが可能となる。   Also, in the present embodiment, by applying so-called word thesaurus classification, synonym relations and synonym relations can be taken into consideration when searching for information and generating answers, and it is obtained by simply analyzing speech and text. It is possible to properly include information that is leaked by keyword search, and it is possible to provide search results and answer expressions desired by the user more accurately.

さらに、本実施形態では、群体パラメーター設定部301が、木構造に基づいて群体パラメーターを設定することから、文章構造が分岐を有する複文など文章中で直接使われている文章表現から、単語間における関連性の強度を求めることができ、その文章の作者の意図を反映させた手法で、群体パラメーターを設定することができる。   Furthermore, in this embodiment, since the group parameter setting unit 301 sets the group parameter based on the tree structure, the sentence structure is directly used in the sentence such as a compound sentence having a branching sentence structure. The strength of relevance can be obtained, and the group parameters can be set by a method that reflects the intention of the author of the sentence.

以上述べたように、本実施形態によれば、同じ言葉(単語)の組合せであっても、それらの言葉が登場する話題や分野において、話し手であるユーザーがその言葉についてどのような指標や切り口でクラスタリングしているかを考慮することができ、曖昧な日常会話をより正確に解析することができる。この結果、日常生活の中で大まかに無造作に交わされる会話のような自然文章を正確に解析し、さらには、話し相手の意図を推定して回答できる思考方法を模倣したコミュニケーションを図ることができる。   As described above, according to the present embodiment, even if the combination of the same words (words), in the topic or field in which those words appear, what kind of index or cut point the user who is a speaker has about the words It is possible to consider whether or not it is clustered, and to analyze ambiguous daily conversation more accurately. As a result, it is possible to accurately analyze natural sentences such as conversations that are roughly and casually exchanged in daily life, and furthermore, it is possible to achieve communication that imitates the thinking method that can answer by estimating the intention of the other party.

(2−3)ポテンシャル場算出機能
ポテンシャル場算出機能400は、エゴグラム設定部401と、ポテンシャル場形成部402とを備えている。
(2-3) Potential Field Calculation Function The potential field calculation function 400 includes an egogram setting unit 401 and a potential field forming unit 402.

エゴグラム設定部401は、 キーワード解析部106が抽出したキーワード、或いは情報ソースデータベース40aに蓄積されたキーワードのうち、特定の人、物又は事象に関するキーワードを話題キーワードとしてグルーピングし、そのグループ毎に、群体パラメーターに従って、各キーワードの分布状態を三次元の座標で形成されたマップとして作成し、マップ上における各キーワードに対するユーザーの自我状態を示すエゴグラムパラメーターを設定するモジュールである。   The egogram setting unit 401 groups keywords related to a specific person, thing or event as topic keywords among the keywords extracted by the keyword analysis unit 106 or the keywords stored in the information source database 40a. This is a module that creates the distribution state of each keyword as a map formed with three-dimensional coordinates according to the parameters, and sets egogram parameters indicating the user's ego state for each keyword on the map.

このエゴグラムパラメーターは、人間の性格を5つの独立したパラメーターで表現した係数であり、エゴグラムとは、これらのパラメーターにより表される5つの自我状態が放出する心的エネルギーの高さをグラフにしたものであり、アンケートや性格診断などで求めることができる。エゴグラムパラメーターとしては、
CP(批判的親):厳しい心。自分の価値観を正しいものと信じて譲らず、責任を持って行動し、他人に批判的である。この部分が低いと、ルーズな性格になる。
NP(養育的親):優しい心。他人を思いやって行動し、保護的で親切である。この部分が低いと、冷淡な性格になる。
A(大人):合理的な心。現実を重視しており、物事をきちんと計算して行動し、合理的である。この部分が低いと、非合理的な性格になる。
FC(自由な子ども):自由奔放な心。明るく無邪気でユーモアがあり、わがままで自己中心的である。この部分が低いと、閉鎖的でネクラな性格になる。
AC(順応した子ども):従順な心。他人に嫌われたくないという気持ちが強く、言いたいことを言わずに我慢してしまい、妥協的である。この部分が低いと、マイペースな性格になる。
といったものが挙げられる。
This egogram parameter is a coefficient that expresses the human character with five independent parameters. The egogram is a graph of the level of mental energy released by the five ego states represented by these parameters. It can be obtained through questionnaires or personality diagnosis. As egogram parameters,
CP (Critical Parent): A hard heart. Believe that your values are right, don't yield, act responsibly, and be critical of others. If this part is low, it has a loose character.
NP (nurturing parent): A kind heart. Act with respect for others, be protective and kind. If this part is low, it becomes a cold character.
A (Adult): Reasonable mind. Reality is emphasized, things are calculated and acted reasonably. If this part is low, it becomes an irrational personality.
FC (free child): free spirit. Bright, innocent, humorous, selfish and self-centered. When this part is low, it becomes a closed and necracy personality.
AC (adapted child): obedient heart. I have a strong desire not to be disliked by others, and I endure without saying what I want to say, which is a compromise. If this part is low, it becomes a personality.
And so on.

ポテンシャル場形成部402は、エゴグラム設定部401によって設定されたエゴグラムパラメーター、及び群体パラメーター設定部301が設定した群体パラメーターに基づいて、動的クラスタリング部303が算出したワード間距離を補正し、各キーワードに対するユーザーの反応パターンを示すユーザーポテンシャル場を算出するモジュールである。本実施形態では、動的クラスタリング部303で算出された各単語に関するワード間距離は、ワールドマップデータとしてユーザー情報データベース50に蓄積されており、ポテンシャル場形成部402は、このワールドマップデータを読み出し、ワールドマップ上に配置された各単語(動的オブジェクト)に対して、前記エゴグラムパラメーターを反映させる補正処理を実行して、動的オブジェクトを再配置させる。   The potential field forming unit 402 corrects the distance between words calculated by the dynamic clustering unit 303 based on the egogram parameters set by the egogram setting unit 401 and the group parameters set by the group parameter setting unit 301, and each keyword This module calculates the user potential field that indicates the user's reaction pattern to. In the present embodiment, the distance between words related to each word calculated by the dynamic clustering unit 303 is accumulated in the user information database 50 as world map data, and the potential field forming unit 402 reads out the world map data, For each word (dynamic object) placed on the world map, correction processing that reflects the egogram parameters is executed to rearrange the dynamic object.

この補正処理は、各キーワードの重要度をそのキーワードのサイズとし、少なくとも各キーワードのサイズとエゴグラムパラメーターの組合せに基づく定数と、に基づいて行う。例えば、各キーワードが有する影響力であるエネルギーを決定し、ワード間距離に係る2つのキーワード間の距離を、各キーワードの有する各エネルギーの積に比例し、当該キーワードのサイズに反比例する引力又は斥力が作用しているとして、前記ワード間距離を補正する。   This correction processing is performed based on at least a constant based on a combination of the size of each keyword and the egogram parameter, with the importance of each keyword as the size of the keyword. For example, the energy that is the influence of each keyword is determined, and the distance between two keywords related to the distance between words is proportional to the product of each energy that each keyword has, and the attractive or repulsive force that is inversely proportional to the size of the keyword As described above, the distance between words is corrected.

具体的に、補正処理においては、図6(c)に示すように、ワールドマップ上に含まれる各単語の群体パラメーターと、エゴグラムパラメーターとを用いて、補正用の要素を以下のように定義する。
・ 各wordのサイズ半径r = size/2
・ 各wordが持っているエネルギーE=nr(A)xnr(pn)xnr(size
・ 各wordのエネルギーの及ぶ範囲σ=nr(NP)
・ 各wordのエネルギーの放出の勢いΔd=nrm(FC)
ここで、nrmはnormalize[0.7−1]である。
・ 各wordのまわりの影響力の濃度(強度分布)の計算 an+1=anΔd
・ 各wordの自分への引き寄せ力→初期配置の移動量=nr(cp)
ここで、nrはnormalize [0,1]
・各word(星)の単位ベクトル PNの(+)(−)でベクトルの向きを逆とする。
Specifically, in the correction process, as shown in FIG. 6C, the correction elements are defined as follows using the group parameters of each word included in the world map and the egogram parameters. .
-The size radius of each word r = size / 2
・ Each word has energy E = nr (A) xnr (pn) xnr (size
・ Range of energy of each word σ = nr (NP)
・ Emission momentum of each word Δd = nrm (FC)
Here, nrm is normalize [0.7-1].
・ Calculation of influence concentration (intensity distribution) around each word an + 1 = anΔd
-Attracting force of each word to itself → movement amount of initial arrangement = nr (cp)
Here, nr is normalize [0, 1].
-The unit vector of each word (star) The direction of the vector is reversed with (+) (-) of PN.

そして、これらの要素に基づいて、単語間相互に作用する引力又は反発力を次の式により求める。
Based on these factors, the attractive force or repulsive force that interacts between words is obtained by the following equation.

この式において、一方の単語をユーザー自身を意味する一人称の単語群とすることにより、他方の単語との間の引力又は反発力を求めることができ、その言葉がユーザー自身に与える影響度を推定することができる。   In this formula, by making one word a first-person word group that means the user himself, the attractiveness or repulsive force between the other word can be obtained, and the degree of influence of the word on the user himself is estimated. can do.

さらに、動的クラスタリング部303では、引き込みのルールに従って、ユーザーポテンシャル場を補正する。この引き込みルールは、振動子群が相互作用や周期外力の作用によって振動タイミングを揃える同期現象を応用した補正処理であり、次式で表される。
なお、θは特定の動的オブジェクトの位相であり、θneiighber,tは、時刻tでの周辺の他の動的オブジェクトの位相を意味する。また、上式においてACは、エゴグラムパラメーターであり、上式の引き込み係数として用いられている。
Further, the dynamic clustering unit 303 corrects the user potential field according to the pull-in rule. This pull-in rule is a correction process that applies a synchronization phenomenon in which the vibrator group aligns the vibration timing by the interaction or the action of a periodic external force, and is expressed by the following equation.
Note that θ t is the phase of a specific dynamic object, and θ neiighber, t means the phase of other dynamic objects in the vicinity at time t. In the above equation, AC is an egogram parameter, and is used as the pull-in coefficient in the above equation.

そして、この引込のルールでは、
(1)特定の動的オブジェクトが所定の振動(位相θ)をしているものとし、
(2)当該特定の動的オブジェクトと、その周囲で振動(位相θneiighber,t)する他の複数の動的オブジェクトとが、各摂動(位相θ−θneiighber,t)を介して相互作用を生じさせているものとし、
(3)各摂動が消失されて、それぞれの動的オブジェクトの各振動が一定の周期解に漸近し、確動的オブジェクトの変位が同期する
として、各動的オブジェクトを再配置するための変位処理を実行する。なお、本実施形態では、各単語(自身を意味する一人称の単語群を含む)に係る動的オブジェクトは、その言葉が使用された時間差などをノーマライズした値を位相とし、その言葉を発したときの音量や、その言葉の出現頻度、重要度振動をノーマライズした値を振幅として振動しているものとして演算する。
And with this pull-in rule,
(1) It is assumed that a specific dynamic object has a predetermined vibration (phase θ t ),
(2) The specific dynamic object and other dynamic objects that vibrate around it (phase θ neiighber, t ) interact through each perturbation (phase θ t −θ neiighber, t ). , And
(3) Displacement processing to relocate each dynamic object, assuming that each perturbation disappears, each vibration of each dynamic object asymptotically approaches a certain periodic solution, and the displacement of the positive object is synchronized Execute. In the present embodiment, when a dynamic object related to each word (including a first-person word group meaning itself) uses a value obtained by normalizing a time difference in which the word is used as a phase and emits the word Is calculated with the amplitude of the sound volume, the appearance frequency of the word, and the importance vibration as the amplitude.

この引き込みルールにより、それぞれが所定の摂動(ずれ)をもってバラバラに変位している動的オブジェクト群が、摂動を消失させるように周囲の動的オブジェクトを引き込んで同期させることにより、特定の言葉や情報が突出して使用されるのを平準化できる一方で、普段使用されない言葉や情報を活性化させることができる。引き込まれて活性化された単語はその言葉自身がまた上式により引力又は反発力を有することとなり、その言葉がユーザーに対して与える影響度が変化され、動的にワールドマップを更新されることとなる。   With this pull-in rule, a group of dynamic objects, each of which is displaced disparately with a predetermined perturbation (deviation), pulls in and synchronizes the surrounding dynamic objects so that the perturbation disappears. Can be used in a prominent manner, while words and information that are not normally used can be activated. Words that are drawn and activated are also attracted or repelled by the above formula, and the influence of the words on the user is changed and the world map is dynamically updated. It becomes.

(対話インターフェースの動作)
以上の構成を有する対話インターフェースは、以下のように動作する。図3は、対話インターフェースの動作順序を示すフローチャート図である。
(Interactive interface operation)
The interactive interface having the above configuration operates as follows. FIG. 3 is a flowchart showing the operation sequence of the dialog interface.

先ず、ユーザーとの対話に先行し且つ常時周期的に、予め情報ソースの収集を行う(S601)。具体的には、情報ソース取得部101が、Web等の通信ネットワークを通じて取得される一般的な情報の他、端末内に蓄積されている各ユーザーに固有のプライベートなローカルデータなどを情報ソースとして収集する。Web等の通信ネットワークにおける情報収集としては、Webクローラーと呼ばれる、通信ネットワーク上のリンクを辿ってWebデータ間を遷移することにより、通信ネットワーク上のありとあらゆる情報データを回収する検索ロボットプログラムを用いる手法が挙げられる。一方、プライベートなローカルデータの収集としては、ユーザーがWeb検索した際のキーワードや実際にアクセスしたWebページ、コンテンツの他、ユーザーが作成した文書、送受信した電子メール、ユーザーのスケジュールなどが挙げられる。また、情報ソースとしては、その情報を取得した時点の日付や時刻、場所、気象情報、関連するニュースなどを紐付けして取得するようにしてもよい。   First, prior to the dialog with the user, information sources are collected in advance at regular intervals (S601). Specifically, the information source acquisition unit 101 collects, as general information acquired through a communication network such as the Web, private local data unique to each user stored in the terminal as an information source. To do. As a method for collecting information in a communication network such as the Web, there is a technique called a Web crawler, which uses a search robot program that collects all kinds of information data on the communication network by following links on the communication network and transitioning between Web data. Can be mentioned. On the other hand, the collection of private local data includes keywords created when a user searches the Web, Web pages actually accessed, contents, documents created by the user, e-mails sent and received, user schedules, and the like. Further, as the information source, the date and time when the information is acquired, the location, the weather information, the related news, and the like may be linked and acquired.

次いで、収集された情報データがテキストデータではない場合には、必要に応じてテキストデータに変換し、不要なデータが含まれている場合にはクレンジング処理を施す(S602)。テキスト化処理としては、例えば、取得されたデータが音声であるときに音声認識処理によりテキスト化したり、映像や動画であるときに画像認識処理により写っている人物や場所等を所定の単語に置き換えたりすることが挙げられる。また、クレンジング処理としては、Webページに含まれるタグデータやその他の制御文字、音声に含まれる不要な発生やノイズなどを排除することが挙げられる。   Next, if the collected information data is not text data, it is converted to text data as necessary, and if unnecessary data is included, cleansing processing is performed (S602). As text conversion processing, for example, when the acquired data is speech, it is converted to text by speech recognition processing, or when it is a video or a moving image, a person or a place shown in the image recognition processing is replaced with a predetermined word. Can be mentioned. In addition, the cleansing process may include removing tag data and other control characters included in the Web page, unnecessary generation and noise included in the voice, and the like.

このようにテキスト化され不要なデータが削除されたテキストデータについて、形態素解析を行うとともに、省略された主語などの推定を行う(S603,S604)。具体的には、情報ソースについて、センテンスを抽出し、各センテンスを構成する単語に関する品詞を解析し、省略された単語を検出し、そのセンテンスの当該情報ソース内における位置関係に基づいて、当該省略単語の品詞に応じた単語を推定単語として検出して、この推定単語を省略単語の検出位置に推定単語を追加して、テキストデータを再構成する。   In this way, morphological analysis is performed on text data from which unnecessary data has been deleted, and the omitted subject is estimated (S603, S604). Specifically, for an information source, the sentence is extracted, the part of speech related to the words constituting each sentence is analyzed, the omitted word is detected, and the omission is performed based on the positional relationship of the sentence in the information source. A word corresponding to the part of speech of the word is detected as an estimated word, the estimated word is added to the abbreviated word detection position, and the text data is reconstructed.

次いで、情報ソースから得られたテキストデータから、キーワードを抽出するとともに、助詞係数の算出を行う(S605)。このキーワードの検出に際しては、いわゆるシソーラス辞書を用いて、類義語のマージを行う。具体的には、単語の上位又は下位関係、部分又は全体関係、同義関係、類義関係の少なくとも一つに基づいて単語を分類し、体系付けたシソーラス辞書に基づいて、解析対象となる単語を分類するシソーラス分類を行う。   Next, a keyword is extracted from the text data obtained from the information source, and a particle coefficient is calculated (S605). When this keyword is detected, synonyms are merged using a so-called thesaurus dictionary. Specifically, words are classified based on at least one of the upper or lower relationship, partial or whole relationship, synonym relationship, and synonym relationship of words, and the word to be analyzed is determined based on a structured thesaurus dictionary. Perform a thesaurus classification to classify.

また、助詞係数の算出では、ワード間距離を設定する対象となっているキーワードに付随する助詞等の付随語の種類に基づいて、群体パラメーターを設定する。例えば、図5B(a)に示すように、野球の話題において、解析対象が「チームA」という単語であった場合、その単語に続く助詞がいずれとなっているかを解析し、さらにその後に続く単語との関係性の強弱を推定する。   Further, in the calculation of the particle coefficient, the group parameter is set based on the type of the accompanying word such as the particle attached to the keyword for which the distance between words is set. For example, as shown in FIG. 5B (a), in the baseball topic, when the analysis target is the word “team A”, the analysis is made as to which particle follows the word, and then continues. Estimate the strength of the relationship with a word.

ここで、「の」>「が、は」>「と」>その他、というように助詞係数を設定している場合、図5B(a)に示した例では、単語「チームA」と単語「マジック」とは助詞「が」で連結されており、「選手S」とは助詞「の」で連結されていることから、「チームA」と「選手S」との関係性は、「チームA」と「マジック」との関係性よりも強いと設定される。ここで抽出された助詞係数は、群体パラメーター設定部301に入力される。   Here, in the example shown in FIG. 5B (a), when the particle coefficient is set such as “no”> “gahaha”> “to”> other, the word “team A” and the word “ Since “magic” is connected by the particle “ga” and “player S” is connected by the particle “no”, the relationship between “team A” and “player S” is “team A”. ”And“ magic ”are set to be stronger. The particle coefficient extracted here is input to the group parameter setting unit 301.

なお、本実施形態では、ここでいうところの「付随語」としては、単語間の関連性を示すものであれば、日本語の「助詞」に限定されず、各言語の文法に応じて適宜選択することができ、英語であれば語順や前置詞、関係代名詞やその他用法などから求めることもできる。   In the present embodiment, the “accompanying word” here is not limited to a Japanese “particle” as long as it indicates the relationship between words, and is appropriately determined according to the grammar of each language. In English, it can be obtained from the word order, preposition, relative pronouns, and other usages.

次いで、省略された単語が追加され再構成されたテキストデータについて、文章内における文節を切り出し、文節間の分岐関係を抽出して、抽出された各分岐に基づく文章の木構造を算出するとともに、群体パラメーター設定部301は、ステップS605で算出した助詞係数と、センテンス解析部102が算出した木構造とに基づいて、群体パラメーターを設定する(S606)。   Next, for the text data reconstructed by adding the omitted word, extract the clauses in the sentence, extract the branch relationship between the phrases, calculate the tree structure of the sentence based on each extracted branch, The colony parameter setting unit 301 sets colony parameters based on the particle coefficient calculated in step S605 and the tree structure calculated by the sentence analysis unit 102 (S606).

そして、各キーワードを動的オブジェクトとして、群体パラメーターに従って仮想空間上で変位処理をするシミュレーションを実行し、動的クラスタリングを行う(S607)。具体的には、各キーワードに設定された群体パラメーターに応じた挙動を取る動的オブジェクトとして仮想空間上にそれぞれ配置し、各動的オブジェクトについて、各動的オブジェクトを中心とする所定範囲に存在する他の動的オブジェクトに対する位置関係に基づき、一定のルールに則った変位処理を実行する。このシミュレーションを繰り返すことにより、各キーワードは、関係性の強い単語同士はそれぞれ集合して群体を形成し、関係性の弱い単語同士は離間していく。このシミュレーションは、話題毎に行い、このシミュレーションの結果として得られた、各単語の仮想空間上の座標を、話題毎の話題ワールドマップとして生成し、蓄積しておく(S607)。   Then, using each keyword as a dynamic object, a simulation for performing displacement processing in the virtual space according to the group parameter is executed to perform dynamic clustering (S607). Specifically, each dynamic object is arranged in a virtual space as a dynamic object that takes a behavior according to the group parameter set in each keyword, and each dynamic object exists in a predetermined range centering on each dynamic object. Based on the positional relationship with respect to other dynamic objects, displacement processing according to a certain rule is executed. By repeating this simulation, each keyword gathers words having strong relations to form a group, and words having weak relations are separated from each other. This simulation is performed for each topic, and the coordinates in the virtual space of each word obtained as a result of this simulation are generated and stored as a topic world map for each topic (S607).

その後、各キーワードとともに、各キーワードについて群体パラメーター設定部301が設定した群体パラメーターとを関連づけて、ユーザー情報データベース50に蓄積するとともに、ステップS602〜S607によって加工された情報ソースを単位記事毎に、話題ワールドマップを関連づけて、ユーザー情報データベース50に蓄積する(S608)。   Thereafter, together with each keyword, the group parameter set by the group parameter setting unit 301 for each keyword is associated and accumulated in the user information database 50, and the information source processed in steps S602 to S607 is a topic for each unit article. The world map is associated and stored in the user information database 50 (S608).

他方、この情報ソースの蓄積に合わせて、予め或いは定期的に、各単語に対する群体パラメーター及びエゴグラムの収集も行う(S301)。この群体パラメーターの収集方法としては、例えば、SNSにおける「いいね!」ボタンのクリックなど賛同操作、レビュー入力などの評価操作を収集したり、各キーワードに対する心証をアンケート手続によって収集したりするなどが挙げられる。また、エゴグラムの収集は、性格診断などにより収集される。この収集された群体パラメーターは、キーワード毎に「+」、「−」及び数値(0を含む。)として紐付けられて設定され、ユーザー情報データベース50に蓄積される。エゴグラムパラメーターも、話題毎にグルーピングしたうえで、ユーザー情報データベース50に蓄積される。   On the other hand, in accordance with the accumulation of information sources, collection of colony parameters and egograms for each word is also performed in advance or periodically (S301). This group parameter collection method includes, for example, collecting approval operations such as clicking the “Like” button in SNS, evaluation operations such as review input, and collecting evidence for each keyword through a questionnaire procedure. Can be mentioned. Also, egograms are collected by personality diagnosis. The collected group parameters are linked and set as “+”, “−” and a numerical value (including 0) for each keyword, and are accumulated in the user information database 50. The egogram parameters are also stored in the user information database 50 after being grouped for each topic.

そして、ユーザーとの対話においてユーザーからの問いかけなどの入力があった場合には(S701)、ユーザーによる入力データがテキストデータではない場合には、必要に応じてテキストデータに変換し、不要なデータが含まれている場合にはクレンジング処理を施す(S702)。テキスト化処理としては、例えば、取得されたデータが音声であるときに音声認識処理によりテキスト化したり、映像や動画であるときに画像認識処理により写っている人物や場所等を所定の単語に置き換えたりすることが挙げられる。また、クレンジング処理としては、Webページに含まれるタグデータやその他の制御文字、音声に含まれる不要な発生やノイズなどを排除することが挙げられる。   If there is an input such as a question from the user in the dialogue with the user (S701), if the input data by the user is not text data, it is converted to text data as necessary, and unnecessary data is obtained. Is included, cleansing processing is performed (S702). As text conversion processing, for example, when the acquired data is speech, it is converted to text by speech recognition processing, or when it is a video or a moving image, a person or a place shown in the image recognition processing is replaced with a predetermined word. Can be mentioned. In addition, the cleansing process may include removing tag data and other control characters included in the Web page, unnecessary generation and noise included in the voice, and the like.

このようにテキスト化され不要なデータが削除されたテキストデータについて、形態素解析を行うとともに、省略された主語などの推定を行う(S703)。具体的には、情報ソースについて、センテンスを抽出し、各センテンスを構成する単語に関する品詞を解析し、省略された単語を検出し、そのセンテンスの当該情報ソース内における位置関係に基づいて、当該省略単語の品詞に応じた単語を推定単語として検出する。そして、ステップS703で得られた推定単語を省略単語の検出位置に推定単語を追加して、テキストデータを再構成する(S704)。   The morphological analysis is performed on the text data from which unnecessary data has been deleted in this way, and the omitted subject is estimated (S703). Specifically, for an information source, the sentence is extracted, the part of speech related to the words constituting each sentence is analyzed, the omitted word is detected, and the omission is performed based on the positional relationship of the sentence in the information source. A word corresponding to the part of speech of the word is detected as an estimated word. Then, the estimated word obtained in step S703 is added to the abbreviated word detection position to reconstruct the text data (S704).

次いで、再構成されたテキストデータから、キーワードを抽出するとともに、助詞係数の算出を行う(S705)。このキーワードの検出に際しては、いわゆるシソーラス辞書を用いて、類義語のマージを行う。具体的には、単語の上位又は下位関係、部分又は全体関係、同義関係、類義関係の少なくとも一つに基づいて単語を分類し、体系付けたシソーラス辞書に基づいて、解析対象となる単語を分類するシソーラス分類を行う。   Next, a keyword is extracted from the reconstructed text data, and a particle coefficient is calculated (S705). When this keyword is detected, synonyms are merged using a so-called thesaurus dictionary. Specifically, words are classified based on at least one of the upper or lower relationship, partial or whole relationship, synonym relationship, and synonym relationship of words, and the word to be analyzed is determined based on a structured thesaurus dictionary. Perform a thesaurus classification to classify.

また、助詞係数の算出では、ワード間距離を設定する対象となっているキーワードに付随する助詞の種類に基づいて、群体パラメーターを設定する。例えば、図5B(a)に示すように、野球の話題において、解析対象が「チームA」という単語であった場合、その単語に続く助詞がいずれとなっているかを解析し、さらにその後に続く単語との関係性の強弱を推定する。ここでは、「の」>「が、は」>「と」>その他、というように助詞係数を設定している場合、図5B(a)に示した例では、単語「チームA」と単語「マジック」とは助詞「が」で連結されており、「選手S」とは助詞「の」で連結されていることから、「チームA」と「選手S」との関係性は、「チームA」と「マジック」との関係性よりも強いと設定される。ここで抽出された助詞係数は、群体パラメーター設定部301に入力される。   In the calculation of the particle coefficient, the group parameter is set based on the type of particle attached to the keyword for which the distance between words is set. For example, as shown in FIG. 5B (a), in the baseball topic, when the analysis target is the word “team A”, the analysis is made as to which particle follows the word, and then continues. Estimate the strength of the relationship with a word. Here, in the example shown in FIG. 5B (a), when the particle coefficient is set such as “no”> “gahaha”> “to”> other, the word “team A” and the word “ Since “magic” is connected by the particle “ga” and “player S” is connected by the particle “no”, the relationship between “team A” and “player S” is “team A”. ”And“ magic ”are set to be stronger. The particle coefficient extracted here is input to the group parameter setting unit 301.

次いで、省略された単語が追加され再構成されたテキストデータについて、文章内における文節を切り出し、文節間の分岐関係を抽出して、抽出された各分岐に基づく文章の木構造を算出するとともに、群体パラメーター設定部301は、ステップS605で算出した助詞係数と、センテンス解析部102が算出した木構造とに基づいて、群体パラメーターを設定する(S706)。   Next, for the text data reconstructed by adding the omitted word, extract the clauses in the sentence, extract the branch relationship between the phrases, calculate the tree structure of the sentence based on each extracted branch, The colony parameter setting unit 301 sets colony parameters based on the particle coefficient calculated in step S605 and the tree structure calculated by the sentence analysis unit 102 (S706).

そして、ユーザー情報データベース50に蓄積されているワールドマップを読み出して参照し、ユーザーポテンシャル場を生成する(S707)。具体的には、各キーワードを動的オブジェクトとして、群体パラメーターに従って仮想空間上に配置するとともに、ワールドマップ上に配置された動的オブジェクト全体の重心位置を、ユーザーの自我の中心として設定する。この重心位置は、仮想空間上に存在するすべての動的オブジェクトの座標と、質量(出現頻度や優先度から換算)とから重量を加味した座標位置として求め、この重心位置に、ユーザー自身(「わたし」、「ぼく」などの一人称)を配置する。なお、このユーザー自身を意味する一人称は、単一の単語ではなく、「わたし」、「ぼく」などの一般的な一人称のほか、本人の氏名やニックネームなどの同義語をマージしてグルーピングした単語群とする。   Then, the world map stored in the user information database 50 is read and referenced to generate a user potential field (S707). Specifically, each keyword is placed as a dynamic object in the virtual space according to the group parameter, and the center of gravity of the entire dynamic object placed on the world map is set as the center of the user's ego. This centroid position is obtained as a coordinate position that takes into account the weight from the coordinates of all the dynamic objects existing in the virtual space and the mass (converted from the appearance frequency and priority). 1st person such as “I” and “I”. The first person meaning this user is not a single word, but a general first person such as "I" or "I", and a word that is grouped by merging synonyms such as the person's name or nickname. A group.

そして、この自我の中心を示す座標原点が設定されたワールドマップ上において、変位処理を行うための群体シミュレーションを実行し、動的クラスタリングを行う。その際、ステップS301で収集されたエゴグラムパラメーター及び群体パラメーターに基づいて、ステップS607で生成されたワールドマップにおけるワード間距離を話題毎の補正し、各キーワードに対するユーザーの反応パターンを示すユーザーポテンシャル場を算出する。ユーザー自身(「わたし」、「ぼく」などの一人称を意味する単語群)を重心位置に配置したユーザーポテンシャル場を参照することで、ユーザー自身と各キーワードとの相対的なワード間距離を算出することができる。   Then, on the world map in which the coordinate origin indicating the center of the ego is set, a cluster simulation for performing displacement processing is executed, and dynamic clustering is performed. At that time, based on the egogram parameter and the group parameter collected in step S301, the distance between words in the world map generated in step S607 is corrected for each topic, and a user potential field indicating a user's reaction pattern for each keyword is obtained. calculate. By referring to the user potential field in which the user himself (words that mean the first person such as “I” and “I”) is placed at the center of gravity, the relative inter-word distance between the user and each keyword is calculated. be able to.

詳述すると、各キーワードに設定された群体パラメーターに応じた挙動を取る動的オブジェクトとして仮想空間上にそれぞれ配置し、各動的オブジェクトについて、各動的オブジェクトを中心とする所定範囲に存在する他の動的オブジェクトに対する位置関係に基づき、上式に則った単語間の引力及び反発力を求め、各言葉(キーワード)がユーザー自身に及ぼす影響力を推定することができる。   More specifically, each dynamic object is arranged in a virtual space as a dynamic object that takes a behavior according to the group parameter set in each keyword, and each dynamic object exists in a predetermined range centered on each dynamic object. Based on the positional relationship with respect to the dynamic object, the attractive force and the repulsive force between the words according to the above equation can be obtained, and the influence of each word (keyword) on the user can be estimated.

これにより、各キーワードは動的オブジェクトとして、ユーザーの性格に応じて、且つ、話題毎に関係性に応じて、その大きさや位置、影響力が設定された群体として配置され、ユーザーポテンシャル場が形成される。このとき、関係性の弱い単語同士や、ユーザーの性格上受け入れにくい単語は離間していく。また、ユーザーの性格や話題、単語との相性に余よっては、ユーザーが嫌いな単語が近づいてくることもあり、ユーザー自身にとってストレスフルな状態がユーザーポテンシャル場に自動的に形成される場合もある。このシミュレーションは、話題毎に行い、このシミュレーションの結果として再配置された、各単語の仮想空間上の座標を、話題毎のユーザーポテンシャル場として生成し、又は保存しておく(S707)。   As a result, each keyword is arranged as a dynamic object, a group with its size, position, and influence set according to the user's personality and according to the relationship for each topic, forming a user potential field Is done. At this time, words that are weakly related or words that are difficult to accept due to the personality of the user are separated. Also, depending on the user's personality, topic, and word compatibility, words that the user dislikes may approach, and a stressful state for the user himself may be automatically formed in the user potential field. is there. This simulation is performed for each topic, and the coordinates in the virtual space of each word rearranged as a result of this simulation are generated or stored as a user potential field for each topic (S707).

その後、回答生成部107は、ステップS707で生成したユーザーポテンシャル場上におけるワード間の距離を算出し、その算出結果をワード間距離として単語間の関係性の強弱として反映させつつ、情報ソース取得部101を通じて検索を行い、ユーザーに対する回答を生成する(S708)。   Thereafter, the answer generation unit 107 calculates the distance between words on the user potential field generated in step S707, and reflects the calculation result as the strength of the relationship between the words as the distance between words, while the information source acquisition unit A search is performed through 101 to generate an answer to the user (S708).

本機能によれば、ユーザーの性格が反映されたユーザー固有のユーザーポテンシャル場上のワード間距離を用いることにより、話し手の感情が大きく影響する日常会話において、ユーザーが対話の中で用いている言葉や話題に基づく関連性の高い単語をキーワードとして、そのユーザーの性格に合わせて、ときには心地よい或いは有益な情報を選定し、ときにはストレスフルな情報や表現となるように加工することで、個々のユーザーの性格に合わせて興味を惹いたり、対話を継続できるような検索結果や回答表現を提供することが可能となる。   According to this function, by using the distance between words on the user's unique user potential field that reflects the user's personality, the words that the user uses in the conversation in daily conversations that greatly affect the speaker's emotions. By using words that are highly relevant based on the topic or keywords as keywords, sometimes selecting comfortable or useful information according to the user's personality, and sometimes processing it to become stressful information and expressions. It is possible to provide search results and answer expressions that can attract interest and continue dialogue according to the personality of the person.

このとき、ユーザーの受け止め方や、ユーザーに与える心的な影響度を、話題毎に考慮するため、話題が順次移っていくような日常会話であっても、自然な形でユーザーの趣味嗜好に合わせたコミュニケーションを取ることができる。   At this time, in order to take into account the user's perception and the mental impact on the user for each topic, even in daily conversations where the topic moves sequentially, the user's hobbies and tastes are natural. You can communicate tailored.

特に、ユーザーが利用した情報データについて、群体シミュレーション、及びエゴグラムパラメーターによる補正処理を実行することにより、ユーザーの性格を反映させたユーザーポテンシャル場を生成できる。詳述すると、本来、ユーザー自身にとっての自己中心的な理想は、図6(a)に示すように、自分にとって心地よいものが近くに存在し、心地悪いものが遠くに存在している。ところが、現実は、同図(b)に示すように、自分の意思とは関係なく、気に入っていた物がなくなったり、嫌いな人が接近してきたり、好きな人が遠距離に転勤したり等、外からの影響で周囲の環境が変わってしまい、自己中心的な理想が崩され、ポテンシャル場がゆがめられたストレスフルな状況が形成される。   In particular, a user potential field that reflects the user's personality can be generated by executing a group simulation and correction processing using egogram parameters for information data used by the user. More specifically, as shown in FIG. 6A, the self-centered ideal for the user himself / herself is close to what is comfortable to him / her and distant to what is uncomfortable. However, in reality, as shown in the figure (b), regardless of your intention, things you like are gone, people you dislike are approaching, people you like are transferred to a long distance, etc. The surrounding environment changes due to the influence from the outside, the self-centered ideal is destroyed, and a stressful situation in which the potential field is distorted is formed.

本実施形態では、このようなリアルなユーザー固有のポテンシャル場を動的に形成することにより、このユーザーポテンシャル場を利用することで、話し相手の性格を考慮したうえで、ユーザーの興味を惹いたり、対話を継続させられるような情報を選択し、ユーザーを面白がらせるような加工して回答できる。   In this embodiment, by dynamically forming such a real user-specific potential field, by using this user potential field, in consideration of the character of the other party, You can select information that allows you to continue the dialogue, and process and answer the user's interest.

またこのとき、本実施形態では、情報ソースやユーザーからの問いかけについて、推定単語を省略単語の検出位置に推定単語を検出し、省略された主語や目的語などを推定することから、暗に話題の中心となっている人物や団体、場所をキーワードとして検索すべき情報を選定し、加工することができ、より正確にユーザーが所望する検索結果や回答表現を提供することが可能となる。   At this time, in this embodiment, for questions from information sources and users, the estimated word is detected at the detection position of the abbreviated word, and the abbreviated subject or object is estimated. It is possible to select and process information to be searched using the person, group, or place that is the center of the keyword as a keyword, and it is possible to provide the search result and answer expression desired by the user more accurately.

さらに、本実施形態では、ワード間距離を設定する対象となっているキーワードの助詞係数に基づいて前記群体パラメーターを設定することから、単語間における関連性の強度を、文章中で直接使われている「の」、「は」、「が」「と」などの助詞から求めることができ、日本人の感覚により適合した手法で、群体パラメーターを設定することができる。   Furthermore, in the present embodiment, since the group parameter is set based on the particle coefficient of the keyword for which the distance between words is set, the strength of relevance between words can be used directly in the sentence. It can be obtained from particles such as “no”, “ha”, “ga”, “to”, etc., and the colony parameters can be set by a method that is more adapted to the Japanese sense.

本実施形態では、情報ソース取得部101が取得した情報ソースに含まれるテキストデータを、情報ソースのデータ構造に基づいて記事単位で切り出し、切り出された各記事単位に含まれる固有名詞を相互に関連づける記事単位辞書を生成することから、本名とニックネームといったように、本来同一の人物や団体、場所などを示す異なる固有名詞を、同一グループとして扱うことができ、単純に音声やテキストを解析して得られるキーワード検索では別個のものとして扱われてしまう情報を適正に包含することができ、より正確にユーザーが所望する検索結果や回答表現を提供することが可能となる。このとき、Web上のニュースなどの記事単位でグルーピングを行うため、同じ言葉であっても記事、すなわち話題毎に複数のグループに分類することができ、話題を特定することによりその話題に関連性の強い単語同士を同一の人や団体として扱うことができ、無関係な単語が検索キーワードに含まれるのを回避することができる。   In the present embodiment, the text data included in the information source acquired by the information source acquisition unit 101 is cut out in units of articles based on the data structure of the information source, and the proper nouns included in the extracted article units are associated with each other. Since an article unit dictionary is generated, different proper nouns that originally indicate the same person, group, place, etc., such as real names and nicknames, can be handled as the same group, and can be obtained by simply analyzing speech and text. It is possible to properly include information that is handled as a separate item in a keyword search, and to provide search results and answer expressions desired by the user more accurately. At this time, since grouping is performed in units of articles such as news on the Web, even the same word can be classified into a plurality of groups for each article, that is, topic, and relevance to the topic by specifying the topic Strong words can be treated as the same person or group, and irrelevant words can be prevented from being included in the search keyword.

さらに、本実施形態では、群体パラメーター設定部301が、木構造に基づいて群体パラメーターを設定することから、文章構造が分岐を有する複文など文章中で直接使われている文章表現から、単語間における関連性の強度を求めることができ、その文章の作者の意図を反映させた手法で、群体パラメーターを設定することができる。   Furthermore, in this embodiment, since the group parameter setting unit 301 sets the group parameter based on the tree structure, the sentence structure is directly used in the sentence such as a compound sentence having a branching sentence structure. The strength of relevance can be obtained, and the group parameters can be set by a method that reflects the intention of the author of the sentence.

(2−4)回答生成機能
本実施形態では、コア機能間で共通して用いられる回答生成部107を有している。回答生成部107は、上記phase4〜6を実行するモジュールであり、上述したように、文章PN値算出部203や、動的クラスタリング部303、ポテンシャル場形成部402が算出した文章PN値や、ワールドマップ、ユーザーポテンシャル場などに基づき、情報ソース取得部101を通じて検索を行い、ユーザーに対する回答を生成するモジュールである。この回答生成部107で生成された回答は、対話入出力部60の回答出力部60bを通じて出力される。
(2-4) Answer Generation Function In the present embodiment, the answer generation unit 107 is used in common among the core functions. The answer generation unit 107 is a module that executes the above phases 4 to 6, and as described above, the text PN value calculation unit 203, the dynamic clustering unit 303, the text PN value calculated by the potential field formation unit 402, the world This module generates a response to the user by performing a search through the information source acquisition unit 101 based on a map, a user potential field, and the like. The response generated by the response generation unit 107 is output through the response output unit 60 b of the dialog input / output unit 60.

(作用・効果)
以上説明した、本実施形態に係る対話インターフェースシステムによれば、従来の人工知能の機能に加えて、より人間に近い受け答えをするためのアルゴリズムであるコア機能の三要素(「PN値」算出機能、「ワード間距離」算出機能、「ポテンシャル場」算出機能)により、入力される各種情報に対して、利用ユーザーの友人のような対応すべく、そのユーザーに関する情報や心理状態をも加味して応答するように、そのユーザー用に特化され、且つ、そのユーザーとの相性を考慮した擬人格によって、多種多様な回答(リアクション)を表現することができる。特に、「PN値」算出機能、及び「ワード間距離」算出機能で生成された文章の感情(PN値)及び各話題に応じたワード間距離に関する算出データを、「ポテンシャル場」算出機能に集約し、リアルなユーザー固有のポテンシャル場を動的に形成し、このユーザーポテンシャル場を利用することで、話し相手の性格を考慮したうえで、ユーザーの興味を惹いたり、対話を継続させられるような情報を選択し、ユーザーを面白がらせるような加工して回答できる思考方法を模倣したコミュニケーションを実現できる。
(Action / Effect)
According to the dialogue interface system according to the present embodiment described above, in addition to the conventional artificial intelligence function, three core functions ("PN value" calculation function) that is an algorithm for receiving and answering more like a human being , “Word-to-word distance” calculation function, “potential field” calculation function), in order to respond to the user's friends like the user's friend, in addition to the information and psychological state of the user In order to respond, a wide variety of responses (reactions) can be expressed by an anthropomorphic personality that is specialized for the user and considers compatibility with the user. In particular, the calculation data related to the emotion (PN value) of the sentences generated by the “PN value” calculation function and the “inter-word distance” calculation function and the inter-word distance according to each topic are collected in the “potential field” calculation function. In addition, by dynamically creating a real user-specific potential field and using this user potential field, information that can attract the user's interest and continue the dialogue after considering the personality of the other party Communication that imitates the thought method that can be processed and answered to make the user interesting.

D1,D11,D12…テーブルデータ
D101…テンプレートデータ
D102…トレーニングデータ
D103…テンプレートデータ
D104…学習用PN値セット
D105…学習用データ
1…情報処理端末
2…通信ネットワーク
5a,5b…各種出力デバイス
6a〜6d…各種入力デバイス
10…CPUバス
11…CPU
12…メモリ
13…通信I/F
14…記憶装置
15…出力I/F
16…入力I/F
20…コア機能実行部
40a…情報ソースデータベース
40b…辞書データベース
50…ユーザー情報データベース
60…対話入出力部
60a…入力部
60b…回答出力部
100…初期化処理部
101…情報ソース取得部
102…センテンス解析部
103…省略単語検出部
104…推定単語検出部
105…テキスト再構成部
106…キーワード解析部
107…回答生成部
200…PN値算出機能
201…PN値設定部
201a…フィルタリング部
201b…テンプレート生成部
201c…トレーニングデータ作成部
201d…学習部
203…文章PN値算出部
300…ワード間距離算出機能
301…群体パラメーター設定部
303…動的クラスタリング部
400…ポテンシャル場算出機能
401…エゴグラム設定部
402…ポテンシャル場形成部
D1, D11, D12 ... Table data D101 ... Template data D102 ... Training data D103 ... Template data D104 ... Learning PN value set D105 ... Learning data 1 ... Information processing terminal 2 ... Communication networks 5a, 5b ... Various output devices 6a- 6d ... Various input devices 10 ... CPU bus 11 ... CPU
12 ... Memory 13 ... Communication I / F
14 ... Storage device 15 ... Output I / F
16 ... Input I / F
DESCRIPTION OF SYMBOLS 20 ... Core function execution part 40a ... Information source database 40b ... Dictionary database 50 ... User information database 60 ... Dialog input / output part 60a ... Input part 60b ... Answer output part 100 ... Initialization processing part 101 ... Information source acquisition part 102 ... Sentence Analysis unit 103 ... Omitted word detection unit 104 ... Estimated word detection unit 105 ... Text reconstruction unit 106 ... Keyword analysis unit 107 ... Answer generation unit 200 ... PN value calculation function 201 ... PN value setting unit 201a ... Filtering unit 201b ... Template generation Unit 201c ... training data creation unit 201d ... learning unit 203 ... text PN value calculation unit 300 ... word distance calculation function 301 ... group parameter setting unit 303 ... dynamic clustering unit 400 ... potential field calculation function 401 ... egogram setting unit 402 Potential field generating unit

Claims (9)

ユーザーと対話する対話インターフェースであって、
前記ユーザーが利用した情報を情報ソースとして取得する情報ソース取得部と、
入力されたテキストデータから、キーワードを抽出するキーワード解析部と、
入力されたキーワードの重要度、及びキーワード間の関連性の度合いに関する群体パラメーターを設定する群体パラメーター設定部と、
前記情報ソースに含まれるテキストデータについて前記キーワード解析部が抽出したキーワードを、それぞれのキーワードについて前記群体パラメーター設定部が設定した群体パラメーターと関連づけて蓄積するユーザー情報データベースと、
前記キーワードのうち、特定の人、物又は事象に関するキーワードを前記群体パラメーターに従って、各キーワードの分布状態をマップとして作成し、前記マップ上における各キーワードに対する前記ユーザーの自我状態を示すエゴグラムパラメーターを設定するエゴグラム設定部と、
前記各キーワードを、各キーワードに設定された前記群体パラメーターに応じた動的オブジェクトとして仮想空間上にそれぞれ配置する動的クラスタリング部と、
前記エゴグラム設定部によって設定された前記エゴグラムパラメーター、及び前記群体パラメーター設定部が設定した群体パラメーターに基づいて、前記動的オブジェクトの大きさ又は位置を補正するとともに、前記マップ上に配置された動的オブジェクト全体の重心位置を前記ユーザーの自我の中心として設定し、前記仮想空間上における前記重心位置から各キーワードまでのワード間距離、及び各キーワードの大きさに基づいて、各キーワードに対する前記ユーザーの反応パターンを示すユーザーポテンシャル場を算出するポテンシャル場形成部と
を備えることを特徴とする対話インターフェース。
An interactive interface to interact with the user,
An information source acquisition unit that acquires information used by the user as an information source;
A keyword analysis unit that extracts keywords from the input text data;
A group parameter setting unit for setting group parameters regarding the importance of the input keyword and the degree of relevance between the keywords;
A user information database for storing the keywords extracted by the keyword analysis unit for text data included in the information source in association with the group parameters set by the group parameter setting unit for each keyword;
Among the keywords, a keyword related to a specific person, thing or event is created as a map according to the group parameter, and an egogram parameter indicating the user's ego state for each keyword on the map is set. Egogram setting part,
A dynamic clustering unit that arranges each keyword in a virtual space as a dynamic object according to the group parameter set in each keyword;
Based on the egogram parameter set by the egogram setting unit and the group parameter set by the group parameter setting unit, the size or position of the dynamic object is corrected, and the dynamic object arranged on the map The center of gravity position of the entire object is set as the center of the user's ego, and the user's reaction to each keyword based on the distance between words from the center of gravity position to each keyword in the virtual space and the size of each keyword An interactive interface comprising a potential field forming unit for calculating a user potential field indicating a pattern.
前記ユーザーと対話する対話入出力部と、
前記ポテンシャル場形成部が算出したユーザーポテンシャル場に基づき前記情報ソース取得部を通じて検索を行い、前記質問に対する回答を生成する回答生成部と、
前記回答生成部が生成した回答を、前記対話入出力部を通じて前記ユーザーに向けて出力する回答出力部と
をさらに備えることを特徴とする請求項1に記載の対話インターフェース。
A dialogue input / output unit for dialogue with the user;
A search is performed through the information source acquisition unit based on the user potential field calculated by the potential field formation unit, and an answer generation unit that generates an answer to the question;
The dialog interface according to claim 1, further comprising: an answer output unit that outputs the answer generated by the answer generation unit to the user through the dialog input / output unit.
前記エゴグラムパラメーターは、複数種の自我状態を段階的に示す独立したパラメーターであり、
前記群体パラメーターは、各キーワードの前記重要度は少なくとも出現頻度に基づいて算出され、前記キーワード間の関連性の度合いは少なくとも同じ文節内に出現した頻度に基づいて算出され、
前記ポテンシャル場形成部は、前記一定のルールとして、
前記各キーワードの重要度をそのキーワードのサイズとし、少なくとも前記各キーワードのサイズと、前記エゴグラムパラメーターの組合せに基づく定数と、に基づいて各キーワードが有する影響力であるエネルギーを決定し、前記ワード間距離に係る2つのキーワード間の距離を、各キーワードの有する各エネルギーの積に比例し、当該キーワードのサイズに反比例する引力又は斥力が作用しているとして、前記ワード間距離を補正する
ことを特徴とする請求項1又は2に記載の対話インターフェース。
The egogram parameter is an independent parameter that indicates a plurality of kinds of ego states in stages,
The group parameter is calculated based on the frequency of appearance of at least the importance of each keyword, and calculated based on the frequency of occurrence of at least the same phrase in the same phrase,
The potential field forming unit is, as the certain rule,
The importance of each keyword is defined as the size of the keyword, and energy that is an influence of each keyword is determined based on at least the size of each keyword and a constant based on a combination of the egogram parameters, The distance between two keywords related to the distance is proportional to the product of each energy of each keyword, and the interword distance is corrected on the assumption that an attractive force or a repulsive force acting inversely proportional to the size of the keyword is acting. The interactive interface according to claim 1 or 2.
前記情報ソース取得部が取得した情報ソースに含まれるテキストデータからセンテンスを抽出するセンテンス解析部と、
前記センテンス解析部が抽出した各センテンスを構成する単語に関する品詞を解析し、省略された単語を検出する省略単語検出部と、
前記省略単語検出部が検出した省略単語が含まれるセンテンスの当該情報ソース内における位置関係に基づいて、当該省略単語の品詞に応じた単語を推定単語として検出する推定単語検出部と
入力されたテキストデータに対して、前記省略単語検出部が検出した省略単語の検出位置に前記推定単語を追加して、テキストデータを再構成するテキスト再構成部と、
をさらに備え、
前記キーワード解析部は、前記入力されたテキストデータを前記テキスト再構成部によって再構成し、再構成されたテキストデータから前記キーワードを抽出し、
前記群体パラメーター設定部は、前記再構成されたテキストデータ内における、各キーワードの出現頻度、センテンス内における位置関係に基づいて、前記群体パラメーターを設定する
ことを特徴とする請求項1又は2に記載の対話インターフェース。
A sentence analysis unit that extracts sentences from text data included in the information source acquired by the information source acquisition unit;
An abbreviated word detection unit that analyzes parts of speech related to words constituting each sentence extracted by the sentence analysis unit and detects omitted words;
Based on the positional relationship in the information source of the sentence including the abbreviation word detected by the abbreviation word detection unit, an estimated word detection unit that detects a word corresponding to the part of speech of the abbreviated word as an estimation word and the input text A text reconstruction unit that reconstructs text data by adding the estimated word to the detection position of the abbreviation word detected by the abbreviation word detection unit for the data;
Further comprising
The keyword analysis unit reconstructs the input text data by the text reconstruction unit, and extracts the keyword from the reconstructed text data,
The said colony parameter setting part sets the said colony parameter based on the appearance frequency of each keyword in the reconfigure | reconstructed text data, and the positional relationship in a sentence. Interactive interface.
前記動的クラスタリング部は、前記各キーワードを、各キーワードに設定された前記群体パラメーターに応じた挙動を取る動的オブジェクトとして仮想空間上にそれぞれ配置し、各動的オブジェクトについて、各動的オブジェクトを中心とする所定範囲に存在する他の動的オブジェクトに対する位置関係に基づき、一定のルールに則った変位処理を実行し、前記仮想空間上における各キーワード間の距離をワード間距離として算出する機能をさらに備えることを特徴とする請求項1又は2に記載の対話インターフェース。   The dynamic clustering unit arranges each keyword on the virtual space as a dynamic object that takes a behavior according to the group parameter set for each keyword, and for each dynamic object, A function of executing displacement processing according to a certain rule based on a positional relationship with respect to another dynamic object existing in a predetermined range as a center, and calculating a distance between keywords in the virtual space as a distance between words. The interactive interface according to claim 1, further comprising: 前記群体パラメーターは、各キーワードの前記重要度は少なくとも出現頻度に基づいて算出され、前記キーワード間の関連性の度合いは少なくとも同じ文節内に出現した頻度に基づいて算出され、
前記動的クラスタリング部による前記変位処理で用いられる前記ルールには、
前記各キーワードの関連性の度合い基づいて、前記所定範囲内に存在する他の動的オブジェクトに接近する方向に移動させること、
前記各キーワードの重要度に基づいて、移動量を決定すること、
前記各キーワードの関連性がない動的オブジェクト間は、離間する方向に移動させること、
が含まれることを特徴とする請求項5に記載の対話インターフェース。
The group parameter is calculated based on the frequency of appearance of at least the importance of each keyword, and calculated based on the frequency of occurrence of at least the same phrase in the same phrase,
The rules used in the displacement processing by the dynamic clustering unit include
Moving in a direction approaching another dynamic object existing within the predetermined range based on a degree of relevance of each keyword;
Determining the amount of movement based on the importance of each keyword;
Moving the dynamic objects that are not related to each of the keywords in a direction away from each other,
The interactive interface according to claim 5, wherein:
前記動的クラスタリング部は、前記一定のルールには、
特定の動的オブジェクトの変位が所定の振動をしているものとし、
当該特定の動的オブジェクトと、その周囲で振動する他の複数の動的オブジェクトとが、各摂動を介して相互作用を生じさせているものとし、
前記各摂動が消失されて、それぞれの動的オブジェクトの各振動が一定の周期解に漸近し、確動的オブジェクトの変位が同期するとして、
各動的オブジェクトについての前記変位処理を実行することを特徴とする請求項5又は6に記載の対話インターフェース。
In the dynamic clustering unit, the certain rule includes
Suppose that the displacement of a specific dynamic object has a predetermined vibration,
It is assumed that the specific dynamic object and other dynamic objects that vibrate around the specific dynamic object interact with each other through perturbations.
As each perturbation disappears, each vibration of each dynamic object asymptotically approaches a certain periodic solution, and the displacement of the positive dynamic object is synchronized,
The dialogue interface according to claim 5 or 6, wherein the displacement process for each dynamic object is executed.
ユーザーと対話する対話インターフェースプログラムであって、コンピュータを、
前記ユーザーが利用した情報を情報ソースとして取得する情報ソース取得部、
入力されたテキストデータから、キーワードを抽出するキーワード解析部、
入力されたキーワードの重要度、及びキーワード間の関連性の度合いに関する群体パラメーターを設定する群体パラメーター設定部、
前記情報ソースに含まれるテキストデータについて前記キーワード解析部が抽出したキーワードを、それぞれのキーワードについて前記群体パラメーター設定部が設定した群体パラメーターと関連づけて蓄積するユーザー情報データベース、
前記キーワードのうち、特定の人、物又は事象に関するキーワードを前記群体パラメーターに従って、各キーワードの分布状態をマップとして作成し、前記マップ上における各キーワードに対する前記ユーザーの自我状態を示すエゴグラムパラメーターを設定するエゴグラム設定部、
前記各キーワードを、各キーワードに設定された前記群体パラメーターに応じた動的オブジェクトとして仮想空間上にそれぞれ配置する動的クラスタリング部、
前記エゴグラム設定部によって設定された前記エゴグラムパラメーター、及び前記群体パラメーター設定部が設定した群体パラメーターに基づいて、前記動的オブジェクトの大きさ又は位置を補正するとともに、前記マップ上に配置された動的オブジェクト全体の重心位置を前記ユーザーの自我の中心として設定し、前記仮想空間上における前記重心位置から各キーワードまでのワード間距離、及び各キーワードの大きさに基づいて、各キーワードに対する前記ユーザーの反応パターンを示すユーザーポテンシャル場を算出するポテンシャル場形成部
として機能させることを特徴とする対話インターフェースプログラム。
An interactive interface program that interacts with a user,
An information source acquisition unit that acquires information used by the user as an information source;
Keyword analysis unit that extracts keywords from input text data,
A group parameter setting unit for setting group parameters regarding the importance of the input keyword and the degree of relevance between the keywords,
A user information database that accumulates the keywords extracted by the keyword analysis unit for text data included in the information source in association with the group parameters set by the group parameter setting unit for each keyword;
Among the keywords, a keyword related to a specific person, thing or event is created as a map according to the group parameter, and an egogram parameter indicating the user's ego state for each keyword on the map is set. Egogram setting section,
A dynamic clustering unit that arranges each keyword on a virtual space as a dynamic object according to the group parameter set for each keyword;
Based on the egogram parameter set by the egogram setting unit and the group parameter set by the group parameter setting unit, the size or position of the dynamic object is corrected, and the dynamic object arranged on the map The center of gravity position of the entire object is set as the center of the user's ego, and the user's reaction to each keyword based on the distance between words from the center of gravity position to each keyword in the virtual space and the size of each keyword An interactive interface program that functions as a potential field forming unit that calculates a user potential field indicating a pattern.
ユーザーと対話する対話インターフェースを用いた情報処理方法であって、
情報取得部が、情報ソースを取得する情報ソース取得ステップと、
キーワード解析部が、前記情報ソースから得られるテキストデータからキーワードを抽出するキーワード解析ステップと、
群体パラメーター設定部が、入力されたキーワードの重要度、及びキーワード間の関連性の度合いに関する群体パラメーターを設定する群体パラメーター設定ステップと、
前記情報ソースから得られるテキストデータについて前記キーワード解析部が抽出したキーワードと、各キーワードについて前記群体パラメーター設定部が設定した群体パラメーターとを関連づけて、ユーザー情報データベースに蓄積するユーザー情報蓄積ステップと、
エゴグラム設定部が、前記キーワードのうち、特定の人、物又は事象に関するキーワードを前記群体パラメーターに従って、各キーワードの分布状態をマップとして作成し、前記マップ上における各キーワードに対する前記ユーザーの自我状態を示すエゴグラムパラメーターを設定するエゴグラム設定ステップと、
動的クラスタリング部が、各キーワードを、各キーワードに設定された前記群体パラメーターに応じた動的オブジェクトとして仮想空間上にそれぞれ配置する動的クラスタリングステップと、
ポテンシャル場形成部が、前記エゴグラム設定部によって設定された前記エゴグラムパラメーター、及び前記群体パラメーター設定部が設定した群体パラメーターに基づいて、前記動的オブジェクトの大きさ又は位置を補正するとともに、前記マップ上に配置された動的オブジェクト全体の重心位置を前記ユーザーの自我の中心として設定し、前記仮想空間上における前記重心位置から各キーワードまでのワード間距離、及び各キーワードの大きさに基づいて、各キーワードに対する前記ユーザーの反応パターンを示すユーザーポテンシャル場を算出するポテンシャル場形成ステップと
を含むことを特徴とする情報処理方法。
An information processing method using an interactive interface for interacting with a user,
An information acquisition unit in which the information acquisition unit acquires an information source;
A keyword analysis step in which a keyword analysis unit extracts a keyword from text data obtained from the information source;
A colony parameter setting step in which a colony parameter setting unit sets colony parameters related to the importance of the input keyword and the degree of relevance between keywords;
A user information accumulation step of associating a keyword extracted by the keyword analysis unit with respect to text data obtained from the information source and a group parameter set by the group parameter setting unit for each keyword, and accumulating it in a user information database;
An egogram setting unit creates a keyword distribution state as a map according to the group parameter for keywords related to a specific person, thing or event, and indicates the user's ego state for each keyword on the map Egogram setting step to set egogram parameters;
A dynamic clustering step in which the dynamic clustering unit arranges each keyword on the virtual space as a dynamic object corresponding to the group parameter set for each keyword;
The potential field forming unit corrects the size or position of the dynamic object based on the egogram parameter set by the egogram setting unit and the group parameter set by the group parameter setting unit, and on the map. Is set as the center of the user's ego, based on the distance between the center of gravity in the virtual space to each keyword, and the size of each keyword. A potential field forming step of calculating a user potential field indicating a reaction pattern of the user with respect to a keyword.
JP2015160189A 2015-08-14 2015-08-14 Interactive interface Active JP6034459B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015160189A JP6034459B1 (en) 2015-08-14 2015-08-14 Interactive interface

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015160189A JP6034459B1 (en) 2015-08-14 2015-08-14 Interactive interface

Publications (2)

Publication Number Publication Date
JP6034459B1 true JP6034459B1 (en) 2016-11-30
JP2017037603A JP2017037603A (en) 2017-02-16

Family

ID=57419895

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015160189A Active JP6034459B1 (en) 2015-08-14 2015-08-14 Interactive interface

Country Status (1)

Country Link
JP (1) JP6034459B1 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11055495B2 (en) * 2017-11-16 2021-07-06 Ntt Docomo, Inc. Utterance sentence generation system and utterance sentence generation program
JP6797979B1 (en) * 2019-08-08 2020-12-09 株式会社Nttドコモ Information processing device
KR20210067372A (en) * 2019-11-29 2021-06-08 삼성전자주식회사 Electronic device and controlling method of electronic device

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004021913A (en) * 2002-06-20 2004-01-22 Fujitsu Ltd Method for preparing information map
JP2008242534A (en) * 2007-03-24 2008-10-09 Hiroko Ishiwaka Healing system, server device, information processor and program
JP2008542951A (en) * 2005-06-06 2008-11-27 ザ リージェンツ オブ ザ ユニバーシティ オブ カリフォルニア Relevance network
JP2009163620A (en) * 2008-01-09 2009-07-23 Toyota Central R&D Labs Inc Response generation device and response generation program
JP2013196425A (en) * 2012-03-21 2013-09-30 Kddi Corp Personality display system, personality display method and personality display program

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004021913A (en) * 2002-06-20 2004-01-22 Fujitsu Ltd Method for preparing information map
JP2008542951A (en) * 2005-06-06 2008-11-27 ザ リージェンツ オブ ザ ユニバーシティ オブ カリフォルニア Relevance network
JP2008242534A (en) * 2007-03-24 2008-10-09 Hiroko Ishiwaka Healing system, server device, information processor and program
JP2009163620A (en) * 2008-01-09 2009-07-23 Toyota Central R&D Labs Inc Response generation device and response generation program
JP2013196425A (en) * 2012-03-21 2013-09-30 Kddi Corp Personality display system, personality display method and personality display program

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
JPN6016036960; 池田大介 他: '単語極性反転モデルによる評価文分類' 電子情報通信学会技術研究報告 Vol. 107, No. 158, 20070717, pp. 43-48, 社団法人電子情報通信学会 *
JPN6016036961; 寺岡丈博 他: '動詞連想情報を用いる省略語の推定法と評価' 言語処理学会第15回年次大会発表論文集 , 20090302, pp. 845-848, 言語処理学会 *

Also Published As

Publication number Publication date
JP2017037603A (en) 2017-02-16

Similar Documents

Publication Publication Date Title
US10536402B2 (en) Context-sensitive generation of conversational responses
JP6076425B1 (en) Interactive interface
JP6366749B2 (en) Interactive interface
CN117219080A (en) Virtual assistant for generating personalized responses within a communication session
CN110476169B (en) Providing emotion care in a conversation
Chen et al. Tracking and recognizing emotions in short text messages from online chatting services
Amin et al. A survey on approaches to computational humor generation
Kavitha et al. Chatbot for healthcare system using Artificial Intelligence
CN111694941B (en) Reply information determining method and device, storage medium and electronic equipment
US20220351716A1 (en) System and method for a personalized dialogue system using knowledge-based entity services
Dsouza et al. Chat with bots intelligently: A critical review & analysis
US20200184965A1 (en) Cognitive triggering of human interaction strategies to facilitate collaboration, productivity, and learning
JP6034459B1 (en) Interactive interface
Fulda et al. Byu-eve: Mixed initiative dialog via structured knowledge graph traversal and conversational scaffolding
JP6080137B1 (en) Interactive interface
US20230306205A1 (en) System and method for personalized conversational agents travelling through space and time
Goh et al. A black-box approach for response quality evaluation of conversational agent systems
Zhang Contextual and active learning-based affect-sensing from virtual drama improvisation
JP6745761B2 (en) Program, device and method for creating scatter plot in which word groups are scattered
Zhang et al. Affect detection from text-based virtual improvisation and emotional gesture recognition
Russell Real-time topic and sentiment analysis in human-robot conversation
Hernández et al. User-centric Recommendation Model for AAC based on Multi-criteria Planning
Chintapalli et al. Investigation of intelligent methodologies in prediction of depression
Bird Improving customer service chatbots with attention-based transfer learning
Omar A user based comparative study of automatic text summarization

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20161004

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20161027

R150 Certificate of patent or registration of utility model

Ref document number: 6034459

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250