JP2016006607A - Interactive communication system, terminal device, and program - Google Patents

Interactive communication system, terminal device, and program Download PDF

Info

Publication number
JP2016006607A
JP2016006607A JP2014127365A JP2014127365A JP2016006607A JP 2016006607 A JP2016006607 A JP 2016006607A JP 2014127365 A JP2014127365 A JP 2014127365A JP 2014127365 A JP2014127365 A JP 2014127365A JP 2016006607 A JP2016006607 A JP 2016006607A
Authority
JP
Japan
Prior art keywords
interactive communication
unit
terminal device
information
conversation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014127365A
Other languages
Japanese (ja)
Other versions
JP6432177B2 (en
JP2016006607A5 (en
Inventor
浩良 小川
Hiroyoshi Ogawa
浩良 小川
村木 淳
Atsushi Muraki
淳 村木
潤一 羽斗
Junichi Hato
潤一 羽斗
加奈子 中野
Kanako Nakano
加奈子 中野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2014127365A priority Critical patent/JP6432177B2/en
Publication of JP2016006607A publication Critical patent/JP2016006607A/en
Publication of JP2016006607A5 publication Critical patent/JP2016006607A5/ja
Application granted granted Critical
Publication of JP6432177B2 publication Critical patent/JP6432177B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Information Transfer Between Computers (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a technique for performing an interactive call via a network, in which the interactive call performed via the network is more smoothly performed.SOLUTION: A conversation state monitoring unit 102 monitors a conversation state in interactive communication by a plurality of terminal devices 101 connected via a network; an extraction/recording unit 103 extracts words 104 that appear in conversation in the interactive communication. A position information analyzing/recording unit 107 obtains images that appear in the conversation or position data of the terminal devices 101, analyzes them, and records them as position information 108. A topic providing unit 106 extracts, when the conversation state is a stagnation state, a word 105 matching a first condition from the words 104 recorded by the extraction/recording unit 103; extracts position information 109 matching a second condition from the position information 108 recorded by the position information analyzing/recording unit 107; retrieves a topic 110 matching or relating to the word 105 and position information 108 by accessing a server device 111 of a search site, for example; and provides it to the terminal devices 101.

Description

本発明は、ネットワークを介して対話型の通話を行うための技術に関する。   The present invention relates to a technique for making an interactive call via a network.

近年、IP(インターネットプロトコル)電話、ビデオチャット、SKYPE(「SKYPE」は「スカイプ」の登録商標)等のインターネットを利用したコミュニケーションツールが発達してきており、これらは従来の電話機に変わるものとして広く利用されている。特に、ピアツーピア(P2P)のネットワークシステムは、特定のノードに付加が集中し難く、クライアント数やデータ容量が増えても処理を分散し安定的なので、リアルタイムの動画像を交信しあうビデオチャットに適している。   In recent years, communication tools using the Internet such as IP (Internet Protocol) telephone, video chat, and SKYPE (“SKYPE” is a registered trademark of “Skype”) have been developed, and these are widely used as alternatives to conventional telephones. Has been. In particular, peer-to-peer (P2P) network systems are difficult to concentrate on specific nodes, and the processing is distributed and stable even when the number of clients and the data capacity increase, making them suitable for video chats that exchange real-time moving images. ing.

他方、認知症予防のために、コミュニケーションを図ることが有効と言われており、上記したようなコミュニケーションツールが認知症予防に役立つことが期待されている。   On the other hand, it is said that communication is effective for preventing dementia, and the communication tools as described above are expected to be useful for preventing dementia.

例えば、認知症患者の笑顔を検出し、それに応じて適切な会話を提供できるシステムが提案されている(例えば特許文献1に記載の技術)。このシステムでは、会話している間の認知症患者の笑顔を検出し、その笑顔の出現頻度に応じて、その会話時間を調整し、或いは、その会話内容を変更できることにより、認知症患者が興味を示す会話を重点的に認知症患者に提供できる。   For example, a system that can detect a smiling face of a dementia patient and provide an appropriate conversation according to the detected smile has been proposed (for example, a technique described in Patent Document 1). This system detects the smiles of patients with dementia during a conversation, adjusts the conversation time according to the appearance frequency of the smiles, or changes the content of the conversations. Concentrated conversation can be provided to patients with dementia.

また、介護施設等に入居しているお年寄りの心を癒す会話サービス技術が提案されている(例えば、特許文献2参照)。この技術では、託児所端末はイベントの開催予定日時を会話サービスサーバへ送信する。会話サービスサーバは開催予定日時データを託児所データベースに格納する。介護施設端末は会話サービスサーバへアクセスして受信を希望するイベントを選択し選択したイベントの画像受信予約申込みを会話サービスサーバへ送信する。会話サービスサーバは画像受信予約申込みを開催予定日時データに関連付けて予約リストに格納する。開催予定日時になると、会話サービスサーバは託児所端末と介護施設端末との間でビデオチャットを行わせる。
さらに、通話中においてその通話者の好みに適した話題を提供する話題情報提供システムがある(例えば特許文献3に記載の技術)。
In addition, a conversation service technology that heals the minds of elderly people residing in nursing care facilities has been proposed (see, for example, Patent Document 2). In this technology, the day care center terminal transmits the scheduled date and time of the event to the conversation service server. The conversation service server stores the scheduled date and time data in the daycare database. The care facility terminal accesses the conversation service server, selects an event desired to be received, and transmits an image reception reservation application for the selected event to the conversation service server. The conversation service server stores the image reception reservation application in the reservation list in association with the scheduled date and time data. When the scheduled date and time is reached, the conversation service server causes video chat between the daycare terminal and the nursing facility terminal.
Furthermore, there is a topic information providing system that provides a topic suitable for the preference of the caller during a call (for example, a technique described in Patent Document 3).

特開2011−223369号公報JP 2011-223369 A 特開2005−196640号公報JP 2005-196640 A 特開2003−115951号公報JP 2003-115951 A

しかしながら、上述した従来の認知症患者用会話システムは、サーバが会話データ群を一方的に発信するだけなので、会話の発展性に欠けるという課題があった。
また、上述した従来の会話サービスシステムは、お年寄りと児童を交流させるに留まり、やはり会話の発展性に欠けるという課題があった。
また、お年寄りの認知症予防の観点からは、一方的な会話の提供ではなく、お年寄りに対して、子どもや孫などの家族、ケア施設のスタッフ等と会話することが好ましいが、コミュニケーションツールを使って会話させようとしても、そもそも話題が続かないという課題もあった。
また、特許文献3記載の技術は、通話者の状況にかかわりなく単に話題を提供するだけであった。
However, the conventional conversation system for dementia patients described above has a problem in that the development of conversation is lacking because the server only transmits a conversation data group unilaterally.
In addition, the above-described conventional conversation service system has a problem in that it does not sufficiently develop conversational conversations, but only allows the elderly and children to interact.
In addition, from the viewpoint of prevention of dementia among the elderly, it is preferable not to provide unilateral conversation, but it is preferable to talk to the elderly, families such as children and grandchildren, and staff of care facilities, etc. There was also a problem that the topic did not continue in the first place even when trying to make a conversation using.
Further, the technique described in Patent Document 3 merely provides a topic regardless of the situation of the caller.

そこで、本発明は、ネットワークを介して行われる対話型の通話をより円滑に進めることを目的とする。   Accordingly, an object of the present invention is to more smoothly advance an interactive call performed via a network.

本発明の態様の一例として請求項1記載の発明は、ネットワークを介して接続される複数の端末装置による対話型通信における会話の活性・停滞状態を監視する会話状態監視部と、
前記対話型通信における所定の情報を抽出・記録する抽出・記録部と、前記会話状態が停滞状態であるときに、前記記録した所定の情報に関連する話題を前記端末装置に供給する話題提供部と、を備えることを特徴とする対話型通信システムを提供するものである。
請求項11記載の発明は、請求項1ないし9のいずれかに記載の対話型通信システムに用いられる端末装置を提供するものである。
As an example of an aspect of the present invention, the invention described in claim 1 includes a conversation state monitoring unit that monitors an active / stagnation state of conversation in interactive communication by a plurality of terminal devices connected via a network;
An extraction / recording unit that extracts and records predetermined information in the interactive communication, and a topic providing unit that supplies topics related to the recorded predetermined information to the terminal device when the conversation state is stagnant And providing an interactive communication system.
An eleventh aspect of the present invention provides a terminal device used in the interactive communication system according to any one of the first to ninth aspects.

請求項12記載の発明は、ネットワークを介して他の端末装置と接続される端末装置のコンピュータに、対話型通信における会話の活性・停滞状態を監視する会話の活性・停滞状態監視処理と、前記対話型通信における所定の情報を抽出・記録する抽出・記録処理と、前記会話状態が停滞状態であるときに、前記抽出された所定の情報に関連する話題を検索サイトのサーバ装置にアクセスして検索し、当該検索された話題を前記端末装置に供給する話題提供処理と、を実行させるプログラムを提供するものである。   According to a twelfth aspect of the present invention, there is provided a conversational activity / stagnation state monitoring process for monitoring a conversational activity / stagnation state in interactive communication with a computer of a terminal device connected to another terminal device via a network; An extraction / recording process for extracting / recording predetermined information in interactive communication, and when the conversation state is stagnant, a topic related to the extracted predetermined information is accessed to a server device of a search site. A program for executing a topic providing process for searching and supplying the searched topic to the terminal device is provided.

本発明によれば、ネットワークを介して行われる対話型の通話をより円滑に進めることが可能となる。   ADVANTAGE OF THE INVENTION According to this invention, it becomes possible to advance the interactive telephone call performed via a network more smoothly.

対話型通信システムの実施形態の機能構成図である。It is a functional block diagram of embodiment of an interactive communication system. 対話型通信システムの実施形態が前提とするネットワークシステムの構成図である。1 is a configuration diagram of a network system on which an embodiment of an interactive communication system is based. 端末装置の実施形態のブロック図である。It is a block diagram of embodiment of a terminal device. サーバ装置の実施形態のブロック図である。It is a block diagram of embodiment of a server apparatus. 端末装置またはサーバ装置を実現可能なコンピュータのハードウェア構成例を示す図である。It is a figure which shows the hardware structural example of the computer which can implement | achieve a terminal device or a server apparatus. 対話型通信処理の例を示すフローチャートである。It is a flowchart which shows the example of an interactive communication process. 会話状態監視処理の動作説明図である。It is operation | movement explanatory drawing of a conversation state monitoring process. 活性状態処理の詳細例を示すフローチャートである。It is a flowchart which shows the detailed example of an active state process. 停滞状態処理の詳細例を示すフローチャートである。It is a flowchart which shows the detailed example of a stagnation state process. 対話型通信の表示例(その1)を示す図である。It is a figure which shows the example of a display of the interactive communication (the 1). 対話型通信の表示例(その2)を示す図である。It is a figure which shows the example of a display of the interactive communication (the 2). 端末装置の他の実施形態のブロック図である。It is a block diagram of other embodiments of a terminal unit. サーバ装置の他の実施形態のブロック図である。It is a block diagram of other embodiments of a server apparatus.

以下、本発明を実施するための形態について図面を参照しながら詳細に説明する。図1は、対話型通信システムの実施形態の機能構成図である。   Hereinafter, embodiments for carrying out the present invention will be described in detail with reference to the drawings. FIG. 1 is a functional configuration diagram of an embodiment of an interactive communication system.

本発明の実施形態は、インターネットやローカルエリアネットワーク等のネットワークを介して接続される複数の端末装置101同士が、例えばピアツーピア接続をすることにより対話型通信を行う対話型通信システムである。   The embodiment of the present invention is an interactive communication system in which a plurality of terminal devices 101 connected via a network such as the Internet or a local area network perform interactive communication by, for example, peer-to-peer connection.

対話型通信システムの実施形態において、会話状態監視部102は、ネットワークを介して接続される複数の端末装置101による対話型通信における会話状態を監視する。   In the embodiment of the interactive communication system, the conversation state monitoring unit 102 monitors the conversation state in interactive communication by a plurality of terminal devices 101 connected via a network.

語句抽出・記録部103は、対話型通信における会話に出現する語句104を抽出する。   The phrase extraction / recording unit 103 extracts a phrase 104 that appears in a conversation in interactive communication.

位置情報解析・記録部107は、会話に出現する画像または端末装置101の位置データを取得し解析して位置情報108として記録する。   The position information analysis / recording unit 107 acquires an image that appears in a conversation or position data of the terminal device 101, analyzes it, and records it as position information 108.

話題提供部106は、会話状態監視部102で会話状態が停滞状態であるとされたときに、語句抽出・記録部103が記録した語句104から第1の条件に合致する語句105を抽出するとともに、位置情報解析・記録部107が記録した位置情報108から第2の条件に合致する位置情報109を抽出する。そして、話題提供部106は、抽出された語句105および位置情報109の両方(いずれかであってもよい)に合致又は関連する話題110を端末装置101に供給する。具体的には、話題提供部106は、これらの抽出された語句105および位置情報109に関連する話題を検索サイトのサーバ装置111にアクセスして検索し、その検索された話題を端末装置101に供給する。抽出された語句105および位置情報109に合致する話題とは、その語句や位置情報を含むニュースや記事を検索サイトから検索するものであり、関連する話題とは、その語句や位置情報と完全一致しなくても、タグやジャンル等から検索するものである。例えば「ワールドカップサッカー」という語句から「Jリーグの試合結果」というニュースを検索する場合等があげられる。   The topic providing unit 106 extracts the phrase 105 that matches the first condition from the phrase 104 recorded by the phrase extraction / recording unit 103 when the conversation state monitoring unit 102 determines that the conversation state is stagnant. Then, the position information 109 meeting the second condition is extracted from the position information 108 recorded by the position information analysis / recording unit 107. Then, the topic providing unit 106 supplies the terminal device 101 with a topic 110 that matches or is related to both of the extracted words 105 and the position information 109 (which may be either). Specifically, the topic providing unit 106 accesses the search site server device 111 to search for a topic related to the extracted word 105 and position information 109, and searches the terminal device 101 for the searched topic. Supply. The topic that matches the extracted word / phrase 105 and the position information 109 is a search for news or articles including the word / phrase and position information from a search site, and the related topic is the same as the word / phrase and position information. Even if you don't do it, you can search by tag or genre. For example, a search for news “J-League match results” from the phrase “World Cup soccer” can be given.

以上の対話型通信システムの実施形態の機能構成により、対話型通信における会話状態が停滞状態になったときに、予め対話型通信の会話にでてきた語句104や位置情報108に合致する話題110が検索サイトのサーバ装置111から検索されて、端末装置101の表示画面に表示等される。これにより、対話型通信を行っているユーザは、その表示等を見ることで、例えば最近のぼった話題110または例えば半年以上前にのぼった話題110などを再び思い出して、対話型の通話をより円滑に進めることが可能となる。   Due to the functional configuration of the embodiment of the interactive communication system described above, the topic 110 that matches the phrase 104 or the position information 108 that has previously appeared in the interactive communication conversation when the conversation state in the interactive communication becomes stagnant. Is retrieved from the server device 111 at the search site and displayed on the display screen of the terminal device 101. As a result, a user who is performing interactive communication, for example, sees the display and the like, and recalls, for example, the recent topic 110 or the topic 110 that has been collected more than six months ago, for example. It is possible to proceed to.

対話型通信システムのさらに具体的な実施形態について、以下に説明する。図2は、対話型通信システムの実施形態が前提とするネットワークシステムの構成図である。対話型通信システム200の実施形態は、相互に例えばピアツーピア接続による対話型通信を行うことのできる複数の端末装置220(図1の端末装置101に対応する)が、インターネットやローカルエリアネットワークであるネットワーク250を形成するルータ装置やサーバ装置などからなる複数の中継装置210を介して、通信可能なように接続されている。また、ネットワーク250の中継装置210には、本実施形態において各端末装置220に話題を提供するサーバ装置100が接続される。さらに、ネットワーク250の中継装置210には、例えばインターネットからアクセス可能な検索サイトのサーバ装置230やニュースサイトのサーバ装置240が接続される。   A more specific embodiment of the interactive communication system will be described below. FIG. 2 is a configuration diagram of a network system on which the embodiment of the interactive communication system is based. The embodiment of the interactive communication system 200 is a network in which a plurality of terminal devices 220 (corresponding to the terminal device 101 in FIG. 1) capable of performing interactive communication with each other, for example, by peer-to-peer connection are the Internet or a local area network. Via a plurality of relay devices 210 including router devices, server devices, and the like forming 250, communication is established. In addition, the server apparatus 100 that provides a topic to each terminal apparatus 220 in the present embodiment is connected to the relay apparatus 210 of the network 250. Further, for example, a search site server device 230 and a news site server device 240 accessible from the Internet are connected to the relay device 210 of the network 250.

以上のような対話型通信システム200の構成のもとで、例えばAさんの端末装置220A、Bさんの端末装置220B、Cさんの端末装置220Cの3端末が、相互に対話型通信を実行することができる。   Under the configuration of the interactive communication system 200 as described above, for example, three terminals of Mr. A's terminal device 220A, Mr. B's terminal device 220B, and Mr. C's terminal device 220C execute interactive communication with each other. be able to.

図3は、図2の端末装置220の実施形態のブロック図である。この端末装置220は、例えばネットワーク250に接続可能な一般的なパーソナルコンピュータや、タブレット端末装置、あるいはスマートフォン端末装置である。   FIG. 3 is a block diagram of an embodiment of the terminal device 220 of FIG. The terminal device 220 is, for example, a general personal computer that can be connected to the network 250, a tablet terminal device, or a smartphone terminal device.

対話型通信制御部301は、サーバ装置100に対して認証要求を発行してサーバ装置100から対話型通信の許可を受信した後、他端末との間でピアツーピア接続による対話型通信を確立し、テキストデータ、音声データ、画像データ、その他ファイルデータ等による対話型通信の実行を制御する。   The interactive communication control unit 301 issues an authentication request to the server device 100 and receives permission for interactive communication from the server device 100, and then establishes interactive communication by peer-to-peer connection with another terminal, Controls the execution of interactive communication using text data, audio data, image data, and other file data.

音声入出力部302は、例えばマイクによりユーザが発声する音声を入力し、例えばスピーカやイヤホンによりユーザに他端末からの音声を発音するユニットである。   The voice input / output unit 302 is a unit that inputs voice uttered by the user through, for example, a microphone, and emits voice from another terminal to the user through, for example, a speaker or an earphone.

撮像部303は、ユーザの姿を撮像する例えばデジタルカメラユニットである。   The imaging unit 303 is, for example, a digital camera unit that captures an image of the user.

表示部・操作入力部304は、ユーザに、対話型通信によるテキストや画像、あるいはサーバ装置100が提供する話題を表示する、タッチパネルディスプレイユニット、あるいはディスプレイユニットとキーボードユニットである。   The display unit / operation input unit 304 is a touch panel display unit, or a display unit and a keyboard unit that displays text and images by interactive communication or a topic provided by the server device 100 to the user.

GPS(Global Positioning System:全地球測位網)受信部305は、上空にある数個のGPS衛星からの信号を受信し、端末装置220自身が位置する緯度・経度データを算出する。   A GPS (Global Positioning System) receiving unit 305 receives signals from several GPS satellites in the sky and calculates latitude / longitude data where the terminal device 220 itself is located.

データ記憶部306は、対話型通信でやりとりされる画像データやその他ファイルデータを記憶する。   The data storage unit 306 stores image data and other file data exchanged through interactive communication.

音声分析部307は、音声入出力部302に対して入出力される対話型通信における会話の音声データを対話型通信制御部301を介して入力し、その音声データを音響分析し音声情報を出力する。音響分析は例えば、音声データに含まれる人間のフォルマント成分を抽出する周波数分析処理と、音声データの平均パワーを算出する処理である。音声分析部307は、周波数分析処理として、10〜数十ミリ秒ごとに音声を周波数分析して得られる特徴ベクトルデータを音声情報として出力する。より具体的には、この特徴ベクトルデータは例えば、音声をケプストラム分析して得られるケプストラム係数、音声をPARCOR(Partial AutoCorrelation Coefficients)分析して得られるPARCOR計数、あるいは音声をLSP(Line Spectral Pairs)分析して得られるLSP係数などからなる10〜13個の実数係数組である。また、音声分析部307は、一定時間ごとの音声データの平均パワーを算出し、この値を音声情報として出力する。   The voice analysis unit 307 inputs voice data of conversation in interactive communication input / output to / from the voice input / output unit 302 via the interactive communication control unit 301, acoustically analyzes the voice data, and outputs voice information. To do. The acoustic analysis is, for example, a frequency analysis process for extracting a human formant component included in voice data and a process for calculating the average power of the voice data. The voice analysis unit 307 outputs, as frequency information, feature vector data obtained by frequency analysis of voice every 10 to several tens of milliseconds as voice information. More specifically, the feature vector data includes, for example, a cepstrum coefficient obtained by cepstrum analysis of speech, a PARCOR count obtained by parsing speech with PARCOR (Partial Auto Correlation Coefficients), or LSP (Line Spectral Pairs) analysis of speech. 10 to 13 real coefficient sets composed of LSP coefficients obtained as described above. In addition, the voice analysis unit 307 calculates the average power of the voice data at regular time intervals and outputs this value as voice information.

位置データ取得部308は、対話型通信の会話に出現し、例えばデータ記憶部306に対して入出力される静止画像データや動画像データのメタデータ、例えばExif(EXchangeable Image File format)データに含まれる、その画像が撮影された位置を示す緯度・経度データを、対話型通信制御部301を介して位置データとして取得する。あるいは、位置データ取得部308は、GPS受信機103が検出する緯度・経度データを、対話型通信制御部301を介して位置データとして取得する。   The position data acquisition unit 308 appears in a conversation of interactive communication, and is included in, for example, still image data or moving image data metadata input / output to / from the data storage unit 306, for example, Exif (EXchangeable Image File format) data. The latitude / longitude data indicating the position where the image was taken is acquired as position data via the interactive communication control unit 301. Alternatively, the position data acquisition unit 308 acquires latitude / longitude data detected by the GPS receiver 103 as position data via the interactive communication control unit 301.

通信インタフェース部309は、図2のネットワーク250と自端末装置220との接続機能を提供する。通信インタフェース部309は、対話型通信制御部301が他端末に対して入出力する対話型通信のためのテキストデータ、音声データ、画像データ、その他ファイルデータを、図2のネットワーク250を介して相手の端末装置220に対して送受信する。また、通信インタフェース部309は、音声分析部307が10〜数十ミリ秒ごとに出力する特徴量ベクトルデータを、図2のネットワーク250を介してサーバ装置100に送信する。さらに、通信インタフェース部309は、位置データ取得部308が随時出力する位置データを、図2のネットワーク250を介してサーバ装置100に送信する。   The communication interface unit 309 provides a connection function between the network 250 of FIG. The communication interface unit 309 transmits text data, voice data, image data, and other file data for interactive communication that the interactive communication control unit 301 inputs and outputs to other terminals via the network 250 in FIG. The terminal device 220 transmits and receives. Further, the communication interface unit 309 transmits the feature vector data output by the voice analysis unit 307 every 10 to several tens of milliseconds to the server apparatus 100 via the network 250 in FIG. Furthermore, the communication interface unit 309 transmits the position data output from the position data acquisition unit 308 as needed to the server apparatus 100 via the network 250 in FIG.

図4は、図2のサーバ装置100の実施形態のブロック図である。   FIG. 4 is a block diagram of an embodiment of the server device 100 of FIG.

通信インタフェース部401は、図2のネットワーク250と自サーバ装置100との接続機能を提供する。通信インタフェース部401は、図2の端末装置220が送信した認証要求、音声情報、位置データを受信し、それぞれ、認証部402、ワード抽出部405、位置情報解析部407に引き渡す。   The communication interface unit 401 provides a connection function between the network 250 of FIG. The communication interface unit 401 receives the authentication request, voice information, and position data transmitted by the terminal device 220 in FIG. 2 and passes them to the authentication unit 402, the word extraction unit 405, and the position information analysis unit 407, respectively.

認証部402は、図2の端末装置220からの認証要求を受信すると、その認証要求に含まれるユーザ名とパスワードを、ユーザデータベース(ユーザDB)403に記憶されているユーザ名およびパスワードと照合し、照合結果がOKならば、その端末装置220に対話型通信を許可する。   When the authentication unit 402 receives the authentication request from the terminal device 220 in FIG. 2, the authentication unit 402 collates the user name and password included in the authentication request with the user name and password stored in the user database (user DB) 403. If the collation result is OK, interactive communication is permitted to the terminal device 220.

会話状態監視部404は、各端末装置220による対話型通信における会話状態を監視する。より具体的には、会話状態監視部404は、通信インタフェース部401からワード抽出部405に入力した音声情報のうちの音声平均パワー情報をワード抽出部405から入力し、その音声平均パワー情報の値に基づいて、その値を送信した端末装置220における対話型通信の会話が、活性状態にあるか、または停滞状態にあるかを監視する。   The conversation state monitoring unit 404 monitors the conversation state in the interactive communication by each terminal device 220. More specifically, the conversation state monitoring unit 404 inputs voice average power information of the voice information input from the communication interface unit 401 to the word extraction unit 405 from the word extraction unit 405, and the value of the voice average power information. Based on the above, it is monitored whether the conversation of the interactive communication in the terminal device 220 that has transmitted the value is in an active state or a stagnation state.

ワード抽出部405は、例えば会話状態監視部404が活性状態を検出したときに、その状態が検出された端末装置220から通信インタフェース部401を介して入力した音声情報から、その端末装置220における対話型通信の会話に出現するワードを抽出する。そして、ワード抽出部405は、ワードデータベース(ワードDB)406に、その抽出したワードと、ワードが抽出された対話型通信の識別情報と、そのワードが抽出された日時情報を記録する。なお、ワード抽出部405は、ワードDB406上に同じワードが既に登録されている場合には、そのワードの対話型通信の識別情報、および日時情報を、新たな情報で上書き記録する。   For example, when the conversation state monitoring unit 404 detects an active state, the word extraction unit 405 uses the voice information input from the terminal device 220 from which the state has been detected via the communication interface unit 401 to perform a dialog in the terminal device 220. Extract words that appear in type communication conversations. Then, the word extraction unit 405 records the extracted word, identification information of interactive communication from which the word is extracted, and date / time information from which the word is extracted, in the word database (word DB) 406. If the same word has already been registered in the word DB 406, the word extraction unit 405 overwrites and records the interactive communication identification information and date / time information of the word with new information.

位置情報解析部407は、例えば会話状態監視部404が活性状態を検出したときに、その状態が検出された端末装置220から通信インタフェース部401を介して入力した位置データから、その位置データに対応する例えば地図上の位置名称等を位置情報として解析する。そして、位置情報解析部407は、位置情報データベース(位置情報DB)408に、その抽出した位置情報と、位置情報が抽出された対話型通信の識別情報と、その位置情報が抽出された日時情報を記録する。なお、位置情報解析部407は、位置情報DB408上に同じ位置情報が既に登録されている場合には、その位置情報の対話型通信の識別情報、および日時情報を、新たな情報で上書き記録する。   For example, when the conversation state monitoring unit 404 detects an active state, the position information analysis unit 407 corresponds to the position data from the position data input via the communication interface unit 401 from the terminal device 220 in which the state is detected. For example, a position name on the map is analyzed as position information. Then, the position information analysis unit 407 stores, in the position information database (position information DB) 408, the extracted position information, identification information of interactive communication from which the position information is extracted, and date / time information from which the position information is extracted. Record. When the same position information is already registered in the position information DB 408, the position information analysis unit 407 overwrites and records the interactive communication identification information and date / time information of the position information with new information. .

話題提供部409は、会話状態監視部404が停滞状態を検出したときに、ワードDB405から例えば最近数ヶ月以内に登録されたワード410を例えば無作為に抽出するとともに、位置情報DB408から同じく例えば最近数ヶ月以内に登録された位置情報411を例えば無作為に抽出する。そして、話題提供部409は、抽出されたワード410および位置情報411の両方(いずれかであってもよい)に合致する話題412を、通信インタフェース部401および図2のネットワーク250を介して、検索サイトのサーバ装置230やニュースサイトのサーバ装置240にアクセスして検索する。話題提供部409は、その検索された話題412を、会話状態監視部404が停滞状態を検出した対話型通信を行っている端末装置101に送信する。   When the conversation state monitoring unit 404 detects a stagnation state, the topic providing unit 409 extracts, for example, the words 410 registered within the last few months from the word DB 405, for example, and also from the position information DB 408, for example, For example, the position information 411 registered within several months is extracted at random. Then, the topic providing unit 409 searches for the topic 412 that matches both the extracted word 410 and the position information 411 (which may be either) via the communication interface unit 401 and the network 250 of FIG. The site server device 230 and the news site server device 240 are accessed and searched. The topic providing unit 409 transmits the searched topic 412 to the terminal device 101 performing interactive communication in which the conversation state monitoring unit 404 has detected a stagnation state.

図3において、該当する端末装置220内の対話型通信制御部301は、上述の話題412を通信インタフェース部309を介して受信すると、その話題412に含まれるテキストデータまたは画像データを、表示部・操作入力部304の対話型通信画面に表示する。   In FIG. 3, when the interactive communication control unit 301 in the corresponding terminal device 220 receives the above-described topic 412 via the communication interface unit 309, the interactive communication control unit 301 displays text data or image data included in the topic 412 on the display unit / It is displayed on the interactive communication screen of the operation input unit 304.

上述の構成において、図4の会話状態監視部404が図1の会話状態監視部102に対応する。また、図3の音声分析部307および図4のワード抽出部405が、図1の語句抽出・記録部103に対応する。また、図4のワードDB405が図1の記録された語句104に対応する。また、図3の位置データ取得部308および図4の位置情報解析部407が、図1の位置情報解析・記録部107に対応する。また、図4の位置情報DB408が、図1の記録された位置情報108に対応する。さらに、図4の話題提供部409が、図1の話題提供部106に対応する。そして、図2の検索サイトのサーバ装置230ニュースサイトのサーバ装置100が、図1の検索サイトのサーバ装置111に対応する。このように、図2、図3、および図4の構成では、音声分析部307および位置データ取得部308が端末装置220に、また、会話状態監視部404、ワード抽出部405、ワードDB405、位置情報解析部407、位置情報DB408、および話題提供部106がサーバ装置100に、それぞれ分散配置される。この場合、端末装置220内の音声分析部307および位置データ取得部308からサーバ装置100に送信される音声情報および位置データのデータ伝送量は、音声データや画像データそのものを送信するよりもはるかに少ない伝送量で済む。
これにより、例えば端末装置220間のピアツーピア接続の効率性を損なわずに、図1の機能構成の場合と同様にして、端末装置220で対話型通信を行っているユーザは、表示部・操作入力部304(図3)に表示される話題412の表示を見ることで、例えば最近のぼった話題412または例えば半年以上前にのぼった話題412などを再び思い出して、対話型の通話をより円滑に進めることが可能となる。特にお年寄りの場合は直近の話題よりも古い話題の方が記憶に残っている場合もある。
In the configuration described above, the conversation state monitoring unit 404 in FIG. 4 corresponds to the conversation state monitoring unit 102 in FIG. Also, the voice analysis unit 307 in FIG. 3 and the word extraction unit 405 in FIG. 4 correspond to the phrase extraction / recording unit 103 in FIG. Also, the word DB 405 in FIG. 4 corresponds to the recorded phrase 104 in FIG. The position data acquisition unit 308 in FIG. 3 and the position information analysis unit 407 in FIG. 4 correspond to the position information analysis / recording unit 107 in FIG. Further, the position information DB 408 in FIG. 4 corresponds to the recorded position information 108 in FIG. Further, the topic providing unit 409 in FIG. 4 corresponds to the topic providing unit 106 in FIG. The search site server apparatus 230 in FIG. 2 corresponds to the search site server apparatus 111 in FIG. 2, 3, and 4, the voice analysis unit 307 and the position data acquisition unit 308 are added to the terminal device 220, the conversation state monitoring unit 404, the word extraction unit 405, the word DB 405, the position The information analysis unit 407, the position information DB 408, and the topic providing unit 106 are distributed and arranged on the server device 100, respectively. In this case, the data transmission amount of the voice information and the position data transmitted from the voice analysis unit 307 and the position data acquisition unit 308 in the terminal device 220 to the server device 100 is far more than that of transmitting the voice data or the image data itself. Less transmission is required.
Thus, for example, a user who is performing interactive communication with the terminal device 220 in the same manner as in the functional configuration of FIG. By looking at the display of the topic 412 displayed in the section 304 (FIG. 3), for example, the recent topic 412 or the topic 412 that has been recorded more than six months ago, for example, can be recalled again, and the interactive call can be promoted more smoothly. It becomes possible. In particular, elderly people may remember more old topics than the most recent ones.

図5は、図3の端末装置220または図4のサーバ装置100を実現可能なコンピュータのハードウェア構成例を示す図である。   FIG. 5 is a diagram illustrating a hardware configuration example of a computer capable of realizing the terminal device 220 in FIG. 3 or the server device 100 in FIG.

図5に示されるコンピュータは、それが図4のサーバ装置100として実施される場合には、CPU(中央演算処理装置)501、メモリ502、入力装置503、出力装置504、外部記憶装置505、可搬記録媒体509が挿入される可搬記録媒体駆動装置506、及び通信インタフェース回路507を有し、これらがバス508によって相互に接続された構成を有する。さらに、図5に示されるコンピュータは、それが図3の端末装置220として実施される場合には、上述のサーバ装置100の場合と同様の構成に加えて、バス508にカメラ部510およびGPS受信機511がさらに接続された構成を有する。図5に示される構成は、対話型通信システム200の端末装置220またはサーバ装置100を実現できるコンピュータの一例であり、そのようなコンピュータはこの構成に限定されるものではない。   When the computer shown in FIG. 5 is implemented as the server apparatus 100 of FIG. 4, the CPU (central processing unit) 501, the memory 502, the input apparatus 503, the output apparatus 504, the external storage apparatus 505, A portable recording medium driving device 506 into which a portable recording medium 509 is inserted is provided, and a communication interface circuit 507 is connected to each other by a bus 508. Further, when the computer shown in FIG. 5 is implemented as the terminal device 220 of FIG. 3, in addition to the same configuration as that of the server device 100 described above, the camera unit 510 and the GPS reception on the bus 508 are added. The machine 511 is further connected. The configuration shown in FIG. 5 is an example of a computer that can implement the terminal device 220 or the server device 100 of the interactive communication system 200, and such a computer is not limited to this configuration.

図3の通信インタフェース部309または図4の通信インタフェース部401は、図5の通信インタフェース回路507に対応する。図3の表示部・操作入力部304、および音声入出力部302は、図5の入力装置503および出力装置504に対応する。図3の撮像部303およびGPS受信部305は、図5のカメラ510およびGPS受信機511に対応する。図3のデータ記憶部306、図4のワードDB405、図4の位置情報DB408、および図4のユーザDB403の機能は、図5の外部記憶装置205が担う。   The communication interface unit 309 in FIG. 3 or the communication interface unit 401 in FIG. 4 corresponds to the communication interface circuit 507 in FIG. The display unit / operation input unit 304 and the voice input / output unit 302 in FIG. 3 correspond to the input device 503 and the output device 504 in FIG. 5. The imaging unit 303 and the GPS receiving unit 305 in FIG. 3 correspond to the camera 510 and the GPS receiver 511 in FIG. The functions of the data storage unit 306 in FIG. 3, the word DB 405 in FIG. 4, the location information DB 408 in FIG. 4, and the user DB 403 in FIG.

可搬記録媒体駆動装置506は、SDカード、コンパクトフラッシュや、光ディスク等の可搬記録媒体509を収容するもので、外部記憶装置505の補助の役割を有する。   The portable recording medium driving device 506 accommodates a portable recording medium 509 such as an SD card, a compact flash, or an optical disk, and has an auxiliary role for the external storage device 505.

CPU501は、当該コンピュータ全体の制御を行う。メモリ502は、プログラムの実行、データ更新等の際に、外部記憶装置505(或いは可搬記録媒体509)に記憶されているプログラム又はデータを一時的に格納するRAM等のメモリである。CUP501は、後述する対話型通信処理のプログラムをメモリ502に読み出して実行することにより、全体の制御を行う。これにより、端末装置220においては、図3の対話型通信制御部301、音声分析部307、および位置データ取得部308の機能が実現される。また、サーバ装置100においては、図4の認証部402、会話状態監視部404、ワード抽出部405、位置情報解析部407、および話題提供部106の機能が実現される。   The CPU 501 controls the entire computer. The memory 502 is a memory such as a RAM that temporarily stores a program or data stored in the external storage device 505 (or the portable recording medium 509) when executing a program, updating data, or the like. The CUP 501 performs overall control by reading a program for interactive communication processing described later into the memory 502 and executing it. Thereby, in the terminal device 220, the functions of the interactive communication control unit 301, the voice analysis unit 307, and the position data acquisition unit 308 of FIG. 3 are realized. In the server device 100, the functions of the authentication unit 402, the conversation state monitoring unit 404, the word extraction unit 405, the location information analysis unit 407, and the topic providing unit 106 in FIG. 4 are realized.

本実施形態によるシステムは、図6、図8、および図9のフローチャート等で実現される機能を搭載したプログラムをCPU501が実行することで実現される。そのプログラムは、例えば外部記憶装置505や可搬記録媒体509に記録して配布してもよく、或いは通信インタフェース507によりネットワークから取得できるようにしてもよい。   The system according to the present embodiment is realized by the CPU 501 executing a program having functions realized by the flowcharts of FIGS. 6, 8, and 9. For example, the program may be recorded and distributed in the external storage device 505 or the portable recording medium 509, or may be acquired from the network by the communication interface 507.

図6は、サーバ装置100におけるCPU501および端末装置220におけるCPU501がそれぞれメモリ502に記憶された各対話型通信処理プログラムを実行する処理として実現される対話型通信処理の例を示すフローチャートである。   FIG. 6 is a flowchart showing an example of interactive communication processing realized as processing in which the CPU 501 in the server device 100 and the CPU 501 in the terminal device 220 execute the respective interactive communication processing programs stored in the memory 502.

まず、ユーザAが操作する図2の端末装置220Aが、対話型通信サービスの利用を開始する(ステップS2)。この結果、端末装置220AのCPU501が、通信インタフェース回路507およびネットワーク250(図2)を介してサーバ装置100に、認証要求およびユーザBが操作する図2の端末装置220Bへの接続要求を送信する(通信L2)。   First, the terminal device 220A of FIG. 2 operated by the user A starts using the interactive communication service (step S2). As a result, the CPU 501 of the terminal device 220A transmits an authentication request and a connection request to the terminal device 220B of FIG. 2 operated by the user B to the server device 100 via the communication interface circuit 507 and the network 250 (FIG. 2). (Communication L2).

この結果、サーバ装置100では、CPU501は、通信インタフェース回路507を介して上記認証要求を受信すると、認証処理を開始する(ステップS4)。CPU501は、その認証要求に含まれるユーザ名とパスワードを、外部記憶装置205内のユーザDB403(図4)に記憶されているユーザ名およびパスワードと照合する。CPU501は、照合結果がOKならば、通信インタフェース回路507およびネットワーク250(図2)を介して、接続先の端末装置220Bに、接続通知を送信する(通信L4)。   As a result, in the server apparatus 100, when the CPU 501 receives the authentication request via the communication interface circuit 507, the CPU 501 starts an authentication process (step S4). The CPU 501 collates the user name and password included in the authentication request with the user name and password stored in the user DB 403 (FIG. 4) in the external storage device 205. If the collation result is OK, the CPU 501 transmits a connection notification to the connection destination terminal device 220B via the communication interface circuit 507 and the network 250 (FIG. 2) (communication L4).

以上のステップS4の処理は、図4の認証部402の機能を実現する。   The processing in step S4 described above realizes the function of the authentication unit 402 in FIG.

端末装置220Bでは、CPU501は、通信インタフェース回路507を介して上記接続通知を受信すると、端末装置220Aとのピアツーピア接続による利用開始処理を実行する(ステップS6)。その後、端末装置220Bでは、CPU501は、通信インタフェース回路507およびネットワーク250(図2)を介してサーバ装置100に、利用開始を通知する(通信L6)。   In the terminal device 220B, when the CPU 501 receives the connection notification via the communication interface circuit 507, the CPU 501 executes a use start process by peer-to-peer connection with the terminal device 220A (step S6). Thereafter, in the terminal device 220B, the CPU 501 notifies the server device 100 of the start of use via the communication interface circuit 507 and the network 250 (FIG. 2) (communication L6).

サーバ装置100では、CPU501は、通信インタフェース回路507を介して上記利用開始を受信すると、話題提供のための処理を開始する(ステップS8)。   In the server device 100, when the CPU 501 receives the use start via the communication interface circuit 507, the CPU 501 starts a process for providing a topic (step S8).

端末装置220Aおよび220BのCPU501は、対話型通信の開始後、図3を用いて前述した音声分析部307および位置データ取得部308の各処理を定期的に実行し、通信インタフェース回路507からネットワーク250を介してサーバ装置100に、音声情報および位置データを送信する。サーバ装置100においては、ステップS12からステップS30までの繰返し処理の中で、端末装置220Aおよび220Bから、定期的に前述した音声情報および位置データを受信する(以上、通信L9)。   After the start of interactive communication, the CPU 501 of the terminal devices 220A and 220B periodically executes the processes of the voice analysis unit 307 and the position data acquisition unit 308 described above with reference to FIG. The voice information and the position data are transmitted to the server device 100 via In the server apparatus 100, the above-described voice information and position data are periodically received from the terminal apparatuses 220A and 220B in the iterative process from step S12 to step S30 (the communication L9).

以上の通信L9の処理は、図3の音声分析部307および位置データ取得部308の機能を実現する。   The processing of the communication L9 described above realizes the functions of the voice analysis unit 307 and the position data acquisition unit 308 in FIG.

サーバ装置100は、CPU501は、ステップS12からステップS30までの繰返し処理の中で、会話状態監視処理を実行することにより(ステップS12)、各端末装置220Aおよび220Bによる対話型通信の会話状態が、活性状態にあるか、または停滞状態にあるかを監視する(ステップS14)。図7は、ステップS12およびS14の会話状態監視処理の動作説明図である。サーバ装置100のCPU501は、端末装置220Aおよび220B(どちらか一方でもよい)が定期的に送信してくる音声情報に含まれる音声平均パワー情報を監視する。例えば、期間T1に示されるように、音声平均パワー情報の値701が、閾値である上限値VHと下限値VLの間に入っていれば、CPU501は、期間T1における会話状態は平常状態であると判定する(この判定は行わなくてもよい)。また、期間T2に示されるように、音声平均パワー情報の値701が、下限値VLを下回っていれば、CPU501は、期間T2における会話状態は停滞状態であると判定する。さらに、期間T3に示されるように、音声平均パワー情報の値701が、上限値VHを上回っていれば、CPU501は、期間T3における会話状態は活性状態であると判定する。   In the server apparatus 100, the CPU 501 executes the conversation state monitoring process in the repetition process from step S12 to step S30 (step S12), so that the conversation state of the interactive communication by the terminal devices 220A and 220B is Whether it is in an active state or a stagnation state is monitored (step S14). FIG. 7 is an operation explanatory diagram of the conversation state monitoring process in steps S12 and S14. The CPU 501 of the server device 100 monitors voice average power information included in the voice information periodically transmitted from the terminal devices 220A and 220B (whichever is acceptable). For example, as shown in the period T1, if the value 701 of the voice average power information is between the upper limit value VH and the lower limit value VL that are threshold values, the CPU 501 has a normal conversation state in the period T1. (This determination may not be performed). Further, as shown in the period T2, if the value 701 of the voice average power information is below the lower limit value VL, the CPU 501 determines that the conversation state in the period T2 is a stagnation state. Furthermore, as shown in the period T3, if the value 701 of the voice average power information exceeds the upper limit value VH, the CPU 501 determines that the conversation state in the period T3 is an active state.

以上のステップS12およびS14の処理は、図4の会話状態監視部404の機能を実現する。   The processes in steps S12 and S14 described above realize the function of the conversation state monitoring unit 404 in FIG.

サーバ装置100において、CPU501は、ステップS14で端末装置220Aと220Bの会話状態が活性状態であると判定した場合には、活性状態処理を実行する(ステップS16)。   In the server device 100, when the CPU 501 determines in step S14 that the conversation state between the terminal devices 220A and 220B is active, the CPU 501 executes active state processing (step S16).

図8は、サーバ装置100のCPU501が実行する図6のステップS16の活性状態処理の詳細例を示すフローチャートである。   FIG. 8 is a flowchart illustrating a detailed example of the active state process in step S16 of FIG. 6 executed by the CPU 501 of the server apparatus 100.

図8においてまず、CPU501は、通信インタフェース回路507を介して、前述した図6の通信L9によって各端末装置220Aおよび220Bから送られてきた音声情報を受信する(ステップS801)。なお、端末装置220Aおよび220Bは、互いに重複する音声情報については、いずれか一方のみがサーバ装置100に送信するように動作してよい。   In FIG. 8, first, the CPU 501 receives the voice information transmitted from each of the terminal devices 220A and 220B by the communication L9 of FIG. 6 described above via the communication interface circuit 507 (step S801). Note that the terminal devices 220 </ b> A and 220 </ b> B may operate so that only one of the overlapping audio information is transmitted to the server device 100.

次に、CPU501は、受信した音声情報内の前述した特徴量ベクトルデータを用いて、その音声情報が示す音声をテキストデータとして認識するための音声認識処理を実行する(ステップS802)。この処理では例えば、連続する複数期間の特徴量ベクトルデータの組を用いて、隠れマルコフモデルによる音声認識処理が実行される。   Next, the CPU 501 executes speech recognition processing for recognizing the speech indicated by the speech information as text data, using the above-described feature vector data in the received speech information (step S802). In this process, for example, a speech recognition process using a hidden Markov model is executed using a set of feature vector data for a plurality of consecutive periods.

次に、CPU501は、ステップS802で得られたテキストデータに対して、形態素解析を実行することによりテキストデータを構成する複数の形態素を出力する(ステップS803)。   Next, the CPU 501 outputs a plurality of morphemes constituting the text data by performing morphological analysis on the text data obtained in step S802 (step S803).

次に、CPU501は、ワード選定処理を実行する(ステップS804)。ここでは、CPU501は、ステップS803で得られた複数の形態素から所定の品詞に対応する形態素をワードとして抽出する。   Next, the CPU 501 executes word selection processing (step S804). Here, the CPU 501 extracts a morpheme corresponding to a predetermined part of speech as a word from the plurality of morphemes obtained in step S803.

次に、CPU501は、ワード登録処理を実行する(ステップS805)。ここでは、CPU501は、ステップS804で選定されたワードと、そのワードが抽出された端末装置220Aと220Bの間の対話型通信の識別情報と(図6のステップS8で識別できている)、そのワードが抽出された日時情報を、外部記憶装置505内のワードDB405(図4参照)に登録する。なお、CPU501は、ワードDB406上に同じワードが既に登録されている場合には、そのワードの対話型通信の識別情報、および日時情報を、新たな情報で上書き記録する。   Next, the CPU 501 executes word registration processing (step S805). Here, the CPU 501 identifies the word selected in step S804, identification information of interactive communication between the terminal devices 220A and 220B from which the word is extracted (identified in step S8 in FIG. 6), The date and time information from which the word is extracted is registered in the word DB 405 (see FIG. 4) in the external storage device 505. If the same word is already registered in the word DB 406, the CPU 501 overwrites and records the identification information and date / time information of the interactive communication of the word with new information.

以上のステップS801からS805までの処理は、図4のワード抽出部405の機能を実現する。   The processes from steps S801 to S805 described above realize the function of the word extraction unit 405 in FIG.

続いて、CPU501は、通信インタフェース回路507を介して、前述した図6の通信L9によって各端末装置220Aおよび220Bから送られてきた位置データを受信する(ステップS806)。なお、端末装置220Aおよび220Bは、互いに重複する位置データについては、いずれか一方のみがサーバ装置100に送信するように動作してよい。   Subsequently, the CPU 501 receives the position data transmitted from each of the terminal devices 220A and 220B through the communication L9 of FIG. 6 described above via the communication interface circuit 507 (step S806). Note that the terminal devices 220 </ b> A and 220 </ b> B may operate so that only one of the overlapping position data is transmitted to the server device 100.

次に、CPU501は、住所情報問合せ処理を実行する(ステップS807)。ここでは、CPU501は、ステップS806で受信した位置データである緯度・経度データをキーとして、通信インタフェース回路507を介して、図2のネットワーク250に接続されているまたは自身が内蔵する特には図示しない地図データベースに問い合わせることにより、位置データに対応する住所情報を取得する。   Next, the CPU 501 executes address information inquiry processing (step S807). Here, the CPU 501 is connected to the network 250 in FIG. 2 via the communication interface circuit 507 using the latitude / longitude data, which is the position data received in step S806, as a key, or is not particularly illustrated. By making an inquiry to the map database, address information corresponding to the position data is acquired.

次に、CPU501は、代表地名選定処理を実行する(ステップS808)。ここでは、CPU501は、ステップS807で取得した住所情報から代表地名を選定する。   Next, the CPU 501 executes representative place name selection processing (step S808). Here, the CPU 501 selects a representative place name from the address information acquired in step S807.

最後に、CPU501は、位置情報登録処理を実行する(ステップS809)。ここでは、CPU501は、ステップS808で選定した代表地名を位置情報として、その位置情報と、その位置情報が抽出された端末装置220Aと220Bの識別情報と、その位置情報が抽出された日時情報を、外部記憶装置505内の位置情報DB408(図4参照)に記録する。なお、CPU501は、位置情報DB408上に同じ位置情報が既に登録されている場合には、その位置情報の対話型通信の識別情報、および日時情報を、新たな情報で上書き記録する。   Finally, the CPU 501 executes position information registration processing (step S809). Here, the CPU 501 uses the representative place name selected in step S808 as position information, the position information, the identification information of the terminal devices 220A and 220B from which the position information is extracted, and the date and time information from which the position information is extracted. And recorded in the position information DB 408 (see FIG. 4) in the external storage device 505. When the same position information is already registered in the position information DB 408, the CPU 501 overwrites and records the identification information and date / time information of interactive communication of the position information with new information.

以上のステップS806からS809までの処理は、図4の位置情報解析部407の機能を実現する。   The processing from step S806 to S809 described above realizes the function of the position information analysis unit 407 in FIG.

ステップS809の処理の後、図8のフローチャートの処理を終了し、図6のステップS16の活性状態処理を終了する。   After the process of step S809, the process of the flowchart of FIG. 8 is terminated, and the active state process of step S16 of FIG. 6 is terminated.

以上のようにして、本実施形態では、会話状態が活性状態にあるときは、そのときに会話に登場したワードや位置情報が会話が盛り上がる要因となると判断されて、図4のワードDB405および位置情報DB408に蓄積される。   As described above, in the present embodiment, when the conversation state is in the active state, it is determined that the word or position information that has appeared in the conversation at that time is a cause of the conversation, and the word DB 405 and the position in FIG. Accumulated in the information DB 408.

一方、サーバ装置100において、CPU501は、図6のステップS14で端末装置220Aと220Bの会話状態が停滞状態であると判定した場合には、停滞状態処理を実行する(ステップS20)。   On the other hand, in the server device 100, when the CPU 501 determines in step S14 in FIG. 6 that the conversation state between the terminal devices 220A and 220B is stagnant, it executes a stagnant state process (step S20).

図9は、サーバ装置100のCPU501が実行する図6のステップS20の停滞状態処理の詳細例を示すフローチャートである。   FIG. 9 is a flowchart illustrating a detailed example of the stagnation state process in step S20 of FIG. 6 executed by the CPU 501 of the server apparatus 100.

図9においてまず、CPU501は、外部記憶装置505内のワードDB405から、例えば最近数ヶ月以内に登録されたワード410(図4参照)を、例えば無作為に抽出する(ステップS901)。   In FIG. 9, first, the CPU 501 extracts, for example, the words 410 (see FIG. 4) registered within the last few months, for example, at random from the word DB 405 in the external storage device 505 (step S901).

次に、CPU501は、外部記憶装置505内の位置情報DB408から、ステップS901と同様に例えば最近数ヶ月以内に登録された位置情報411(図4参照)を、例えば無作為に抽出する(ステップS902)。   Next, the CPU 501 extracts, for example, the position information 411 (see FIG. 4) registered within the last few months from the position information DB 408 in the external storage device 505, for example, at random (step S902). ).

次に、CPU501は、ステップS901で抽出されたワード410およびステップS902で抽出された位置情報411の両方に合致する話題412(図4参照)を、通信インタフェース回路507および図2のネットワーク250を介して、図2の検索サイトのサーバ装置230にアクセスして検索する(ステップS903)。   Next, the CPU 501 transmits the topic 412 (see FIG. 4) that matches both the word 410 extracted in step S901 and the position information 411 extracted in step S902 via the communication interface circuit 507 and the network 250 in FIG. Then, the server device 230 at the search site shown in FIG. 2 is accessed and searched (step S903).

CPU501は、ステップS903で、検索サイトのサーバ装置230から検索結果が回答されたか否かを判定する(ステップS904)。   In step S903, the CPU 501 determines whether a search result has been answered from the server device 230 at the search site (step S904).

CPU501は、ステップS904の判定がYESならば、その検索結果を話題412(図4参照)として出力する(ステップS909)。その後、図9のフローチャートの処理を終了する。   If the determination in step S904 is YES, the CPU 501 outputs the search result as the topic 412 (see FIG. 4) (step S909). Thereafter, the processing of the flowchart of FIG. 9 ends.

CPU501は、ステップS904の判定がNOならば、外部記憶装置505内のワードDB405から、例えば登録日時が半年以前であるワード410(図4参照)を、例えば無作為に抽出する(ステップS905)。   If the determination in step S904 is NO, the CPU 501 extracts, for example, a word 410 (see FIG. 4) whose registration date and time is less than six months from the word DB 405 in the external storage device 505, for example, at random (step S905).

次に、CPU501は、通信インタフェース回路507および図2のネットワーク250を介して、図2のニュースサイトのサーバ装置240にアクセスし、ニュースサイトの最近のキーワードを取得する(ステップS906)。   Next, the CPU 501 accesses the news site server apparatus 240 in FIG. 2 via the communication interface circuit 507 and the network 250 in FIG. 2 and acquires the latest keyword of the news site (step S906).

次に、CPU501は、ステップS905で抽出されたワード410とステップS906で取得されたニュースサイトの最近のキーワードの両方に合致する話題412を、通信インタフェース回路507および図2のネットワーク250を介して、図2の検索サイトのサーバ装置230にアクセスして検索する(ステップS907)。   Next, the CPU 501 transmits a topic 412 that matches both the word 410 extracted in step S905 and the recent keyword of the news site acquired in step S906 via the communication interface circuit 507 and the network 250 in FIG. The server device 230 at the search site shown in FIG. 2 is accessed and searched (step S907).

CPU501は、ステップS907で、検索サイトのサーバ装置230から検索結果が回答されたか否かを判定する(ステップS908)。   In step S907, the CPU 501 determines whether a search result has been answered from the server device 230 at the search site (step S908).

CPU501は、ステップS908の判定がYESならば、その検索結果を話題412(図4参照)として出力する(ステップS909)。その後、図9のフローチャートの処理を終了する。   If the determination in step S908 is YES, the CPU 501 outputs the search result as the topic 412 (see FIG. 4) (step S909). Thereafter, the processing of the flowchart of FIG. 9 ends.

CPU501は、ステップS908の判定がNOならば、ステップS901の処理に戻って、ワードDB405から新たなキーワードの無作為抽出を繰り返す。   If the determination in step S908 is NO, the CPU 501 returns to the process in step S901 and repeats random extraction of new keywords from the word DB 405.

CPU501は、ステップS909の話題412の出力処理の後、図9のフローチャートの処理を終了し、図6のステップS20の停滞状態処理に戻る。CPU501は、停滞状態処理において、上述の処理により話題412が得られると、通信インタフェース回路507およびネットワーク250を介して、端末装置220Aおよび220Bに送信する(図6の通信L10).   After the output processing of the topic 412 in step S909, the CPU 501 ends the processing in the flowchart in FIG. 9, and returns to the stagnation state processing in step S20 in FIG. When the topic 412 is obtained by the above-described processing in the stagnation state processing, the CPU 501 transmits it to the terminal devices 220A and 220B via the communication interface circuit 507 and the network 250 (communication L10 in FIG. 6).

図3において、端末装置220Aおよび220B内の各CPU501は、上述の話題412を通信インタフェース回路507を介して受信すると、その話題412に含まれるテキストデータまたは画像データを、出力装置204のモニタの対話型通信画面に表示する(図6のステップS22およびS24)。   In FIG. 3, each of the CPUs 501 in the terminal devices 220 </ b> A and 220 </ b> B receives the above topic 412 via the communication interface circuit 507, the text data or image data included in the topic 412 is displayed on the monitor of the output device 204. Is displayed on the type communication screen (steps S22 and S24 in FIG. 6).

図10(a)および(b)は、それぞれ、上述の対話型通信処理によって本実施の形態の端末装置220Aおよび端末装置220Bのモニタに表示される対話型通信の表示例を示す図である。図10において、2204は、図5のカメラ510に対応している。また、2206はスピーカである。2202は、対話型通信の表示エリアである。この中で、2210は、相手端末のユーザカメラ画像の表示エリアである。2212は、自分のカメラ画像の表示エリアである。そして、2214は、話題表示エリアである。例えば、図9のステップS901で無作為に抽出された最近話題となったワードが「桜」で、また、図9のステップS902で無作為に抽出された最近対話型通信で共有された画像の位置情報が「軽井沢」であった場合、キーワード「桜」と「軽井沢」をキーとして検索サイトで検索がされた結果、例えば「軽井沢の桜が満開です!」という話題412が得られ、それが端末装置220Aと220Bの話題表示エリア2214に表示される。この結果、対話型通信を行っているユーザAとBは、その話題表示を見ることで、軽井沢の桜を再び思い出して話が盛り上がり、対話型の通話をより円滑に進めることが可能となる。例として短文の検索結果を表示しているが、該当するホームページ全体を表示しても良い。また、ホームページのリンクを表示しても良い。   FIGS. 10A and 10B are diagrams illustrating examples of interactive communication displayed on the monitors of the terminal device 220A and the terminal device 220B of the present embodiment by the above-described interactive communication processing, respectively. In FIG. 10, 2204 corresponds to the camera 510 of FIG. Reference numeral 2206 denotes a speaker. Reference numeral 2202 denotes a display area for interactive communication. Among these, 2210 is a display area of the user camera image of the counterpart terminal. Reference numeral 2212 denotes a display area for the own camera image. Reference numeral 2214 denotes a topic display area. For example, the recently-talked word randomly extracted in step S901 in FIG. 9 is “Sakura”, and the image shared in the recent interactive communication randomly extracted in step S902 in FIG. If the location information is “Karuizawa”, a search on the search site using the keywords “Sakura” and “Karuizawa” as a key results in the topic 412 “Sakura in Karuizawa is in full bloom!”, For example. It is displayed in the topic display area 2214 of the terminal devices 220A and 220B. As a result, the users A and B who are performing interactive communication can view the topic display, recall the Karuizawa cherry blossoms again, and enjoy the conversation, thereby enabling the conversational conversation to proceed more smoothly. Although the short text search result is displayed as an example, the entire corresponding home page may be displayed. Also, a homepage link may be displayed.

図11(a)および(b)は、それぞれ、上述の対話型通信処理によって本実施の形態の端末装置220Aおよび端末装置220Bのモニタに表示される対話型通信におけるホームページの表示例を示す図である。画面を構成する各部分は、図10の場合と同様である。図10の場合と同様に、例えば、図9のステップS901で無作為に抽出された最近話題となったワードが「桜」で、また、図9のステップS902で無作為に抽出された最近対話型通信で共有された画像の位置情報が「軽井沢」であった場合、キーワード「桜」と「軽井沢」をキーとして検索サイトで検索がされた結果、それらのキーワードを含むホームページのコンテンツが話題412として得られ、それが図11(a)および(b)として示されるように、端末装置220Aと220Bの話題表示エリア2214に表示される。この結果、対話型通信を行っているユーザAとBは、「桜」と「軽井沢」に関連するさらに具体的なイメージを想到することが可能となる。   FIGS. 11A and 11B are diagrams showing display examples of home pages in interactive communication displayed on the monitors of the terminal device 220A and the terminal device 220B of the present embodiment by the above-described interactive communication processing, respectively. is there. Each part constituting the screen is the same as in FIG. As in the case of FIG. 10, for example, the recently-talked word randomly extracted in step S901 of FIG. 9 is “Sakura”, and the recent dialog randomly extracted in step S902 of FIG. When the position information of the image shared by the type communication is “Karuizawa”, as a result of searching on the search site using the keywords “Sakura” and “Karuizawa” as a key, the content of the home page including those keywords is the topic 412. And is displayed in the topic display area 2214 of the terminal devices 220A and 220B as shown in FIGS. 11 (a) and 11 (b). As a result, users A and B performing interactive communication can come up with a more specific image related to “Sakura” and “Karuizawa”.

次に、図2の端末装置220およびサーバ装置100の他の実施形態について説明する。   Next, another embodiment of the terminal device 220 and the server device 100 in FIG. 2 will be described.

図12は、図2の端末装置220の他の実施形態のブロック図である。図12において、図3の端末装置220の一実施形態の場合と同じ機能の部分には同じ番号を付してある。図12の構成が図3の構成と異なる部分は、端末装置220が、GPS受信部305に加えてあるいはその代わりにセンサ群1201を備え、さらに、位置データ取得部308に加えてあるいはその代わりにセンサデータ群取得部1202を備える点である。   FIG. 12 is a block diagram of another embodiment of the terminal device 220 of FIG. In FIG. 12, the same number is attached | subjected to the part of the same function as the case of one Embodiment of the terminal device 220 of FIG. 12 differs from the configuration of FIG. 3 in that the terminal device 220 includes a sensor group 1201 in addition to or instead of the GPS reception unit 305, and in addition to or instead of the position data acquisition unit 308. The sensor data group acquisition unit 1202 is provided.

センサ群1201は、例えば1つ以上の環境センサの集合であり、気温センサ、気圧センサ、湿度センサ、照度センサ等であって、それぞれ、気温、気圧、湿度、照度等の端末装置220が存在する環境に関するデータを検出する。   The sensor group 1201 is, for example, a set of one or more environmental sensors, and includes an air temperature sensor, an atmospheric pressure sensor, a humidity sensor, an illuminance sensor, and the like, and each has a terminal device 220 such as an air temperature, an atmospheric pressure, a humidity, and an illuminance. Detect environmental data.

あるいは、センサ群1201は、例えば1つ以上の環境センサの集合であり、体温センサ、脈拍センサ、血圧センサ等であって、利用者の体温、脈拍、血圧等の端末装置220を操作する例えばお年寄りの利用者の体調に関するデータを検出する。   Alternatively, the sensor group 1201 is a set of one or more environmental sensors, for example, a body temperature sensor, a pulse sensor, a blood pressure sensor, and the like, and operates the terminal device 220 such as a user's body temperature, pulse, blood pressure, etc. Detect data on the physical condition of elderly users.

センサデータ群取得部1202は、対話型通信が行われている時点においてセンサ群1201が検出する気温、気圧、湿度、照度等、あるいは体温、脈拍、血圧等の検出値を、対話型通信制御部301を介してセンサデータ群として取得し、通信インタフェース部401に出力する。   The sensor data group acquisition unit 1202 displays the detected values such as temperature, pressure, humidity, illuminance, or body temperature, pulse, blood pressure, etc. detected by the sensor group 1201 when the interactive communication is performed. The data is acquired as a sensor data group via 301 and output to the communication interface unit 401.

この場合、通信インタフェース部309は、センサデータ群取得部1202が随時出力するセンサデータ群を、図2のネットワーク250を介してサーバ装置100に送信する。   In this case, the communication interface unit 309 transmits the sensor data group output from the sensor data group acquisition unit 1202 as needed to the server apparatus 100 via the network 250 in FIG.

図13は、図2のサーバ装置100の他の実施形態のブロック図である。図13において、図4のサーバ装置100の一実施形態の場合と同じ機能の部分には同じ番号を付してある。図13の構成が図4の構成と異なる部分は、サーバ装置100が、位置情報解析部407および位置情報DB408に加えてあるいはそれらの代わりに、センサ情報解析部1301およびセンサ情報データベース(センサ情報DB)1302を備える点である。   FIG. 13 is a block diagram of another embodiment of the server apparatus 100 of FIG. 13, parts having the same functions as those in the embodiment of the server apparatus 100 shown in FIG. 13 differs from the configuration of FIG. 4 in that the server apparatus 100 adds a sensor information analysis unit 1301 and a sensor information database (sensor information DB) in addition to or instead of the position information analysis unit 407 and the position information DB 408. ) 1302.

センサ情報解析部1301は、例えば会話状態監視部404が活性状態を検出したときに、その状態が検出された端末装置220から通信インタフェース部401を介して入力したセンサデータ群から、そのセンサデータ群に対応する環境または体調の状態をセンサ情報として解析する。環境の状態とは例えば、「気温が暑い」「低気圧が近づいている」「じめじめしている」「昼間または夜」等である。体調の状態とは例えば、「熱がある」「脈が速い」「血圧が高いまたは低い」等の体調に関する情報である。そして、センサ情報解析部1301は、センサ情報DB1302に、その抽出したセンサ情報と、センサ情報が抽出された対話型通信の識別情報と、そのセンサ情報が抽出された日時情報を記録する。   For example, when the conversation state monitoring unit 404 detects an active state, the sensor information analysis unit 1301 detects the sensor data group from the sensor data group input via the communication interface unit 401 from the terminal device 220 in which the state is detected. The environment or physical condition corresponding to is analyzed as sensor information. Examples of the environmental state include “hot temperature”, “low pressure approaching”, “easy”, “daytime or night”, and the like. The state of physical condition is, for example, information related to physical condition such as “having fever”, “pulse is fast”, “blood pressure is high or low”. Then, the sensor information analysis unit 1301 records the extracted sensor information, identification information of interactive communication from which the sensor information is extracted, and date / time information from which the sensor information is extracted, in the sensor information DB 1302.

話題提供部409は、会話状態監視部404が停滞状態を検出したときに、図4に関して説明したように、ワードDB405から抽出したワード410および位置情報DB408から抽出した位置情報411に加えて、例えば直近の端末装置220の環境に関するセンサ情報、例えば「気温が暑い」「低気圧が近づいている」「じめじめしている」「昼間または夜」等や、直近の端末装置220の利用者の体調に関するセンサ情報、例えば「熱がある」「脈が速い」「血圧が高いまたは低い」等のセンサ情報1303を例えば無作為に抽出する。そして、話題提供部409は、抽出されたワード410と、位置情報411および/またはセンサ情報1303の全て(いずれかであってもよい)に合致または関連する話題412を、通信インタフェース部401および図2のネットワーク250を介して、検索サイトのサーバ装置230やニュースサイトのサーバ装置240にアクセスして検索する。話題提供部409は、その検索された話題412を、会話状態監視部404が停滞状態を検出した対話型通信を行っている端末装置101に送信する。   When the conversation state monitoring unit 404 detects a stagnation state, the topic providing unit 409, for example, in addition to the word 410 extracted from the word DB 405 and the position information 411 extracted from the position information DB 408, as described with reference to FIG. Sensor information related to the environment of the latest terminal device 220, such as “temperature is hot”, “low pressure approaching”, “bullying”, “daytime or night”, and the physical condition of the user of the latest terminal device 220 Sensor information 1303 such as “having fever”, “pulse is fast”, “blood pressure is high or low”, for example, is extracted at random. Then, the topic providing unit 409 converts the extracted word 410 and the topic 412 that matches or relates to all of the position information 411 and / or the sensor information 1303 (which may be either) into the communication interface unit 401 and the figure. The search site server device 230 and the news site server device 240 are accessed and searched via the second network 250. The topic providing unit 409 transmits the searched topic 412 to the terminal device 101 performing interactive communication in which the conversation state monitoring unit 404 has detected a stagnation state.

このようにして、図12の端末装置220および図13のサーバ装置100の他の実施形態によれば、対話型通信を行っているときまたは直近の環境の状態やお年寄りの利用者の体調の状態に応じた話題を提供することが可能となる。   In this manner, according to the other embodiment of the terminal device 220 of FIG. 12 and the server device 100 of FIG. 13, the state of the immediate environment or the condition of the elderly user is being performed during interactive communication or It is possible to provide a topic according to the state.

本形態は、例えば認知症防止を目的とした、お年寄りを対象としたビデオチャットシステムに好適であるが、これに限るものではない。例えば、ビデオチャットを用いた英会話教室で、初心者はなかなか英単語が口から出て来ないために英会話が停滞してしまうことがよくある。そういうときに、本実施形態を適用し、話題のヒントとなる英単語(日本語でも良い)を表示すると、会話がスムーズに運び、規定時間内でより多くの会話量をこなすことができる。   Although this form is suitable for the video chat system for the elderly for the purpose of preventing dementia, for example, it is not restricted to this. For example, in English conversation classes using video chat, beginners often find that English conversation is stagnant because English words do not come out of their mouths. In such a case, when the present embodiment is applied and English words (or Japanese) which are hints of a topic are displayed, the conversation can be carried smoothly and a larger amount of conversation can be handled within the specified time.

端末装置220とサーバ装置100の図3および図4に示される機能分担は、例えばピアツーピア接続の効率性や、サーバ装置を複数に分散させることによる効率性などを考慮して、様々な機能分担の構成を採用することが可能である。   The function sharing shown in FIGS. 3 and 4 between the terminal device 220 and the server device 100 is based on various functions sharing in consideration of the efficiency of peer-to-peer connection and the efficiency by distributing the server devices in a plurality of ways. It is possible to adopt a configuration.

以上の実施形態に関して、更に以下の付記を開示する。
(付記)
(付記1)
ネットワークを介して接続される複数の端末装置による対話型通信における会話の活性・停滞状態を監視する会話状態監視部と、
前記対話型通信における所定の情報を抽出・記録する抽出・記録部と、
前記会話状態が停滞状態であるときに、前記記録した所定の情報に関連する話題を前記端末装置に供給する話題提供部と、
を備えることを特徴とする対話型通信システム。
(付記2)
前記話題提供部は、前記抽出された所定の情報に関連する話題を検索サイトのサーバ装置にアクセスして検索し、当該検索された話題を前記端末装置に供給する、
ことを特徴とする付記1に記載の対話型通信システム。
(付記3)
前記抽出・記録部は、前記所定の情報として対話型通信における会話に出現する語句を抽出・記録し、
前記話題提供部は、前記記録した語句から所定の条件に合致する語句を抽出し、当該抽出された語句に関連する話題を前記端末装置に供給する
ことを特徴とする付記1または2に記載の対話型通信システム。
(付記4)
前記抽出・記録部は、前記所定の情報として対話型通信における前記会話に出現する語句、画像または前記端末装置の位置データを取得し解析して位置情報として記録する位置情報解析・記録部をさらに備え、
前記話題提供部は、前記抽出された位置情報に関連する話題を前記端末装置に供給する
ことを特徴とする付記1または2に記載の対話型通信システム。
(付記5)
前記位置情報解析・記録部は、
前記会話に出現する画像のメタデータに含まれる緯度・経度データを前記位置データとして取得する位置データ取得部を含む、
ことを特徴とする付記4に記載の対話型通信システム。
(付記6)
前記位置情報解析・記録部は、
前記位置データ取得部が取得した位置データをキーとして地図データベースに問い合わせることにより、前記位置データに対応する住所情報を取得する住所情報問合せ部と、
当該取得した住所情報から代表地名を選定する代表地名選定部と、
前記代表地名は前記位置情報として位置情報データベースに登録する位置情報登録部と、
を含むことを特徴とする付記5に記載の対話型通信システム。
(付記7)
前記抽出・記録部は、前記所定の情報として対話型通信における環境情報を抽出・記録し、
前記話題提供部は、前記抽出・記録された環境情報に関連する話題を前記端末装置に供給する
ことを特徴とする付記1または2に記載の対話型通信システム。
(付記8)
前記抽出・記録部は、前記会話の時点における前記端末装置の周囲の環境データまたは前記端末装置の利用者の体調データを取得し解析してセンサ情報として記録するセンサ情報解析・記録部を備え、
前記話題提供部は、前記会話状態が停滞状態であるときに、さらに前記記録したセンサ情報から所定の条件に合致するセンサ情報を抽出し、前記抽出されたセンサ情報に関連する話題を前記端末装置に供給する、
ことを特徴とする付記7に記載の対話型通信システム。
(付記9)
前記環境データは気温、気圧、湿度、照度の少なくともいずれか1つ以上であり、
前記体調データは体温、脈拍、血圧の少なくともいずれか1つ以上である、
ことを特徴とする付記8に記載の対話型通信システム。
(付記10)
前記会話の活性・停滞状態監視部と、前記抽出・記録部と、前記話題提供部と、を前記端末装置内に一体的に設けたことを特徴とする付記1ないし9のいずれかに記載の対話型通信システム。
(付記11)
付記1ないし9のいずれかに記載の対話型通信システムに用いられる端末装置。
(付記12)
ネットワークを介して他の端末装置と接続される端末装置のコンピュータに、
対話型通信における会話の活性・停滞状態を監視する会話の活性・停滞状態監視処理と、
前記対話型通信における所定の情報を抽出・記録する抽出・記録処理と、
前記会話状態が停滞状態であるときに、前記抽出された所定の情報に関連する話題を検索サイトのサーバ装置にアクセスして検索し、当該検索された話題を前記端末装置に供給する話題提供処理と、
を実行させるプログラム。
Regarding the above embodiment, the following additional notes are disclosed.
(Appendix)
(Appendix 1)
A conversation state monitoring unit that monitors the active / stagnation state of conversation in interactive communication by a plurality of terminal devices connected via a network;
An extraction / recording unit for extracting / recording predetermined information in the interactive communication;
A topic providing unit that supplies a topic related to the recorded predetermined information to the terminal device when the conversation state is a stagnation state;
An interactive communication system comprising:
(Appendix 2)
The topic providing unit searches for a topic related to the extracted predetermined information by accessing a server device of a search site, and supplies the searched topic to the terminal device.
The interactive communication system according to appendix 1, wherein
(Appendix 3)
The extraction / recording unit extracts / records words appearing in conversation in interactive communication as the predetermined information,
The topic providing unit extracts a phrase that matches a predetermined condition from the recorded phrase, and supplies a topic related to the extracted phrase to the terminal device. Interactive communication system.
(Appendix 4)
The extraction / recording unit further includes a position information analysis / recording unit that acquires and analyzes word data that appears in the conversation in interactive communication as the predetermined information, or position data of the terminal device, and records the position data as position information. Prepared,
The interactive communication system according to appendix 1 or 2, wherein the topic providing unit supplies a topic related to the extracted position information to the terminal device.
(Appendix 5)
The position information analysis / recording unit
A position data acquisition unit that acquires latitude / longitude data included in the metadata of an image that appears in the conversation as the position data;
The interactive communication system according to supplementary note 4, wherein
(Appendix 6)
The position information analysis / recording unit
An address information inquiry unit that acquires address information corresponding to the position data by making an inquiry to the map database using the position data acquired by the position data acquisition unit as a key;
A representative place name selection unit for selecting a representative place name from the acquired address information;
The representative place name is registered in the position information database as the position information;
The interactive communication system according to appendix 5, which includes:
(Appendix 7)
The extraction / recording unit extracts and records environment information in interactive communication as the predetermined information,
The interactive communication system according to appendix 1 or 2, wherein the topic providing unit supplies a topic related to the extracted / recorded environment information to the terminal device.
(Appendix 8)
The extraction / recording unit includes a sensor information analysis / recording unit that acquires and analyzes environmental data around the terminal device at the time of the conversation or physical condition data of a user of the terminal device and records it as sensor information
The topic providing unit further extracts sensor information that matches a predetermined condition from the recorded sensor information when the conversation state is a stagnation state, and a topic related to the extracted sensor information is extracted from the terminal device. To supply,
The interactive communication system according to appendix 7, which is characterized in that.
(Appendix 9)
The environmental data is at least one of temperature, atmospheric pressure, humidity, and illuminance,
The physical condition data is at least one of body temperature, pulse, blood pressure,
The interactive communication system according to appendix 8, wherein the interactive communication system is characterized.
(Appendix 10)
10. The appendix 1 to 9, wherein the conversation activity / stagnation state monitoring unit, the extraction / recording unit, and the topic providing unit are integrally provided in the terminal device. Interactive communication system.
(Appendix 11)
A terminal device used in the interactive communication system according to any one of appendices 1 to 9.
(Appendix 12)
To a terminal device computer connected to another terminal device via a network,
Conversation activity / stagnation status monitoring processing for monitoring conversation activity / stagnation status in interactive communication;
An extraction / recording process for extracting / recording predetermined information in the interactive communication;
When the conversation state is a stagnation state, a topic providing process for searching for a topic related to the extracted predetermined information by accessing a server device of a search site and supplying the searched topic to the terminal device When,
A program that executes

100 サーバ装置
101、220、220A、220B、220C 端末装置
102、404 会話状態監視部
103 語句抽出・記録部
104 記録された語句
105 抽出された語句
106、409 話題提供部
107 位置情報解析・記録部
108 記録された位置情報
109 抽出された位置情報
110、412 話題
111、230 検索サイトのサーバ装置
240 ニュースサイトのサーバ装置
250 ネットワーク
301 立つセンサ部
302 音声入出力部
303 撮像部
304 表示部・操作入力部
305 GPS受信部
306 データ記憶部
307 音声分析部
308 位置データ取得部
309、401 通信インタフェース部
402 認証部
403 ユーザDB(データベース)
405 ワード抽出部
406 ワードDB(データベース)
407 位置情報解析部
408 位置情報DB(データベース)
410 抽出されたワード
411 抽出された位置情報
501 CPU(中央演算処理装置)
502 メモリ
503 入力装置
504 出力装置
505 外部記憶装置
506 可搬記録媒体駆動装置
507 通信インタフェース回路
508 バス
509 可搬記録媒体
510 カメラ
511 GPS受信機
1201 センサ群
1202 センサデータ群取得部
1301 センサ情報解析部
1302 センサ情報DB(データベース)
DESCRIPTION OF SYMBOLS 100 Server apparatus 101,220,220A, 220B, 220C Terminal apparatus 102,404 Conversation state monitoring part 103 Phrase extraction and recording part 104 Recorded phrase 105 Extracted phrase 106,409 Topic provision part 107 Location information analysis and recording part 108 Recorded location information 109 Extracted location information 110, 412 Topic 111, 230 Search site server device 240 News site server device 250 Network 301 Standing sensor unit 302 Voice input / output unit 303 Imaging unit 304 Display unit / operation input Unit 305 GPS receiver 306 Data storage unit 307 Voice analysis unit 308 Position data acquisition unit 309, 401 Communication interface unit 402 Authentication unit 403 User DB (database)
405 Word extraction unit 406 Word DB (database)
407 Location information analysis unit 408 Location information DB (database)
410 extracted word 411 extracted position information 501 CPU (central processing unit)
502 Memory 503 Input Device 504 Output Device 505 External Storage Device 506 Portable Recording Medium Drive Device 507 Communication Interface Circuit 508 Bus 509 Portable Recording Medium 510 Camera 511 GPS Receiver 1201 Sensor Group 1202 Sensor Data Group Acquisition Unit 1301 Sensor Information Analysis Unit 1302 Sensor information DB (database)

Claims (12)

ネットワークを介して接続される複数の端末装置による対話型通信における会話の活性・停滞状態を監視する会話状態監視部と、
前記対話型通信における所定の情報を抽出・記録する抽出・記録部と、
前記会話状態が停滞状態であるときに、前記記録した所定の情報に関連する話題を前記端末装置に供給する話題提供部と、
を備えることを特徴とする対話型通信システム。
A conversation state monitoring unit that monitors the active / stagnation state of conversation in interactive communication by a plurality of terminal devices connected via a network;
An extraction / recording unit for extracting / recording predetermined information in the interactive communication;
A topic providing unit that supplies a topic related to the recorded predetermined information to the terminal device when the conversation state is a stagnation state;
An interactive communication system comprising:
前記話題提供部は、前記抽出された所定の情報に関連する話題を検索サイトのサーバ装置にアクセスして検索し、当該検索された話題を前記端末装置に供給する、
ことを特徴とする請求項1に記載の対話型通信システム。
The topic providing unit searches for a topic related to the extracted predetermined information by accessing a server device of a search site, and supplies the searched topic to the terminal device.
The interactive communication system according to claim 1.
前記抽出・記録部は、前記所定の情報として対話型通信における会話に出現する語句を抽出・記録し、
前記話題提供部は、前記記録した語句から所定の条件に合致する語句を抽出し、当該抽出された語句に関連する話題を前記端末装置に供給する
ことを特徴とする請求項1または2に記載の対話型通信システム。
The extraction / recording unit extracts / records words appearing in conversation in interactive communication as the predetermined information,
The topic providing unit extracts a phrase that matches a predetermined condition from the recorded phrase, and supplies a topic related to the extracted phrase to the terminal device. Interactive communication system.
前記抽出・記録部は、前記所定の情報として対話型通信における前記会話に出現する語句、画像または前記端末装置の位置データを取得し解析して位置情報として記録する位置情報解析・記録部をさらに備え、
前記話題提供部は、前記抽出された位置情報に関連する話題を前記端末装置に供給する
ことを特徴とする請求項1または2に記載の対話型通信システム。
The extraction / recording unit further includes a position information analysis / recording unit that acquires and analyzes word data that appears in the conversation in interactive communication as the predetermined information, or position data of the terminal device, and records the position data as position information. Prepared,
The interactive communication system according to claim 1, wherein the topic providing unit supplies a topic related to the extracted position information to the terminal device.
前記位置情報解析・記録部は、
前記会話に出現する画像のメタデータに含まれる緯度・経度データを前記位置データとして取得する位置データ取得部を含む、
ことを特徴とする請求項4に記載の対話型通信システム。
The position information analysis / recording unit
A position data acquisition unit that acquires latitude / longitude data included in the metadata of an image that appears in the conversation as the position data;
The interactive communication system according to claim 4.
前記位置情報解析・記録部は、
前記位置データ取得部が取得した位置データをキーとして地図データベースに問い合わせることにより、前記位置データに対応する住所情報を取得する住所情報問合せ部と、
当該取得した住所情報から代表地名を選定する代表地名選定部と、
前記代表地名は前記位置情報として位置情報データベースに登録する位置情報登録部と、
を含むことを特徴とする請求項5に記載の対話型通信システム。
The position information analysis / recording unit
An address information inquiry unit that acquires address information corresponding to the position data by making an inquiry to the map database using the position data acquired by the position data acquisition unit as a key;
A representative place name selection unit for selecting a representative place name from the acquired address information;
The representative place name is registered in the position information database as the position information;
The interactive communication system according to claim 5, comprising:
前記抽出・記録部は、前記所定の情報として対話型通信における環境情報を抽出・記録し、
前記話題提供部は、前記抽出・記録された環境情報に関連する話題を前記端末装置に供給する
ことを特徴とする請求項1または2に記載の対話型通信システム。
The extraction / recording unit extracts and records environment information in interactive communication as the predetermined information,
The interactive communication system according to claim 1, wherein the topic providing unit supplies a topic related to the extracted and recorded environmental information to the terminal device.
前記抽出・記録部は、前記会話の時点における前記端末装置の周囲の環境データまたは前記端末装置の利用者の体調データを取得し解析してセンサ情報として記録するセンサ情報解析・記録部を備え、
前記話題提供部は、前記会話状態が停滞状態であるときに、さらに前記記録したセンサ情報から所定の条件に合致するセンサ情報を抽出し、前記抽出されたセンサ情報に関連する話題を前記端末装置に供給する、
ことを特徴とする請求項7に記載の対話型通信システム。
The extraction / recording unit includes a sensor information analysis / recording unit that acquires and analyzes environmental data around the terminal device at the time of the conversation or physical condition data of the user of the terminal device and records it as sensor information,
The topic providing unit further extracts sensor information that matches a predetermined condition from the recorded sensor information when the conversation state is a stagnation state, and a topic related to the extracted sensor information is extracted from the terminal device. To supply,
The interactive communication system according to claim 7.
前記環境データは気温、気圧、湿度、照度の少なくともいずれか1つ以上であり、
前記体調データは体温、脈拍、血圧の少なくともいずれか1つ以上である、
ことを特徴とする請求項8に記載の対話型通信システム。
The environmental data is at least one of temperature, atmospheric pressure, humidity, and illuminance,
The physical condition data is at least one of body temperature, pulse, blood pressure,
The interactive communication system according to claim 8.
前記会話の活性・停滞状態監視部と、前記抽出・記録部と、前記話題提供部と、を前記端末装置内に一体的に設けたことを特徴とする請求項1ないし9のいずれかに記載の対話型通信システム。   The active / stagnation state monitoring unit of the conversation, the extraction / recording unit, and the topic providing unit are integrally provided in the terminal device. Interactive communication system. 請求項1ないし9のいずれかに記載の対話型通信システムに用いられる端末装置。   A terminal device used in the interactive communication system according to claim 1. ネットワークを介して他の端末装置と接続される端末装置のコンピュータに、
対話型通信における会話の活性・停滞状態を監視する会話の活性・停滞状態監視処理と、
前記対話型通信における所定の情報を抽出・記録する抽出・記録処理と、
前記会話状態が停滞状態であるときに、前記抽出された所定の情報に関連する話題を検索サイトのサーバ装置にアクセスして検索し、当該検索された話題を前記端末装置に供給する話題提供処理と、
を実行させるプログラム。
To a terminal device computer connected to another terminal device via a network,
Conversation activity / stagnation status monitoring processing for monitoring conversation activity / stagnation status in interactive communication;
An extraction / recording process for extracting / recording predetermined information in the interactive communication;
When the conversation state is a stagnation state, a topic providing process for searching for a topic related to the extracted predetermined information by accessing a server device of a search site and supplying the searched topic to the terminal device When,
A program that executes
JP2014127365A 2014-06-20 2014-06-20 Interactive communication system, terminal device and program Active JP6432177B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014127365A JP6432177B2 (en) 2014-06-20 2014-06-20 Interactive communication system, terminal device and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014127365A JP6432177B2 (en) 2014-06-20 2014-06-20 Interactive communication system, terminal device and program

Publications (3)

Publication Number Publication Date
JP2016006607A true JP2016006607A (en) 2016-01-14
JP2016006607A5 JP2016006607A5 (en) 2017-08-03
JP6432177B2 JP6432177B2 (en) 2018-12-05

Family

ID=55225010

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014127365A Active JP6432177B2 (en) 2014-06-20 2014-06-20 Interactive communication system, terminal device and program

Country Status (1)

Country Link
JP (1) JP6432177B2 (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017156074A (en) * 2016-03-04 2017-09-07 富士ゼロックス株式会社 Image forming apparatus and information processing system
CN108231070A (en) * 2016-12-14 2018-06-29 松下知识产权经营株式会社 Voice dialogue device, speech dialog method, voice dialogue program and robot
CN110246491A (en) * 2018-03-08 2019-09-17 松下知识产权经营株式会社 Device, robot, method and program
JP2020135394A (en) * 2019-02-19 2020-08-31 富士通クライアントコンピューティング株式会社 Information processing apparatus and information processing program
US10885897B2 (en) 2017-08-10 2021-01-05 Toyota Jidosha Kabushiki Kaisha Information providing device and information providing system
US10984792B2 (en) 2018-01-11 2021-04-20 Toyota Jidosha Kabushiki Kaisha Voice output system, voice output method, and program storage medium
US11205424B2 (en) 2018-05-24 2021-12-21 Casio Computer Co., Ltd. Conversation apparatus, robot, conversation apparatus control method, and non-transitory computer-readable recording medium

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004048570A (en) * 2002-07-15 2004-02-12 Nissan Motor Co Ltd On-vehicle information providing device
JP2004246713A (en) * 2003-02-14 2004-09-02 Fuji Xerox Co Ltd Dialogue support device, method and program, and dialogue support system
JP2007045400A (en) * 2006-08-10 2007-02-22 Sony Corp On-vehicle device, automobile, and information processing method
US20080294720A1 (en) * 2007-05-21 2008-11-27 International Business Machines Corporation Enhanced Online Collaboration System
JP2011035773A (en) * 2009-08-04 2011-02-17 Konica Minolta Business Technologies Inc Conference system

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004048570A (en) * 2002-07-15 2004-02-12 Nissan Motor Co Ltd On-vehicle information providing device
JP2004246713A (en) * 2003-02-14 2004-09-02 Fuji Xerox Co Ltd Dialogue support device, method and program, and dialogue support system
JP2007045400A (en) * 2006-08-10 2007-02-22 Sony Corp On-vehicle device, automobile, and information processing method
US20080294720A1 (en) * 2007-05-21 2008-11-27 International Business Machines Corporation Enhanced Online Collaboration System
JP2011035773A (en) * 2009-08-04 2011-02-17 Konica Minolta Business Technologies Inc Conference system

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017156074A (en) * 2016-03-04 2017-09-07 富士ゼロックス株式会社 Image forming apparatus and information processing system
CN108231070A (en) * 2016-12-14 2018-06-29 松下知识产权经营株式会社 Voice dialogue device, speech dialog method, voice dialogue program and robot
US10650815B2 (en) 2016-12-14 2020-05-12 Panasonic Intellectual Property Management Co., Ltd. Voice interaction device, voice interaction method, voice interaction program, and robot
CN108231070B (en) * 2016-12-14 2023-04-18 松下知识产权经营株式会社 Voice conversation device, voice conversation method, recording medium, and robot
US10885897B2 (en) 2017-08-10 2021-01-05 Toyota Jidosha Kabushiki Kaisha Information providing device and information providing system
US10984792B2 (en) 2018-01-11 2021-04-20 Toyota Jidosha Kabushiki Kaisha Voice output system, voice output method, and program storage medium
CN110246491A (en) * 2018-03-08 2019-09-17 松下知识产权经营株式会社 Device, robot, method and program
US10923140B2 (en) 2018-03-08 2021-02-16 Panasonic Intellectual Property Management Co., Ltd. Device, robot, method, and recording medium
CN110246491B (en) * 2018-03-08 2024-05-07 松下知识产权经营株式会社 Device for communicating with user, method thereof, robot and computer program product
US11205424B2 (en) 2018-05-24 2021-12-21 Casio Computer Co., Ltd. Conversation apparatus, robot, conversation apparatus control method, and non-transitory computer-readable recording medium
JP2020135394A (en) * 2019-02-19 2020-08-31 富士通クライアントコンピューティング株式会社 Information processing apparatus and information processing program

Also Published As

Publication number Publication date
JP6432177B2 (en) 2018-12-05

Similar Documents

Publication Publication Date Title
JP6432177B2 (en) Interactive communication system, terminal device and program
US20230377583A1 (en) Keyword determinations from conversational data
US8649776B2 (en) Systems and methods to provide personal information assistance
CN110730952B (en) Method and system for processing audio communication on network
WO2021034038A1 (en) Method and system for context association and personalization using a wake-word in virtual personal assistants
US11336594B2 (en) Information processing system and information processing method
US10403272B1 (en) Facilitating participation in a virtual meeting using an intelligent assistant
JP6730994B2 (en) Question/answer information processing method, device, storage medium, and device
US20200236070A1 (en) Information processing system and information processing method
WO2018043114A1 (en) Information processing apparatus, information processing method, and program
CN105827516B (en) Message treatment method and device
US20190065498A1 (en) System and method for rich conversation in artificial intelligence
JP2010152477A (en) Information processing system, server device, community providing method, program, and recording medium
US11010810B1 (en) Computerized system and method for automatically establishing a network connection for a real-time video conference between users
US11398224B2 (en) Communication system and method for providing advice to improve a speaking style
WO2016203805A1 (en) Information processing device, information processing system, information processing method, and program
JP6973380B2 (en) Information processing device and information processing method
EP4322090A1 (en) Information processing device and information processing method
JP2008242837A (en) Device, method, and program for managing communication circumstance
JP2004038252A (en) Information provision support system and method
US11318373B2 (en) Natural speech data generation systems and methods
CN110377842A (en) Voice remark display methods, system, medium and electronic equipment
JP6065768B2 (en) Information processing apparatus, information processing method, and program
JP6709709B2 (en) Information processing apparatus, information processing system, information processing method, and program
US20210225381A1 (en) Information processing device, information processing method, and program

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170620

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170620

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180529

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180703

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180725

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180814

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181001

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20181009

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20181022

R150 Certificate of patent or registration of utility model

Ref document number: 6432177

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150