JP2011180645A - Conversation management system and management server - Google Patents

Conversation management system and management server Download PDF

Info

Publication number
JP2011180645A
JP2011180645A JP2010041675A JP2010041675A JP2011180645A JP 2011180645 A JP2011180645 A JP 2011180645A JP 2010041675 A JP2010041675 A JP 2010041675A JP 2010041675 A JP2010041675 A JP 2010041675A JP 2011180645 A JP2011180645 A JP 2011180645A
Authority
JP
Japan
Prior art keywords
conversation
partner
identification information
management server
wearable terminal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2010041675A
Other languages
Japanese (ja)
Other versions
JP5067435B2 (en
Inventor
Takehiro Yamamoto
武洋 山本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Priority to JP2010041675A priority Critical patent/JP5067435B2/en
Publication of JP2011180645A publication Critical patent/JP2011180645A/en
Application granted granted Critical
Publication of JP5067435B2 publication Critical patent/JP5067435B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Position Input By Displaying (AREA)
  • Telephonic Communication Services (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a conversation management system accurately recognizing the start and end of a conversation made by a plurality of general users, and recording only a necessary conversation. <P>SOLUTION: A wearable terminal 20 acquires partner identification information for identifying a general user being a conversation partner by a camera 40. At least either the wearable terminal 20 or an utterance content management server 10 identifies the general user being a conversation partner from partner identification information by a face recognition part 12. The wearable terminal 20 acquires by a microphone 30 at least the utterance of the general user to be used. The utterance content management server 10 records the utterance of a plurality of general users by a voice recognition result management part 13 by using a point of time when partner identification information is mutually acquired as the starting end of the conversation. When such a state that partner identification information is not mutually acquired, is continued for a prescribed time, the recording of the conversation is ended by an interview history management part 14. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明は、会話する複数の一般ユーザに個々に利用される複数のウェアラブル端末と、複数のウェアラブル端末とデータ通信する一個の管理サーバと、を有する会話管理システムおよび管理サーバに関する。   The present invention relates to a conversation management system and a management server having a plurality of wearable terminals individually used by a plurality of general users who have a conversation, and one management server that performs data communication with the plurality of wearable terminals.

現在、会話を記録し、後から検索、閲覧したいという場合において、従来の方法としてはIC(Integrated Circuit)レコーダなどで明示的な操作によって記録し、後から音声を書き起こすという方法がある。   At present, when a conversation is recorded and it is desired to search and browse later, as a conventional method, there is a method of recording it by an explicit operation with an IC (Integrated Circuit) recorder or the like and writing the voice later.

この方法では明示的な操作をすることへの心理的抵抗やわずらわしさ、音声データをPC(Personal Computer)に移したり、音声を文字データにする作業のわずらわしさなどの理由から特定の重要な会話でしか実施されていない。   In this method, certain important conversations such as psychological resistance and annoyance to explicit operation, transfer of voice data to PC (Personal Computer), troublesome work of converting voice to character data, etc. It has only been implemented.

一方、ウェアラブル端末が普及しはじめており、ウェアラブル端末を装着している人は、ウェアラブル端末に付属したマイクにより、常に自分の発言を記録できる環境にある。   On the other hand, wearable terminals are becoming widespread, and a person wearing a wearable terminal can always record his / her speech with a microphone attached to the wearable terminal.

また、顔認証により、個人を特定する技術もでてきている。より詳細には、顔画像の大きさを正規化して顔画像から輪郭線を検出し、輪郭線が閉じた閉領域からなる一般特徴と、輪郭線が開端になる線分および孤立した点からなる固有特徴と、を検出し、登録された特徴処理済み顔画像ファイルをパターンマッチングで照合し本人認証する。   In addition, a technique for identifying an individual by face authentication has been developed. More specifically, the size of the face image is normalized, the contour line is detected from the face image, and includes a general feature including a closed region where the contour line is closed, a line segment where the contour line is open, and an isolated point. The unique feature is detected, and the registered feature-processed face image file is verified by pattern matching to authenticate the person.

このため、画像処理によって特徴処理済み登録顔画像と、訪問者の撮像顔画像からの特徴処理した顔画像と、を照合させることによってパターンマッチング処理を簡易にすることができる(特許文献1)。   For this reason, it is possible to simplify the pattern matching process by collating the registered face image that has undergone the feature processing by the image processing and the face image that has undergone the feature processing from the captured face image of the visitor (Patent Document 1).

さらに、上述のような技術として、任意の自由な状況で常時通話、常時記録を可能にしつつ、記録された内容の証拠的価値を高めることのできるコミュニケーション記録システムの提案がある。   Furthermore, as a technique as described above, there is a proposal of a communication recording system that can increase the proof value of recorded contents while allowing continuous calls and continuous recording in any free situation.

その技術では、ヘッドセットは、当該ヘッドセットの装着者の音声を検出し第一の音声信号を生成するマイクロホンと、第一の音声信号を、ブルートゥース規格に準拠した近距離無線通信により機器に送信する送信手段とを備える。   In that technology, the headset detects the voice of the wearer of the headset and generates a first audio signal, and transmits the first audio signal to the device by short-range wireless communication compliant with the Bluetooth standard. Transmitting means.

機器は、ヘッドセットからの第一の音声信号をブルートゥース規格に準拠した近距離無線通信により受信する受信手段と、ヘッドセットの装着者以外の者の音声を検出して第二の音声信号を生成する音声入力手段と、第一および第二の音声信号の発生時刻を取得する時刻情報取得手段と、第一および第二の音声信号に時刻情報を対応付けて、格納すべき情報を作成する情報作成手段と、作成された情報を格納する記憶手段とを備える(特許文献2)。   The device receives the first audio signal from the headset by short-range wireless communication compliant with the Bluetooth standard, and generates the second audio signal by detecting the audio of a person other than the headset wearer Information for generating information to be stored by associating time information with the first and second audio signals, time information acquiring means for acquiring the generation times of the first and second audio signals, A creation means and a storage means for storing the created information are provided (Patent Document 2).

特開2005−242432号公報JP 2005-242432 A 特開2005−237017号公報Japanese Patent Laying-Open No. 2005-237017

ウェアラブル端末を双方の話者が装着した会話の場合に、人と話した内容を効率的に記録し、後から検索、閲覧したいというニーズがある。しかし、従来の方法ではウェアラブル端末では自分の発言のみが記録されているため、相手の発言を検索、閲覧することはできなかった。   In the case of a conversation in which both speakers wear a wearable terminal, there is a need to efficiently record the contents of conversations with people and to search and view them later. However, in the conventional method, only the user's remarks are recorded on the wearable terminal, and therefore, the remarks of the other party cannot be searched and viewed.

特許文献2の技術では、上述のような課題を解決することができる。しかし、複数の一般ユーザによる会話の開始と終了とを正確に認識し、必要な会話のみを記録することは困難である。   The technique of Patent Document 2 can solve the above-described problems. However, it is difficult to accurately recognize the start and end of a conversation by a plurality of general users and record only the necessary conversation.

本発明は上述のような課題に鑑みてなされたものであり、複数の一般ユーザによる会話の開始と終了とを正確に認識し、必要な会話のみを記録することができる会話管理システムおよび管理サーバを提供するものである。   The present invention has been made in view of the above problems, and a conversation management system and management server capable of accurately recognizing the start and end of conversations by a plurality of general users and recording only necessary conversations. Is to provide.

本発明の会話管理システムは、会話する複数の一般ユーザに個々に利用される複数のウェアラブル端末と、複数のウェアラブル端末とデータ通信する一個の管理サーバと、を有し、ウェアラブル端末が、会話相手の一般ユーザを識別する相手識別情報を取得する識別取得手段を有し、ウェアラブル端末と管理サーバとの少なくとも一方が、相手識別情報から会話相手の一般ユーザを識別するユーザ識別手段を有し、ウェアラブル端末が、少なくとも利用する一般ユーザの発言を取得する発言取得手段を有し、管理サーバが、相手識別情報が相互に取得されると複数の一般ユーザの会話の記録を開始する記録開始手段と、相手識別情報が相互に取得されない状態が所定時間まで経過すると会話の記録を終了する記録終了手段と、を有する。   The conversation management system of the present invention includes a plurality of wearable terminals individually used by a plurality of general users who have a conversation, and a single management server that performs data communication with the plurality of wearable terminals. And a wearable terminal and a management server, at least one of the wearable terminal and the management server has user identification means for identifying a general user of a conversation partner from the partner identification information, and wearable The terminal has a statement acquisition unit that acquires at least a statement of a general user to be used, and the management server starts recording of conversations of a plurality of general users when the partner identification information is mutually acquired, Recording end means for ending the recording of conversation when a state in which the partner identification information is not mutually acquired has elapsed until a predetermined time.

本発明の管理サーバは、本発明の会話管理システムの管理サーバであって、相手識別情報が相互に取得されると複数の一般ユーザの会話の記録を開始する記録開始手段と、相手識別情報が相互に取得されない状態が所定時間まで経過すると会話の記録を終了する記録終了手段と、を有する。   The management server of the present invention is a management server of the conversation management system of the present invention, and recording start means for starting recording of conversations of a plurality of general users when the partner identification information is mutually acquired, and the partner identification information is Recording ending means for ending the recording of the conversation when the mutually unacquired states elapse until a predetermined time.

なお、本発明の各種の構成要素は、その機能を実現するように形成されていればよく、例えば、所定の機能を発揮する専用のハードウェア、所定の機能がコンピュータプログラムにより付与された発言内容管理サーバ、コンピュータプログラムにより発言内容管理サーバに実現された所定の機能、これらの任意の組み合わせ、等として実現することができる。   It should be noted that the various components of the present invention need only be formed so as to realize their functions. For example, dedicated hardware that exhibits a predetermined function, contents of statements in which a predetermined function is given by a computer program It can be realized as a management server, a predetermined function realized in the statement content management server by a computer program, an arbitrary combination thereof, or the like.

また、本発明の各種の構成要素は、必ずしも個々に独立した存在である必要はなく、複数の構成要素が一個の部材として形成されていること、一つの構成要素が複数の部材で形成されていること、ある構成要素が他の構成要素の一部であること、ある構成要素の一部と他の構成要素の一部とが重複していること、等でもよい。   The various components of the present invention do not necessarily have to be independent of each other. A plurality of components are formed as a single member, and a single component is formed of a plurality of members. It may be that a certain component is a part of another component, a part of a certain component overlaps with a part of another component, or the like.

本発明の会話管理システムでは、ウェアラブル端末が、会話相手の一般ユーザを識別する相手識別情報を識別取得手段で取得する。ウェアラブル端末と管理サーバとの少なくとも一方が、相手識別情報から会話相手の一般ユーザをユーザ識別手段で識別する。ウェアラブル端末が、少なくとも利用する一般ユーザの発言を発言取得手段で取得する。管理サーバが、相手識別情報が相互に取得されると複数の一般ユーザの会話の記録を記録開始手段で記録する。相手識別情報が相互に取得されない状態が所定時間まで経過すると会話の記録を記録終了手段で終了する。このため、複数の一般ユーザによる会話の開始と終了とを正確に認識し、必要な会話のみを記録することができる。   In the conversation management system of the present invention, the wearable terminal acquires partner identification information for identifying the general user of the conversation partner by the identification acquisition means. At least one of the wearable terminal and the management server identifies the general user of the conversation partner with the user identification means from the partner identification information. The wearable terminal acquires at least a general user's speech to be used by the speech acquisition means. When the management server obtains the partner identification information from each other, the recording server records the conversations of a plurality of general users. When the state in which the other party identification information is not mutually acquired elapses until a predetermined time, the recording of the conversation is ended by the recording end unit. For this reason, it is possible to accurately recognize the start and end of a conversation by a plurality of general users and to record only the necessary conversation.

本発明の実施の形態のデータ処理システムの論理構造を示す模式的なブロック図である。It is a typical block diagram which shows the logical structure of the data processing system of embodiment of this invention. 会話の記録工程を示す模式的なタイムチャートである。It is a typical time chart which shows the recording process of conversation. ある会話ログのデータ構造を示す模式図である。It is a schematic diagram which shows the data structure of a certain conversation log. 二人の一般ユーザの会話の記録工程を示す模式的なタイムチャートである。It is a typical time chart which shows the recording process of conversation of two general users. 一般ユーザのIDのデータ構造を示す模式図である。It is a schematic diagram which shows the data structure of ID of a general user. 会話の開始を認識する工程を示すフローチャートである。It is a flowchart which shows the process of recognizing the start of conversation. 記録された複数の会話のデータ構造を示す模式図である。It is a schematic diagram which shows the data structure of the several conversation recorded. 一つの会話での発言内容などのデータ構造を示す模式図である。It is a schematic diagram which shows data structures, such as the utterance content in one conversation. 会話の終了を認識する工程を示すフローチャートである。It is a flowchart which shows the process of recognizing completion | finish of conversation. 眼鏡型ディスプレイに会話履歴表示メニューが表示された状態を示す模式図である。It is a schematic diagram which shows the state by which the conversation history display menu was displayed on the spectacles type display. 眼鏡型ディスプレイに検索結果が表示された状態を示す模式図である。It is a schematic diagram which shows the state by which the search result was displayed on the spectacles type display. 三人の一般ユーザの会話の記録工程を示す模式的なタイムチャートである。It is a typical time chart which shows the recording process of a conversation of three general users.

本発明の実施の一形態を図面を参照して以下に説明する。図1を参照すると、本発明の会話管理システムは、会話する複数の一般ユーザに個々に利用される複数のウェアラブル端末20と、複数のウェアラブル端末20とデータ通信する一個の発言内容管理サーバ10と、を有する。   An embodiment of the present invention will be described below with reference to the drawings. Referring to FIG. 1, a conversation management system of the present invention includes a plurality of wearable terminals 20 that are individually used by a plurality of general users who have a conversation, and a message content management server 10 that performs data communication with the plurality of wearable terminals 20. Have.

ウェアラブル端末20が、会話相手の一般ユーザを識別する相手識別情報を取得する識別取得手段であるカメラ40を有する。発言内容管理サーバ10が、相手識別情報から会話相手の一般ユーザを識別するユーザ識別手段である顔認識部12を有する。   The wearable terminal 20 includes a camera 40 that is identification acquisition means for acquiring partner identification information for identifying a general user of a conversation partner. The statement content management server 10 includes a face recognition unit 12 that is a user identification unit that identifies a general user of a conversation partner from the partner identification information.

ウェアラブル端末20が、少なくとも利用する一般ユーザの発言を取得する発言取得手段であるマイク30を有する。発言内容管理サーバ10が、相手識別情報が相互に取得されると複数の一般ユーザの会話の記録を開始する記録開始手段である音声認識結果管理部13と、相手識別情報が相互に取得されない状態が所定時間まで経過すると会話の記録を終了する記録終了手段である面会履歴管理部14と、を有する。   The wearable terminal 20 includes a microphone 30 that is a speech acquisition unit that acquires at least a general user's speech to be used. The speech content management server 10 is a state where voice recognition result management unit 13 which is a recording start means for starting recording of conversations of a plurality of general users when the partner identification information is mutually acquired, and the partner identification information is not acquired mutually. Has a meeting history management section 14 which is a recording end means for ending the recording of conversation when a predetermined time elapses.

面会履歴管理部14は、上述の所定時間が経過すると相手識別情報が相互に取得されなくなったときを終端として会話を音声認識結果管理部13に保存する。ただし、ウェアラブル端末20が、取得された発言を音声認識してテキストデータとする音声認識部21を有するので、音声認識結果管理部13は、会話をテキストデータで記録する。   The meeting history management unit 14 stores the conversation in the voice recognition result management unit 13 with the end when the other party identification information is not acquired after the predetermined time has passed. However, since the wearable terminal 20 has the speech recognition unit 21 that recognizes the acquired speech as text data and converts it into text data, the speech recognition result management unit 13 records the conversation as text data.

発言内容管理サーバ10は、会話相手と識別された一般ユーザに記録された会話をウェアラブル端末20で閲覧させる。ウェアラブル端末20のマイク30は、利用する一般ユーザが発言する検索キーを取得し、発言内容管理サーバ10は、取得された検索キーで会話を検索して閲覧させる。   The message content management server 10 causes the wearable terminal 20 to browse a conversation recorded by a general user identified as a conversation partner. The microphone 30 of the wearable terminal 20 acquires a search key that is spoken by a general user to use, and the message content management server 10 searches and browses the conversation using the acquired search key.

ウェアラブル端末20は、会話相手の一般ユーザの顔画像を相手識別情報として取得する。また、ウェアラブル端末20は、会話相手の一般ユーザのウェアラブル端末20から相手識別情報を取得することもできる。   The wearable terminal 20 acquires a face image of a general user who is a conversation partner as partner identification information. Wearable terminal 20 can also acquire partner identification information from wearable terminal 20 of the general user of the conversation partner.

さらに、詳細には後述するが、音声認識結果管理部13は、三人以上の一般ユーザの相手識別情報が相互に取得されたときも会話を記録し、面会履歴管理部14は、会話が記録されている三人以上の全員の相手識別情報が相互に取得されない状態が所定時間まで経過すると会話の記録を終了する。   Further, as will be described in detail later, the voice recognition result management unit 13 records the conversation even when the partner identification information of three or more general users is mutually acquired, and the meeting history management unit 14 records the conversation. The recording of the conversation is terminated when a predetermined time elapses when the partner identification information of all three or more persons who have been acquired is not mutually acquired.

より具体的には、発言内容管理サーバ10と、ウェアラブル端末20はプログラム制御により動作し、インターネット等のデータネットワーク100を介して相互に接続されている。   More specifically, the message content management server 10 and the wearable terminal 20 operate under program control and are connected to each other via a data network 100 such as the Internet.

発言内容管理サーバ10は、インターネット上に設置されているワークステーション・サーバ等の情報処理装置であり、ID管理部11、顔認識部12、音声認識結果管理部13、面会履歴管理部14、検索部15、等を論理的に有する。   The message content management server 10 is an information processing device such as a workstation server installed on the Internet, and includes an ID management unit 11, a face recognition unit 12, a voice recognition result management unit 13, a visit history management unit 14, and a search. Units 15 and so on are logically included.

ウェアラブル端末20は、小型パーソナルコンピュータ等の情報処理装置であり、音声認識部21、マイク30、カメラ40、眼鏡型ディスプレイ50、操作キー60、等を具備している。   The wearable terminal 20 is an information processing apparatus such as a small personal computer, and includes a voice recognition unit 21, a microphone 30, a camera 40, a glasses-type display 50, operation keys 60, and the like.

また、ウェアラブル端末20は、カメラ40で撮影した情報を、データネットワーク100を介して発言内容管理サーバ10に送信する機能を備えている。さらに、発言内容管理サーバ10が送信するデータを受信し、眼鏡型ディスプレイ50上の画面に表示する機能も有する。   The wearable terminal 20 has a function of transmitting information captured by the camera 40 to the message content management server 10 via the data network 100. Further, it has a function of receiving data transmitted by the message content management server 10 and displaying it on the screen on the glasses-type display 50.

また、マイク30が認識した音声を音声認識部21で文字情報に変換し、発言内容管理サーバ10に送信する機能を有する。ここで、音声認識部21は構成によっては発言内容管理サーバ10上に具備し、ウェアラブル端末20は音声データを、そのまま発言内容管理サーバ10に送信してもよい。   The voice recognized by the microphone 30 is converted into character information by the voice recognition unit 21 and transmitted to the message content management server 10. Here, the speech recognition unit 21 may be provided on the statement content management server 10 depending on the configuration, and the wearable terminal 20 may transmit the voice data to the statement content management server 10 as it is.

次に、図1〜図11を参照して本実施例の動作について詳細に説明する。図2のように、AさんとBさんが10:00-10:02まで会話をする場合において、図3および図4を参照して詳細を説明する。   Next, the operation of this embodiment will be described in detail with reference to FIGS. As shown in FIG. 2, when Mr. A and Mr. B have a conversation until 10: 00-10: 02, the details will be described with reference to FIG. 3 and FIG.

まず、Aさんのウェアラブル端末20はカメラ40を介してBさんの映像を発言内容管理サーバ10へ送信する(ステップA1)。ここで、ウェアラブル端末20は一定間隔で常に映像を発言内容管理サーバ10へ送信するように動作している。   First, Mr. A's wearable terminal 20 transmits Mr. B's video to the message content management server 10 via the camera 40 (step A1). Here, the wearable terminal 20 operates so as to always transmit video to the message content management server 10 at regular intervals.

次に、発言内容管理サーバ10は受け取った映像を顔認識部12で顔認識またはウェアラブル端末20のID認識によってID管理部に格納されたID情報と突合せ、Bさんと判定する(ステップA2)。   Next, the message content management server 10 matches the received video with the ID information stored in the ID management unit by face recognition or ID recognition of the wearable terminal 20 by the face recognition unit 12, and determines Mr. B (step A2).

ここで、ウェアラブル端末には個々のIDが付与されており、ID管理部11により、図5のように個人を特定できる状態で管理されている。ウェアラブル端末20のID認識は、例えば、眼鏡型ディスプレイ50の前面に二次元コードなどで表記しておくことができる(図示せず)。   Here, each ID is assigned to the wearable terminal and is managed by the ID management unit 11 in a state where an individual can be specified as shown in FIG. The ID recognition of the wearable terminal 20 can be expressed by, for example, a two-dimensional code on the front surface of the glasses-type display 50 (not shown).

次に、面会履歴管理部14は、図6のような判定ロジックにより、図7のように、認識した時刻を会話の開始時刻と終了時刻とにセットし、Aさんを話者1、Bさんを話者2にセットし、状態を認識待ちとする(ステップA3)。   Next, the meeting history management unit 14 sets the recognized time to the start time and the end time of the conversation as shown in FIG. 7 according to the determination logic as shown in FIG. Is set to the speaker 2 and the state is awaiting recognition (step A3).

同様に、Bさんのウェアラブル端末20はカメラ40を解してAさんの映像を発言内容管理サーバ10へ送信すると、面会履歴管理部14は、AさんとBさんが認識待ちであることから、AさんとBさんの双方向の認識が完了し、会話が始まったと判断し、認識した時刻を会話終了時刻にセットし、状態を会話中とする。   Similarly, when Mr. B's wearable terminal 20 transmits the video of Mr. A to the message content management server 10 through the camera 40, the meeting history management unit 14 indicates that Mr. A and Mr. B are waiting for recognition. It is determined that the bidirectional recognition of Mr. A and Mr. B has been completed and the conversation has started, the recognized time is set as the conversation end time, and the state is defined as being in conversation.

次に、Aさんのウェアラブル端末20はマイク30を介して入力された音声を、音声認識部21によってテキストに変換し(ステップA4)、テキストを発言内容管理サーバ10に送信する(ステップA5)。   Next, Mr. A's wearable terminal 20 converts the voice input through the microphone 30 into text by the voice recognition unit 21 (step A4), and transmits the text to the message content management server 10 (step A5).

次に、発言内容管理サーバ10は受け取ったテキストを、図8のように、音声認識結果管理部13に格納する(ステップA6)。このように会話は継続されていくが、図9のような判定ロジックにより、面会履歴管理部14を参照し、一定時間お互いの顔認識が行われず、会話終了時刻が更新されなかった場合には会話が終了したと判断し、状態を終了とする。   Next, the statement content management server 10 stores the received text in the speech recognition result management unit 13 as shown in FIG. 8 (step A6). In this way, the conversation is continued, but when the face-to-face history management unit 14 is referred to by the determination logic as shown in FIG. 9 and face recognition is not performed for a certain period of time, and the conversation end time is not updated, It is determined that the conversation has ended, and the state is ended.

次に、利用者によって、操作キー60による操作で、図10のように、会話履歴表示メニューを眼鏡型ディスプレイ50に表示する。このとき、ウェアラブル端末20は発言内容管理サーバ10に会話履歴の検索を要求する(ステップA7)。   Next, a conversation history display menu is displayed on the glasses-type display 50 as shown in FIG. At this time, the wearable terminal 20 requests the speech content management server 10 to search the conversation history (step A7).

次に、発言内容管理サーバ10内の検索部15は面会履歴管理部14から利用者が会話をした時間と会話相手を抽出し、その時間の発言を音声認識結果管理部13から抽出し(ステップA8)、ウェアラブル端末20に送信する(ステップA9)。   Next, the search unit 15 in the statement content management server 10 extracts the conversation time and conversation partner from the visit history management unit 14, and extracts the comment at that time from the voice recognition result management unit 13 (step A8), and transmit to wearable terminal 20 (step A9).

次に、ウェアラブル端末20は会話履歴を眼鏡型ディスプレイ50に表示する(ステップA10)。ここで、図11のように、音声入力などによりキーワードを入力し、発言やその他の情報を検索するような仕組みとすることも考えられる。   Next, wearable terminal 20 displays the conversation history on glasses-type display 50 (step A10). Here, as shown in FIG. 11, it is also possible to adopt a mechanism in which a keyword is input by voice input or the like and a utterance or other information is searched.

本実施の形態の会話管理システムでは、上述のようにウェアラブル端末20が、会話相手の一般ユーザを識別する相手識別情報をカメラ40で取得する。発言内容管理サーバ10が、相手識別情報から会話相手の一般ユーザを顔認識部12で識別する。   In the conversation management system of the present embodiment, as described above, wearable terminal 20 acquires partner identification information for identifying a conversational partner general user with camera 40. The message content management server 10 identifies the general user of the conversation partner by the face recognition unit 12 from the partner identification information.

ウェアラブル端末20が、少なくとも利用する一般ユーザの発言をマイク30で取得する。発言内容管理サーバ10が、相手識別情報が相互に取得されたときを会話の始端として複数の一般ユーザの発言を音声認識結果管理部13で記録し、相手識別情報が相互に取得されない状態が所定時間まで経過すると会話の記録を面会履歴管理部14で終了する。   The wearable terminal 20 acquires at least a general user's remarks to be used by the microphone 30. The speech content management server 10 records the utterances of a plurality of general users in the speech recognition result management unit 13 at the beginning of the conversation when the partner identification information is mutually acquired, and a state in which the partner identification information is not mutually acquired is predetermined. When the time has elapsed, the conversation history management unit 14 ends the conversation recording.

このため、本実施の形態の会話管理システムでは、複数の一般ユーザによる会話の開始と終了とを正確に認識し、必要な会話のみを記録することができる。さらに、会話相手の端末で記録された音声認識結果テキストを自分の端末で表示できる。   For this reason, in the conversation management system of the present embodiment, it is possible to accurately recognize the start and end of conversations by a plurality of general users and to record only necessary conversations. Furthermore, the voice recognition result text recorded on the conversation partner's terminal can be displayed on the own terminal.

その理由は、顔認識またはID認識により特定されたID情報と時刻を活用し、会話していた時間を判別し、対話していた時間の発言のみを会話相手と相互に共有できるようにしたためである。   The reason is that ID information and time specified by face recognition or ID recognition are used to determine the conversation time, and only the conversation during the conversation can be shared with the conversation partner. is there.

また、複数人の会話であっても会話に参加していた全員が相互の発言を参照できる。その理由は、一対一の会話の組を複数同時に成立した場合に複数人で会話したとみなすようにしたためである。   Moreover, even if it is a conversation of two or more persons, all who participated in the conversation can refer to each other's remarks. The reason is that when a plurality of one-to-one conversation groups are established at the same time, it is considered that a plurality of persons have conversations.

図12を参照して、三人で会話を行う場合の例をあげる。AさんとBさんの会話が成立し、かつ、AさんとCさんの会話が成立し、かつ、BさんとCさんの会話が成立した場合に、三人の会話が成立したと判断する。さらに、図9の終了ロジックにより、三人のいずれも顔を認識せずに一定時間経ったときに会話が終了したと判断する。   With reference to FIG. 12, the example in the case of having a conversation with three people is given. When the conversation between Mr. A and Mr. B is established, the conversation between Mr. A and Mr. C is established, and the conversation between Mr. B and Mr. C is established, it is determined that the conversation between the three persons is established. Furthermore, the end logic of FIG. 9 determines that the conversation has ended when a certain time has passed without any of the three persons recognizing their faces.

なお、本発明は本実施の形態に限定されるものではなく、その要旨を逸脱しない範囲で各種の変形を許容する。例えば、上記形態では相手識別情報から会話相手の一般ユーザを識別するユーザ識別手段である顔認識部12が発言内容管理サーバ10にあることを例示した。しかし、このような顔認識部12がウェアラブル端末20にあってもよい。   The present invention is not limited to the present embodiment, and various modifications are allowed without departing from the scope of the present invention. For example, in the above embodiment, the face recognition unit 12 as user identification means for identifying a general user of a conversation partner from the partner identification information is exemplified in the statement content management server 10. However, such a face recognition unit 12 may be in the wearable terminal 20.

また、前述のように取得された発言を音声認識してテキストデータとする音声認識部21がウェアラブル端末20にあることを例示した。しかし、このような音声認識部21が発言内容管理サーバ10にあってもよい。   In addition, the speech recognition unit 21 that recognizes the acquired speech as described above and converts it into text data is exemplified in the wearable terminal 20. However, such a speech recognition unit 21 may be provided in the statement content management server 10.

さらに、本実施の形態では発言内容管理サーバ10やウェアラブル端末20の各部がコンピュータプログラムにより各種機能として論理的に実現されることを例示した。しかし、このような各部の各々を固有のハードウェアとして形成することもでき、ソフトウェアとハードウェアとの組み合わせとして実現することもできる。   Furthermore, in the present embodiment, it has been exemplified that each part of the statement content management server 10 and the wearable terminal 20 is logically realized as various functions by a computer program. However, each of these units can be formed as unique hardware, or can be realized as a combination of software and hardware.

また、上記形態ではデータネットワーク100として現状のインターネットを例示したが、これが次世代のインターネットであるNGN(Next Generation Network)でもよい。   In the above embodiment, the current Internet is exemplified as the data network 100. However, this may be a next generation network (NGN) which is the next generation Internet.

なお、当然ながら、上述した実施の形態および複数の変形例は、その内容が相反しない範囲で組み合わせることができる。また、上述した実施の形態および変形例では、各部の構造などを具体的に説明したが、その構造などは本願発明を満足する範囲で各種に変更することができる。   Needless to say, the above-described embodiment and a plurality of modifications can be combined within a range in which the contents do not conflict with each other. Further, in the above-described embodiments and modifications, the structure of each part has been specifically described, but the structure and the like can be changed in various ways within a range that satisfies the present invention.

10 発言内容管理サーバ
11 ID管理部
12 顔認識部
13 音声認識結果管理部
14 面会履歴管理部
15 検索部
20 ウェアラブル端末
21 音声認識部
30 マイク
40 カメラ
50 眼鏡型ディスプレイ
60 操作キー
100 データネットワーク
DESCRIPTION OF SYMBOLS 10 Statement content management server 11 ID management part 12 Face recognition part 13 Voice recognition result management part 14 Visit history management part 15 Search part 20 Wearable terminal 21 Voice recognition part 30 Microphone 40 Camera 50 Glasses type display 60 Operation key 100 Data network

Claims (10)

会話する複数の一般ユーザに個々に利用される複数のウェアラブル端末と、複数の前記ウェアラブル端末とデータ通信する一個の管理サーバと、を有し、
前記ウェアラブル端末が、会話相手の前記一般ユーザを識別する相手識別情報を取得する識別取得手段を有し、
前記ウェアラブル端末と前記管理サーバとの少なくとも一方が、前記相手識別情報から会話相手の前記一般ユーザを識別するユーザ識別手段を有し、
前記ウェアラブル端末が、少なくとも利用する前記一般ユーザの発言を取得する発言取得手段を有し、
前記管理サーバが、前記相手識別情報が相互に取得されると複数の前記一般ユーザの前記会話の記録を開始する記録開始手段と、前記相手識別情報が相互に取得されない状態が所定時間まで経過すると前記会話の記録を終了する記録終了手段と、を有する会話管理システム。
A plurality of wearable terminals individually used by a plurality of general users having a conversation, and a single management server in data communication with the plurality of wearable terminals,
The wearable terminal has identification acquisition means for acquiring partner identification information for identifying the general user of the conversation partner,
At least one of the wearable terminal and the management server has user identification means for identifying the general user of the conversation partner from the partner identification information,
The wearable terminal has a speech acquisition unit that acquires at least the speech of the general user to be used,
When the management server obtains the partner identification information from each other, a recording start unit that starts recording the conversations of the plurality of general users, and a state in which the partner identification information is not mutually acquired until a predetermined time elapses. A conversation ending system for ending the recording of the conversation.
前記記録開始手段は、三人以上の前記一般ユーザの前記相手識別情報が相互に取得されたときも前記会話を記録し、
前記記録終了手段は、前記会話が記録されている三人以上の全員の前記相手識別情報が相互に取得されない状態が所定時間まで経過すると前記会話の記録を終了する請求項1に記載の会話管理システム。
The recording start unit records the conversation even when the partner identification information of three or more general users is acquired mutually,
2. The conversation management according to claim 1, wherein the recording ending unit ends the recording of the conversation when a state in which the partner identification information of all of the three or more persons in which the conversation is recorded is not mutually acquired has elapsed for a predetermined time. system.
前記所定時間が経過すると前記相手識別情報が相互に取得されなくなったときを終端として前記会話を保存する会話保存手段を、さらに有する請求項1または2に記載の発言内容管理サーバ。   The statement content management server according to claim 1, further comprising: a conversation storage unit that stores the conversation when the partner identification information is not acquired mutually after the predetermined time has elapsed. 前記管理サーバは、前記会話相手と識別された前記一般ユーザに記録された前記会話を前記ウェアラブル端末で閲覧させる閲覧許可手段を、さらに有する請求項1ないし3の何れか一項に記載の会話管理システム。   The conversation management according to any one of claims 1 to 3, wherein the management server further includes browsing permission means for allowing the general user identified as the conversation partner to browse the conversation recorded on the wearable terminal. system. 前記発言取得手段は、利用する前記一般ユーザが発言する検索キーを取得し、
前記閲覧許可手段は、取得された前記検索キーで前記会話を検索して閲覧させる請求項4に記載の会話管理システム。
The speech acquisition means acquires a search key that the general user to use speaks,
The conversation management system according to claim 4, wherein the browsing permission unit searches and browses the conversation with the acquired search key.
前記ウェアラブル端末と前記管理サーバとの少なくとも一方が、取得された前記発言を音声認識してテキストデータとする音声認識手段を、さらに有し、
前記記録開始手段は、前記会話を前記テキストデータで記録する請求項1ないし5の何れか一項に記載の会話管理システム。
At least one of the wearable terminal and the management server further includes voice recognition means that recognizes the acquired speech as text data,
The conversation management system according to any one of claims 1 to 5, wherein the recording start unit records the conversation as the text data.
前記ウェアラブル端末は、会話相手の前記一般ユーザの顔画像を前記相手識別情報として取得する画像取得手段を、さらに有する請求項1ないし6の何れか一項に記載の会話管理システム。   The conversation management system according to any one of claims 1 to 6, wherein the wearable terminal further includes image acquisition means for acquiring a face image of the general user of the conversation partner as the partner identification information. 前記ウェアラブル端末は、会話相手の前記一般ユーザの前記ウェアラブル端末から前記相手識別情報を取得する請求項1ないし6の何れか一項に記載の会話管理システム。   The conversation management system according to claim 1, wherein the wearable terminal acquires the partner identification information from the wearable terminal of the general user who is a conversation partner. 請求項1ないし8の何れか一項に記載の会話管理システムの前記管理サーバであって、
前記相手識別情報が相互に取得されると複数の前記一般ユーザの前記会話の記録を開始する記録開始手段と、
前記相手識別情報が相互に取得されない状態が所定時間まで経過すると前記会話の記録を終了する記録終了手段と、
を有する管理サーバ。
The management server of the conversation management system according to any one of claims 1 to 8,
Recording start means for starting recording of the conversations of a plurality of general users when the partner identification information is mutually acquired;
A recording ending unit for ending the recording of the conversation when a state in which the partner identification information is not mutually acquired elapses until a predetermined time;
Management server having
前記ウェアラブル端末で取得された会話相手の前記一般ユーザを識別する前記相手識別情報から会話相手の前記一般ユーザを識別するユーザ識別手段を、さらに有する請求項9に記載の管理サーバ。   The management server according to claim 9, further comprising user identification means for identifying the general user of the conversation partner from the partner identification information for identifying the general user of the conversation partner acquired by the wearable terminal.
JP2010041675A 2010-02-26 2010-02-26 Conversation management system and management server Expired - Fee Related JP5067435B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010041675A JP5067435B2 (en) 2010-02-26 2010-02-26 Conversation management system and management server

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010041675A JP5067435B2 (en) 2010-02-26 2010-02-26 Conversation management system and management server

Publications (2)

Publication Number Publication Date
JP2011180645A true JP2011180645A (en) 2011-09-15
JP5067435B2 JP5067435B2 (en) 2012-11-07

Family

ID=44692116

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010041675A Expired - Fee Related JP5067435B2 (en) 2010-02-26 2010-02-26 Conversation management system and management server

Country Status (1)

Country Link
JP (1) JP5067435B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020004380A (en) * 2018-06-29 2020-01-09 バイドゥ オンライン ネットワーク テクノロジー (ベイジン) カンパニー リミテッド Wearable device, information processing method, device and system

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003004863A (en) * 2001-04-18 2003-01-08 Nippon Telegr & Teleph Corp <Ntt> Presence data transmission apparatus and presence data transmission method
JP2004287201A (en) * 2003-03-24 2004-10-14 Seiko Epson Corp Device and method for preparing conference minutes, and computer program
JP2005237017A (en) * 2005-03-07 2005-09-02 Toshiba Corp Communication recording system
JP2005275536A (en) * 2004-03-23 2005-10-06 Advanced Telecommunication Research Institute International Apparatus and method for determining conversation leader
JP2007034465A (en) * 2005-07-25 2007-02-08 Yafoo Japan Corp Information retrieval service method, information retrieval system, and information retrieval program
JP2007104532A (en) * 2005-10-07 2007-04-19 Fujitsu Ltd Information processing method

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003004863A (en) * 2001-04-18 2003-01-08 Nippon Telegr & Teleph Corp <Ntt> Presence data transmission apparatus and presence data transmission method
JP2004287201A (en) * 2003-03-24 2004-10-14 Seiko Epson Corp Device and method for preparing conference minutes, and computer program
JP2005275536A (en) * 2004-03-23 2005-10-06 Advanced Telecommunication Research Institute International Apparatus and method for determining conversation leader
JP2005237017A (en) * 2005-03-07 2005-09-02 Toshiba Corp Communication recording system
JP2007034465A (en) * 2005-07-25 2007-02-08 Yafoo Japan Corp Information retrieval service method, information retrieval system, and information retrieval program
JP2007104532A (en) * 2005-10-07 2007-04-19 Fujitsu Ltd Information processing method

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020004380A (en) * 2018-06-29 2020-01-09 バイドゥ オンライン ネットワーク テクノロジー (ベイジン) カンパニー リミテッド Wearable device, information processing method, device and system

Also Published As

Publication number Publication date
JP5067435B2 (en) 2012-11-07

Similar Documents

Publication Publication Date Title
US8649776B2 (en) Systems and methods to provide personal information assistance
JP6738445B2 (en) Long-distance extension of digital assistant service
US9883396B2 (en) Context-related arrangements
CN109446876A (en) Sign language information processing method, device, electronic equipment and readable storage medium storing program for executing
US9087058B2 (en) Method and apparatus for enabling a searchable history of real-world user experiences
WO2015066949A1 (en) Human-machine interaction system, method and device thereof
KR20040070326A (en) Face information transmission system
US20220224735A1 (en) Information processing apparatus, non-transitory computer readable medium storing program, and method
JP6432177B2 (en) Interactive communication system, terminal device and program
US8788621B2 (en) Method, device, and computer product for managing communication situation
CN108710791A (en) The method and device of voice control
KR20090097292A (en) Method and system for providing speech recognition by using user images
US20230005471A1 (en) Responding to a user query based on captured images and audio
US20190294407A1 (en) Confidential information concealment
CN110188364B (en) Translation method, device and computer readable storage medium based on intelligent glasses
JP2014236228A (en) Person information registration device and program
US20210398539A1 (en) Systems and methods for processing audio and video
CN106603381A (en) Chat information processing method and device
JP5067435B2 (en) Conversation management system and management server
JP2011205238A (en) Communication terminal and information retrieval method
JP2008040607A (en) Person introduction server, person introduction system, and method and program therefor
US20220076680A1 (en) Systems and methods for processing audio and video
US11809536B2 (en) Headphone biometric authentication
US10887552B1 (en) Door-knocking for teleconferencing
JP7347043B2 (en) Information processing device, information processing method and program

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120611

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120717

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120730

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150824

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees