JP2005012391A - Device and method for recording conversation content - Google Patents

Device and method for recording conversation content Download PDF

Info

Publication number
JP2005012391A
JP2005012391A JP2003172824A JP2003172824A JP2005012391A JP 2005012391 A JP2005012391 A JP 2005012391A JP 2003172824 A JP2003172824 A JP 2003172824A JP 2003172824 A JP2003172824 A JP 2003172824A JP 2005012391 A JP2005012391 A JP 2005012391A
Authority
JP
Japan
Prior art keywords
speaker
communication terminal
data
conversation content
packet
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2003172824A
Other languages
Japanese (ja)
Inventor
Katsuhiro Sato
勝裕 佐藤
Shinya Miyazono
真也 宮園
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sanyo Electric Co Ltd
Original Assignee
Sanyo Electric Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sanyo Electric Co Ltd filed Critical Sanyo Electric Co Ltd
Priority to JP2003172824A priority Critical patent/JP2005012391A/en
Publication of JP2005012391A publication Critical patent/JP2005012391A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Telephonic Communication Services (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a conversation content recording device in which the load on of a communication terminal can be reduced and a conversation content can precisely be grasped. <P>SOLUTION: The sound inputted to one of two IP telephone sets 300 is transmitted to the other IP telephone set 300 as an IP packet through a telephone server 200. An identifier for discriminating the IP telephone set 300 is added to the IP packet. The telephone server 200 detects the identifier from the received IP packet and converts utterance data included in the IP packet into text data. Text data to which the identifier is allocated are recorded in a text file. When a call between the two IP telephone sets 300 is terminated, the telephone server 200 transmits the text file where a call content is recorded to a PC 400 that the previously registered electronic mail address shows as an electronic mail. <P>COPYRIGHT: (C)2005,JPO&NCIPI

Description

【0001】
【産業上の利用分野】
この発明は、会話内容記録装置に関し、特にたとえば、第1通信端末を使用する第1話者と第2通信端末を使用する第2話者との間の会話の内容を記録する、会話内容記録装置および会話内容記録方法に関する。
【0002】
【従来の技術】
従来の会話内容記録装置の一例が、特許文献1に開示されている。この従来技術は、電話機に音声認識機能をもたせることによって、電話による会話内容を文章化しようとするものである。これによって、会話内容を視覚的に把握することができる。
【0003】
【特許文献1】
特開平6−253057号公報
【0004】
【発明が解決しようとする課題】
しかし、従来技術では、電話機に音声認識機能を持たせるため、電話機の負荷が大きいという問題がある。かかる問題を考慮して、音声認識機能を有するサーバを通信ネットワーク上に配置し、このサーバによって会話内容を文章化する方法も考えられる。しかしながら、この方法では、作成された各々の文章がいずれの話者の発話内容であるかが分からず。会話内容を的確に把握できないという問題がある。
【0005】
それゆえに、この発明の主たる目的は、通信端末の負担を軽減できかつ会話内容を的確に把握することができる、会話内容記録装置を提供することである。
【0006】
【課題を解決するための手段】
この発明は、第1通信端末を使用する第1話者と第2通信端末を使用する第2話者との間の会話の内容を記録する会話内容記録装置において、端末識別子が付加された話者音声データを第1通信端末および第2通信端末の各々から受信する受信手段、受信手段によって受信された話者音声データを第1テキストデータに変換する変換手段、受信手段によって受信された話者音声データに付加された端末識別子を検出する検出手段、および変換手段によって変換された第1テキストデータに検出手段によって検出された端末識別子に対応する第2テキストデータを割り当てる割り当て手段を備えることを特徴とする、会話内容記録装置である。
【0007】
また、この発明は、第1通信端末を使用する第1話者と第2通信端末を使用する第2話者との間の会話の内容を会話内容記録装置によって記録する会話内容記録方法であって、第1通信端末は、(a1)話者音声の入力に応答して端末識別子をメモリから読み出し、(b1)入力された話者音声に対応する音声データを作成し、そして(c1)ステップ(a1)で読み出された端末識別子と前記ステップ(b1)で作成された音声データとを含む話者データを通信回線を通して前記第2通信端末および会話内容記録装置に送信し、第2通信端末は、(a2)話者音声の入力に応答して端末識別子をメモリから読み出し、(b2)入力された話者音声に対応する音声データを作成し、そして(c2)ステップ(a2)で読み出された端末識別子とステップ(b2)で作成された音声データとを含む話者データを通信回路を通して第1通信端末および会話内容記録装置に送信し、会話内容記録装置は、(a3)話者データを通信回路を通して受信し、(b3)ステップ(a3)によって受信された話者データに含まれる音声データを第1テキストデータに変換し、(c3)ステップ(b3)によって変換された第1テキストデータをメモリに格納し、(d3)ステップ(a3)によって受信された話者データから端末識別子を検出し、そして(e3)ステップ(c3)によってメモリに格納された第1テキストデータにステップ(d3)によって検出された端末識別子に対応する第2テキストデータを割り当てることを特徴とする、会話内容記録方法である。
【0008】
【作用】
この発明においては、第1話者が使用する第1通信端末と第2話者が使用する第2通信端末との間で話者データの送受信が行われるが、この話者データは会話内容記録装置にも送信される。話者データには、第1話者もしくは第2話者の発話内容を示す音声データと話者データが第1通信端末もしくは第2通信端末のどちらから送信されたかを識別するための端末識別子が含まれている。会話内容記録装置では、話者データに含まれる音声データを第1テキストデータに変換し、変換したテキストデータに、端末識別子に対応する第2テキストデータを割り当てる。そして、第1テキストデータに第2テキストデータが割り当てられたデータをテキストファイルとして第1話者が管理する端末に送信する。
【0009】
【発明の効果】
この発明によれば、第1通信端末と第2通信端末との間で行われる会話の内容を示す第1テキストデータに、話者を識別する識別子(端末識別子)に対応する第2テキストデータを付加したものをテキストファイルとする。したがって、第1通信端末と第2通信端末との間で行われる会話の内容を視覚的に確認することができる。また、音声データの第1テキストデータへの変換は第1通信端末および第2通信端末で行うのではなく、会話記録装置において行うので第1通信端末および第2通信端末のどちらにも負荷がかからない。
【0010】
この発明の上述の目的,その他の目的,特徴および利点は、図面を参照して行う以下の実施例の詳細な説明から一層明らかとなろう。
【0011】
【実施例】
図1を参照して、会話内容記録方法を適用した会話内容記録システム10は、インターネット100に接続された会話内容記憶装置としてのインターネット電話サーバ(以下単に「電話サーバ」と呼ぶ)200、電話サーバ200を介してインターネット100を通じた互いの通信が可能な2つのIP(Internet Protocol)電話機300およびインターネット100に接続可能な2つのPC(Personal Computer)400を含む。なお、一方のIP電話機300およびPC400は会社Aに配置され、他方のIP電話機300およびPC400は会社Bに配置される。
【0012】
電話サーバ200は、具体的には、図2に示すように構成されている。つまり、バス64にCPU(Central Processing Unit)50、キーボード52、ディスプレイ54、ネットワーク・コントローラ56、RAM(Random Access Memory)58およびHDD(Hard Disc Drive)60が接続されている。また、HDD60には後述するDB(Data Base)62が構築されている。
【0013】
PC400は、具体的には、図3に示すように構成されている。つまり、バス82にCPU70、キーボード72、ディスプレイ74、ネットワーク・コントローラ76、RAM78およびHDD80が接続されている。
【0014】
IP電話機300は、図4に示すように構成されている。発信者が受話器36を持ち上げた状態(オフ・フック状態)でキーパッド30から着信者の電話番号を入力すると、入力信号がプロセサ14とDSP(Digital Signal Processor)16とがASIC(Application Specified IC)によって一体に形成されたCPU12に入力される。すると、DSP16がRAM18から読み出した所定のデータを基に着信者のIP電話機300に対して接続を要求するためのIPパケット信号(以下単に「パケット」と呼ぶ)をTCP/IP(Transmission Control Protocol/Internet Protocol)にしたがって生成する。生成されたパケットは回線コントローラ32および通信コネクタ34を介してインターネット100に送出される。
【0015】
インターネット100に送出されたこのパケットは電話サーバ200を介して着信者のIP電話機300に送信される。
【0016】
接続要求のパケットは、着信者のIP電話機300に設けられた通信コネクタ34および回線コントローラ32を介してCPU12に与えられる。すると、プロセサ14は、RAM18から呼び出し音のPCM(Pulse Code Modulation)データを読み出し、読み出されたPCMデータをPCM CODEC20に与える。PCM CODEC20では、与えられたPCMデータをデコードし、デコードされた音声信号をAMP22に与える。音声信号はAMP22で増幅され、スピーカ38に与えられる。これによって、スピーカ38から呼び出し音が出力される。
【0017】
着信者が呼び出し音に応答して受話器36を持ち上げると、図示しないスイッチが働き、オフ・フック信号がCPU12に与えられる。すると、DSP16はRAM18から読み出したデータを元に、接続OKを示すためのパケットをTCP/IPにしたがって生成する。生成されたパケットは、回線コントローラ32および通信コネクタ34を介してインターネット100に送出され、発信者のIP電話機300に向けて転送される。発信者のIP電話機300が接続OKを示すパケットを受信することによって、発信者と着信者との間に通信が確立される。
【0018】
話者の発した音声はマイク28によって拾われ、音声信号となってAMP24に与えられる。音声信号はAMP24で増幅されてPCM CODEC20に与えられる。PCM CODEC20では音声信号がPCMデータにエンコードされ、エンコードされたPCMデータがCPU12に与えられる。すると、DSP16がPCMデータをTCP/IPにしたがったパケットにエンコードする。そして、パケットとなった音声データは、回線コントローラ32および通信コネクタ34を介してインターネット100に送出される。インターネット100に送出されたパケットは、所定のルートで送信先のIP電話機300に届けられる。
【0019】
送信先のIP電話機300では、パケットが、通信コネクタ34および回線コントローラ32を介してCPU12に与えられる。すると、DSP16がパケットをデコードしてPCMデータとする。このPCMデータはPCM CODEC20に与えられて音声信号にデコードされる。そして、デコードされた音声信号はAMP22で増幅されてスピーカ26に与えられる。これによって、スピーカ26から送信元の話者の音声が出力される。
【0020】
一方の話者が受話器36を置くと(オン・フック状態)、図示しないスイッチが働き、オン・フック信号がCPU12に与えられる。すると、DSP16はRAM18から読み出したデータを元に、通話終了を示すためのパケットをTCP/IPにしたがって生成する。生成されたパケットは、回線コントローラ32および通信コネクタ34を介してインターネット100に送出され、他方の話者のIP電話機300に向けて転送される。他方の話者のIP電話機300が通話終了を示すIPパケット信号を受信することによって通信が切断される。
【0021】
図5および図6は、会話内容記録システム10における、各種データ(パケット)のやり取りおよびパケットの内容を示すものである。図5のカッコ付き数字は図6のカッコ付き数字に対応している。
【0022】
図6に示すように会話内容記録システム10で送受信されるパケットには、パケットの種類を示す“パケットID”、パケットの送信元を示す“送信元アドレス”、パケットの送信先を示す“送信先アドレス”、“パケットの作成時間”およびパケットのメインである“内容”が含まれている。なお、“送信元アドレス”および“送信先アドレス”とはIPアドレスのことである。
【0023】
図5が示す通り、会話内容記録システム10において会話を行う場合には、まず、発信者側のIP電話機300から接続要求のパケットが送信される(<1>)。図6の<1>からも分かるように、このIPパケットは送信先が電話サーバ200である。電話サーバ200は、受信した接続要求を着信者のIP電話機300に転送する(<2>)。
【0024】
着信者が受話器36をオフ・フック状態にすると、接続OKを示すパケットが着信者のIP電話機300から電話サーバ200に対して送信され(<3>)、このパケットを受け取った電話サーバ200がパケットを発信者のIP電話機300に送信する(<4>)。これにより、発信者と着信者とで通信が確立される。
【0025】
会話データのIPパケットは、2つのIP電話機300の間でやり取りされるだけでなく(<5>,<7>)、電話サーバ200に対しても送信される(<6>,<8>)。このことにより、会話内容記憶システム10では、2つのIP電話機300間でやり取りされる会話の内容を電話サーバ200で把握することができる。
【0026】
一方のIP電話機300の受話器36が置かれると(オン・フック状態)、通話終了を示すパケットが他方のIP電話機300および電話サーバ200に対して送信される(<9>,<10>)。これによって、2人の話者の間の通信が終了する。
【0027】
上述したように、この発明の会話内容記憶システム10においては、会話内容を示すパケットがIP電話機300だけでなく、電話サーバ200に対しても送信される。これは、電話サーバ200において、会話の内容を把握するためである。電話サーバ200では会話データを含むパケットを元に、会話内容をテキストデータとして記録する。そして、通話終了後にこのテキストデータを本文に埋め込んだ電子メールを発信者のPC400に送信する。ただし、通話内容を記録した電子メールは着信者のPC400に対して送付してもよく、これら以外の電子メールを受信できる端末に送信してもよい。
【0028】
電子メールのメールアドレスは、IP電話機300の識別情報(IPアドレスなど)と対応付けられて、電話サーバ200のDB62に予め登録されている。また、DB62には、登録者の名前(苗字など)が話者識別テキストとして電子メールアドレスおよび識別情報に対応付けて記録されている。この登録者の名前は、会話内容がテキストデータとして記録される際に、会話の発話者を区別するために使用される。
【0029】
以下に、図8から図11を用いて、会話内容記憶システム10の実施時における、IP電話機300のCPU12および電話サーバ200のCPU50の動作を説明する。なお、図8および図9に示すフロー図に対応する制御プログラムはIP電話機300のCPU12によって実行され、図10および図11に示すフロー図に対応する制御プログラムは電話サーバ200のCPU50によって実行される。
【0030】
発信者が自分のIP電話機300の受話器36を持ち上げて(オフ・フック状態)着信者のIP電話機300の番号をダイアルすると、CPU12は図8のステップS1においてオン・フック状態でないと判断し、ステップS17において電話番号の入力があったと判断する。そして、ステップS19において、着信者のIP電話機300に対する接続要求のパケットを電話サーバ200に送信する。
【0031】
接続要求のパケットが送信されると、電話サーバ200では、CPU50が図9のステップS51においてパケットを受信したと判断し、続いてステップS53において接続要求であると判断する。図6に示したように、パケットにはパケットの種類を示すパケットIDが含まれており、このパケットIDを参照することによって、受信したパケットの種類、つまりこの場合、接続要求のパケットであることが判断できる。その他の種類のパケットについても同様である。
【0032】
そして、ステップS55では、接続指示パケットを着信者のIP電話機300に対して送信する。また、ステップS57では、発信者のIP電話機300のIPアドレスを電子メールアドレス(会話内容のテキストを送信するためのアドレス)を検索するための情報として取得し、RAM58に記録しておく。
【0033】
着信者のIP電話機300において、オン・フック状態(受話器が置かれた状態:図8のステップS1でYES)で、パケットを受信すると、ステップS3において接続指示であると判断し、ステップS5において、スピーカ38から呼び出し音を発生させる。着信者が呼び出し音に応答して受話器36を持ち上げてオフ・フック状態にすると、ステップS7においてオフ・フック状態であると判断し、ステップS9において、接続OKを示すパケットを電話サーバ200に送信する。
【0034】
接続OKを示すパケットが送信されると、電話サーバ200では、ステップS51においてパケット受信であると判断し、ステップS53において接続要求のパケットではないと判断し、そして、ステップS59において接続OKのパケットであると判断する。ステップS61では、発信側のIP電話機300に対して、接続OKを示すパケットを送信する。
【0035】
ステップS63では、空のテキストファイルを作成し、このファイルをオープンする。発信者と着信者との間で交わされた会話は、テキストデータに変換され、ステップS63でオープンしたテキストファイルに順次追加される。こうして作成されたテキストファイルは電子メールの本文とされ、通話の終了後に、指定されたアドレスに送信される。
【0036】
ステップS65では、電話サーバ200が保持している図示しない日付機能から本日の日付を示す日付テキスト70(図7参照)を取得し、ステップS63で作成したテキストファイルの先頭に追加する。
【0037】
ステップS67では、ワークエリアXを初期化する。このワークエリアXは、前回受信した会話内容を示すパケットが、発信者のIP電話機300および着信者のIP電話機300のどちらから送信されたかを記憶するためのものである。
【0038】
接続OKを示すパケットが送信されると(図10のステップS61)、発信者のIP電話機300では、図9のステップS31においてパケット受信であると判断し、続くステップS33において接続OKのパケットであると判断する。そして、ステップS43において着信者のIP電話機300との接続を確立する。
【0039】
こうして接続が確立された状態で、たとえば、着信者が、受話器36のスピーカ26に向かって、「はい、〇〇です。」と発話すると、着信者のIP電話機300では、図9のステップS21において、音声入力であると判断する。
【0040】
そして、ステップS23において、入力された音声信号をPCMデータにエンコードし、続いて、ステップS25およびステップS27では、PCMデータをさらにエンコードしてTCP/IPにしたがったパケットを作成する。
【0041】
ステップS25およびステップS27ではともに「はい、〇〇です。」という会話内容を示すパケットが作成されるが(ただし、「はい、〇〇です。」という会話内容が1つのパケットに収まるとは限らない)、ステップS25で作成されるパケットとステップS27で作成されるパケットでは、パケットの送信先が異なる。図6に示したように、パケットには送信元のIPアドレスと送信先のIPアドレスが含まれている。ステップS25およびステップS27で作成されるパケットでは、送信元のIPアドレスはともに着信者のIP電話機300のIPアドレスである。しかし、送信先のIPアドレスは、ステップS25で作成されるパケットにおいては発信者のIP電話機300のIPアドレスであり、ステップS27で作成されるパケットにおいては電話サーバ200のIPアドレスである。
【0042】
ステップS29では、発信者のIP電話機300宛のパケットと電話サーバ200宛のパケットとを送信する。
【0043】
会話内容(「はい、〇〇です。」)を含むパケットが発信者のIP電話機300に対して送信されると、発信者のIP電話機300では、図9のステップS31においてパケットの受信であると判断される。受信されたのは会話内容を含むパケットであり、接続OKを示すパケットでも、終話指示を含むパケットでもないので、ステップS33およびステップS35のそれぞれにおいてNOと判断される。そして、ステップS37において、受信したパケットをデコードしてPCMデータとし、ステップS39において、PCMデータを再生する。これによって、会話内容である「はい、〇〇です。」という音声が発信者のIP電話機300に設けられた受話器36のスピーカ26から出力される。
【0044】
一方、会話内容(「はい、〇〇です。」)を含むパケットが電話サーバ200に対して送信されると、電話サーバ200では、図10のステップS51において、パケット受信であると判断される。そして、受信したのは、接続要求を示すパケットでも、接続OKを示すパケットでもないので、ステップS53およびステップS59においてともにNOと判断され、図11のステップS71において、会話データであると判断される。
【0045】
ステップS72では、受信したパケットから送信元アドレス(着信者のIP電話機300のIPアドレス)を取得する。そして、ステップS73において、この送信元アドレスとワークエリアXに格納されている前回受信したパケットの送信元アドレスとを比較する。この通話において、はじめてパケットを受信した場合には、ワークエリアXは初期化されているので、今回の送信元アドレスとワークエリアXの内容とは一致しない。したがって、ステップS73ではNOと判断される。
【0046】
ステップS73においてNOと判断された場合には、ステップS75において、今回の送信元アドレスをワークエリアXに格納する。
【0047】
ステップS76では、送信元アドレスを元にDB62内で送信元アドレスに対応する話者識別テキスト72(図7参照)を検索する。そして、ステップS77において、検索された話者識別テキスト72をテキストファイルに行頭として追加する。図7の例では、話者識別テキスト72は、話者Aおよび話者Bとなっているが、上述したように、予め登録された苗字やIP電話機300のIPアドレスなどでもよい。
【0048】
ステップS78ではパケットから会話データを取得し、ステップS79において会話データをテキストデータに変換する。そして、このテキストデータをステップS81において、テキストファイルに会話内容74(図6参照)として追加する。
【0049】
発話の内容が長い場合には、1つのパケットに収まりきらず、複数のパケットに分割されて送信される。そのような場合は、パケットの送信元アドレスが同じパケットを連続して電話サーバ200が受信する場合がある。この場合には、電話サーバ200において、図11のステップS73において、送信元のIPアドレスとワークエリアXに格納されたIPアドレス(前回受信したパケットの送信元アドレス)とが等しいと判断される。そして、ステップS82において、パケットから会話データが取得され、ステップS83において会話データをテキストデータに変換し、さらに、ステップS85では、テキストファイルに話者識別テキスト72を追加することなく、テキストデータとなった会話内容をテキストファイルに追加する。
【0050】
このようにして、IP電話機300(会社A)とIP電話機300(会社B)との間で交わされた会話は電話サーバ200によって記録され、図7に示すようなテキストデータが作成されてゆく。
【0051】
一方の話者が受話器36を置いてオン・フック状態とすると、図8のステップS1において、オン・フック状態になったと判断し、パケット受信ではないので、ステップS3からステップS11に進む。
【0052】
ステップS11では、他方の話者のIP電話機300に対して通話の終了を示すための終話指示のパケットを作成し、ステップS13では、電話サーバ200に対して通話の終了を示すための終話指示のパケットを作成する。そして、ステップS15において、ステップS11およびステップS13で作成したパケットを送信する。
【0053】
終話指示のパケットが他方の話者のIP電話機300に対して送信されると、図9のステップS31において、パケットを受信したと判断する。そして、終話指示のパケットなので、ステップS33においてNOと判断され、ステップS35において終話指示であると判断される。すると、次に、ステップS41において終話処理を行う。
【0054】
一方、終話指示のパケットが電話サーバ200に対して送信されると、図10のステップS51においてパケット受信であると判断し、続いて、ステップS53、ステップS59およびステップS71(図11)のそれぞれでNOと判断され、ステップS87において通話の終了であると判断される。
【0055】
すると、ステップS89において、会話の内容を記録したテキストファイルをクローズする。そして、ステップS91では、図9のステップS57で取得しておいた発信者のIP電話機300のIPアドレスを元に、DB62で、予め発信側のIPアドレスに対応付けて登録されているPC400の電子メールアドレスを検索する。
【0056】
ステップS93では、テキストファイルの内容を本文とする電子メールを作成し、ステップS95においてこの電子メールを電子メールアドレスが示す送信先PC400に送信する。
【0057】
これにより、図7に示すように、会話を行った日付70、発話者72および発話内容74が記録された電子メールがPC400に届けられる。
【0058】
以上の説明から分かるように、この実施例の会話内容記録システム10によれば、会話の終了後に、会話の内容が話者の識別付きのテキストとして、予め指定しておいたPCなどの端末に送信される。したがって、会話の内容を記録できるとともに行われた会話の内容を的確に把握できる。また、会話データのテキストデータへの変換は電話サーバ200によって行われるので、電話機への負担が少ないし、変換プログラムを更新する際には電話サーバ200における変更だけで済むので手間がかからない。
【0059】
なお、上述した実施例は形態を種々に変更することができる。たとえば、上述の例では、会話の参加者をIP電話機300のユーザ(会社A)とIP電話機300のユーザ(会社B)との2人としたが、2人に限らず3人以上であってもよい。
【0060】
また、会話内容を記録した電子メールの宛先を発信者のPC400のみとしたが、会話への参加者全員のPCなどに送信するようにしてもよい。さらに、通話が終了した後に、それぞれのユーザが個別に電話サーバ200と通信を行って会話の内容を電子メールとして受信するか否かを選択できるようにしてもよい。また、このときに、電子メールの送信先を指定できるようにしてもよい。
【図面の簡単な説明】
【図1】この発明の一実施例の全体構成を示す図解図である。
【図2】図1の実施例における電話サーバの概略構成を示すブロック図である。
【図3】図1の実施例におけるPCの概略構成を示すブロック図である。
【図4】図1の実施例におけるIP電話機の概略構成を示すブロック図である。
【図5】図1の実施例において送受信される各種データを示す図解図である。
【図6】図1の実施例において送受信される各種データの内容を示す図解図である。
【図7】図1の実施例において電話サーバからPCに送信される電子メールの内容を示す図解図である。
【図8】図1の実施例におけるIP電話機のCPUの動作を示すフロー図である。
【図9】図7のフロー図に続くフロー図である。
【図10】図1の実施例における電話サーバのCPUの動作を示すフロー図である。
【図11】図9のフロー図に続くフロー図である。
【符号の説明】
10 …会話内容記録システム
12,50,70 …CPU
62 …DB
100 …インターネット
200 …電話サーバ
300 …IP電話機
400 …PC
[0001]
[Industrial application fields]
The present invention relates to a conversation content recording apparatus, and in particular, for example, a conversation content record for recording the content of a conversation between a first speaker using a first communication terminal and a second speaker using a second communication terminal. The present invention relates to an apparatus and a conversation content recording method.
[0002]
[Prior art]
An example of a conventional conversation content recording apparatus is disclosed in Patent Document 1. This prior art is intended to document the content of a telephone conversation by providing a telephone with a voice recognition function. As a result, the conversation contents can be visually grasped.
[0003]
[Patent Document 1]
JP-A-6-2553057
[0004]
[Problems to be solved by the invention]
However, the prior art has a problem that the load on the telephone is heavy because the telephone has a voice recognition function. Considering such a problem, a method in which a server having a voice recognition function is arranged on a communication network and the conversation contents are converted into sentences by this server can be considered. However, in this method, it is not known which speaker's utterance content each created sentence is. There is a problem that the content of the conversation cannot be accurately grasped.
[0005]
Therefore, a main object of the present invention is to provide a conversation content recording apparatus that can reduce the burden on the communication terminal and can accurately grasp the conversation content.
[0006]
[Means for Solving the Problems]
The present invention relates to a conversation content recording apparatus for recording the contents of a conversation between a first speaker using a first communication terminal and a second speaker using a second communication terminal, to which a terminal identifier is added. Receiving means for receiving speaker voice data from each of the first communication terminal and the second communication terminal, conversion means for converting speaker voice data received by the receiving means to first text data, and speaker received by the receiving means Detection means for detecting a terminal identifier added to voice data, and assignment means for assigning second text data corresponding to the terminal identifier detected by the detection means to the first text data converted by the conversion means. It is a conversation content recording device.
[0007]
The present invention is also a conversation content recording method for recording a conversation content between a first speaker using a first communication terminal and a second speaker using a second communication terminal by a conversation content recording device. The first communication terminal (a1) reads the terminal identifier from the memory in response to the input of the speaker voice, (b1) creates voice data corresponding to the input speaker voice, and (c1) step Speaker data including the terminal identifier read in (a1) and the voice data created in step (b1) is transmitted to the second communication terminal and the conversation content recording device through a communication line, and the second communication terminal (A2) Reads the terminal identifier from the memory in response to the input of the speaker voice, (b2) creates voice data corresponding to the input speaker voice, and (c2) reads it in step (a2) Terminal identifier Speaker data including the voice data created in step (b2) is transmitted to the first communication terminal and the conversation content recording device through the communication circuit, and the conversation content recording device receives (a3) the speaker data through the communication circuit. (B3) The speech data included in the speaker data received in step (a3) is converted into first text data, and (c3) the first text data converted in step (b3) is stored in the memory. (D3) a terminal identifier detected from the speaker data received by step (a3), and (e3) a terminal detected by step (d3) in the first text data stored in the memory by step (c3) A conversation content recording method characterized by assigning second text data corresponding to an identifier.
[0008]
[Action]
In the present invention, the speaker data is transmitted and received between the first communication terminal used by the first speaker and the second communication terminal used by the second speaker. Also sent to the device. The speaker data includes a terminal identifier for identifying whether the voice data indicating the utterance contents of the first speaker or the second speaker and the speaker data are transmitted from the first communication terminal or the second communication terminal. include. In the conversation content recording device, voice data included in the speaker data is converted into first text data, and second text data corresponding to the terminal identifier is assigned to the converted text data. Then, the data in which the second text data is assigned to the first text data is transmitted as a text file to the terminal managed by the first speaker.
[0009]
【The invention's effect】
According to this invention, the second text data corresponding to the identifier (terminal identifier) for identifying the speaker is added to the first text data indicating the content of the conversation performed between the first communication terminal and the second communication terminal. The added file is a text file. Therefore, it is possible to visually confirm the content of the conversation performed between the first communication terminal and the second communication terminal. Moreover, since the conversion of the voice data into the first text data is not performed in the first communication terminal and the second communication terminal but in the conversation recording device, neither the first communication terminal nor the second communication terminal is loaded. .
[0010]
The above object, other objects, features and advantages of the present invention will become more apparent from the following detailed description of embodiments with reference to the drawings.
[0011]
【Example】
Referring to FIG. 1, a conversation content recording system 10 to which a conversation content recording method is applied includes an Internet telephone server (hereinafter simply referred to as “telephone server”) 200 as a conversation content storage device connected to the Internet 100, a telephone server. Two IP (Internet Protocol) telephones 300 capable of communicating with each other through the Internet 100 via the Internet 200 and two PCs (Personal Computers) 400 connectable to the Internet 100 are included. One IP telephone 300 and PC 400 are arranged in company A, and the other IP telephone 300 and PC 400 are arranged in company B.
[0012]
Specifically, the telephone server 200 is configured as shown in FIG. That is, a CPU (Central Processing Unit) 50, a keyboard 52, a display 54, a network controller 56, a RAM (Random Access Memory) 58, and an HDD (Hard Disc Drive) 60 are connected to the bus 64. Further, a DB (Data Base) 62 described later is constructed in the HDD 60.
[0013]
Specifically, the PC 400 is configured as shown in FIG. That is, the CPU 70, the keyboard 72, the display 74, the network controller 76, the RAM 78, and the HDD 80 are connected to the bus 82.
[0014]
The IP telephone 300 is configured as shown in FIG. When the caller inputs the telephone number of the callee from the keypad 30 with the handset 36 lifted (off-hook state), the input signal is a processor 14 and a DSP (Digital Signal Processor) 16 and an ASIC (Application Specified IC). Are input to the CPU 12 formed integrally. Then, an IP packet signal (hereinafter simply referred to as “packet”) for requesting connection to the IP telephone 300 of the called party based on predetermined data read out from the RAM 18 by the DSP 16 is transmitted by TCP / IP (Transmission Control Protocol / It is generated according to (Internet Protocol). The generated packet is sent to the Internet 100 via the line controller 32 and the communication connector 34.
[0015]
This packet transmitted to the Internet 100 is transmitted to the IP telephone 300 of the called party via the telephone server 200.
[0016]
The connection request packet is given to the CPU 12 via the communication connector 34 and the line controller 32 provided in the IP telephone 300 of the called party. Then, the processor 14 reads PCM (Pulse Code Modulation) data of the ringing tone from the RAM 18 and supplies the read PCM data to the PCM CODEC 20. The PCM CODEC 20 decodes the given PCM data and gives the decoded audio signal to the AMP 22. The audio signal is amplified by the AMP 22 and given to the speaker 38. As a result, a ringing tone is output from the speaker 38.
[0017]
When the callee lifts the handset 36 in response to the ringing tone, a switch (not shown) is activated and an off-hook signal is given to the CPU 12. Then, the DSP 16 generates a packet for indicating connection OK based on the data read from the RAM 18 according to TCP / IP. The generated packet is sent to the Internet 100 via the line controller 32 and the communication connector 34 and transferred to the IP telephone 300 of the caller. When the caller's IP telephone 300 receives a packet indicating connection OK, communication is established between the caller and the callee.
[0018]
The voice uttered by the speaker is picked up by the microphone 28 and supplied to the AMP 24 as a voice signal. The audio signal is amplified by the AMP 24 and supplied to the PCM CODEC 20. In the PCM CODEC 20, an audio signal is encoded into PCM data, and the encoded PCM data is given to the CPU 12. Then, the DSP 16 encodes the PCM data into a packet according to TCP / IP. The voice data that has become a packet is sent to the Internet 100 via the line controller 32 and the communication connector 34. The packet sent to the Internet 100 is delivered to the destination IP telephone 300 through a predetermined route.
[0019]
In the destination IP telephone 300, the packet is given to the CPU 12 via the communication connector 34 and the line controller 32. Then, the DSP 16 decodes the packet into PCM data. This PCM data is given to the PCM CODEC 20 and decoded into an audio signal. The decoded audio signal is amplified by the AMP 22 and supplied to the speaker 26. As a result, the voice of the sender speaker is output from the speaker 26.
[0020]
When one speaker hangs up the handset 36 (on-hook state), a switch (not shown) works and an on-hook signal is given to the CPU 12. Then, the DSP 16 generates a packet for indicating the end of the call according to TCP / IP based on the data read from the RAM 18. The generated packet is sent to the Internet 100 via the line controller 32 and the communication connector 34, and transferred to the IP phone 300 of the other speaker. Communication is disconnected when the other speaker's IP telephone 300 receives the IP packet signal indicating the end of the call.
[0021]
5 and 6 show various data (packets) exchanges and packet contents in the conversation content recording system 10. FIG. The numbers in parentheses in FIG. 5 correspond to the numbers in parentheses in FIG.
[0022]
As shown in FIG. 6, a packet transmitted and received by the conversation content recording system 10 includes a “packet ID” indicating the type of packet, a “source address” indicating the packet source, and a “transmission destination” indicating the packet destination. “Address”, “packet creation time” and “content” which is the main of the packet are included. Note that “source address” and “destination address” are IP addresses.
[0023]
As shown in FIG. 5, when a conversation is performed in the conversation content recording system 10, first, a connection request packet is transmitted from the IP telephone 300 on the caller side (<1>). As can be seen from <1> in FIG. 6, the destination of this IP packet is the telephone server 200. The telephone server 200 transfers the received connection request to the IP telephone 300 of the called party (<2>).
[0024]
When the callee puts the handset 36 in an off-hook state, a packet indicating connection OK is transmitted from the callee's IP telephone 300 to the telephone server 200 (<3>), and the telephone server 200 that receives this packet receives the packet. Is transmitted to the IP telephone 300 of the caller (<4>). As a result, communication is established between the caller and the callee.
[0025]
The IP packet of conversation data is not only exchanged between the two IP telephones 300 (<5>, <7>), but is also transmitted to the telephone server 200 (<6>, <8>). . Thus, in the conversation content storage system 10, the telephone server 200 can grasp the contents of the conversation exchanged between the two IP telephones 300.
[0026]
When the handset 36 of one IP telephone 300 is placed (on-hook state), a packet indicating the end of the call is transmitted to the other IP telephone 300 and the telephone server 200 (<9>, <10>). This terminates the communication between the two speakers.
[0027]
As described above, in the conversation content storage system 10 of the present invention, a packet indicating the conversation content is transmitted not only to the IP telephone 300 but also to the telephone server 200. This is because the telephone server 200 grasps the content of the conversation. The telephone server 200 records the conversation content as text data based on the packet including the conversation data. Then, after the call ends, an e-mail in which the text data is embedded in the body is transmitted to the sender's PC 400. However, the electronic mail in which the contents of the call are recorded may be sent to the recipient's PC 400, or may be sent to a terminal that can receive other electronic mail.
[0028]
The mail address of the e-mail is registered in advance in the DB 62 of the telephone server 200 in association with identification information (such as an IP address) of the IP telephone 300. In the DB 62, the registrant's name (such as the last name) is recorded as speaker identification text in association with the e-mail address and the identification information. This registrant's name is used to distinguish the speaker of the conversation when the conversation content is recorded as text data.
[0029]
The operations of the CPU 12 of the IP telephone 300 and the CPU 50 of the telephone server 200 when the conversation content storage system 10 is implemented will be described below with reference to FIGS. The control program corresponding to the flowcharts shown in FIGS. 8 and 9 is executed by CPU 12 of IP telephone 300, and the control program corresponding to the flowcharts shown in FIGS. 10 and 11 is executed by CPU 50 of telephone server 200. .
[0030]
When the caller lifts the handset 36 of his / her IP phone 300 (off-hook state) and dials the number of the callee's IP phone 300, the CPU 12 determines in step S1 of FIG. In S17, it is determined that a telephone number has been input. In step S 19, a packet requesting connection to the IP telephone 300 of the called party is transmitted to the telephone server 200.
[0031]
When the connection request packet is transmitted, the telephone server 200 determines that the CPU 50 has received the packet in step S51 of FIG. 9, and then determines that the connection request is in step S53. As shown in FIG. 6, the packet includes a packet ID indicating the type of the packet. By referring to the packet ID, the type of the received packet, that is, in this case, the packet is a connection request packet. Can be judged. The same applies to other types of packets.
[0032]
In step S55, a connection instruction packet is transmitted to the IP telephone 300 of the called party. In step S57, the IP address of the caller's IP telephone 300 is acquired as information for searching for an e-mail address (address for transmitting the text of the conversation content) and recorded in the RAM 58.
[0033]
When the IP telephone 300 of the called party receives a packet in the on-hook state (state in which the handset is placed: YES in step S1 in FIG. 8), it is determined in step S3 that it is a connection instruction, and in step S5, A ringing tone is generated from the speaker 38. When the callee picks up the handset 36 in response to the ringing tone and puts it in the off-hook state, it is determined in step S7 that it is in the off-hook state. .
[0034]
When a packet indicating connection OK is transmitted, the telephone server 200 determines that the packet is received in step S51, determines that the packet is not a connection request packet in step S53, and uses a connection OK packet in step S59. Judge that there is. In step S61, a packet indicating connection OK is transmitted to IP phone 300 on the caller side.
[0035]
In step S63, an empty text file is created and this file is opened. The conversation exchanged between the caller and the callee is converted into text data and sequentially added to the text file opened in step S63. The text file thus created is used as the body of the e-mail, and is transmitted to the designated address after the call is finished.
[0036]
In step S65, the date text 70 (see FIG. 7) indicating today's date is acquired from the date function (not shown) held by the telephone server 200, and added to the head of the text file created in step S63.
[0037]
In step S67, work area X is initialized. This work area X is for storing whether the packet indicating the content of the conversation received last time is transmitted from the IP telephone 300 of the caller or the IP telephone 300 of the callee.
[0038]
When a packet indicating connection OK is transmitted (step S61 in FIG. 10), the caller IP telephone 300 determines that the packet is received in step S31 in FIG. 9, and in step S33, the packet is a connection OK. Judge. In step S43, connection with the IP telephone 300 of the called party is established.
[0039]
With the connection established in this way, for example, when the called party speaks “Yes, OO” toward the speaker 26 of the handset 36, the called party's IP telephone 300 causes the incoming call to be performed in step S 21 of FIG. 9. It is determined that the input is voice.
[0040]
In step S23, the input audio signal is encoded into PCM data. Subsequently, in steps S25 and S27, the PCM data is further encoded to create a packet according to TCP / IP.
[0041]
In both step S25 and step S27, a packet indicating the conversation content “Yes, OO” is created (however, the conversation content “Yes, OO” is not necessarily contained in one packet. ), The packet created in step S25 is different from the packet created in step S27. As shown in FIG. 6, the packet includes a source IP address and a destination IP address. In the packets created in steps S25 and S27, the IP address of the transmission source is the IP address of the IP telephone 300 of the called party. However, the destination IP address is the IP address of the caller's IP telephone 300 in the packet created in step S25, and the IP address of the telephone server 200 in the packet created in step S27.
[0042]
In step S29, a packet addressed to the caller's IP telephone 300 and a packet addressed to the telephone server 200 are transmitted.
[0043]
When a packet including the conversation content (“Yes, OO”) is transmitted to the caller's IP telephone 300, the caller's IP telephone 300 receives the packet in step S31 of FIG. To be judged. The received packet is a packet including the conversation content, and is neither a packet indicating connection OK nor a packet including an end-of-call instruction. Therefore, NO is determined in each of step S33 and step S35. In step S37, the received packet is decoded into PCM data. In step S39, the PCM data is reproduced. As a result, the voice “Yes, OO”, which is the content of the conversation, is output from the speaker 26 of the handset 36 provided in the caller's IP telephone 300.
[0044]
On the other hand, when a packet including the conversation content (“Yes, OO”) is transmitted to the telephone server 200, the telephone server 200 determines that the packet is received in step S51 of FIG. Since the received packet is neither a connection request packet nor a connection OK packet, NO is determined in both step S53 and step S59, and it is determined in step S71 in FIG. 11 that the data is conversation data. .
[0045]
In step S72, the source address (the IP address of the IP telephone 300 of the called party) is acquired from the received packet. In step S73, the transmission source address is compared with the transmission source address of the previously received packet stored in the work area X. In this call, when a packet is received for the first time, the work area X is initialized, so the current source address does not match the contents of the work area X. Therefore, NO is determined in the step S73.
[0046]
If NO is determined in step S73, the current transmission source address is stored in work area X in step S75.
[0047]
In step S76, the speaker identification text 72 (see FIG. 7) corresponding to the transmission source address is searched in the DB 62 based on the transmission source address. In step S77, the searched speaker identification text 72 is added to the text file as the beginning of a line. In the example of FIG. 7, the speaker identification text 72 is speaker A and speaker B. However, as described above, the last name registered in advance or the IP address of the IP telephone 300 may be used.
[0048]
In step S78, conversation data is acquired from the packet, and in step S79, the conversation data is converted into text data. In step S81, the text data is added as a conversation content 74 (see FIG. 6) to the text file.
[0049]
When the content of the utterance is long, it does not fit in one packet, but is divided into a plurality of packets and transmitted. In such a case, the telephone server 200 may continuously receive packets having the same packet source address. In this case, the telephone server 200 determines that the IP address of the transmission source and the IP address stored in the work area X (the transmission source address of the previously received packet) are equal in step S73 of FIG. In step S82, conversation data is acquired from the packet. In step S83, the conversation data is converted into text data. Further, in step S85, text data is obtained without adding the speaker identification text 72 to the text file. Add the conversation contents to the text file.
[0050]
In this manner, the conversation exchanged between IP telephone 300 (company A) and IP telephone 300 (company B) is recorded by telephone server 200, and text data as shown in FIG. 7 is created.
[0051]
If one speaker puts the handset 36 into the on-hook state, it is determined in step S1 in FIG. 8 that the on-hook state has been reached, and no packet reception has occurred, so the process proceeds from step S3 to step S11.
[0052]
In step S11, an end-call instruction packet is generated to indicate the end of the call to the other speaker's IP telephone 300. In step S13, the end-call is displayed to indicate the end of the call to the telephone server 200. Create a packet of instructions. In step S15, the packet created in steps S11 and S13 is transmitted.
[0053]
When the end-call instruction packet is transmitted to the IP phone 300 of the other speaker, it is determined in step S31 in FIG. 9 that the packet has been received. Since it is an end-of-call instruction packet, NO is determined in step S33, and it is determined in step S35 that it is an end-of-call instruction. Then, in step S41, a call termination process is performed.
[0054]
On the other hand, when the end-call instruction packet is transmitted to the telephone server 200, it is determined that the packet is received in step S51 of FIG. 10, and then each of steps S53, S59, and S71 (FIG. 11) is performed. Is determined as NO, and it is determined in step S87 that the call has ended.
[0055]
Then, in step S89, the text file that records the contents of the conversation is closed. In step S91, based on the IP address of the caller's IP telephone 300 acquired in step S57 of FIG. 9, the electronic data of the PC 400 registered in advance in the DB 62 in association with the IP address of the caller. Search for an email address.
[0056]
In step S93, an e-mail having the text file content as a body is created, and in step S95, this e-mail is transmitted to the destination PC 400 indicated by the e-mail address.
[0057]
As a result, as shown in FIG. 7, an e-mail in which the date 70, the speaker 72, and the utterance content 74 in which the conversation is performed is recorded is delivered to the PC 400.
[0058]
As can be seen from the above description, according to the conversation content recording system 10 of this embodiment, after the conversation is finished, the conversation content is sent to a terminal such as a PC that has been designated in advance as text with speaker identification. Sent. Therefore, the contents of the conversation can be recorded and the contents of the conversation that has been performed can be accurately grasped. In addition, since the conversion of the conversation data into the text data is performed by the telephone server 200, the burden on the telephone is small, and only a change in the telephone server 200 is required when updating the conversion program, so that it is not time-consuming.
[0059]
The embodiment described above can be variously modified. For example, in the above example, the number of participants in the conversation is two users, the IP telephone 300 user (company A) and the IP telephone 300 user (company B). Also good.
[0060]
In addition, although the destination of the e-mail recording the conversation content is set only to the sender's PC 400, it may be transmitted to the PCs of all participants in the conversation. Further, after the call is ended, each user may individually communicate with the telephone server 200 to select whether or not to receive the content of the conversation as an e-mail. At this time, the destination of the e-mail may be designated.
[Brief description of the drawings]
FIG. 1 is an illustrative view showing an overall configuration of an embodiment of the present invention;
FIG. 2 is a block diagram showing a schematic configuration of a telephone server in the embodiment of FIG.
3 is a block diagram showing a schematic configuration of a PC in the embodiment of FIG.
4 is a block diagram showing a schematic configuration of an IP telephone in the embodiment of FIG.
FIG. 5 is an illustrative view showing various data transmitted and received in the embodiment of FIG. 1;
6 is an illustrative view showing contents of various data transmitted and received in the embodiment of FIG. 1; FIG.
7 is an illustrative view showing the contents of an electronic mail transmitted from the telephone server to the PC in the embodiment of FIG. 1; FIG.
FIG. 8 is a flowchart showing the operation of the CPU of the IP telephone in the embodiment of FIG.
FIG. 9 is a flowchart following the flowchart of FIG. 7;
FIG. 10 is a flowchart showing the operation of the CPU of the telephone server in the embodiment of FIG.
FIG. 11 is a flowchart following the flowchart of FIG. 9;
[Explanation of symbols]
10 ... Conversation content recording system
12, 50, 70 ... CPU
62… DB
100 ... Internet
200 ... telephone server
300 ... IP phone
400 ... PC

Claims (5)

第1通信端末を使用する第1話者と第2通信端末を使用する第2話者との間の会話の内容を記録する会話内容記録装置において、
端末識別子が付加された話者音声データを前記第1通信端末および前記第2通信端末の各々から受信する受信手段、
前記受信手段によって受信された話者音声データを第1テキストデータに変換する変換手段、
前記受信手段によって受信された話者音声データに付加された端末識別子を検出する検出手段、および
前記変換手段によって変換された第1テキストデータに前記検出手段によって検出された端末識別子に対応する第2テキストデータを割り当てる割り当て手段を備えることを特徴とする、会話内容記録装置。
In a conversation content recording device for recording the content of a conversation between a first speaker using a first communication terminal and a second speaker using a second communication terminal,
Receiving means for receiving speaker voice data to which a terminal identifier is added from each of the first communication terminal and the second communication terminal;
Conversion means for converting speaker voice data received by the receiving means into first text data;
Detecting means for detecting a terminal identifier added to the speaker voice data received by the receiving means; and second corresponding to the terminal identifier detected by the detecting means in the first text data converted by the converting means. A conversation content recording apparatus comprising an assigning means for assigning text data.
前記第1テキストデータおよび前記第2テキストデータを含むテキストファイルを作成する作成手段、および
前記作成手段によって作成されたテキストファイルを前記第1話者によって管理される通信端末に送信する送信手段をさらに備える、請求項1記載の会話内容記録装置。
Creating means for creating a text file including the first text data and the second text data; and transmitting means for sending the text file created by the creating means to a communication terminal managed by the first speaker. The conversation content recording device according to claim 1, further comprising:
第1通信端末を使用する第1話者と第2通信端末を使用する第2話者との間の会話の内容を記録する会話内容記録装置によって実行される会話内容記録プログラムにおいて、
端末識別子が付加された話者音声データを前記第1通信端末および前記第2通信端末の各々から受信する受信ステップ、
前記受信ステップによって受信された話者音声データを第1テキストデータに変換する変換ステップ、
前記受信ステップによって受信された話者音声データに付加された端末識別子を検出する検出ステップ、および
前記変換ステップによって変換された第1テキストデータに前記検出ステップによって検出された端末識別子に対応する第2テキストデータを割り当てる割り当てステップを備えることを特徴とする、会話内容記録プログラム。
In a conversation content recording program executed by a conversation content recording device for recording the content of a conversation between a first speaker using a first communication terminal and a second speaker using a second communication terminal,
A reception step of receiving speaker voice data to which a terminal identifier is added from each of the first communication terminal and the second communication terminal;
A converting step of converting the speaker voice data received by the receiving step into first text data;
A detecting step for detecting a terminal identifier added to the speaker voice data received by the receiving step; and a second corresponding to the terminal identifier detected by the detecting step in the first text data converted by the converting step. A conversation content recording program comprising an assigning step for assigning text data.
第1通信端末を使用する第1話者と第2通信端末を使用する第2話者との間の会話の内容を会話内容記録装置によって記録する会話内容記録方法であって、
(a)端末識別子が付加された話者音声データを前記第1通信端末および前記第2通信端末の各々から受信し、
(b)前記ステップ(a)によって受信された話者音声データを第1テキストデータに変換し、
(c)前記ステップ(a)によって受信された話者音声データに付加された端末識別子を検出し、そして
(d)前記ステップ(b)によって変換された第1テキストデータに前記ステップ(c)によって検出された端末識別子に対応する第2テキストデータを割り当てることを特徴とする、会話内容記録方法。
A conversation content recording method for recording a conversation content between a first speaker using a first communication terminal and a second speaker using a second communication terminal by a conversation content recording device,
(A) receiving speaker voice data to which a terminal identifier is added from each of the first communication terminal and the second communication terminal;
(B) converting the speaker voice data received in the step (a) into first text data;
(C) detecting a terminal identifier added to the speaker voice data received by the step (a), and (d) converting the first text data converted by the step (b) into the first text data by the step (c). A method for recording conversation content, comprising assigning second text data corresponding to a detected terminal identifier.
第1通信端末を使用する第1話者と第2通信端末を使用する第2話者との間の会話の内容を会話内容記録装置によって記録する会話内容記録方法であって、
前記第1通信端末は、
(a1)話者音声の入力に応答して端末識別子をメモリから読み出し、
(b1)入力された話者音声に対応する音声データを作成し、そして
(c1)前記ステップ(a1)で読み出された端末識別子と前記ステップ(b1)で作成された音声データとを含む話者データを通信回線を通して前記第2通信端末および前記会話内容記録装置に送信し、
前記第2通信端末は、
(a2)話者音声の入力に応答して端末識別子をメモリから読み出し、
(b2)入力された話者音声に対応する音声データを作成し、そして
(c2)前記ステップ(a2)で読み出された端末識別子と前記ステップ(b2)で作成された音声データとを含む話者データを通信回路を通して前記第1通信端末および前記会話内容記録装置に送信し、
前記会話内容記録装置は、
(a3)話者データを通信回路を通して受信し、
(b3)前記ステップ(a3)によって受信された話者データに含まれる音声データを第1テキストデータに変換し、
(c3)前記ステップ(b3)によって変換された第1テキストデータをメモリに格納し、
(d3)前記ステップ(a3)によって受信された話者データから端末識別子を検出し、そして
(e3)前記ステップ(c3)によってメモリに格納された第1テキストデータに前記ステップ(d3)によって検出された端末識別子に対応する第2テキストデータを割り当てることを特徴とする、会話内容記録方法。
A conversation content recording method for recording a conversation content between a first speaker using a first communication terminal and a second speaker using a second communication terminal by a conversation content recording device,
The first communication terminal is
(A1) Reading the terminal identifier from the memory in response to the input of the speaker voice,
(B1) Create speech data corresponding to the input speaker speech, and (c1) talk including the terminal identifier read in step (a1) and the speech data created in step (b1) Transmitting person data to the second communication terminal and the conversation content recording device through a communication line,
The second communication terminal is
(A2) Reading the terminal identifier from the memory in response to the input of the speaker voice,
(B2) Create speech data corresponding to the input speaker speech, and (c2) talk including the terminal identifier read in step (a2) and the speech data created in step (b2) Person data is transmitted to the first communication terminal and the conversation content recording device through a communication circuit,
The conversation content recording device comprises:
(A3) receiving speaker data through a communication circuit;
(B3) converting voice data included in the speaker data received in the step (a3) into first text data;
(C3) storing the first text data converted in the step (b3) in a memory;
(D3) a terminal identifier is detected from the speaker data received by the step (a3), and (e3) the first text data stored in the memory by the step (c3) is detected by the step (d3). A method for recording conversation content, comprising assigning second text data corresponding to a terminal identifier.
JP2003172824A 2003-06-18 2003-06-18 Device and method for recording conversation content Pending JP2005012391A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003172824A JP2005012391A (en) 2003-06-18 2003-06-18 Device and method for recording conversation content

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003172824A JP2005012391A (en) 2003-06-18 2003-06-18 Device and method for recording conversation content

Publications (1)

Publication Number Publication Date
JP2005012391A true JP2005012391A (en) 2005-01-13

Family

ID=34096813

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003172824A Pending JP2005012391A (en) 2003-06-18 2003-06-18 Device and method for recording conversation content

Country Status (1)

Country Link
JP (1) JP2005012391A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100676906B1 (en) 2005-10-26 2007-02-01 이필재 Method of managing for telecommunication message of mobile phone and apparatus therefor
JP2008060776A (en) * 2006-08-30 2008-03-13 Nec Corp Portable terminal device, recording notification method thereby, and communication system
JP2011065516A (en) * 2009-09-18 2011-03-31 Nec Corp Device and method for converting character string
US8289360B2 (en) 2006-04-18 2012-10-16 Samsung Electronics Co., Ltd. Portable terminal and method for providing video communication service using the same

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100676906B1 (en) 2005-10-26 2007-02-01 이필재 Method of managing for telecommunication message of mobile phone and apparatus therefor
US8289360B2 (en) 2006-04-18 2012-10-16 Samsung Electronics Co., Ltd. Portable terminal and method for providing video communication service using the same
JP2008060776A (en) * 2006-08-30 2008-03-13 Nec Corp Portable terminal device, recording notification method thereby, and communication system
JP4655008B2 (en) * 2006-08-30 2011-03-23 日本電気株式会社 Recording notification method by portable terminal device, portable terminal device, and communication system
JP2011065516A (en) * 2009-09-18 2011-03-31 Nec Corp Device and method for converting character string

Similar Documents

Publication Publication Date Title
US8805688B2 (en) Communications using different modalities
US20070047726A1 (en) System and method for providing contextual information to a called party
JP2000216910A (en) Telephone terminal equipment
US7688967B2 (en) Dynamic speed dial number mapping
US20080170678A1 (en) Signalling method taking account of the reason for the call
CA2958354C (en) Customer premises call handling
US7965822B2 (en) Telephony dialing using speech recognition
KR20050088397A (en) Method and apparatus for providing a voiced call alert
US20070217396A1 (en) Method and apparatus for making VoIP connection through network
JP2005012391A (en) Device and method for recording conversation content
JP2009147399A (en) Telephone relaying device, telephone relaying method, and program for telephone relay
JP2005333588A (en) Network terminal
JP4232453B2 (en) Call voice text conversion system
JP2016134819A (en) Telephone system capable of caller information notification through guidance and operation method therefor
JP2008022380A (en) Communication control unit, communication control method, and program for communication control
JP4690274B2 (en) Message mail transmission system, message mail transmission method, program, and IP telephone adapter
JP2005073181A (en) Ip telephone set
JP4017315B2 (en) Voice mail service method and voice mail service system
JP2006042175A (en) Call system, call method, call program, and storing medium
JP2009049559A (en) Message repeater, and message relay system and program
KR100377989B1 (en) A Data communication device without extra IP address and the method thereof
JP4177432B2 (en) Program storage medium of communication terminal
JP2021068942A (en) Outgoing call control device, telephone system, outgoing call control method, and outgoing call control program
JP2002330224A (en) Method and system for transmitting electronic mail of voice message
JP2012044294A (en) Recorded message reproducing device, recorded message reproducing method and recorded message reproducing program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060412

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20080428

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080513

A521 Written amendment

Effective date: 20080714

Free format text: JAPANESE INTERMEDIATE CODE: A523

A711 Notification of change in applicant

Effective date: 20080801

Free format text: JAPANESE INTERMEDIATE CODE: A712

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20080829

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090519

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090721

A02 Decision of refusal

Effective date: 20090811

Free format text: JAPANESE INTERMEDIATE CODE: A02