JP7172299B2 - 情報処理装置、情報処理方法、プログラムおよび情報処理システム - Google Patents

情報処理装置、情報処理方法、プログラムおよび情報処理システム Download PDF

Info

Publication number
JP7172299B2
JP7172299B2 JP2018162690A JP2018162690A JP7172299B2 JP 7172299 B2 JP7172299 B2 JP 7172299B2 JP 2018162690 A JP2018162690 A JP 2018162690A JP 2018162690 A JP2018162690 A JP 2018162690A JP 7172299 B2 JP7172299 B2 JP 7172299B2
Authority
JP
Japan
Prior art keywords
person
name
voiceprint information
utterance
database
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018162690A
Other languages
English (en)
Other versions
JP2020035292A (ja
Inventor
崇史 梶原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Oki Electric Industry Co Ltd
Original Assignee
Oki Electric Industry Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Oki Electric Industry Co Ltd filed Critical Oki Electric Industry Co Ltd
Priority to JP2018162690A priority Critical patent/JP7172299B2/ja
Publication of JP2020035292A publication Critical patent/JP2020035292A/ja
Application granted granted Critical
Publication of JP7172299B2 publication Critical patent/JP7172299B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Description

本発明は、情報処理装置、情報処理方法、プログラムおよび情報処理システムに関する。
近年、音声認識技術および声紋認識技術を活用する、議事録作成技術の研究が進められている。例えば、特許文献1には、会議に参加する人物名と声紋情報を事前にデータベースに登録しておき、会議における発言のテキストデータに、当該発言から得られる声紋情報に関連付けてデータベースに登録された人物名を付する技術が記載されている。また、特許文献2には、自己紹介の発言に含まれる人物名と、当該発言から得られる声紋情報を関連付けてデータベースに登録する技術が記載されている。
特開2007-233075号公報 特開2007-241130号公報
しかし、特許文献1に記載の技術では、初めて会議に参加する人物の人物名および声紋情報を会議前にデータベースに登録するための作業が生じる。特許文献2に記載の技術では、自己紹介において発言者が自分の名前を言わない場合、当該発言者の人物名と当該発言者の声紋情報を関連付けて登録することは困難である。
そこで、本発明は、上記問題に鑑みてなされたものであり、本発明の目的とするところは、人物名と声紋情報の関連付けのための作業負荷を軽減することが可能な、新規かつ改良された情報処理装置、情報処理方法、プログラムおよび情報処理システムを提供することにある。
上記課題を解決するために、本発明のある観点によれば、第1の発言の内容を示すテキストデータに含まれる人物名を取得する人物名取得部と、前記第1の発言の後に行われた第2の発言の声紋情報を取得する声紋情報取得部と、前記人物名取得部により取得された人物名と、前記声紋情報取得部により取得された声紋情報を関連付けてデータベースに格納する制御部と、を備え、前記制御部は、前記人物名取得部により取得された人物名と、前記第2の発言のうちで、声紋情報が前記データベースに人物名と関連付けて格納されていない発言であって、かつ、最先である発言の声紋情報と、を関連付けてデータベースに格納する、情報処理装置が提供される。
前記制御部は、前記声紋情報取得部により取得された声紋情報に対応する声紋情報が前記データベースに人物名と関連付けて格納されていないことに基づき、前記人物名取得部により取得された人物名と、前記声紋情報取得部により取得された声紋情報を関連付けてデータベースに格納してもよい。
前記制御部は、前記第1の発言の後に行われた前記第2の発言を含む所定数の発言の範囲内で、前記声紋情報取得部により取得された声紋情報に対応する声紋情報が前記データベースに名前情報と関連付けて格納されているか否かを判定し、判定の結果に応じて前記人物名および前記声紋情報の前記データベースへの格納を制御してもよい。
前記人物名取得部により複数の人物名が取得された場合、前記制御部は、前記第1の発言において前記複数の人物名が現れた順序、および前記声紋情報取得部により前記データベースに人物名と関連付けて格納されていない声紋情報が取得された発言の順序に従って、前記人物名および前記声紋情報の前記データベースへの格納を制御してもよい。
前記制御部は、前記第1の発言および前記第2の発言を含む複数の発言のテキストデータ、および各発言の発言者の人物名を含む表示画面を生成し、前記制御部は、前記各発言の発言者の人物名には、前記各発言の声紋情報に関連付けて前記データベースに関連付けて格納されている人物名を用いてもよい。
前記制御部は、前記表示画面に、発言があった人物の人物名の一覧を配置してもよい。
前記第1の発言は、人物を紹介する意味を有する発言であってもよい。
また、上記課題を解決するために、本発明の別の観点によれば、第1の発言の内容を示すテキストデータに含まれる人物名を取得することと、前記第1の発言の後に行われた第2の発言の声紋情報を取得することと、取得された人物名と、取得された声紋情報を関連付けてデータベースに格納することと、を含み、前記格納することは、前記取得された人物名と、前記第2の発言のうちで、声紋情報が前記データベースに人物名と関連付けて格納されていない発言であって、かつ、最先である発言の声紋情報と、を関連付けてデータベースに格納することを含む、情報処理方法が提供される。
また、上記課題を解決するために、本発明の別の観点によれば、コンピュータを、第1の発言の内容を示すテキストデータに含まれる人物名を取得する人物名取得部と、前記第1の発言の後に行われた第2の発言の声紋情報を取得する声紋情報取得部と、前記人物名取得部により取得された人物名と、前記声紋情報取得部により取得された声紋情報を関連付けてデータベースに格納する制御部と、を備え、前記制御部は、前記人物名取得部により取得された人物名と、前記第2の発言のうちで、声紋情報が前記データベースに人物名と関連付けて格納されていない発言であって、かつ、最先である発言の声紋情報と、を関連付けてデータベースに格納する、情報処理装置として機能させるための、として機能させるための、プログラムが提供される。
また、上記課題を解決するために、本発明の別の観点によれば、第1の発言の内容を示すテキストデータに含まれる人物名を取得する人物名取得部と、前記第1の発言の後に行われた第2の発言の声紋情報を取得する声紋情報取得部と、前記人物名取得部により取得された人物名と、前記声紋情報取得部により取得された声紋情報を関連付けてデータベースに格納する制御部と、を備え、前記制御部は、前記人物名取得部により取得された人物名と、前記第2の発言のうちで、声紋情報が前記データベースに人物名と関連付けて格納されていない発言であって、かつ、最先である発言の声紋情報と、を関連付けてデータベースに格納する、情報処理システムが提供される。
以上説明した本発明によれば、人物名と声紋情報の関連付けのための作業負荷を軽減することが可能である。
本発明の実施形態による議事録作成システムの概要を示す説明図である。 議事録画面の具体例を示す説明図である。 データベースに格納される情報の具体例を示す説明図である。 本発明の実施形態による議事録作成サーバ20の構成を示す説明図である。 制御部260による制御の具体例を示す説明図である。 制御部260による制御の他の具体例を示す説明図である。 本発明の実施形態による議事録作成サーバ20の動作を示すフローチャートである。 本発明の実施形態による議事録作成サーバ20のハードウェア構成を示す説明図である。
以下に添付図面を参照しながら、本発明の実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
また、本明細書及び図面において、実質的に同一の機能構成を有する複数の構成要素を、同一の符号の後に異なるアルファベットを付して区別する場合もある。ただし、実質的に同一の機能構成を有する複数の構成要素の各々を特に区別する必要がない場合、複数の構成要素の各々に同一符号のみを付する。
<1.議事録作成システムの概要>
本発明の実施形態は、複数の人物の間で行われるコミュニケーションの記録を自動で作成するための情報処理システムに関する。複数の人物の間でコミュニケーションが行われる場としては、例えば、対面の会議、座談会、TV会議およびTV電話などが挙げられる。以下では、情報処理システムとして、対面の会議でのコミュニケーションの記録である議事録を自動で作成するための議事録作成システムについて説明を進める。
図1は、本発明の実施形態による議事録作成システムの概要を示す説明図である。図1に示したように、本発明の実施形態による議事録作成システムは、議事録表示装置10、議事録作成サーバ20、音声認識サーバ30、AIサーバ40、声紋認証サーバ50および声紋情報サーバ60を有する。
(議事録表示装置)
議事録表示装置10は、議事録作成サーバ20が生成した議事録画面を表示する。例えば、議事録表示装置10は、会議が行われる空間に配置され、議事録画面は会議の進行と共にリアルタイムで更新される。このため、会議の参加者は、議事録画面でそれまでの発言を確認しながら議論を進めることが可能である。ただし、本発明の実施形態は、会議後の議事録作成にも適用可能である。以下、図2を参照し、議事録画面の具体例を説明する。
図2は、議事録画面の具体例を示す説明図である。図2に示したように、議事録画面は、タイトル表示領域71、議事録表示領域72、発言者表示領域73、出席者一覧表示領域74および終了ボタン75を含む。
タイトル表示領域71には、議事録のタイトルが配置される。例えば、議事録のタイトルは、議事録表示装置10へのユーザ操作により入力されてもよい。議事録表示領域72には、出席者の発言を示すテキストデータが配置される。発言者表示領域73には、議事録表示領域72に配置されるテキストデータが誰の発言を示すテキストデータであるかが分かるように、各発言の発言者の人物名が配置される。例えば、図2に示した例では、「それでは第3回目の定例会を始めます。」というテキストデータと同じ行に、人物名「A」が配置されている。このため、「それでは第3回目の定例会を始めます。」というテキストデータが人物「A」の発言を示すテキストデータであることが理解される。各発言がどの人物による発言であるかを特定する処理については、詳細に後述する。出席者一覧表示領域74には、それまでに発言があった人物の人物名の一覧が配置される。終了ボタン75は、議事録の自動作成を終了させるためのボタンである。
(議事録作成サーバ)
議事録作成サーバ20は、上述した議事録画面を生成する情報処理装置である。議事録作成サーバ20は、会議の音声データに基づき、音声認識サーバ30、AIサーバ40、声紋認証サーバ50および声紋情報サーバ60と協働して議事録画面を生成する。議事録作成サーバ20の構成および動作は図4以降を参照して詳細に説明する。
(音声認識サーバ)
音声認識サーバ30は、音声データを認識し、音声データの内容を表現するテキストデータを生成する。例えば、音声認識サーバ30は、議事録作成サーバ20から会議の音声データを受信し、会議の音声データの内容を表現するテキストデータを生成し、当該テキストデータを議事録作成サーバ20に送信する。なお、音声認識サーバ30は、音声データの無音区間の存在により音声データを区分し、音声データの区分ごとにテキストデータを生成してもよい。
(AIサーバ)
AIサーバ40は、テキストデータから人物名を抽出する。例えば、AIサーバ40は、議事録作成サーバ20からテキストデータを受信し、テキストデータから人物名を抽出し、当該人物名を議事録作成サーバ20に送信する。さらに、AIサーバ40は、テキストデータが人物紹介の意味を有するテキストデータであるか否かを識別し、識別の結果を議事録作成サーバ20に送信してもよい。
(声紋認証サーバ)
声紋認証サーバ50は、音声データから声紋情報を取得する。例えば、声紋認証サーバ50は、議事録作成サーバ20から会議の音声データを受信し、会議の音声データの声紋情報を取得し、当該声紋情報を議事録作成サーバ20に送信する。
(声紋情報サーバ)
声紋情報サーバ60は、人物名と声紋情報を関連付けて格納するデータベース62を有する。データベース62は、図3に示すように、複数の人物名(例えば、人物名A、人物名B)の各々に、当該人物名を有する人物の声紋情報(例えば、声紋情報A、声紋情報B)を関連付けて格納する。なお、声紋情報は人物に応じて一意である。
なお、図1に示した一部の装置または全ての装置は一体的に構成されてもよい。例えば、音声認識サーバ30、AIサーバ40および声紋認証サーバ50は1つのサーバとして構成されてもよい。
(背景)
上述したデータベース62に会議の全ての出席者の人物名および声紋情報が事前に格納されていれば、当該データベース62を用いて各発言と人物との紐付けを行い得る。しかし、会議前に意図的に人物名および声紋情報を登録する作業を行うことは手間である。
本件発明者は、上記事情を一着眼点にして本発明の実施形態を創作するに至った。本発明の実施形態によれば、人物名と声紋情報の関連付けのための作業負荷を軽減することが可能である。以下、このような本発明の実施形態による議事録作成サーバ20の構成および動作を順次詳細に説明する。
<2.議事録作成サーバの構成>
図4は、本発明の実施形態による議事録作成サーバ20の構成を示す説明図である。図4に示したように、表示部220、通信部230、メモリ部240、データ蓄積部250および制御部260を有する。
(表示部)
表示部220は、議事録作成サーバ20のコンソール機能のために用いられる画面を表示する。
(通信部)
通信部230は、他の装置とのインタフェースであり、他の装置と多様な情報を通信する。例えば、通信部230は、議事録表示装置10から会議の音声データを受信する。また、通信部230は、当該音声データを音声認識サーバ30に送信し、音声認識サーバ30から音声データの内容を表現するテキストデータを受信する。また、通信部230は、当該テキストデータをAIサーバ40に送信し、AIサーバ40から当該テキストデータに含まれる人物名を取得する人物名取得部としての機能を有する。また、通信部230は、音声データを声紋認証サーバ50に送信し、声紋認証サーバ50から音声データの声紋情報を受信する声紋情報取得部としての機能も有する。
(メモリ部)
メモリ部240は、データ蓄積部250に蓄積されたデータを読み込み、演算処理に当該データを利用するために当該データを一時的に格納する。
(データ蓄積部)
データ蓄積部250は、会議中に取得されたテキストデータおよび声紋情報などのデータを蓄積する。
(制御部)
制御部260は、議事録作成サーバ20の動作全般を制御する。例えば、制御部260は、通信部230と他の装置との通信を制御する。また、制御部260は、図2を参照して説明した議事録画面を生成する。具体的には、制御部260は、手動で入力された議事録のタイトルをタイトル表示領域71に配置する。また、制御部260は、音声認識サーバ30により順次に取得されるテキストデータを順次に議事録表示領域72に配置する。また、制御部260は、声紋認証サーバ50により取得された1の発言の声紋情報がデータベース62において人物名と関連付けて格納されている場合、発言者表示領域73において当該発言を示すテキストデータと同じ行に当該人物名を配置する。また、制御部260は、発言者表示領域73に配置した人物名の一覧、すなわち、それまでに発言があった人物の人物名の一覧を出席者一覧表示領域74に配置する。
しかし、声紋認証サーバ50により取得された1の発言の声紋情報が、データベース62において人物名と関連付けて格納されていない場合もある。制御部260は、データベース62において人物名と関連付けて格納されていない声紋情報が取得された場合に、当該声紋情報と人物名を関連付けてデータベース62に格納し、当該人物名を議事録画面の発言者表示領域73に配置し得る。なお、制御部260は、声紋情報および人物名を通信部230に声紋情報サーバ60へ送信させることにより、声紋情報および人物名のデータベース62への格納を実現する。
例えば、ある人物は、会議に初めて出席する他の人物を紹介するために、他の人物の人物名を含む第1の発言を行い得る。当該第1の発言の後に行われる第2の発言は、第1の発言で紹介された他の人物によるものである可能性が高い。
そこで、制御部260は、人物名を含む第1の発言の後の第2の発言について取得された声紋情報がデータベース62において人物名と関連付けて格納されていない場合、当該人物名と第2の発言について取得された声紋情報を関連付けてデータベース62に格納してもよい。以下、図5を参照して、制御部260による制御の具体例を説明する。
図5は、制御部260による制御の具体例を示す説明図である。図5に示した例では、人物「B」が「進捗のご報告の前に、本日より当PJに新たに参加する者がおりますので紹介させて頂きます。XX部所属の、Cです。」という発言をし、その後に、「よろしくお願いします。」という発言がある。「よろしくお願いします。」という発言の声紋情報がデータベース62に格納されていない場合、制御部260は、この「よろしくお願いします。」という発言の声紋情報を、人物「B」の発言に含まれる人物名「C」と関連付けてデータベース62に格納し、かつ、図5の発言者表示領域73に示したように、「よろしくお願いします。」という発言と同じ行に人物名「C」を配置する。その後、人物「C」による発言は、データベース62に声紋情報が格納されている人物の発言として処理することが可能である。ここで、制御部260は、発言に人物名が含まれていることに加えて、発言の意味が人物の紹介であることが認識されたことに基づき、当該発言に続く発言に関して上述した制御を行ってもよい。
なお、ある人物が他の人物を紹介する発言をし、他の人物が発言するまでに、他の発言が介在する可能性がある。そこで、制御部260は、ある人物が他の人物を紹介する発言をした後、所定数の発言の範囲内で、データベース62に格納されていない声紋情報を有する発言があったか否かを判定し、データベース62に格納されていない声紋情報を有する発言があった場合、当該発言の声紋情報を上記他の人物の人物名と関連付けてデータベース62に格納してもよい。
また、ある人物は、会議に初めて出席する複数の人物を紹介するために、複数の人物の人物名を含む第1の発言を行い得る。当該第1の発言の後に行われる複数の発言の各々は、第1の発言で紹介された複数の人物のうちのいずれかの人物によるものである可能性が高い。また、第1の発言で紹介された複数の人物は、第1の発言で複数の人物が紹介された順序に従って発言をする可能性が高い。
そこで、制御部260は、複数の人物名を含む第1の発言があった場合、第1の発言において複数の人物名が現れた順序、および第1の発言の後にデータベース62において人物名と関連付けて格納されていな声紋情報が取得された発言の順序に従って、人物名および声紋情報のデータベース62への格納を制御してもよい。以下、図6を参照して、制御部260による当該制御の具体例を説明する。
図6は、制御部260による制御の他の具体例を示す説明図である。図6に示した例では、人物「B」が、「進捗のご報告の前に、本日より当PJに2名が参加することになりましたので紹介させて頂きます。奥から順に、C、Dです。」という発言をし、その後に、「よろしくお願いします。」という2つの発言がある。制御部260は、1つ目の「よろしくお願いします。」という発言の声紋情報を、人物「B」の発言において先に現れた人物名「C」と関連付けてデータベース62に格納し、かつ、図6の発言者表示領域73に示したように、1つ目の「よろしくお願いします。」という発言と同じ行に人物名「C」を配置する。さらに、制御部260は、2つ目の「よろしくお願いします。」という発言の声紋情報を、人物「B」の発言において後に現れた人物名「D」と関連付けてデータベース62に格納し、かつ、図6の発言者表示領域73に示したように、2つ目の「よろしくお願いします。」という発言と同じ行に人物名「D」を配置する。その後、人物「C」および人物「D」による発言は、データベース62に声紋情報が格納されている人物の発言として処理することが可能である。
<3.議事録作成サーバの動作>
以上、本発明の実施形態による議事録作成サーバ20の構成を説明した。続いて、図7を参照し、声紋情報がデータベース62に格納されていない発言を行った人物の人物名を特定するための、本発明の実施形態による議事録作成サーバ20の動作を整理する。
図7は、本発明の実施形態による議事録作成サーバ20の動作を示すフローチャートである。まず、通信部230が会議の音声データを音声認識サーバ30に送信し、通信部230が音声データの認識結果であるテキストデータを受信し、制御部260が当該テキストデータをデータ蓄積部250に蓄積し、当該テキストデータをメモリ部240に読み込む(S304)。会議の音声データは、会議室に設けられた集音装置により取得されてもよいし、議事録表示装置10によって取得されてもよい。
続いて、通信部230がメモリ部240に読み込まれたテキストデータをAIサーバ40に送信し、AIサーバ40が当該テキストデータの冒頭から末尾へと順に人物名の抽出を行った結果を通信部230が受信し、制御部260が人物名の抽出結果をデータ蓄積部250に蓄積し、当該人物名の抽出結果をメモリ部240に読み込む(S308)。
制御部260は、抽出された人物名の数をnとし(S312)、n≧1が成立するか否かを判断する(S316)。すなわち、制御部260は、人物名が1つ以上抽出されたか否かを判断する。人物名が1つ以上抽出されない場合(S316/No)、次の発言についてS304からの処理が繰り返される。
人物名が1つ以上抽出された場合(S316/Yes)、制御部260は、S308で抽出された1つ以上の人物名の各々を、Name(i)と定義する(S320)。ここで、S308において最初に抽出された人物名がName(1)に定義され、以降、人物名が抽出された順序に従って各人物名がName(2)、Name(3)、に定義される。
その後、制御部260は、iを1に設定し、強制脱出フラグEscを0に設定する(S324)。強制脱出フラグEscは、後続のS328からS364の処理が永久的に行われることを防止するためのフラグである。
続いて、制御部260は、S304と同様の方法で、未処理の発言のうちの最初の発言から得られたテキストデータをデータ蓄積部250に蓄積し、当該テキストデータをメモリ部240に読み込む(S328)。そして、通信部230がS328で用いた発言の音声データを声紋認証サーバ50に送信し、通信部230が声紋認証サーバ50から当該音声データの声紋情報を受信し、制御部260が当該声紋情報をデータ蓄積部250に蓄積し、当該声紋情報をメモリ部240に読み込む(S332)。
そして、制御部260は、データベース62を参照し、S332で得られた声紋情報がデータベース62に格納されているか否かを判定する(S336)。S332で得られた声紋情報がデータベース62に格納されている場合(S336/Yes)、制御部260は強制脱出フラグEscをインクリメントする(S340)。そして、強制脱出フラグEscが所定数である5未満である場合(S344/Yes)、S328からの処理が繰り返され、強制脱出フラグEscが5以上である場合(S344/No)、S304からの処理が繰り返される。すなわち、データベース62に登録されている声紋情報を有する発言が5回続いた場合、S344において強制脱出フラグEscが5以上となり、S304からの処理が繰り返される。
一方、S332で得られた声紋情報がデータベース62に格納されていない場合(S336/No)、制御部260は、強制脱出フラグEscを0に初期化する(S348)。そして、制御部260は、S320で定義したName(i)と、S332で得られた声紋情報とを関連付けてデータベース62に格納する(S352)。さらに、制御部260は、議事録画面の発言者表示領域73において、S328の発言を示すテキストデータと同じ行に、S320で定義したName(i)を表示する(S356)。
そして、制御部260は、iをインクリメントし(S360)、n-iが0未満になるまで、S328からの処理が繰り返される(S364/No)。これは、S328で用いた発言に、S304の発言で紹介されたデータベース62に声紋情報が格納されていない人物の発言が続く可能性を考慮した処理である。一方、n-iが0未満になった場合(S364/Yes)、S304からの処理が繰り返される。なお、S364を経てS304の処理が行われる場合、S328の処理で認識された最も新しい発言の次の発言が認識されてもよいし、前回のS304の処理で認識された発言の次の発言が認識されてもよい。また、処理がいずれの段階である場合でも、議事録画面の終了ボタン75の選択により、図7に示した動作は終了する。
<4.作用効果>
以上説明した本発明の実施形態によれば、人物名と声紋情報の関連付けを事前に行わなくても会議での発言を行った人物を特定し得るので、人物名と声紋情報の関連付けのための作業負荷を軽減することが可能である。また、自己紹介の発言に含まれる人物名と、当該発言から得られる声紋情報を関連付けてデータベースに登録する技術と比較して、本発明の実施形態は、自己紹介において発言者が自分の名前を言わない場合にも人物名と声紋情報の関連付けを実現し得るという利点を有する。
<5.ハードウェア構成>
以上、本発明の各実施形態を説明した。上述した議事録画面の生成およびデータベース62の管理などの情報処理は、ソフトウェアと、以下に説明する議事録作成サーバ20のハードウェアとの協働により実現される。
図8は、議事録作成サーバ20のハードウェア構成を示したブロック図である。議事録作成サーバ20は、CPU(Central Processing Unit)201と、ROM(Read Only Memory)202と、RAM(Random Access Memory)203と、ホストバス204と、を備える。また、議事録作成サーバ20は、ブリッジ205と、外部バス206と、インタフェース207と、入力装置208と、表示装置209と、音声出力装置210と、ストレージ装置(HDD)211と、ドライブ212と、ネットワークインタフェース215とを備える。
CPU201は、演算処理装置および制御装置として機能し、各種プログラムに従って議事録作成サーバ20内の動作全般を制御する。また、CPU201は、マイクロプロセッサであってもよい。ROM202は、CPU201が使用するプログラムや演算パラメータ等を記憶する。RAM203は、メモリ部240に対応し得る構成であり、CPU201の実行において使用するプログラムや、その実行において適宜変化するパラメータ等を一時記憶する。これらはCPUバスなどから構成されるホストバス204により相互に接続されている。これらCPU201、ROM202およびRAM203とソフトウェアとの協働により、図4を参照して説明した制御部260の機能が実現され得る。
ホストバス204は、ブリッジ205を介して、PCI(Peripheral Component Interconnect/Interface)バスなどの外部バス206に接続されている。なお、必ずしもホストバス204、ブリッジ205および外部バス206を分離構成する必要はなく、1つのバスにこれらの機能を実装してもよい。
入力装置208は、マウス、キーボード、タッチパネル、ボタン、マイクロフォン、センサー、スイッチおよびレバーなどユーザが情報を入力するための入力手段と、ユーザによる入力に基づいて入力信号を生成し、CPU201に出力する入力制御回路などから構成されている。議事録作成サーバ20のユーザは、該入力装置208を操作することにより、議事録作成サーバ20に対して各種のデータを入力したり処理動作を指示したりすることができる。
表示装置209は、例えば、CRT(Cathode Ray Tube)ディスプレイ装置、液晶ディスプレイ(LCD)装置、プロジェクター装置、OLED(Organic Light Emitting Diode)装置およびランプなどの表示装置を含む。また、音声出力装置210は、スピーカおよびヘッドホンなどの音声出力装置を含む。
ストレージ装置211は、データ蓄積部250に対応し得る構成であり、データ格納用の装置である。ストレージ装置211は、記憶媒体、記憶媒体にデータを記録する記録装置、記憶媒体からデータを読み出す読出し装置および記憶媒体に記録されたデータを削除する削除装置などを含んでもよい。ストレージ装置211は、例えば、HDD(Hard Disk Drive)またはSSD(Solid Strage Drive)、あるいは同等の機能を有するメモリ等で構成される。このストレージ装置211は、ストレージを駆動し、CPU201が実行するプログラムや各種データを格納する。
ドライブ212は、記憶媒体用リーダライタであり、議事録作成サーバ20に内蔵、あるいは外付けされる。ドライブ212は、装着されている磁気ディスク、光ディスク、光磁気ディスク、または半導体メモリ等のリムーバブル記憶媒体24に記録されている情報を読み出して、RAM203またはストレージ装置211に出力する。また、ドライブ212は、リムーバブル記憶媒体24に情報を書き込むこともできる。
ネットワークインタフェース215は、例えば、ネットワークに接続するための通信デバイス等で構成された通信インタフェースである。また、ネットワークインタフェース215は、無線LAN(Local Area Network)対応通信装置であっても、有線による通信を行うワイヤー通信装置であってもよい。
なお、議事録表示装置10、音声認識サーバ30、AIサーバ40、声紋認証サーバ50および声紋情報サーバ60のハードウェア構成にも、図8を参照して説明したハードウェア構成が適用されてもよい。
<6.補足>
以上、添付図面を参照しながら本発明の好適な実施形態について詳細に説明したが、本発明はかかる例に限定されない。本発明の属する技術の分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本発明の技術的範囲に属するものと了解される。
例えば、本明細書の議事録作成サーバ20の処理における各ステップは、必ずしもフローチャートとして記載された順序に沿って時系列に処理する必要はない。例えば、議事録作成サーバ20の処理における各ステップは、フローチャートとして記載した順序と異なる順序で処理されても、並列的に処理されてもよい。
また、議事録表示装置10、議事録作成サーバ20、音声認識サーバ30、AIサーバ40、声紋認証サーバ50および声紋情報サーバ60に内蔵されるCPU、ROMおよびRAMなどのハードウェアに、上述した議事録表示装置10、議事録作成サーバ20、音声認識サーバ30、AIサーバ40、声紋認証サーバ50および声紋情報サーバ60の各構成と同等の機能を発揮させるためのコンピュータプログラムも作成可能である。また、該コンピュータプログラムを記憶させた記憶媒体も提供される。
10 議事録表示装置
20 議事録作成サーバ
30 音声認識サーバ
40 AIサーバ
50 声紋認証サーバ
60 声紋情報サーバ
62 データベース
220 表示部
230 通信部
240 メモリ部
250 データ蓄積部
260 制御部

Claims (10)

  1. 第1の発言の内容を示すテキストデータに含まれる人物名を取得する人物名取得部と、
    前記第1の発言の後に行われた第2の発言の声紋情報を取得する声紋情報取得部と、
    前記人物名取得部により取得された人物名と、前記声紋情報取得部により取得された声紋情報を関連付けてデータベースに格納する制御部と、
    を備え、
    前記制御部は、前記人物名取得部により取得された人物名と、前記第2の発言のうちで、声紋情報が前記データベースに人物名と関連付けて格納されていない発言であって、かつ、最先である発言の声紋情報と、を関連付けてデータベースに格納する、情報処理装置。
  2. 前記制御部は、前記声紋情報取得部により取得された声紋情報に対応する声紋情報が前記データベースに人物名と関連付けて格納されていないことに基づき、前記人物名取得部により取得された人物名と、前記声紋情報取得部により取得された声紋情報を関連付けてデータベースに格納する、請求項1に記載の情報処理装置。
  3. 前記制御部は、前記第1の発言の後に行われた前記第2の発言を含む所定数の発言の範囲内で、前記声紋情報取得部により取得された声紋情報に対応する声紋情報が前記データベースに名前情報と関連付けて格納されているか否かを判定し、判定の結果に応じて前記人物名および前記声紋情報の前記データベースへの格納を制御する、請求項2に記載の情報処理装置。
  4. 前記人物名取得部により複数の人物名が取得された場合、前記制御部は、前記第1の発言において前記複数の人物名が現れた順序、および前記声紋情報取得部により前記データベースに人物名と関連付けて格納されていない声紋情報が取得された発言の順序に従って、前記人物名および前記声紋情報の前記データベースへの格納を制御する、請求項1に記載の情報処理装置。
  5. 前記制御部は、前記第1の発言および前記第2の発言を含む複数の発言のテキストデータ、および各発言の発言者の人物名を含む表示画面を生成し、
    前記制御部は、前記各発言の発言者の人物名には、前記各発言の声紋情報に関連付けて前記データベースに関連付けて格納されている人物名を用いる、請求項1~4のいずれか一項に記載の情報処理装置。
  6. 前記制御部は、前記表示画面に、発言があった人物の人物名の一覧を配置する、請求項5に記載の情報処理装置。
  7. 前記第1の発言は、人物を紹介する意味を有する発言である、請求項1~6のいずれか一項に記載の情報処理装置。
  8. 第1の発言の内容を示すテキストデータに含まれる人物名を取得することと、
    前記第1の発言の後に行われた第2の発言の声紋情報を取得することと、
    取得された人物名と、取得された声紋情報を関連付けてデータベースに格納することと、
    を含み、
    前記格納することは、前記取得された人物名と、前記第2の発言のうちで、声紋情報が前記データベースに人物名と関連付けて格納されていない発言であって、かつ、最先である発言の声紋情報と、を関連付けてデータベースに格納することを含む、情報処理方法。
  9. コンピュータを、
    第1の発言の内容を示すテキストデータに含まれる人物名を取得する人物名取得部と、
    前記第1の発言の後に行われた第2の発言の声紋情報を取得する声紋情報取得部と、
    前記人物名取得部により取得された人物名と、前記声紋情報取得部により取得された声紋情報を関連付けてデータベースに格納する制御部と、
    を備え、
    前記制御部は、前記人物名取得部により取得された人物名と、前記第2の発言のうちで、声紋情報が前記データベースに人物名と関連付けて格納されていない発言であって、かつ、最先である発言の声紋情報と、を関連付けてデータベースに格納する、情報処理装置として機能させるための、プログラム。
  10. 第1の発言の内容を示すテキストデータに含まれる人物名を取得する人物名取得部と、
    前記第1の発言の後に行われた第2の発言の声紋情報を取得する声紋情報取得部と、
    前記人物名取得部により取得された人物名と、前記声紋情報取得部により取得された声紋情報を関連付けてデータベースに格納する制御部と、
    を備え、
    前記制御部は、前記人物名取得部により取得された人物名と、前記第2の発言のうちで、声紋情報が前記データベースに人物名と関連付けて格納されていない発言であって、かつ、最先である発言の声紋情報と、を関連付けてデータベースに格納する、情報処理システム。
JP2018162690A 2018-08-31 2018-08-31 情報処理装置、情報処理方法、プログラムおよび情報処理システム Active JP7172299B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018162690A JP7172299B2 (ja) 2018-08-31 2018-08-31 情報処理装置、情報処理方法、プログラムおよび情報処理システム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018162690A JP7172299B2 (ja) 2018-08-31 2018-08-31 情報処理装置、情報処理方法、プログラムおよび情報処理システム

Publications (2)

Publication Number Publication Date
JP2020035292A JP2020035292A (ja) 2020-03-05
JP7172299B2 true JP7172299B2 (ja) 2022-11-16

Family

ID=69668250

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018162690A Active JP7172299B2 (ja) 2018-08-31 2018-08-31 情報処理装置、情報処理方法、プログラムおよび情報処理システム

Country Status (1)

Country Link
JP (1) JP7172299B2 (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010060850A (ja) 2008-09-04 2010-03-18 Nec Corp 議事録作成支援装置、議事録作成支援方法、議事録作成支援用プログラム及び議事録作成支援システム
JP2014236228A (ja) 2013-05-30 2014-12-15 株式会社Nttドコモ 人物情報登録装置及びプログラム
JP2016156993A (ja) 2015-02-25 2016-09-01 シャープ株式会社 情報処理装置、情報処理装置の制御方法、制御プログラム、記録媒体

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3879786B2 (ja) * 1997-08-05 2007-02-14 富士ゼロックス株式会社 会議情報記録再生装置および会議情報記録再生方法
US8515025B1 (en) * 2012-08-30 2013-08-20 Google Inc. Conference call voice-to-name matching

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010060850A (ja) 2008-09-04 2010-03-18 Nec Corp 議事録作成支援装置、議事録作成支援方法、議事録作成支援用プログラム及び議事録作成支援システム
JP2014236228A (ja) 2013-05-30 2014-12-15 株式会社Nttドコモ 人物情報登録装置及びプログラム
JP2016156993A (ja) 2015-02-25 2016-09-01 シャープ株式会社 情報処理装置、情報処理装置の制御方法、制御プログラム、記録媒体

Also Published As

Publication number Publication date
JP2020035292A (ja) 2020-03-05

Similar Documents

Publication Publication Date Title
US11699456B2 (en) Automated transcript generation from multi-channel audio
TWI536365B (zh) 聲紋辨識
US9256860B2 (en) Tracking participation in a shared media session
US9787565B2 (en) Systems and methods for a call over network with a visualized summary
JP2006208482A (ja) 会議の活性化を支援する装置,方法,プログラム及び記録媒体
TWI590240B (zh) 會議記錄裝置及其自動生成會議記錄的方法
JP2010233045A (ja) 会議支援装置、会議支援方法、会議システム、会議支援プログラム
JP2006301223A (ja) 音声認識システム及び音声認識プログラム
JP2013222347A (ja) 議事録生成装置及び議事録生成方法
US20190171760A1 (en) System, summarization apparatus, summarization system, and method of controlling summarization apparatus, for acquiring summary information
CN115735357A (zh) 用于电话会议讨论的投票问题
US8868419B2 (en) Generalizing text content summary from speech content
JP2006345250A (ja) 発言者決定方法
KR20160108874A (ko) 대화록 자동 생성 방법 및 장치
KR20170126667A (ko) 회의 기록 자동 생성 방법 및 그 장치
JP2005202035A (ja) 対話情報分析装置
JP7172299B2 (ja) 情報処理装置、情報処理方法、プログラムおよび情報処理システム
US8775163B1 (en) Selectable silent mode for real-time audio communication system
JP6950708B2 (ja) 情報処理装置、情報処理方法、および情報処理システム
JP2006251042A (ja) 情報処理装置、情報処理方法およびプログラム
JP5892598B2 (ja) 音声文字変換作業支援装置、音声文字変換システム、音声文字変換作業支援方法及びプログラム
CN112634879B (zh) 语音会议管理方法、装置、设备及介质
KR102291113B1 (ko) 회의록 작성 장치 및 방법
JP7103681B2 (ja) 音声認識プログラム、音声認識方法、音声認識装置および音声認識システム
JP2004020739A (ja) 議事録作成装置、議事録作成方法、議事録作成プログラム

Legal Events

Date Code Title Description
RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20190327

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20190328

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210507

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220308

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220412

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220601

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221004

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221017

R150 Certificate of patent or registration of utility model

Ref document number: 7172299

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150