JP2016218522A - Schedule preparation device, schedule preparation method, and program - Google Patents
Schedule preparation device, schedule preparation method, and program Download PDFInfo
- Publication number
- JP2016218522A JP2016218522A JP2015099323A JP2015099323A JP2016218522A JP 2016218522 A JP2016218522 A JP 2016218522A JP 2015099323 A JP2015099323 A JP 2015099323A JP 2015099323 A JP2015099323 A JP 2015099323A JP 2016218522 A JP2016218522 A JP 2016218522A
- Authority
- JP
- Japan
- Prior art keywords
- schedule
- speakers
- shared
- keyword
- speaker
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000002360 preparation method Methods 0.000 title abstract description 11
- 238000000605 extraction Methods 0.000 claims abstract description 58
- 239000000284 extract Substances 0.000 claims abstract description 14
- 238000000034 method Methods 0.000 claims description 32
- 230000006870 function Effects 0.000 description 15
- 238000004891 communication Methods 0.000 description 13
- 238000010586 diagram Methods 0.000 description 5
- 230000001960 triggered effect Effects 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 208000016339 iris pattern Diseases 0.000 description 1
- 238000007726 management method Methods 0.000 description 1
- 238000010187 selection method Methods 0.000 description 1
Images
Abstract
Description
本発明は、スケジュール作成装置、スケジュール作成方法及びプログラムに関する。 The present invention relates to a schedule creation device, a schedule creation method, and a program.
従来から、PC(Personal Computer)や携帯電話などでスケジュール管理をすることが広く行われている。また、近時、ユーザが入力した音声に基づいてスケジュール作成する技術が知られている。
例えば、特許文献1には、入力された音声から抽出したスケジュールに関連する単語と、その単語の付加情報と、を用いてスケジュール作成する技術が開示されている。
また、特許文献2には、テキスト化された音声データの内容を、ユーザ間で共有する技術が開示されている。
Conventionally, schedule management using a PC (Personal Computer), a mobile phone, or the like has been widely performed. Recently, a technique for creating a schedule based on voice input by a user is known.
For example,
ところで、スケジュールは関係者複数で共有される場合がある。ここで、特許文献1と特許文献2との技術により、関係者複数で共有するスケジュールを自動作成することが考えられる。
しかしながら、複数の関係者の会話では、例えば関係者間のスケジュール調整がその場で議論されるような場合もある。このため、一人の話者の音声から単独のスケジュールを作成する場合に比べて、共有スケジュールの精度が下がってしまう。このようなことから、正確な共有スケジュールを作成することが望まれている。
By the way, a schedule may be shared by a plurality of related parties. Here, it is conceivable that a schedule shared by a plurality of parties is automatically created by the techniques of
However, in a conversation between a plurality of parties, for example, schedule adjustment between the parties may be discussed on the spot. For this reason, compared with the case where a single schedule is created from the voice of one speaker, the accuracy of the sharing schedule is lowered. For this reason, it is desired to create an accurate sharing schedule.
そこで、本発明は、上記事情を鑑みてなされたものであり、正確な共有スケジュールを作成するスケジュール作成装置等を提供することを目的とする。 Therefore, the present invention has been made in view of the above circumstances, and an object thereof is to provide a schedule creation device or the like that creates an accurate sharing schedule.
上記目的を達成するため、本発明の第1の観点に係るスケジュール作成装置は、
複数の話者の会話音声からスケジュールに関連するカテゴリに属すキーワードを抽出する抽出手段と、
前記抽出手段が同一カテゴリに属す異なるキーワードを複数抽出したか否かに基づいて、前記会話音声におけるスケジュール変更の有無を推定する推定手段と、
前記推定手段がスケジュール変更有りと推定した場合、前記同一カテゴリに属す複数の異なるキーワードのうち、前記複数の話者で共有する共有スケジュールに用いるキーワードを選択する選択手段と、
前記選択手段が選択したキーワードに基づいて、前記共有スケジュールを作成するスケジュール作成手段と、
を備えたことを特徴とする。
In order to achieve the above object, a schedule creation device according to the first aspect of the present invention includes:
An extraction means for extracting keywords belonging to a category related to a schedule from conversational voices of a plurality of speakers;
Based on whether the extraction means has extracted a plurality of different keywords belonging to the same category, the estimation means for estimating the presence or absence of a schedule change in the conversation voice;
When the estimating means estimates that there is a schedule change, out of a plurality of different keywords belonging to the same category, a selecting means for selecting a keyword used for a shared schedule shared by the plurality of speakers;
Schedule creation means for creating the shared schedule based on the keyword selected by the selection means;
It is provided with.
上記目的を達成するため、本発明の第2の観点に係るスケジュール作成装置は、
話者を識別する話者識別手段と、
前記話者識別手段が話者を複数識別した場合、該複数の話者の会話音声からスケジュールに関連するカテゴリに属すキーワードを抽出する抽出手段と、
前記抽出手段が抽出したキーワードを発話した話者のみで共有する共有スケジュールを作成するスケジュール作成手段と、
前記スケジュール作成手段が作成した共有スケジュールを、前記複数の話者の会話音声に基づいて修正するスケジュール修正手段と、
を備えたことを特徴とする。
In order to achieve the above object, a schedule creation device according to the second aspect of the present invention provides:
Speaker identification means for identifying the speaker;
When the speaker identification means identifies a plurality of speakers, an extraction means for extracting keywords belonging to a category related to the schedule from the conversation voices of the plurality of speakers;
Schedule creation means for creating a sharing schedule that is shared only by the speaker who spoke the keyword extracted by the extraction means;
Schedule correction means for correcting the sharing schedule created by the schedule creation means based on conversational voices of the plurality of speakers;
It is provided with.
本発明によれば、正確な共有スケジュールを作成することができる。 According to the present invention, an accurate sharing schedule can be created.
(第1の実施形態)
以下、図1を参照しながら、本発明の実施形態に係るスケジュール作成装置の概要について説明する。この実施形態では、図1に示すように、話者A及びBが会議などでスケジュールについて会話をしている場面設定を前提として説明する。また、この実施形態においては、一例として、スケジュール作成装置200をサーバ、ユーザ端末100をスマートフォン、として説明する。なお、以下では、図1の話者A又はBを特段特定する必要がない場合は、単に話者と称して説明する。
(First embodiment)
Hereinafter, an outline of a schedule creation device according to an embodiment of the present invention will be described with reference to FIG. In this embodiment, as shown in FIG. 1, a description will be given on the assumption that the speakers A and B are talking about a schedule at a meeting or the like. In this embodiment, as an example, the
スケジュール作成装置200は、話者の音声に基づいてスケジュールを作成する。図1に示す場面設定の場合、複数の話者の会話音声に基づいてスケジュールを作成する。この音声は、ユーザ端末100が収音した音声をリアルタイムでスケジュール作成装置200に送信することで得られる。
The
以下、ユーザ端末100及びスケジュール作成装置200の具体的な構成について順に説明する。まず、ユーザ端末100の構成を、図2を参照して説明する。
Hereinafter, specific configurations of the
ユーザ端末100は、図2に示すように、制御部11と、入力部12と、マイク13と、カメラ14と、記憶部15と、通信部16と、表示部17と、を備える。
As illustrated in FIG. 2, the
制御部11は、CPU(Central Processing Unit)を備え、記憶部15に記憶された制御プログラムを実行することによりユーザ端末100全体を制御する。
The
入力部12は、ユーザの指示入力のための各種操作ボタン、表示部17が備えるディスプレイに重畳して配置されたタッチパネル、及びこのディスプレイに表示されたソフトウェアキーボードなどで構成される。この実施形態における指示入力としては、例えば、スケジュール作成処理の開始を指示する開始指示、スケジュール作成処理の終了を指示する終了指示などがある。
The
マイク13は、話者の音声を収音する。カメラ14は、話者の画像を撮像する。なお、収音された音声と撮像された画像は通信部16を介してスケジュール作成装置200にリアルタイムに送信される。
The
記憶部15は、RAM(Random Access Memory)と、ROM(Read Only Memory)と、不揮発性メモリと、を備える。RAMは、データやプログラムを一時的に記憶し、制御部11が備えるCPUのワークメモリとして機能する。ROMは、ユーザ端末100全体の制御に必要な制御プログラムを記憶する。不揮発性メモリは、例えばハードディスクであり、各種データを記憶する。各種データとしては例えば、ユーザ端末100の端末ID(端末識別情報)を含む。
The
通信部16は、任意の通信網(例えば、携帯電話網)を介して、スケジュール作成装置200との間でデータを送受信する。具体的には、通信部16は、マイク13が収音した音声とカメラ14が撮像した画像と自端末の端末IDとをスケジュール作成装置200に送信する。
The
表示部17は、ディスプレイを備え、各種画像を表示する。各種画像としては、例えば、スケジュール作成装置200が作成したスケジュールなどである。
The
次に、スケジュール作成装置200の構成を、図3を参照して説明する。
スケジュール作成装置200は、図3に示すように、制御部20と、記憶部30と、通信部40と、を備える。
Next, the configuration of the
As illustrated in FIG. 3, the
制御部20は、CPUを備え、記憶部30に記憶された制御プログラムを実行することにより、スケジュール作成装置200全体を制御する。
The
記憶部30は、RAMと、ROMと、不揮発性メモリと、を備える。RAMは、データやプログラムを一時的に記憶し、制御部20が備えるCPUのワークメモリとして機能する。ROMは、スケジュール作成装置200全体の制御に必要な制御プログラムを記憶する。不揮発性メモリは、例えばハードディスクであり、スケジュール作成プログラムや各種データを記憶する。各種データとしては、話者識別用テンプレート31、キーワードテーブル32、及びスケジュールフォーマット33などである。これらについては後述する。また、記憶部30は、制御部20が作成したスケジュールを記憶するスケジュール記憶部34として機能する。
The storage unit 30 includes a RAM, a ROM, and a nonvolatile memory. The RAM temporarily stores data and programs, and functions as a work memory for the CPU provided in the
通信部40は、任意の通信網(例えば、携帯電話網)を介して、ユーザ端末100との間でデータを送受信する。具体的には、通信部40は、マイク13が収音した音声とカメラ14が撮像した画像とユーザ端末100の端末IDとをユーザ端末100から受信する。
The
次に、制御部20の機能について説明する。
制御部20は、記憶部30に記憶されたスケジュール作成プログラムを実行することにより、話者識別部21、抽出部22、推定部23、選択部24、スケジュール作成部25として機能する。
Next, functions of the
The
話者識別部21は、ユーザ端末100から通信部40を介して受信した話者の音声、話者の画像及び端末IDに基づいて、話者を識別する。
以下では、(1)音声認識により話者を識別する場合、(2)画像認識により話者を識別する場合、(3)端末IDにより話者を識別する場合、について順に説明する。
The
Hereinafter, (1) when a speaker is identified by voice recognition, (2) when a speaker is identified by image recognition, and (3) when a speaker is identified by a terminal ID will be described in order.
まず、(1)音声認識により話者を識別する場合、話者識別部21は、任意の公知技術を用い、受信した話者の音声から、話者の音声の特徴を示す特徴量を取得する。この実施形態においては、一例として、話者の声紋(サウンドスペクトログラム)を音声の特徴量として用いる。話者識別部21は、取得した話者の声紋が、予め学習しておいた複数の登録ユーザそれぞれの声紋の何れかと一致するか否かにより話者を識別する。なお、登録ユーザとは、スケジュール作成装置200のスケジュール作成機能を使用するユーザとして予めアカウント登録されたユーザをいう。
First, (1) when a speaker is identified by voice recognition, the
次に、(2)画像認識により話者を識別する場合、話者識別部21は、任意の公知技術を用い、受信した話者の画像から、話者の特徴を示す画像を取得する。この実施形態においては、一例として、話者の顔画像を話者の特徴を示す画像として用いる。話者識別部21は、取得した話者の顔画像が、予め学習しておいた複数の登録ユーザそれぞれの顔画像の何れかと一致するか否かにより話者を識別する。
Next, (2) when a speaker is identified by image recognition, the
次に、(3)端末IDにより話者を識別する場合、話者識別部21は、受信した端末IDと、予め記憶するユーザID(ユーザ識別情報)に対応付けられた端末IDと、が一致するか否かにより話者を識別する。
Next, (3) when the speaker is identified by the terminal ID, the
以上の(1)乃至(3)による話者の識別は、具体的には話者識別用テンプレート31を用いて行われる。
The speaker identification according to the above (1) to (3) is specifically performed using the
話者識別用テンプレート31は、図4に示すように、ユーザIDである登録ユーザ名と、その登録ユーザ名の登録ユーザの声紋と、その登録ユーザの顔画像と、その登録ユーザが使用するユーザ端末(この実施形態ではユーザ端末100)の端末ID(端末識別情報)と、を対応付けたテーブルである。例えば、登録ユーザ名が「A」あれば、登録ユーザAの声紋は「A1」、登録ユーザAの顔画像は「A2」、登録ユーザAが使用するユーザ端末の端末IDは「A3」であることが分かる。
As shown in FIG. 4, the
話者識別部21は、ユーザ端末から受信した話者の声紋、話者の顔画像及び受信した端末IDと、話者識別用テンプレート31に含まれる声紋、顔画像及び端末IDと、をそれぞれ比較する。
話者識別部21は、声紋、顔画像、端末IDのうち少なくとも何れか一つが話者識別用テンプレート31に含まれる声紋、顔画像又は端末IDに一致すると判定した場合、話者を、一致した声紋、顔画像又は端末IDに対応付けられた登録ユーザ名の話者であると識別する。そして、話者識別部21は、識別した話者の登録ユーザ名(例えば、「A」)を、スケジュール作成部25へ供給する。
The
If the
図3に戻って、抽出部22は、話者の音声からスケジュールに関連するカテゴリに属すキーワードを抽出する。話者が複数の場合、抽出部22は、複数の話者の会話音声から上記キーワードを抽出する。具体的には、抽出部22は、スケジュールに関連するカテゴリに属すキーワードを、予め学習しておいたキーワードテーブル32を用いて抽出する。
Returning to FIG. 3, the
キーワードテーブル32は、図5に示すように、スケジュールに関連するカテゴリと、そのカテゴリに属すキーワードのテキストと、を対応付けたテーブルである。本実施形態において、キーワードテーブル32は、図5に示すように、「月」、「日」、「時間」、「場所」、「予定内容」をカテゴリとして含んでいる。例えば、カテゴリ「月」には、キーワードとして「1月」、「2月」、「3月」、「4月」等が対応付けられている。 As shown in FIG. 5, the keyword table 32 is a table in which categories related to the schedule are associated with texts of keywords belonging to the categories. In the present embodiment, as shown in FIG. 5, the keyword table 32 includes “month”, “day”, “time”, “location”, and “planned contents” as categories. For example, the category “month” is associated with keywords “January”, “February”, “March”, “April”, and the like.
抽出部22は、ユーザ端末100から受信した話者の音声をテキストに変換して、その変換したテキストと、キーワードテーブル32のキーワードのテキストと、を比較する。話者が複数の場合、抽出部22は、複数の話者の会話音声をテキストに変換し、その変換したテキストが、キーワードテーブル32の複数のカテゴリのうち何れかのカテゴリに属すキーワードのテキストと一致した場合、その一致したテキストをキーワードとして抽出する。
The
図3に戻って、推定部23は、抽出部22が同一カテゴリに属す異なるキーワードを複数抽出したか否かに基づいて、音声(話者複数であれば会話音声)におけるスケジュール変更の有無を推定する。この推定部23は、このスケジュール変更の有無を、そのスケジュール変更に係るスケジュールとは別のスケジュールを除外して推定する。つまり、スケジュール変更の有無を、同一スケジュール内で推定する。
Returning to FIG. 3, the
例えば、図1の話者Aがスケジュール調整のために「4月1日3時から会議室で打ち合わせをしたいのですが、都合いかがですか。」と聞き、話者Bが「4月2日3時の方が打ち合わせの都合がいいです。」が答えた場合、カテゴリの「予定内容」である打ち合わせが一致するので、話者A及びBは同一スケジュールについて会話していると推定する。そして、推定部23は、同一スケジュールにおいてカテゴリ「日」に属す異なるキーワード「1日」「2日」が抽出されたことにより、話者A、Bの会話音声でカテゴリ「日」についてスケジュール変更があったと推定する。
For example, speaker A in Figure 1 asks, “I would like to have a meeting in the conference room from 3 o'clock on April 1st. If “3 o'clock is more convenient for the meeting”, the meeting, which is the “scheduled content” of the category, matches, so it is estimated that speakers A and B are talking about the same schedule. The
このように、推定部23は、同一スケジュールか否かを所定カテゴリ(この実施形態では、一例として、「予定内容」)のキーワードが話者間で一致するか否かに基づいて推定した上で、その同一スケジュール内でのスケジュール変更の有無を推定する。なお、同一スケジュールか否かの判断基準は一例であって、別の基準を用いてもよい。
As described above, the
次に、選択部24は、推定部23がスケジュール変更有りと推定した場合、同一カテゴリに属す複数の異なるキーワードのうち、スケジュール作成に用いるキーワードを選択する。上述の例の場合、選択部24は、カテゴリ「日」に属す異なるキーワード「1日」「2日」のうち、共有スケジュールに用いるキーワードを選択する。選択の基準については後述する。
Next, when the
一方、選択部24は、推定部23がスケジュール変更無しと推定した場合、すなわち複数の話者の会話音声の中から同一カテゴリで1つのキーワードが抽出された場合、その1つのキーワードを選択する。
このように、この実施形態においては、推定部23と選択部24によりスケジュール(特に、共有スケジュール)の精度を上げるようにしている。
On the other hand, the
As described above, in this embodiment, the
次に、スケジュール作成部25は、選択部24が選択したキーワードに基づいて、スケジュールを作成する。選択部24は、話者複数の場合共有スケジュールを、話者単独の場合単独スケジュールを、それぞれ作成する。
Next, the
ここで、スケジュール作成部25は、選択部24が選択したキーワードを、スケジュールフォーマット33に入力することによりスケジュールを作成する。
スケジュールフォーマット33は、図6に示すように、登録ユーザ名と、スケジュールに関連するカテゴリ毎にキーワードを格納するデータスペースと、を互いに対応付けたテーブルである。
Here, the
As shown in FIG. 6, the
スケジュール作成部25は、選択部24が選択したキーワードを、識別した話者の登録ユーザ名に対応付けられたデータスペースに入力してスケジュールを作成する。なお、単独スケジュールとは登録ユーザ1名のデータスペースにキーワードが入力されたスケジュール、共有スケジュールとは複数の登録ユーザのデータスペースにキーワードが共通して入力されたスケジュールをいう。
The
スケジュール作成部25は、作成したスケジュールを記憶部30のスケジュール記憶部34に供給する。なお、スケジュール記憶部34に記憶されたスケジュールは、各登録ユーザが使用するユーザ端末それぞれからアクセスすることで参照できる。
The
以上、ユーザ端末100及びスケジュール作成装置200の具体的な構成について説明した。以下では、スケジュール作成装置200が実行するスケジュール作成処理について、図7を参照しながら説明する。なお、このスケジュール作成処理については、図1の場面設定を適宜例にとりながら説明する。また、スケジュール作成装置200は、当然ながら話者識別前は、話者が誰なのか不知である。
The specific configurations of the
まず、話者Aは、ユーザ端末100の入力部12からスケジュール作成プログラムを起動後、スケジュール作成を開始するための開始指示を入力する。すると、この開始指示を受け付けたユーザ端末100は、音声の収音ならびに画像の撮像を開始するとともに、自端末の端末IDを開始指示とあわせてスケジュール作成装置200に送信する。
一方、スケジュール作成装置200は、開始指示を受け付けると、音声・画像の待ち受け状態になる。スケジュール作成処理は、ユーザ端末100から送信される音声・画像を受信したことを契機に開始される。
First, the speaker A inputs a start instruction for starting schedule creation after starting the schedule creation program from the
On the other hand, when receiving the start instruction, the
まず、スケジュール作成装置200の抽出部22は、キーワードを抽出する(ステップS11)。具体的には、抽出部22は、上述したキーワードテーブル32を用いた抽出手法によるキーワードの抽出処理を、リアルタイムに受信する音声に対して行う。
First, the
次に、話者識別部21は、話者を識別する(ステップS12)。具体的には、話者識別部21は、話者識別用テンプレート31を用いて、上述した(1)(2)の話者識別処理を、リアルタイムに受信する音声・画像に対して行う。同時に、話者識別部21は、上述した(3)の話者識別処理を、開始指示とともに送信された端末IDと話者識別用テンプレート31とを用いて行う。
Next, the
次に、抽出部22は、キーワードの抽出を終了したか否か判定する(ステップS13)。例えば、抽出部22は、音声が所定時間以上途切れた場合のタイムアウト、あるいはユーザ端末100から送信される終了指示の受信、などによりキーワード抽出の終了判定を行う。このキーワード抽出が終了する(ステップS13;No)まで、すなわち、話者複数であれば会話終了、話者単独であれば発話終了するまでステップS11、S12の処理を繰り返して、キーワードの抽出と話者の識別を行い続ける(ステップS11、S12、S13のループ)。
Next, the
ここで、上記ステップS11及び12は、説明の便宜上、順番で処理しているものの、これら抽出と話者識別はリアルタイムに受信する音声・画像に対して同時進行で処理される。つまり、スケジュール作成装置200は、キーワード抽出が終了するまで、受信した音声からキーワードを抽出しつつ、音声・画像・端末IDにより話者を識別する。
Here, although steps S11 and S12 are processed in order for convenience of explanation, these extraction and speaker identification are processed simultaneously with respect to voice / image received in real time. In other words, the
ここで、例1として、図1の話者Aがスケジュール確認するために「4月2日の打ち合わせについて、時間と場所を教えて下さい。」と聞き、それに対して話者Bが「打ち合わせは、3時から会議室で行います。」と回答した場面を想定する。 Here, as an example 1, in order for speaker A in FIG. 1 to confirm the schedule, he / she hears "Tell me about the time and place for the April 2 meeting." Suppose that it will be held in the meeting room from 3 o'clock.
この場合、抽出部22は、ステップS11において、ユーザ端末100から受信した音声を変換したテキストのうち、キーワードテーブル32に含まれるキーワードのテキストに一致する「4月」、「2日」、「打ち合わせ」、「3時」、「会議室」の各テキストを、スケジュールに関連するキーワードとして抽出する。
In this case, in step S11, the
一方、話者識別部21は、ステップS12において、話者識別用テンプレート31を用いて、開始指示とともに送信された端末ID「A3」に対応付けられた登録ユーザ名「A」を特定する。そして、話者識別部21は、話者が登録ユーザ名「A」の話者であると識別する。
また、話者識別部21は、話者識別用テンプレート31を用いて、受信した音声「打ち合わせは、3時から会議室で行います。」から求めた声紋が、声紋B1と一致すると判定し、別の話者が登録ユーザ名「B」の話者であると識別する。
On the other hand, in step S12, the
In addition, the
図7のスケジュール作成処理に戻って、キーワードの抽出を終了すると(ステップS13;Yes)、話者識別部21は、識別した話者は複数か否か判定する(ステップS14)。ここで、識別した話者は複数であると判定した場合(ステップS14;Yes)、共有スケジュールの精度向上のために、推定部23と選択部24とが協働して会話音声におけるスケジュール変更の有無に基づいて、キーワードを選択する(ステップS15)。
Returning to the schedule creation process of FIG. 7, when the keyword extraction is completed (step S13; Yes), the
上述した例1の場合、まず、推定部23は、話者Aから発話された「打ち合わせ」と話者Bから発話された「打ち合わせ」が一致し、かつ、抽出したキーワード(「4月」、「2日」、「打ち合わせ」、「3時」、「会議室」)において同一カテゴリに属す複数の異なるキーワードがないので、スケジュール変更なしと推定する。続いて、選択部24は、スケジュール変更なしと推定されたので、同一カテゴリに属す1つのキーワード(「4月」、「2日」、「打ち合わせ」、「3時」、「会議室」)をそれぞれ選択する。
In the case of Example 1 described above, the
図7に戻って、スケジュール作成部25は、選択したキーワードに基づいて、共有スケジュールを作成する(ステップS16)。上述した例1の場合、スケジュール作成部25は、「4月」、「2日」、「打ち合わせ」、「3時」、「会議室」に基づいて、図8に示す話者A、Bの共有スケジュールを作成する。
一方、例2として、図1の話者Aがスケジュール調整のために、「4月1日3時から会議室で打ち合わせをしたいのですが、都合いかがですか。」と聞き、話者Bが「4月2日3時の方が打ち合わせの都合がいいです。」が答え、さらに話者Aが「私は、4月1日の方がいいのですが、4月2日でも大丈夫です。」と返答したとする。
Returning to FIG. 7, the
On the other hand, as example 2, speaker A in Fig. 1 asks, "I would like to have a meeting in the conference room from 3 o'clock on April 1st. “It would be better to have a meeting at 3 o'clock on April 2,” and speaker A replied, “I prefer April 1, but April 2 is fine. ".
この場合、ステップS15において、推定部23は、まず、話者Aから発話された「打ち合わせ」と話者Bから発話された「打ち合わせ」が一致するので同一スケジュールと推定する。そして、推定部23は、抽出したキーワード(「4月」、「1日」、「2日」、「打ち合わせ」、「3時」、「会議室」)において同一カテゴリに属す複数の異なるキーワード「1日」、「2日」があるので、スケジュール変更ありと推定する。
In this case, in step S15, since the “meeting” uttered by the speaker A matches the “meeting” uttered by the speaker B, the estimating
続いて、選択部24は、「1日」又は「2日」のうち、複数の話者A、Bが発話したキーワードを話者単独が発話したキーワードよりも優先して選択する。すなわち、「1日」は話者Aが単独で計2回発話しており、「2日」は話者A、Bがそれぞれ1回ずつ計2回発話しているから、選択部24は、「2日」を共有スケジュールに用いるキーワードとして選択する。このように、話者単独よりも複数の話者の意思が合致した場合にキーワード選択の重みをつけるようにする。同時に選択部24は、同一カテゴリに属す1つのキーワード(「4月」、「打ち合わせ」、「3時」、「会議室」)を選択する。そして、スケジュール作成部25は、これらキーワード(「4月」、「2日」、「打ち合わせ」、「3時」、「会議室」)に基づいて、図8に示す共有スケジュールを作成する。
Subsequently, the
なお、上記例2の場合において、話者Aが「1日」と1回発話し、話者Bが「2日」と1回発話した場合、選択部24は、時系列で後出のキーワード「2日」を前出のキーワード「1日」よりも優先して選択するとよい。時系列で後に発話されるキーワードは、会話の中で更新されたキーワードである可能性が高いからである。
In the case of the above example 2, when the speaker A speaks “1 day” once and the speaker B speaks “2 days” once, the
図7に戻って、識別した話者は複数でないと判定した場合(ステップS14;No)、すなわち話者が単独の場合、上述した推定部23と選択部24の要領で話者単独の発話音声におけるスケジュール変更の有無に基づいて、キーワードを選択する(ステップS17)。話者単独の場合に、同一スケジュール内でスケジュール変更があれば、選択部24は、例えば、複数のキーワードのうち話者の発話回数が最も多いキーワードを選択する、あるいは発話回数が同数であれば時系列で後出のキーワードを選択する、などによりキーワードを選択する。
Returning to FIG. 7, when it is determined that there are not a plurality of identified speakers (step S <b> 14; No), that is, when there is only one speaker, the utterance voice of the speaker alone in the manner of the
次に、スケジュール作成部25は、選択したキーワードに基づいて、単独スケジュールを作成する(ステップS18)。共有スケジュール又は単独スケジュールを作成後(ステップS16又はS18の後)、スケジュール作成処理を終了する。
Next, the
以上説明したように、本実施形態に係るスケジュール作成装置200によれば、推定部23と選択部24とを備えたことにより、単に抽出したキーワードに基づき共有スケジュールを作成するだけでなく、会話の中でスケジュール変更があれば同一カテゴリで2以上あるキーワードの中から選択したキーワードを用いて共有スケジュールを作成することができる。このため、会話の中でのスケジュール変更を加味した正確な共有スケジュールを作成することができる。
As described above, according to the
また、選択部24は、同一カテゴリの2以上のキーワードのうち、複数の話者が発話したキーワードを話者単独が発話したキーワードよりも優先して選択するようにしている。このため、複数の話者の意思の合致を考慮したより正確な共有スケジュールを作成することができる。なお、選択部24の選択手法はこれに限られず、例えば、時系列で後出のキーワードを前出のキーワードより優先して選択してもよい。これによれば会話の中で更新されたキーワード、例えば、言い間違えの訂正などを反映した正確な共有スケジュールを作成することができる。
The
また、推定部23は、会話音声におけるスケジュール変更の有無を、そのスケジュール変更に係るスケジュールとは別のスケジュールを除外して推定する。これによれば、会話の中での別スケジュールの話しをスケジュール変更と誤認する事態を避けることができるので、正確な共有スケジュールを作成することができる。なお、スケジュール作成部25は、除外された別スケジュールを共有スケジュールとして、同時に2つの共有スケジュールを作成してもよい。
Moreover, the
また、この実施形態では、同一スケジュールか否かの判断基準(別のスケジュールとして除外する基準)を所定カテゴリ「予定内容」が一致するか否かとしたが、これに代えて、例えば異なるカテゴリの一致数に基づいて同一スケジュールか否か判断してもよい。例えば、カテゴリ「時間」「場所」「予定内容」の3つが一致すれば同一スケジュールと判断することが考えられる。 Further, in this embodiment, the criterion for determining whether or not the schedules are the same (a criterion to be excluded as a separate schedule) is whether or not the predetermined category “planned contents” matches. You may determine whether it is the same schedule based on the number. For example, if the three categories “time”, “location”, and “planned content” match, it may be determined that the schedules are the same.
また、スケジュール作成装置200の抽出部22は、話者の音声からスケジュールに関連するキーワードをテキストのマッチングにより抽出する。キーワード抽出を音声のマッチングで行った場合、すなわちキーワードテーブル32の各キーワードがテキストではなく音素の集合からなる音素波形だった場合、話者毎に発声したキーワードは必ずしも同じ音素波形になるとは限らない。
このため、テキストのマッチングによるキーワード抽出の手法によれば、話者毎の音の個性が失われるのでキーワード抽出の精度を向上することができる。ただし、音声同士の比較によるキーワード抽出を妨げるものではない。
Moreover, the
For this reason, according to the keyword extraction technique based on text matching, the individuality of the sound for each speaker is lost, so the accuracy of keyword extraction can be improved. However, it does not hinder keyword extraction by comparing voices.
また、この実施形態におけるスケジュール作成装置200によれば、話者識別部21は、話者を(1)音声認識(2)画像認識(3)端末IDにより識別するようにしている。このため、何れか一つの話者識別の手法により話者識別できればよいので、一つの手法のみを用いた話者識別よりも識別確度を上げることができる。特に、ユーザ端末100のカメラ14の画角に話者の顔が入ってない場合などに好適である。また、上記(1)乃至(3)に限らず、話者の指紋データや虹彩パターンの照合などにより話者を識別してもよい。
Further, according to the
また、上述した図7のスケジュール作成処理においては、識別した話者が複数であれば(ステップS14;Yes)、その複数の話者全員に対する共有スケジュールを作成するようにしたが、これに限られない。例えば、ステップS14の後に、複数の話者のうち、所定の条件を満たすか否か判定するステップを加え、その後にスケジュール作成部25は、所定の条件を満たす話者で共有される共有スケジュールを作成してもよい。
In the schedule creation process of FIG. 7 described above, if there are a plurality of identified speakers (step S14; Yes), a sharing schedule is created for all of the plurality of speakers. Absent. For example, after step S <b> 14, a step of determining whether or not a predetermined condition is satisfied among a plurality of speakers is added, and then the
例えば、所定の条件として音量やトーンを用いることができる。音量を用いる場合、制御部20は、話者識別部21が話者を複数識別した場合、その複数の話者の会話音声の音量に基づいて、その複数の話者のうち共有スケジュールを共有する話者を特定すればよい。そして、スケジュール作成部25は、制御部20が特定した話者で共有する共有スケジュールを作成すればよい。なお、この場合、制御部20は、特定手段として機能する。
For example, volume or tone can be used as the predetermined condition. When the volume is used, when the
具体的には、制御部20は、話者識別部21が識別した複数の話者のうち、その話者の会話音声の音量が所定の閾値以下である話者を、共有スケジュールを共有する話者として特定すればよい。
この態様によれば、会議やブリーフィングに参加している登録ユーザ(例えば、図1の話者A及びB)と、登録ユーザではあるものの会議やブリーフィングの参加者ではない通りすがりの人(例えば、話者ではない登録ユーザ名Cの登録ユーザ)と、を音量に基づいて判別し、前者によってのみ共有される共有スケジュールを作成できる。会議やブリーフィングの参加者以外の人間が通りかかる環境においてスケジュールの打ち合わせを行う話者は、互いにのみ会話の内容が聞き取れるように、小声で話す可能性が高いからである。
Specifically, the
According to this aspect, a registered user (for example, speakers A and B in FIG. 1) who participates in a conference or briefing, and a passing person who is a registered user but is not a participant in the conference or briefing (for example, a story) A registered user who is not a registered user name C) can be determined based on the sound volume, and a sharing schedule shared only by the former can be created. This is because speakers who make schedule meetings in an environment where people other than participants in conferences and briefings pass are highly likely to speak quietly so that the content of the conversation can be heard only from one another.
また、制御部20は、話者識別部21が識別した複数の話者のうち少なくとも何れか一人の会話音声の声量が所定の閾値以上である場合、話者識別部21が識別した複数の話者全員を、共有スケジュールを共有する話者として特定することとしてもよい。
この態様によれば、会議やブリーフィングにおいて参加者全員を対象に周知したいスケジュールを、参加者全員によって共有されるスケジュールとして共有設定することができる。話者が一定以上の大声でスケジュールについて話している場合、会議やブリーフィングに参加している人全員でスケジュールを共有することを所望している可能性が高いからである。
In addition, when the volume of at least one of the conversation voices among the plurality of speakers identified by the
According to this aspect, it is possible to share and set a schedule to be made known to all participants in a meeting or briefing as a schedule shared by all participants. This is because if the speaker is speaking about the schedule louder than a certain level, there is a high possibility that all the participants participating in the conference or briefing want to share the schedule.
以上で実施形態の説明を終了するが、上記実施形態は一例であり、スケジュール装置200の構成やスケジュール作成処理の内容などが上記実施形態で説明したものに限られないことはもちろんである。
Although the description of the embodiment has been completed above, the embodiment is an example, and it is needless to say that the configuration of the
(第2の実施形態)
上述の第1の実施形態において、スケジュール作成装置200は、スケジュール作成部25が作成したスケジュールが既に登録されているか否か判定することなく、スケジュール登録するようにした。そこで、第2の実施形態におけるスケジュール作成装置200’においては、重複登録を避けるための新たな機能を追加した点がスケジュール作成装置200と異なる。以下では、この異なる点を中心に説明する。
(Second Embodiment)
In the first embodiment described above, the
図9に示すように、スケジュール作成装置200’は、新たな機能として、判定部26及び更新部27を備える。
As illustrated in FIG. 9, the
判定部26は、スケジュール作成部25が作成した共有スケジュールが、複数の話者全員に共有済みか否か判定する。また、判定部26は、スケジュール作成部25が作成した単独スケジュールが登録済みか否か判定する。
The
更新部27は、共有スケジュールが複数の話者全員に共有済みでないと判定部26が判定した場合、共有済みでない話者のスケジュールを更新する。また、更新部27は、単独スケジュールが登録済みではないと判定部26が判定した場合、スケジュール作成部25が作成した単独スケジュールを登録する。
When the
以下、スケジュール作成装置200’のスケジュール作成処理について、図10を参照しながら説明する。このスケジュール作成処理は、新たな機能に係るステップS19乃至22を加えた以外は第1の実施形態に係るスケジュール作成処理と同じなので、異なるステップを中心に説明する。 Hereinafter, the schedule creation processing of the schedule creation device 200 'will be described with reference to FIG. Since this schedule creation process is the same as the schedule creation process according to the first embodiment except that steps S19 to S22 relating to the new function are added, the description will focus on different steps.
ステップS16においてスケジュール作成部25が共有スケジュールを作成した後、判定部26は、共有スケジュールは共有済みか否か判定する(ステップS19)。具体的には、判定部26は、共有スケジュールが複数の話者全員に共有済みか否か判定する。
After the
ここで、共有スケジュールが複数の話者全員に共有されていないと判定された場合(ステップS19;No)、更新部27は、共有スケジュールを共有済みでない話者のスケジュールを更新して(ステップS20)、処理を終了する。
例えば、識別した話者がA及びBである場合において、Aのみに既存スケジュールが登録されている場合は、図11に示す更新前の単独スケジュールを、図12に示す共有スケジュールに更新する。
一方、共有スケジュールが共有済みと判定された場合(ステップS19;Yes)、例えば、話者A及びBが既にスケジュールを共有済みである場合、処理を終了する。
Here, when it is determined that the sharing schedule is not shared by all the speakers (step S19; No), the updating
For example, when the identified speakers are A and B, and the existing schedule is registered only in A, the single schedule before update shown in FIG. 11 is updated to the shared schedule shown in FIG.
On the other hand, if it is determined that the sharing schedule has been shared (step S19; Yes), for example, if speakers A and B have already shared the schedule, the process ends.
一方、ステップS18においてスケジュール作成部25が単独スケジュールを作成した後、判定部26は、単独スケジュールは登録済みか否か判定する(ステップS21)。
ここで、単独スケジュールが複数の登録済みでないと判定された場合(ステップS21;No)、更新部27は、単独スケジュールを新規登録して(ステップS22)、処理を終了する。一方、単独スケジュールが登録済みと判定された場合(ステップS21;Yes)、処理を終了する。
On the other hand, after the
Here, when it is determined that the single schedule is not already registered (step S21; No), the
以上説明したように、第2の実施形態に係るスケジュール作成装置200’によれば、判定部26と更新部27を備えたことにより、共有スケジュールが共有済みでない場合と単独スケジュールが登録済みでない場合とに限って更新・新規登録を行うことができる。このため、スケジュール作成装置200’によれば、重複登録を避けつつ、必要がある場合にのみ更新・新規登録を行うことができる。
As described above, according to the
(第3の実施形態)
上述した第1及び第2の実施形態において、スケジュール作成装置200は、別装置であるユーザ端末100から受信した話者の音声、画像、端末IDを用いて話者を識別することを前提に説明したが、これに限られない。例えば、図13に示すように、ノートPCであるスケジュール作成装置300が音声の収音、画像の撮像を行うようなスタンドアロン型の構成にしてもよい。
(Third embodiment)
In the first and second embodiments described above, the
この場合、スケジュール作成装置300は、図14に示すように、音声を収音するためのマイク50、画像を撮像するためのカメラ60を備える。そして、スケジュール作成装置300は、自装置で収音した音声と撮像した画像とにより、上述した図7のスケジュール作成処理を実行してスケジュールを作成する。スケジュール作成処理のトリガは、話者A又はBがスケジュール作成プログラムを起動して開始指示を入力した場合にすればよい。なお、作成した共有スケジュールは、サーバ等にアップロードすることでスケジュール作成装置300の所有者以外も共有スケジュールを参照することができる。
In this case, the
以上説明した第3の実施形態に係るスケジュール作成装置300によれば、スタンドアロン型であるため、音声と画像の送信に伴う遅延を生じることなく迅速に話者識別、キーワード抽出を行ってスケジュールを作成することができる。このため、通信ネットワークの状況に依らずに、即座にスケジュールを作成することができるのでユーザビリティを向上することができる。
According to the
(第4の実施形態)
上述した第1の実施形態において、スケジュール作成装置200は、複数の話者全員で共有する共有スケジュールを作成することを前提に説明した。この場合、スケジュールに関連するキーワードを発話していない話者についても会話音声から話者識別されると共有スケジュールを作成することになる。例えば、話者A及びB以外のCがキーワードを発話していないような場合にもABCで共有する共有スケジュールを作成する。
(Fourth embodiment)
In the first embodiment described above, the
そこで、図15に示す第4の実施形態に係るスケジュール作成装置400のスケジュール作成部25は、抽出部22が抽出したキーワードを発話した話者のみで共有する共有スケジュールを作成するようにする。この場合、例えば、話者識別部21は、話者識別用テンプレートを用いて話者を識別する際、抽出部22が抽出したキーワードの発話音声部分の声紋から話者を識別するようにする。そして、スケジュール作成部25は、キーワードを発話した話者のみで共有する共有スケジュール(上述の例では、Cを除いたABで共有する共有スケジュール)を作成すればよい。
Therefore, the
また、スケジュール修正部28は、スケジュール作成部25によって作成され、スケジュール記憶部34に記憶された共有スケジュールを修正する。上述した実施形態1のスケジュール作成装置200は、推定部23、選択部24などによりリアルタイムで受信する会話音声から、修正が反映された修正済みの共有スケジュールを作成したが、スケジュール修正部28は、一旦記憶された共有スケジュールに対して修正を行う。スケジュール修正部28の修正手法は任意だが、例えば、録音された会話音声に基づいて、推定部23、選択部24などと同様の機能により、同一カテゴリで複数のキーワードが抽出されていたような場合、1つのキーワードを選択する等して修正を行えばよい。なお、録音音声に限らず、一旦記憶された共有スケジュールに対してリアルタイムに逐一修正を行ってもよいことはもちろんである。
The
この実施形態4に係るスケジュール作成装置400によれば、修正機能により共有スケジュールの精度を上げつつ、スケジュールを共有する必要のない話者を除いた話者間での共有スケジュールを作成することができる。
共有するスケジュールは複数であってよく、例えば話者ABCDEが発話していたとき、「4月2日企画会議3時会議室」のスケジュールは話者ABCが共有し、「4月3日販売会議3時会議室」のスケジュールは話者ACDが共有する。
According to the schedule creation device 400 according to the fourth embodiment, it is possible to create a sharing schedule between speakers excluding speakers who do not need to share a schedule while improving the accuracy of the sharing schedule by a correction function. .
Multiple schedules may be shared. For example, when speaker ABCDE is speaking, the schedule of “April 2 Planning Meeting 3:00 Meeting Room” is shared by Speaker ABC, and “April 3 Sales Meeting” The schedule for the “3 o'clock meeting room” is shared by the speaker ACD.
なお、上述した第1及び第2の実施形態において図7のスケジュール作成処理は、識別した話者が複数であれば(ステップS14;Yes)、共有スケジュールの作成を開始したが、これに限られない。例えば、ステップS14の後に話者の承諾があったか否か判定する処理を加えて、承諾があることをトリガに共有スケジュールの作成を開始してもよい。
具体的には、予め承諾に関連するキーワード(例えば、「分かりました」や「了解」など)を記憶しておき、何れかの話者がそのキーワードを発話したことをトリガとして共有スケジュールを作成してもよい。これによれば、話者がスケジュールの共有を望まない場合などに強制的に共有スケジュールを作成してしまう事態を避けることができる。
In the first and second embodiments described above, the schedule creation processing in FIG. 7 starts the creation of the shared schedule if there are a plurality of identified speakers (step S14; Yes), but is not limited thereto. Absent. For example, after the step S14, a process for determining whether or not there is a speaker's consent may be added, and creation of a shared schedule may be started with the presence of the consent as a trigger.
Specifically, keywords related to consent (for example, “I understand” or “OK”) are memorized in advance, and a sharing schedule is created triggered by any speaker speaking the keyword. May be. According to this, it is possible to avoid a situation where the sharing schedule is forcibly created when the speaker does not want to share the schedule.
なお、上述した第1及び第2の実施形態おいては、ユーザ端末100はスマートフォンであることを前提に説明したが、これに限られない。可搬型であればよく、例えば、ノートPC、タブレット端末などを用いることができる。また、スケジュール作成装置200、200’は、サーバに限らず、スケジュール作成処理の負荷に耐えうる装置であればどのような装置でも構わない。例えば、PCを用いることができる。
また、各実施形態で共通するスケジュールフォーマット33の態様は一例であって、別の態様(例えば、カレンダー形式など)を採用してもよいことはもちろんである。
In addition, in 1st and 2nd embodiment mentioned above, although the
Moreover, the aspect of the
また、この発明のスケジュール作成装置200、200’、300、400の各機能は、通常のPC等のコンピュータによっても実施することができる。
具体的には、上記実施形態では、スケジュール作成装置200、200’、300、400が行うスケジュール作成処理のプログラムが、記憶部30のROMに予め記憶されているものとして説明した。しかし、スケジュール作成処理のプログラムを、フレキシブルディスク、CD−ROM(Compact Disc Read Only Memory)、DVD(Digital Versatile Disc)及びMO(Magneto−Optical Disc)等のコンピュータ読み取り可能な記録媒体に格納して配布し、そのプログラムをコンピュータにインストールすることにより、上述の各機能を実現することができるコンピュータを構成してもよい。
The functions of the
Specifically, in the above embodiment, the schedule creation processing program performed by the
以上、本発明の好ましい実施形態について説明したが、本発明は係る特定の実施形態に限定されるものではなく、本発明には、特許請求の範囲に記載された発明とその均等の範囲が含まれる。以下に、本願出願の当初の特許請求の範囲に記載された発明を付記する。 As mentioned above, although preferable embodiment of this invention was described, this invention is not limited to the specific embodiment which concerns, This invention includes the invention described in the claim, and its equivalent range It is. Hereinafter, the invention described in the scope of claims of the present application will be appended.
(付記1)
複数の話者の会話音声からスケジュールに関連するカテゴリに属すキーワードを抽出する抽出手段と、
前記抽出手段が同一カテゴリに属す異なるキーワードを複数抽出したか否かに基づいて、前記会話音声におけるスケジュール変更の有無を推定する推定手段と、
前記推定手段がスケジュール変更有りと推定した場合、前記同一カテゴリに属す複数の異なるキーワードのうち、前記複数の話者で共有する共有スケジュールに用いるキーワードを選択する選択手段と、
前記選択手段が選択したキーワードに基づいて、前記共有スケジュールを作成するスケジュール作成手段と、
を備えたことを特徴とするスケジュール作成装置。
(Appendix 1)
An extraction means for extracting keywords belonging to a category related to a schedule from conversational voices of a plurality of speakers;
Based on whether the extraction means has extracted a plurality of different keywords belonging to the same category, the estimation means for estimating the presence or absence of a schedule change in the conversation voice;
When the estimating means estimates that there is a schedule change, out of a plurality of different keywords belonging to the same category, a selecting means for selecting a keyword used for a shared schedule shared by the plurality of speakers;
Schedule creation means for creating the shared schedule based on the keyword selected by the selection means;
A schedule creation device comprising:
(付記2)
前記推定手段は、前記会話音声におけるスケジュール変更の有無を、該スケジュール変更に係るスケジュールとは別のスケジュールを除外して推定する、
ことを特徴とする付記1に記載のスケジュール作成装置。
(Appendix 2)
The estimating means estimates the presence or absence of a schedule change in the conversation voice by excluding a schedule different from the schedule related to the schedule change;
The schedule creation device according to
(付記3)
前記推定手段は、前記抽出手段が同一カテゴリに属す異なるキーワードを複数抽出した場合、前記会話音声におけるスケジュール変更有りと推定し、
前記選択手段は、前記推定手段がスケジュール変更有りと推定した場合、前記同一カテゴリに属す複数の異なるキーワードのうち、前記複数の話者が発話したキーワードを話者単独が発話したキーワードよりも優先して選択する、
ことを特徴とする付記1又は2に記載のスケジュール作成装置。
(Appendix 3)
The estimation means estimates that there is a schedule change in the conversation voice when the extraction means extracts a plurality of different keywords belonging to the same category,
When the estimation unit estimates that there is a schedule change, the selection unit prioritizes a keyword spoken by the plurality of speakers over a keyword spoken by the speaker alone among a plurality of different keywords belonging to the same category. Select
The schedule creation device according to
(付記4)
前記推定手段は、前記抽出手段が同一カテゴリに属す異なるキーワードを複数抽出した場合、前記会話音声におけるスケジュール変更有りと推定し、
前記選択手段は、前記推定手段がスケジュール変更有りと推定した場合、前記同一カテゴリに属す複数の異なるキーワードのうち、時系列で後出のキーワードを前出のキーワードよりも優先して選択する、
ことを特徴とする付記1又は2に記載のスケジュール作成装置。
(Appendix 4)
The estimation means estimates that there is a schedule change in the conversation voice when the extraction means extracts a plurality of different keywords belonging to the same category,
The selection means, when the estimation means estimates that there is a schedule change, out of a plurality of different keywords belonging to the same category, to select the subsequent keywords in time series with priority over the previous keywords,
The schedule creation device according to
(付記5)
前記推定手段は、前記抽出手段が同一カテゴリに属す異なるキーワードを複数抽出しなかった場合、前記会話音声におけるスケジュール変更無しと推定し、
前記選択手段は、前記推定手段がスケジュール変更無しと推定した場合、前記抽出手段が抽出した前記同一カテゴリに属す1つのキーワードを選択する、
ことを特徴とする付記1乃至4の何れか一つに記載のスケジュール作成装置。
(Appendix 5)
If the extraction means does not extract a plurality of different keywords belonging to the same category, the estimation means estimates that there is no schedule change in the conversation voice,
The selecting means selects one keyword belonging to the same category extracted by the extracting means when the estimating means estimates that there is no schedule change;
The schedule creation device according to any one of
(付記6)
前記複数の話者の会話音声の音量又はトーンに基づいて、該複数の話者のうち前記共有スケジュールを共有する話者を特定する特定手段を備え、
前記スケジュール作成手段は、前記選択手段が選択したキーワードに基づいて、前記特定手段が特定した話者で共有する共有スケジュールを作成する、
ことを特徴とする付記1乃至5の何れか一つに記載のスケジュール作成装置。
(Appendix 6)
Based on the volume or tone of the conversational voices of the plurality of speakers, comprising a specifying means for specifying a speaker sharing the sharing schedule among the plurality of speakers,
The schedule creating means creates a sharing schedule to be shared by the speakers identified by the identifying means based on the keywords selected by the selecting means;
The schedule creation device according to any one of
(付記7)
前記スケジュール作成手段が作成した前記共有スケジュールが、前記複数の話者全員に共有済みか否か判定する判定手段と、
前記判定手段が前記複数の話者全員に共有済みでないと判定した場合、共有済みでない話者のスケジュールを更新する更新手段と、
を備えたことを特徴とする付記1乃至6の何れか一つに記載のスケジュール作成装置。
(Appendix 7)
Determining means for determining whether the sharing schedule created by the schedule creating means has been shared by all the plurality of speakers;
An update unit that updates a schedule of speakers that have not been shared when the determination unit determines that the plurality of speakers have not been shared;
The schedule creation device according to any one of
(付記8)
前記抽出手段は、前記会話音声をテキストに変換し、該変換したテキストが、予め学習しておいた複数のカテゴリのうち何れかのカテゴリに属すキーワードのテキストと一致した場合、該一致したテキストをキーワードとして抽出する、
ことを特徴とする付記1乃至7の何れか一つに記載のスケジュール作成装置。
(Appendix 8)
The extraction means converts the conversation voice into text, and when the converted text matches the text of a keyword belonging to any of a plurality of categories learned in advance, the matched text is Extract as keywords,
The schedule creation device according to any one of
(付記9)
前記複数の話者を音声認識又は画像認識により識別する識別手段を備えた、
ことを特徴とする付記1乃至8の何れか一つに記載のスケジュール作成装置。
(Appendix 9)
An identification means for identifying the plurality of speakers by voice recognition or image recognition;
The schedule creation device according to any one of
(付記10)
話者を識別する話者識別手段と、
前記話者識別手段が話者を複数識別した場合、該複数の話者の会話音声からスケジュールに関連するカテゴリに属すキーワードを抽出する抽出手段と、
前記抽出手段が抽出したキーワードを発話した話者のみで共有する共有スケジュールを作成するスケジュール作成手段と、
前記スケジュール作成手段が作成した共有スケジュールを、前記複数の話者の会話音声に基づいて修正するスケジュール修正手段と、
を備えたことを特徴とするスケジュール作成装置。
(Appendix 10)
Speaker identification means for identifying the speaker;
When the speaker identification means identifies a plurality of speakers, an extraction means for extracting keywords belonging to a category related to the schedule from the conversation voices of the plurality of speakers;
Schedule creation means for creating a sharing schedule that is shared only by the speaker who spoke the keyword extracted by the extraction means;
Schedule correction means for correcting the sharing schedule created by the schedule creation means based on conversational voices of the plurality of speakers;
A schedule creation device comprising:
(付記11)
前記スケジュール作成手段は、前記抽出手段が抽出したキーワードのうち共通のキーワードを発話した話者のみで共有する共有スケジュールを作成する、
ことを特徴とする付記10に記載のスケジュール作成装置。
(Appendix 11)
The schedule creation means creates a shared schedule that is shared only by speakers who have spoken a common keyword among the keywords extracted by the extraction means.
The schedule creation device according to Supplementary Note 10, wherein
(付記12)
複数の話者の会話音声からスケジュールに関連するカテゴリに属すキーワードを抽出する抽出ステップと、
前記抽出ステップにおいて同一カテゴリに属す異なるキーワードを複数抽出したか否かに基づいて、前記会話音声におけるスケジュール変更の有無を推定する推定ステップと、
前記推定ステップにおいてスケジュール変更有りと推定した場合、前記同一カテゴリに属す複数の異なるキーワードのうち、前記複数の話者で共有する共有スケジュールに用いるキーワードを選択する選択ステップと、
前記選択ステップにおいて選択したキーワードに基づいて、前記共有スケジュールを作成するスケジュール作成ステップと、
を備えたことを特徴とするスケジュール作成方法。
(Appendix 12)
An extraction step of extracting keywords belonging to a category related to the schedule from conversational voices of a plurality of speakers;
Based on whether or not a plurality of different keywords belonging to the same category are extracted in the extraction step, an estimation step for estimating the presence or absence of a schedule change in the conversation voice;
When it is estimated that there is a schedule change in the estimation step, a selection step of selecting a keyword to be used for a sharing schedule shared by the plurality of speakers among a plurality of different keywords belonging to the same category;
A schedule creation step of creating the shared schedule based on the keyword selected in the selection step;
A schedule creation method characterized by comprising:
(付記13)
コンピュータを、
複数の話者の会話音声からスケジュールに関連するカテゴリに属すキーワードを抽出する抽出手段、
前記抽出手段が同一カテゴリに属す異なるキーワードを複数抽出したか否かに基づいて、前記会話音声におけるスケジュール変更の有無を推定する推定手段、
前記推定手段がスケジュール変更有りと推定した場合、前記同一カテゴリに属す複数の異なるキーワードのうち、前記複数の話者で共有する共有スケジュールに用いるキーワードを選択する選択手段、
前記選択手段が選択したキーワードに基づいて、前記共有スケジュールを作成するスケジュール作成手段、
として機能させるためのプログラム。
(Appendix 13)
Computer
An extraction means for extracting keywords belonging to a category related to a schedule from conversational voices of a plurality of speakers;
Estimating means for estimating the presence or absence of a schedule change in the conversation voice based on whether or not the extracting means has extracted a plurality of different keywords belonging to the same category;
A selection means for selecting a keyword to be used for a shared schedule shared by the plurality of speakers from a plurality of different keywords belonging to the same category when the estimation means estimates that there is a schedule change;
Schedule creation means for creating the shared schedule based on the keyword selected by the selection means;
Program to function as.
100…ユーザ端末、200,200’,300,400…スケジュール作成装置、11…制御部、12…入力部、13,50…マイク、14,60…カメラ、15…記憶部、16…通信部、17…表示部、20…制御部、21…話者識別部、22…抽出部、23…推定部、24…選択部、25…スケジュール作成部、26…判定部、27…更新部、28…スケジュール修正部、30…記憶部、31…話者識別用テンプレート、32…キーワードテーブル、33…スケジュールフォーマット、34…スケジュール記憶部、40…通信部
DESCRIPTION OF
Claims (13)
前記抽出手段が同一カテゴリに属す異なるキーワードを複数抽出したか否かに基づいて、前記会話音声におけるスケジュール変更の有無を推定する推定手段と、
前記推定手段がスケジュール変更有りと推定した場合、前記同一カテゴリに属す複数の異なるキーワードのうち、前記複数の話者で共有する共有スケジュールに用いるキーワードを選択する選択手段と、
前記選択手段が選択したキーワードに基づいて、前記共有スケジュールを作成するスケジュール作成手段と、
を備えたことを特徴とするスケジュール作成装置。 An extraction means for extracting keywords belonging to a category related to a schedule from conversational voices of a plurality of speakers;
Based on whether the extraction means has extracted a plurality of different keywords belonging to the same category, the estimation means for estimating the presence or absence of a schedule change in the conversation voice;
When the estimating means estimates that there is a schedule change, out of a plurality of different keywords belonging to the same category, a selecting means for selecting a keyword used for a shared schedule shared by the plurality of speakers;
Schedule creation means for creating the shared schedule based on the keyword selected by the selection means;
A schedule creation device comprising:
ことを特徴とする請求項1に記載のスケジュール作成装置。 The estimating means estimates the presence or absence of a schedule change in the conversation voice by excluding a schedule different from the schedule related to the schedule change;
The schedule creation device according to claim 1.
前記選択手段は、前記推定手段がスケジュール変更有りと推定した場合、前記同一カテゴリに属す複数の異なるキーワードのうち、前記複数の話者が発話したキーワードを話者単独が発話したキーワードよりも優先して選択する、
ことを特徴とする請求項1又は2に記載のスケジュール作成装置。 The estimation means estimates that there is a schedule change in the conversation voice when the extraction means extracts a plurality of different keywords belonging to the same category,
When the estimation unit estimates that there is a schedule change, the selection unit prioritizes a keyword spoken by the plurality of speakers over a keyword spoken by the speaker alone among a plurality of different keywords belonging to the same category. Select
The schedule creation device according to claim 1 or 2, wherein
前記選択手段は、前記推定手段がスケジュール変更有りと推定した場合、前記同一カテゴリに属す複数の異なるキーワードのうち、時系列で後出のキーワードを前出のキーワードよりも優先して選択する、
ことを特徴とする請求項1又は2に記載のスケジュール作成装置。 The estimation means estimates that there is a schedule change in the conversation voice when the extraction means extracts a plurality of different keywords belonging to the same category,
The selection means, when the estimation means estimates that there is a schedule change, out of a plurality of different keywords belonging to the same category, to select the subsequent keywords in time series with priority over the previous keywords,
The schedule creation device according to claim 1 or 2, wherein
前記選択手段は、前記推定手段がスケジュール変更無しと推定した場合、前記抽出手段が抽出した前記同一カテゴリに属す1つのキーワードを選択する、
ことを特徴とする請求項1乃至4の何れか一項に記載のスケジュール作成装置。 If the extraction means does not extract a plurality of different keywords belonging to the same category, the estimation means estimates that there is no schedule change in the conversation voice,
The selecting means selects one keyword belonging to the same category extracted by the extracting means when the estimating means estimates that there is no schedule change;
The schedule creation device according to claim 1, wherein the schedule creation device is a device for creating a schedule.
前記スケジュール作成手段は、前記選択手段が選択したキーワードに基づいて、前記特定手段が特定した話者で共有する共有スケジュールを作成する、
ことを特徴とする請求項1乃至5の何れか一項に記載のスケジュール作成装置。 Based on the volume or tone of the conversational voices of the plurality of speakers, comprising a specifying means for specifying a speaker sharing the sharing schedule among the plurality of speakers,
The schedule creating means creates a sharing schedule to be shared by the speakers identified by the identifying means based on the keywords selected by the selecting means;
The schedule creation device according to claim 1, wherein the schedule creation device is a device for creating a schedule.
前記判定手段が前記複数の話者全員に共有済みでないと判定した場合、共有済みでない話者のスケジュールを更新する更新手段と、
を備えたことを特徴とする請求項1乃至6の何れか一項に記載のスケジュール作成装置。 Determining means for determining whether the sharing schedule created by the schedule creating means has been shared by all the plurality of speakers;
An update unit that updates a schedule of speakers that have not been shared when the determination unit determines that the plurality of speakers have not been shared;
The schedule creation device according to any one of claims 1 to 6, further comprising:
ことを特徴とする請求項1乃至7の何れか一項に記載のスケジュール作成装置。 The extraction means converts the conversation voice into text, and when the converted text matches the text of a keyword belonging to any of a plurality of categories learned in advance, the matched text is Extract as keywords,
The schedule creation device according to claim 1, wherein the schedule creation device is a device for creating a schedule.
ことを特徴とする請求項1乃至8の何れか一項に記載のスケジュール作成装置。 An identification means for identifying the plurality of speakers by voice recognition or image recognition;
The schedule creation device according to claim 1, wherein the schedule creation device is a device for creating a schedule.
前記話者識別手段が話者を複数識別した場合、該複数の話者の会話音声からスケジュールに関連するカテゴリに属すキーワードを抽出する抽出手段と、
前記抽出手段が抽出したキーワードを発話した話者のみで共有する共有スケジュールを作成するスケジュール作成手段と、
前記スケジュール作成手段が作成した共有スケジュールを、前記複数の話者の会話音声に基づいて修正するスケジュール修正手段と、
を備えたことを特徴とするスケジュール作成装置。 Speaker identification means for identifying the speaker;
When the speaker identification means identifies a plurality of speakers, an extraction means for extracting keywords belonging to a category related to the schedule from the conversation voices of the plurality of speakers;
Schedule creation means for creating a sharing schedule that is shared only by the speaker who spoke the keyword extracted by the extraction means;
Schedule correction means for correcting the sharing schedule created by the schedule creation means based on conversational voices of the plurality of speakers;
A schedule creation device comprising:
ことを特徴とする請求項10に記載のスケジュール作成装置。 The schedule creation means creates a shared schedule that is shared only by speakers who have spoken a common keyword among the keywords extracted by the extraction means.
The schedule creation device according to claim 10.
前記抽出ステップにおいて同一カテゴリに属す異なるキーワードを複数抽出したか否かに基づいて、前記会話音声におけるスケジュール変更の有無を推定する推定ステップと、
前記推定ステップにおいてスケジュール変更有りと推定した場合、前記同一カテゴリに属す複数の異なるキーワードのうち、前記複数の話者で共有する共有スケジュールに用いるキーワードを選択する選択ステップと、
前記選択ステップにおいて選択したキーワードに基づいて、前記共有スケジュールを作成するスケジュール作成ステップと、
を備えたことを特徴とするスケジュール作成方法。 An extraction step of extracting keywords belonging to a category related to the schedule from conversational voices of a plurality of speakers;
Based on whether or not a plurality of different keywords belonging to the same category are extracted in the extraction step, an estimation step for estimating the presence or absence of a schedule change in the conversation voice;
When it is estimated that there is a schedule change in the estimation step, a selection step of selecting a keyword to be used for a sharing schedule shared by the plurality of speakers among a plurality of different keywords belonging to the same category;
A schedule creation step of creating the shared schedule based on the keyword selected in the selection step;
A schedule creation method characterized by comprising:
複数の話者の会話音声からスケジュールに関連するカテゴリに属すキーワードを抽出する抽出手段、
前記抽出手段が同一カテゴリに属す異なるキーワードを複数抽出したか否かに基づいて、前記会話音声におけるスケジュール変更の有無を推定する推定手段、
前記推定手段がスケジュール変更有りと推定した場合、前記同一カテゴリに属す複数の異なるキーワードのうち、前記複数の話者で共有する共有スケジュールに用いるキーワードを選択する選択手段、
前記選択手段が選択したキーワードに基づいて、前記共有スケジュールを作成するスケジュール作成手段、
として機能させるためのプログラム。 Computer
An extraction means for extracting keywords belonging to a category related to a schedule from conversational voices of a plurality of speakers;
Estimating means for estimating the presence or absence of a schedule change in the conversation voice based on whether or not the extracting means has extracted a plurality of different keywords belonging to the same category;
A selection means for selecting a keyword to be used for a shared schedule shared by the plurality of speakers from a plurality of different keywords belonging to the same category when the estimation means estimates that there is a schedule change;
Schedule creation means for creating the shared schedule based on the keyword selected by the selection means;
Program to function as.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015099323A JP6596913B2 (en) | 2015-05-14 | 2015-05-14 | Schedule creation device, schedule creation method, program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015099323A JP6596913B2 (en) | 2015-05-14 | 2015-05-14 | Schedule creation device, schedule creation method, program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2016218522A true JP2016218522A (en) | 2016-12-22 |
JP6596913B2 JP6596913B2 (en) | 2019-10-30 |
Family
ID=57581126
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015099323A Active JP6596913B2 (en) | 2015-05-14 | 2015-05-14 | Schedule creation device, schedule creation method, program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6596913B2 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110544072A (en) * | 2019-09-03 | 2019-12-06 | Oppo(重庆)智能科技有限公司 | Information sharing method and device, electronic device and computer readable storage medium |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006113956A (en) * | 2004-10-18 | 2006-04-27 | Omron Corp | Program for creating schedule information, information processor, correction method of schedule information |
JP2006139384A (en) * | 2004-11-10 | 2006-06-01 | Hitachi Information Technology Co Ltd | Information processor and program |
JP2011170637A (en) * | 2010-02-18 | 2011-09-01 | Nikon Corp | Information processor |
JP2014059885A (en) * | 2009-06-29 | 2014-04-03 | Masaaki Tokuyama | Program, information processor, and information processing method |
JP2014135543A (en) * | 2013-01-08 | 2014-07-24 | Nakayo Telecommun Inc | Method of registering voice memo relating to schedule |
-
2015
- 2015-05-14 JP JP2015099323A patent/JP6596913B2/en active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006113956A (en) * | 2004-10-18 | 2006-04-27 | Omron Corp | Program for creating schedule information, information processor, correction method of schedule information |
JP2006139384A (en) * | 2004-11-10 | 2006-06-01 | Hitachi Information Technology Co Ltd | Information processor and program |
JP2014059885A (en) * | 2009-06-29 | 2014-04-03 | Masaaki Tokuyama | Program, information processor, and information processing method |
JP2011170637A (en) * | 2010-02-18 | 2011-09-01 | Nikon Corp | Information processor |
JP2014135543A (en) * | 2013-01-08 | 2014-07-24 | Nakayo Telecommun Inc | Method of registering voice memo relating to schedule |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110544072A (en) * | 2019-09-03 | 2019-12-06 | Oppo(重庆)智能科技有限公司 | Information sharing method and device, electronic device and computer readable storage medium |
Also Published As
Publication number | Publication date |
---|---|
JP6596913B2 (en) | 2019-10-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11699456B2 (en) | Automated transcript generation from multi-channel audio | |
US10678501B2 (en) | Context based identification of non-relevant verbal communications | |
TWI536365B (en) | Voice print identification | |
US7995732B2 (en) | Managing audio in a multi-source audio environment | |
WO2019118852A1 (en) | System and methods for in-meeting group assistance using a virtual assistant | |
TWI616868B (en) | Meeting minutes device and method thereof for automatically creating meeting minutes | |
US20040064322A1 (en) | Automatic consolidation of voice enabled multi-user meeting minutes | |
US20150149169A1 (en) | Method and apparatus for providing mobile multimodal speech hearing aid | |
TWI619115B (en) | Meeting minutes device and method thereof for automatically creating meeting minutes | |
US20170287482A1 (en) | Identifying speakers in transcription of multiple party conversations | |
US10199035B2 (en) | Multi-channel speech recognition | |
CN107945806B (en) | User identification method and device based on sound characteristics | |
US20210105437A1 (en) | Information processing device, information processing method, and storage medium | |
US20220231873A1 (en) | System for facilitating comprehensive multilingual virtual or real-time meeting with real-time translation | |
JP2018174439A (en) | Conference support system, conference support method, program of conference support apparatus, and program of terminal | |
US11909786B2 (en) | Systems and methods for improved group communication sessions | |
KR20170126667A (en) | Method for generating conference record automatically and apparatus thereof | |
JP2010109898A (en) | Photographing control apparatus, photographing control method and program | |
CN104851423B (en) | Sound information processing method and device | |
US11783836B2 (en) | Personal electronic captioning based on a participant user's difficulty in understanding a speaker | |
JP6596913B2 (en) | Schedule creation device, schedule creation method, program | |
CN110865789A (en) | Method and system for intelligently starting microphone based on voice recognition | |
US20230282224A1 (en) | Systems and methods for improved group communication sessions | |
US8775163B1 (en) | Selectable silent mode for real-time audio communication system | |
JP6730651B1 (en) | Voice conversion device, voice conversion system and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180410 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20190129 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190228 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20190507 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190701 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20190903 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20190916 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6596913 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |