JP2022092178A - Information processing device - Google Patents
Information processing device Download PDFInfo
- Publication number
- JP2022092178A JP2022092178A JP2020204816A JP2020204816A JP2022092178A JP 2022092178 A JP2022092178 A JP 2022092178A JP 2020204816 A JP2020204816 A JP 2020204816A JP 2020204816 A JP2020204816 A JP 2020204816A JP 2022092178 A JP2022092178 A JP 2022092178A
- Authority
- JP
- Japan
- Prior art keywords
- voice
- character
- data
- unit
- speaker
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- User Interface Of Digital Computer (AREA)
Abstract
Description
本発明は、情報処理装置に関する。 The present invention relates to an information processing device.
特許文献1には、顧客と担当者との交渉において、担当者が説明すべきキーワードをすべて説明できた否かを確認するシステムが開示されている。
具体的には、特許文献1のシステムは、顧客端末と、担当者端末と、管理サーバを備える。担当者端末は、担当者音声をマイクで拾って担当者音声信号として管理サーバへ送る。管理サーバは、担当者音声信号からキーワードデータを抽出し、抽出したキーワードデータと予め設定された確認キーワードデータと比較する。
Specifically, the system of
特許文献1のシステムでは、キーワードを予め設定する必要があり、例えば、担当者による説明の最中に顧客からの質問等があった場合に、質問内容を記録したり、質問に対する回答が適切であるかを判定すること等には対応できない。このため、特許文献1のシステムは、議事録の作成には向いていない。
In the system of
本発明は上記課題に鑑みてなされたものであり、その目的は、音声信号に基づいて議事録の作成が可能な情報処理装置を提供することにある。 The present invention has been made in view of the above problems, and an object of the present invention is to provide an information processing apparatus capable of creating minutes based on an audio signal.
本発明に係る情報処理装置は、音声認識部と、変換部と、比較処理部とを備える。前記音声認識部は、音声を認識する。前記変換部は、前記音声認識部によって認識された前記音声を文字データに変換する。前記比較処理部は、前記変換部によって変換された前記文字データを原稿データと比較し、前記文字データと前記原稿データとが一致する場合、前記原稿データにおける対応する文字のプロパティを変更する。前記音声認識部は、特定の音声を認識して発言者として登録する。前記変換部は、前記音声認識部によって登録された前記発言者による音声と、前記発言者以外による音声とを区別してそれぞれの前記音声を前記文字データに変換する。前記比較処理部は、前記原稿データにおける前記発言者による音声が変換された前記文字データに対応する前記文字と、前記発言者以外による音声が変換された前記文字データに対応する前記文字とを異なる前記プロパティに変更する。 The information processing apparatus according to the present invention includes a voice recognition unit, a conversion unit, and a comparison processing unit. The voice recognition unit recognizes voice. The conversion unit converts the voice recognized by the voice recognition unit into character data. The comparison processing unit compares the character data converted by the conversion unit with the manuscript data, and when the character data and the manuscript data match, the property of the corresponding character in the manuscript data is changed. The voice recognition unit recognizes a specific voice and registers it as a speaker. The conversion unit distinguishes between the voice by the speaker registered by the voice recognition unit and the voice by a person other than the speaker, and converts each of the voices into the character data. The comparison processing unit differs between the character corresponding to the character data in which the voice by the speaker in the manuscript data is converted and the character corresponding to the character data in which the voice by a person other than the speaker is converted. Change to the above property.
本発明によれば、音声信号に基づいて議事録を作成することが可能となる。 According to the present invention, it is possible to create minutes based on an audio signal.
以下、本発明の実施形態について、図面を参照しながら説明する。なお、図中、同一又は相当部分については同一の参照符号を付して説明を繰り返さない。 Hereinafter, embodiments of the present invention will be described with reference to the drawings. In the figure, the same or corresponding parts are designated by the same reference numerals and the description is not repeated.
まず、図1を参照して、本実施形態に係る情報処理装置1を備える会議システム10の構成について説明する。図1は、本実施形態に係る情報処理装置1を備える会議システム10を示す図である。図1に示すように、会議システム10は、情報処理装置1と、表示装置3とを備える。
First, with reference to FIG. 1, the configuration of the
会議システム10は、例えば、1人の発表者S1が複数の聞き手L1~L3に対して発表を行うプレゼンテーションにおいて使用される。なお、図1では、一例として、聞き手が3人の場合を示す。
The
情報処理装置1は、例えば、発表者S1によって使用される端末であり、デスクトップ型パーソナルコンピューター(PC)、ノート型PC、タブレット端末、又はスマートフォンである。情報処理装置1は、例えば、プレゼンテーションの原稿データを記憶している。また、情報処理装置1は、例えば、図示しないディスプレーを有し、発表者S1に原稿データの内容を提示する。
The
表示装置3は、例えば、液晶ディスプレー及びスクリーン等であり、原稿データの内容を表示する。例えば、表示装置3は、情報処理装置1と通信可能である。具体的には、情報処理装置1は、原稿データの内容を示す原稿画像M1を表示装置3へ送信する。表示装置3は、情報処理装置1からの原稿画像M1を受信して表示する。
The display device 3 is, for example, a liquid crystal display, a screen, or the like, and displays the contents of the original data. For example, the display device 3 can communicate with the
例えば、プレゼンテーションにおいて、発表者の発表内容、及び聞き手からの質問事項等を記録しておくことが望ましい。これに対して、プレゼンテーションを音声で記録して原稿データを照合する方法が考えられる。 For example, in a presentation, it is desirable to record the content of the presenter's presentation and the questions from the listener. On the other hand, a method of recording the presentation by voice and collating the manuscript data can be considered.
次に、図1及び図2を参照して、本実施形態に係る情報処理装置1の構成について説明する。図2は、本実施形態に係る情報処理装置1を示す図である。
Next, the configuration of the
情報処理装置1は、制御部11と、記憶部12とを備える。制御部11は、音声認識部13と、変換部14と、比較処理部15と、表示処理部16とを備える。制御部11は、情報処理装置1の各部の動作を制御する。具体的には、制御部11は、CPU(Central Processing Unit)のようなプロセッサーを含み、例えば記憶部12に記憶されたコンピュータープログラムを実行することによって、情報処理装置1の各部の動作を制御する。
The
記憶部12は、原稿データを記憶する。表示処理部16は、例えば、原稿画像M1を表示装置3に表示する処理を行う。具体的には、表示処理部16は、記憶部12を参照して原稿データの内容を示す原稿画像M1を生成し、原稿画像M1を表示装置3へ送信する。
The
音声認識部13は、マイク2を介して入力された音声を認識する。例えば、発表者S1及び聞き手L1~L3によって発声された音声は、マイク2によって電気信号に変換されて音声認識部13に入力される。音声認識部13は、音声が変換された電気信号に対してA/D変換及びフーリエ変換等の信号処理を行う。音声認識部13は、信号処理の結果、得られた周波数及び波形等に基づいて、音声の内容を判定する。
The
変換部14は、音声認識部13によって判定された音声の内容を文字データに変換する。
The
本実施形態では、マイク2を介して入力された音声が、発表者S1によって発声された音声であるか、聞き手L1~L3によって発声された音声であるかを区別する。
In the present embodiment, it is distinguished whether the voice input through the
次に、図2及び図3を参照して、本実施形態に係る情報処理装置1による音声と原稿データとの比較処理について説明する。図3は、本実施形態に係る情報処理装置1による音声と原稿データとの比較処理の一例を示す図である。
Next, with reference to FIGS. 2 and 3, a comparison process between the voice and the manuscript data by the
本実施形態において、情報処理装置1による比較処理が行われる場合、プレゼンテーションの開始前に、発表者S1の登録が行われる。
In the present embodiment, when the comparison process is performed by the
例えば、音声認識部13は、特定の音声を認識して発言者として登録する。具体的には、発表者S1を発言者として登録する場合、発表者S1は、例えば、所定の単語又は文章をマイク2へ向かって発声する。発声された音声は、マイク2によって電気信号に変換されて音声認識部13に入力される。音声認識部13は、音声が変換された電気信号に対してA/D変換及びフーリエ変換等の信号処理を行う。音声認識部13は、信号処理の結果、得られた周波数及び波形等に基づいて、発表者S1によって発声された音声(V1)の特徴を抽出する。音声認識部13は、例えば、音声V1の特徴と発表者S1とを関連付けて記憶部12に記憶させる。
For example, the
このように、情報処理装置1は、プレゼンテーションにおいて、マイク2を介して入力された音声が、発表者S1によって発声された音声であるか、発表者S1以外(例えば、聞き手L1~L3)によって発声された音声であるかを区別することができる。
As described above, in the presentation, in the presentation, the voice input through the
具体的には、音声認識部13は、発表者S1がプレゼンテーションにおいて発声した音声V2が変換された電気信号に対してA/D変換及びフーリエ変換等の信号処理を行う。音声認識部13は、信号処理の結果、得られた周波数及び波形等に基づいて、音声V2の特徴を抽出する。音声認識部13は、抽出した音声V2の特徴と記憶部12の音声V1の特徴とを比較する。音声認識部13は、抽出した音声V2の特徴と記憶部12の音声V1の特徴とがある程度以上一致しているか、完全に一致している場合、音声V2を発表者S1によって発声された音声であると判定する。
Specifically, the
一方、音声認識部13は、音声V2以外の音声V3がマイク2を介して入力されると、音声V3が変換された電気信号に対してA/D変換及びフーリエ変換等の信号処理を行う。音声認識部13は、信号処理の結果、得られた周波数及び波形等に基づいて、音声V3の特徴を抽出する。音声認識部13は、抽出した音声V3の特徴と記憶部12の音声V1の特徴とがある程度未満の一致か、全く一致していない場合、音声V3を発表者S1以外によって発声された音声であると判定する。
On the other hand, when the voice V3 other than the voice V2 is input via the
変換部14は、音声認識部13によって登録された発表者S1による音声V2と、発表者S1以外による音声V3とを区別してそれぞれの音声を文字データに変換する。例えば、変換部14は、音声認識部13によって判定された音声の内容を文字データに変換し、音声が音声認識部13によって発表者S1によって発声された音声V2であると判定された場合、発表者S1の音声である旨の情報を文字データに付加する。また、変換部14は、音声が音声認識部13によって発表者S1以外によって発声された音声V3であると判定された場合、発表者S1以外の音声である旨の情報を文字データに付加する。
The
比較処理部15は、変換部14によって変換された文字データを原稿データと比較し、文字データと原稿データとが一致する場合、原稿データにおける対応する文字のプロパティを変更する。図3の例では、比較処理部15は、変換部14によって変換された文字データ「ABC」と同じ文字が原稿データに含まれる場合、原稿データに含まれる文字「ABC」の色、サイズ及びフォント等の少なくともいずれか1つを変更する。例えば、比較処理部15は、変換部14によって変換された文字データ「ABC」と同じ文字「ABC」の色、サイズ及びフォント等を、原稿データにおける他の文字と異なる色、サイズ及びフォント等にそれぞれ変更する。
The
本実施形態において、比較処理部15は、原稿データにおける発表者S1の音声V2が変換された文字データに対応する文字と、発表者S1以外による音声V3が変換された文字データに対応する文字とを異なるプロパティに変更する。
In the present embodiment, the
次に、図3及び図4を参照して、本実施形態に係る情報処理装置1による原稿データに含まれる文字のプロパティ変更について説明する。図4は、本実施形態に係る情報処理装置1による原稿データに含まれる文字のプロパティ変更の一例を示す図である。
Next, with reference to FIGS. 3 and 4, the property change of the characters included in the manuscript data by the
図3は、プレゼンテーションにおいて発表者S1が音声「ABC」を発した場合を示す。図4は、プレゼンテーションにおいて聞き手L2が音声「ABCではない」を発した場合を示す。 FIG. 3 shows a case where the presenter S1 emits the voice “ABC” in the presentation. FIG. 4 shows a case where the listener L2 emits the voice “not ABC” in the presentation.
音声認識部13は、発表者S1がプレゼンテーションにおいて発声した音声「ABC」が変換された電気信号に対してA/D変換及びフーリエ変換等の信号処理を行う。音声認識部13は、信号処理の結果、得られた周波数及び波形等に基づいて、音声「ABC」の特徴を抽出する。音声認識部13は、抽出した音声「ABC」の特徴と記憶部12の音声V1の特徴とを比較する。音声認識部13は、抽出した音声V2の特徴と記憶部12の音声V1の特徴とがある程度以上一致しているか、完全に一致している場合、音声「ABC」を発表者S1によって発声された音声であると判定する。
The
変換部14は、音声認識部13によって判定された音声「ABC」を文字データ「ABC」に変換し、発表者S1の音声である旨の情報を文字データ「ABC」に付加する。
The
比較処理部15は、変換部14によって変換された文字データ「ABC」を原稿データと比較し、原稿データに含まれる文字「ABC」のプロパティをプロパティP1に変更する。例えば、文字「ABC」の色が原稿データにおける他の文字と異なる色であることをプロパティP1とする。また、例えば、文字「ABC」の色を背景と同じ色に変更すると、文字「ABC」を見えなくすることができる。
The
表示処理部16は、比較処理部15によるプロパティ変更後の原稿データの内容を示す原稿画像M2を生成し、原稿画像M2を表示装置3へ送信する。表示装置3は、情報処理装置1からの原稿画像M2を受信して表示する。
The
一方、図4の例では、音声認識部13は、聞き手L2が発した音声「ABCではない」がマイク2を介して入力されると、音声「ABCではない」が変換された電気信号に対してA/D変換及びフーリエ変換等の信号処理を行う。音声認識部13は、信号処理の結果、得られた周波数及び波形等に基づいて、音声「ABCではない」の特徴を抽出する。音声認識部13は、抽出した音声「ABCではない」の特徴と記憶部12の音声V1の特徴とがある程度未満の一致か、全く一致していない場合、音声「ABCではない」を発表者S1以外によって発声された音声であると判定する。
On the other hand, in the example of FIG. 4, when the voice "not ABC" emitted by the listener L2 is input through the
変換部14は、音声認識部13によって判定された音声「ABCではない」を文字データ「ABCではない」に変換し、発表者S1以外の音声である旨の情報を文字データに付加する。
The
比較処理部15は、変換部14によって変換された文字データ「ABCではない」のうちの一部又は全部が原稿データに含まれているかを検索する。比較処理部15は、「ABC」が原稿データに含まれると判定し、原稿データに含まれる文字「ABC」のプロパティをプロパティP1と異なるプロパティP2に変更する。例えば、文字「ABC」の色が、原稿データにおける他の文字、及びプロパティP1とも異なる色であることをプロパティP2とする。
The
表示処理部16は、比較処理部15によるプロパティ変更後の原稿データの内容を示す原稿画像M3を生成し、原稿画像M3を表示装置3へ送信する。表示装置3は、情報処理装置1からの原稿画像M3を受信して表示する。
The
次に、図5参照して、本実施形態に係る情報処理装置1による文字のプロパティの再変更について説明する。図5は、本実施形態に係る情報処理装置1による文字のプロパティの再変更の一例を示す図である。
Next, with reference to FIG. 5, the re-change of the character property by the
例えば、比較処理部15は、発表者S1による音声が所定条件を満たす場合、発表者S1以外による音声が変換された文字データに対応する文字のプロパティP2を、プロパティP1に再変更する。
For example, when the voice by the presenter S1 satisfies a predetermined condition, the
例えば、比較処理部15によって原稿データに含まれる文字のプロパティがプロパティP2に変更された後、発表者S1が「修正」又は「検討」等並びに「ABC」の単語を含む音声V4を発した場合、プロパティの再変更が行われる。
For example, when the presenter S1 emits a voice V4 including the words "correction" or "examination" and the word "ABC" after the property of the character included in the manuscript data is changed to the property P2 by the
具体的には、比較処理部15によって原稿データに含まれる文字のプロパティがプロパティP2に変更された後、発表者S1が発した音声V4がマイク2を介して入力されると、音声認識部13は、音声V4が変換された電気信号に対してA/D変換及びフーリエ変換等の信号処理を行う。
Specifically, after the property of the character included in the manuscript data is changed to the property P2 by the
音声認識部13は、信号処理の結果、得られた周波数及び波形等に基づいて、音声V4の特徴を抽出する。音声認識部13は、抽出した音声V4の特徴と記憶部12の音声V1の特徴とを比較する。音声認識部13は、抽出した音声V4の特徴と記憶部12の音声V1の特徴とがある程度以上一致しているか、完全に一致している場合、音声V4を発表者S1によって発声された音声であると判定する。
The
変換部14は、音声認識部13によって判定された音声V4を文字データに変換し、発表者S1の音声である旨の情報を文字データに付加する。
The
比較処理部15は、変換部14によって変換された文字データに含まれる単語「修正」及び「ABC」を原稿データと比較し、原稿データに含まれる文字「ABC」のプロパティをプロパティP1に変更する。
The
表示処理部16は、比較処理部15によるプロパティ変更後の原稿データの内容を示す原稿画像M4を生成し、原稿画像M4を表示装置3へ送信する。表示装置3は、情報処理装置1からの原稿画像M4を受信して表示する。
The
このように、発表者S1による発声と、発表者S1以外による発声を区別し、原稿データにおいて対応する文字をそれぞれ異なるプロパティに変更することで、プレゼンテーション後に確認すべき事項、又はプレゼンテーション中に解決した事項の確認が容易になる。 In this way, by distinguishing between the utterances by the presenter S1 and the utterances by other than the presenter S1 and changing the corresponding characters in the manuscript data to different properties, items to be confirmed after the presentation or during the presentation were solved. It becomes easy to confirm the matter.
なお、本実施形態において、マイク2を介して入力された音声が所定条件を満たす場合、音声を文字データに変換しなくてもよい。
In the present embodiment, if the voice input via the
例えば、マイク2を介して入力された音声が変換された電気信号に対して、音声認識部13による信号処理の結果、マイク2を介して入力された音声が所定の音量以下の音声、又は所定のトーンの音声であると判定された場合、変換部14は、音声認識部13によって判定された音声の内容を文字データに変換しない。
For example, as a result of signal processing by the
次に、図6参照して、本実施形態に係る比較プロセスについて説明する。図6は、本実施形態に係る比較プロセスを示すフローチャートである。 Next, the comparison process according to the present embodiment will be described with reference to FIG. FIG. 6 is a flowchart showing a comparison process according to the present embodiment.
まず、音声認識部13は、発表者S1による音声を認識して発言者として登録する(ステップS11)。
First, the
音声認識部13は、マイク2を介して入力された音声が変換された電気信号に対してA/D変換及びフーリエ変換等の信号処理を行う(ステップS12)。
The
音声認識部13は、信号処理の結果、マイク2を介して入力された音声が十分な音量であるかを判定する(ステップS13)。マイク2を介して入力された音声が十分な音量ではないと音声認識部13によって判定された場合(ステップS13でNo)、変換部14は、音声認識部13によって判定された音声の内容を文字データに変換することなく、新たな音声が入力されるまで待機する(ステップS12)。
As a result of signal processing, the
一方、マイク2を介して入力された音声が十分な音量であると音声認識部13によって判定された場合(ステップS13でYes)、音声認識部13は、音声が発表者S1による音声か、発表者S1以外による音声かを判定する(ステップS14)。
On the other hand, when the
変換部14は、マイク2を介して入力された音声が発表者S1による音声であると音声認識部13によって判定された場合(ステップS14でYes)、音声認識部13によって判定された音声の内容を文字データに変換する(ステップS15)。
When the
比較処理部15は、変換部14によって変換された文字データを原稿データと比較し、原稿データに含まれる対応する文字のプロパティをプロパティP1に変更する(ステップS16)。変換部14及び比較処理部15は、新たな音声が入力されるまで待機する(ステップS12)。
The
一方、変換部14は、マイク2を介して入力された音声が発表者S1以外による音声であると音声認識部13によって判定された場合(ステップS14でNo)、音声認識部13によって判定された音声の内容を文字データに変換する(ステップS17)。
On the other hand, when the
比較処理部15は、変換部14によって変換された文字データのうちの一部又は全部が原稿データに含まれているかを検索する(ステップS18)。
The
比較処理部15は、原稿データに含まれる対応する文字のプロパティをプロパティP2に変更する(ステップS19)。
The
変換部14及び比較処理部15は、マイク2を介して新たな音声が入力されるまで待機する。新たな音声が入力された場合、音声認識部13は、入力された音声が発表者S1による音声か、発表者S1以外による音声かを判定する(ステップS20)。
The
変換部14及び比較処理部15は、マイク2を介して入力された音声が発表者S1以外による音声であると音声認識部13によって判定された場合(ステップS20でNo)、ステップS17~ステップS19の処理を行う。
When the
一方、変換部14及び比較処理部15は、マイク2を介して入力された音声が発表者S1以外による音声であると音声認識部13によって判定された場合(ステップS20でYes)、マイク2を介して入力された発表者S1による音声の内容に所定の単語が含まれるか否かを判定する(ステップS21)。
On the other hand, when the
比較処理部15は、発表者S1による音声の内容に所定の単語が含まれる場合(ステップS21でYes)、発表者S1以外による音声が変換された文字データに対応する文字のプロパティP2を、プロパティP1に変更する(ステップS16)。変換部14及び比較処理部15は、新たな音声が入力されるまで待機する(ステップS12)。
When the content of the voice by the presenter S1 includes a predetermined word (Yes in step S21), the
一方、比較処理部15は、発表者S1による音声の内容に所定の単語が含まれない場合(ステップS21でNo)、比較処理部15は、対応する文字のプロパティP2を維持する。変換部14及び比較処理部15は、新たな音声が入力されるまで待機する(ステップS12)。
On the other hand, when the
本実施形態において、表示装置3の数は1つとしたが、これに限らず、例えば、プレゼンテーションの参加人数の数(図1の例では4つ)であってもよく、また、表示装置3が設けられなくてもよい。 In the present embodiment, the number of display devices 3 is one, but the number is not limited to this, and may be, for example, the number of participants in the presentation (four in the example of FIG. 1), and the display device 3 may be used. It does not have to be provided.
本実施形態において、情報処理装置1は、発表者S1によって使用される端末としたが、これに限らず、例えば、プレゼンテーション会場内又はプレゼンテーション会場外に設けられたサーバー等であってもよい。この場合、マイク2を介して入力された音声が変換された電気信号は、情報処理装置1に送信される。情報処理装置1は、送信された電気信号を受信して各種処理を行う。
In the present embodiment, the
本実施形態において、情報処理装置1には、マイク2を介して入力された音声が変換された電気信号が入力される構成としたが、これに限らず、情報処理装置1には予め録音された音声データに対応する電気信号が入力されてもよい。
In the present embodiment, the
本実施形態において、原稿データが記憶部12に記憶されている構成としたが、これに限らず、例えば、情報処理装置1が記憶部12を備えず、制御部11が原稿データを外部から取得する構成であってもよい。
In the present embodiment, the manuscript data is stored in the
以上、図面(図1~図6)を参照しながら本発明の実施形態を説明した。但し、本発明は、上記の実施形態に限られるものではなく、その要旨を逸脱しない範囲で種々の態様において実施することが可能である。図面は、理解しやすくするために、それぞれの構成要素を主体に模式的に示しており、図示された各構成要素の厚み、長さ、個数等は、図面作成の都合上から実際とは異なる。また、上記の実施形態で示す各構成要素の材質や形状、寸法等は一例であって、特に限定されるものではなく、本発明の効果から実質的に逸脱しない範囲で種々の変更が可能である。 The embodiments of the present invention have been described above with reference to the drawings (FIGS. 1 to 6). However, the present invention is not limited to the above embodiment, and can be implemented in various embodiments without departing from the gist thereof. The drawings are schematically shown mainly for each component for easy understanding, and the thickness, length, number, etc. of each of the illustrated components are different from the actual ones for the convenience of drawing creation. .. Further, the material, shape, dimensions, etc. of each component shown in the above embodiment are merely examples, and are not particularly limited, and various changes can be made without substantially deviating from the effects of the present invention. be.
本発明は、会議における議事録作成の分野に利用可能である。 The present invention can be used in the field of minutes preparation at a meeting.
1 :情報処理装置
3 :表示装置
11 :制御部
12 :記憶部
13 :音声認識部
14 :変換部
15 :比較処理部
16 :表示処理部
M1~M4 :原稿画像
P1、P2 :プロパティ
S1 :発表者
V1~V4 :音声
1: Information processing device 3: Display device 11: Control unit 12: Storage unit 13: Voice recognition unit 14: Conversion unit 15: Comparison processing unit 16: Display processing units M1 to M4: Original image P1, P2: Property S1: Announcement Person V1 to V4: Voice
Claims (4)
前記音声認識部によって認識された前記音声を文字データに変換する変換部と、
前記変換部によって変換された前記文字データを原稿データと比較し、前記文字データと前記原稿データとが一致する場合、前記原稿データにおける対応する文字のプロパティを変更する比較処理部と
を備え、
前記音声認識部は、特定の音声を認識して発言者として登録し、
前記変換部は、前記音声認識部によって登録された前記発言者による音声と、前記発言者以外による音声とを区別してそれぞれの前記音声を前記文字データに変換し、
前記比較処理部は、前記原稿データにおける前記発言者による音声が変換された前記文字データに対応する前記文字と、前記発言者以外による音声が変換された前記文字データに対応する前記文字とを異なる前記プロパティに変更する、情報処理装置。 A voice recognition unit that recognizes voice and
A conversion unit that converts the voice recognized by the voice recognition unit into character data, and a conversion unit.
The character data converted by the conversion unit is compared with the manuscript data, and when the character data and the manuscript data match, a comparison processing unit for changing the property of the corresponding character in the manuscript data is provided.
The voice recognition unit recognizes a specific voice and registers it as a speaker.
The conversion unit distinguishes between the voice by the speaker registered by the voice recognition unit and the voice by a person other than the speaker, and converts each of the voices into the character data.
The comparison processing unit differs between the character corresponding to the character data in which the voice by the speaker in the manuscript data is converted and the character corresponding to the character data in which the voice by a person other than the speaker is converted. An information processing device that changes to the above property.
前記原稿データに対応する画像を表示装置に表示する処理を行う表示処理部
を更に備える、請求項1から請求項3のいずれか1項に記載の情報処理装置。 The information processing device is
The information processing device according to any one of claims 1 to 3, further comprising a display processing unit that performs a process of displaying an image corresponding to the manuscript data on the display device.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020204816A JP2022092178A (en) | 2020-12-10 | 2020-12-10 | Information processing device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020204816A JP2022092178A (en) | 2020-12-10 | 2020-12-10 | Information processing device |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2022092178A true JP2022092178A (en) | 2022-06-22 |
Family
ID=82068110
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020204816A Pending JP2022092178A (en) | 2020-12-10 | 2020-12-10 | Information processing device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2022092178A (en) |
-
2020
- 2020-12-10 JP JP2020204816A patent/JP2022092178A/en active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10678501B2 (en) | Context based identification of non-relevant verbal communications | |
US10586536B2 (en) | Display device and operating method therefor | |
US11281707B2 (en) | System, summarization apparatus, summarization system, and method of controlling summarization apparatus, for acquiring summary information | |
JP2011065467A (en) | Conference relay device and computer program | |
US11115539B2 (en) | Smart voice system, method of adjusting output voice and computer readable memory medium | |
CN111142667A (en) | System and method for generating voice based on text mark | |
CN114514577A (en) | Method and system for generating and transmitting a text recording of a verbal communication | |
JP7026004B2 (en) | Conversation aids, conversation aid methods and programs | |
US20180090126A1 (en) | Vocal output of textual communications in senders voice | |
CN106873798B (en) | Method and apparatus for outputting information | |
JP2022092178A (en) | Information processing device | |
US11182553B2 (en) | Method, program, and information processing apparatus for presenting correction candidates in voice input system | |
Zhong et al. | Sentence recognition for native and non-native English listeners in quiet and babble: Effects of contextual cues | |
JP2012253478A (en) | Conference support system, conference support device, conference support method, and computer program | |
CN115171645A (en) | Dubbing method and device, electronic equipment and storage medium | |
CN114363531A (en) | H5-based case comment video generation method, device, equipment and medium | |
Franich | Internal and contextual cues to tone perception in Medʉmba | |
TW201409259A (en) | Multimedia recording system and method | |
JP2011217328A (en) | Audio device | |
WO2023026544A1 (en) | Information processing device, information processing method, and program | |
JP2020119043A (en) | Voice translation system and voice translation method | |
JP2020086113A (en) | Karaoke system and karaoke device | |
JP7454159B2 (en) | Automatic voice response device, server device, automatic voice response method, page sending method, and program | |
US11386684B2 (en) | Sound playback interval control method, sound playback interval control program, and information processing apparatus | |
JP2023114250A (en) | Conference server and conference system |