JP2014206896A - 情報処理装置、及び、プログラム - Google Patents

情報処理装置、及び、プログラム Download PDF

Info

Publication number
JP2014206896A
JP2014206896A JP2013084704A JP2013084704A JP2014206896A JP 2014206896 A JP2014206896 A JP 2014206896A JP 2013084704 A JP2013084704 A JP 2013084704A JP 2013084704 A JP2013084704 A JP 2013084704A JP 2014206896 A JP2014206896 A JP 2014206896A
Authority
JP
Japan
Prior art keywords
speaker
screen
function
user
sentence
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2013084704A
Other languages
English (en)
Inventor
野本 英男
Hideo Nomoto
英男 野本
悟 野川
Satoru Nogawa
悟 野川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamagata Intech
YAMAGATA INTECH KK
Original Assignee
Yamagata Intech
YAMAGATA INTECH KK
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamagata Intech, YAMAGATA INTECH KK filed Critical Yamagata Intech
Priority to JP2013084704A priority Critical patent/JP2014206896A/ja
Publication of JP2014206896A publication Critical patent/JP2014206896A/ja
Pending legal-status Critical Current

Links

Images

Abstract

【課題】音声データに記録された発言に係る文章の表示に際し、ユーザーの利便性を向上する。【解決手段】サービス提供サーバー10は、音声データに記録された複数の発言を文字化して発言文章を生成する機能と、音声データを分析して発言した話者を区別する機能と、各発言文章を区別した話者のうちのいずれの話者が発言したものであるかを識別可能な態様で表示させる機能とを備える。【選択図】図1

Description

本発明は、音声データを処理する情報処理装置、及び、当該情報処理装置の制御に係るプログラムに関する。
従来、話者の発言が記録された音声データを処理する情報処理装置(発言記録装置)において、音声認識の機能を有するものが知られている(例えば、特許文献1参照)。この種の情報処理装置では、音声データに記録された発言を文字化し、文章として表示するものがある。
特開2011−100355号公報
ここで、上述した情報処理装置のように、音声データに記録された発言を文字化し文章として表示するものでは、文章の表示に際し、ユーザーに新たなサービスを提供し、ユーザーの利便性を高めたいとするニーズがある。
本発明は、上述した事情に鑑みてなされたものであり、音声データに記録された発言に係る文章の表示に際し、ユーザーの利便性を向上することを目的とする。
上記目的を達成するために、本発明は、話者の発言が記録された音声データを処理する情報処理装置であって、前記音声データに記録された複数の発言を文字化して発言文章を生成する機能と、前記音声データを分析して、発言した話者を区別する機能と、各発言文章を、区別した話者のうちのいずれの話者が発言したものであるかを識別可能な態様で表示させる機能と、を備えることを特徴とする。
また、本発明は、1又は複数の発言文章を、選択可能な態様で表示させると共に、選択された発言文章を抜き出して表示させる機能を、さらに備えることを特徴とする。
また、本発明は、各発言文章を、選択可能な態様で表示させると共に、選択された発言文章に対応する位置から前記音声データに係る音声を出力させる機能をさらに備えることを特徴とする。
また、本発明は、各発言文書を、属性を付加可能な態様で表示させると共に、付加された属性が共通する発言文書を抜き出して表示させる機能と、をさらに備えることを特徴とする。
また、本発明は、区別した話者について、各話者が属するグループを入力するためのユーザーインターフェースを提供する機能と、各発言文章を、発言した話者が属するグループが認識できる態様で表示させる機能と、をさらに備えることを特徴とする。
また、本発明は、グループが共通する発言文章を抜き出して表示させる機能をさらに備えることを特徴とする。
また、上記目的を達成するために、本発明は、話者の発言が記録された音声データを処理する情報処理装置を制御するコンピューターにより実行されるプログラムであって、前記コンピューターに、前記音声データに記録された複数の発言を文字化して発言文章を生成する機能と、前記音声データを分析して、発言した話者を区別する機能と、各発言文章を、区別した話者のうちのいずれの話者が発言したものであるかを識別可能な態様で表示させる機能と、を発揮させることを特徴とする。
本発明によれば、音声データに記録された発言に係る文章の表示に際し、ユーザーの利便性が向上する。
本実施形態に係る情報処理システムを示す図である。 (A)は、音声ファイルのアップロードに係る画面を示す図であり、(B)は、サービスの選択に係る画面である。 (A)は、簡易表示サービスに係る画面を示す図であり、(B)は、選択された発言文章を抜き出して表示する画面を示す図である。 録音された会議に関する情報を入力する画面を示す図である。 話者の割り当てに係る画面を示す図である。 (A)は、議事録作成サービスに係る画面を示す図であり、(B)は、ユーザーによって選択されたグループに属する話者の発言文章を、一覧表示する画面を示す図である。 後にユーザーが正式に議事録を作成する際に、その基礎として利用できる情報が、議事録を模した態様で表示される画面を示す図である。
以下、図面を参照して本発明の実施形態について説明する。
図1は、本実施形態に係る情報処理システム1を示す図である。
図1に示すように、情報処理システム1は、サービス提供サーバー10(情報処理装置)を備えており、このサービス提供サーバー10に、インターネット等のネットワークNを介して、ユーザー端末11が接続可能な構成となっている。
サービス提供サーバー10は、サービス提供会社が開発、保守、運営するサーバー装置であり、後述する各種サービスは、このサービス提供サーバー10におけるソフトウェアとハードウェアとの協働により実現される機能によって提供される。
ユーザー端末11とは、サービス提供サーバー10が提供するサービスを利用するユーザーが保有する端末であり、ウェブブラウザーがインストールされていれば、どのような端末であってもよい。例えば、デスクトップ型、ノート型、モバイル型、タブレット型のPCや、スマートフォン等の携帯電話をユーザー端末11として機能させることができる。以下の説明では、ユーザー端末11は、デスクトップ型のPCであるものとする。
サービス提供サーバー10と、ユーザー端末11を含む他の装置との間では、必要に応じて、所定の暗号化プロトコルに準じた通信や、仮想専用線等の既存の技術によりセキュアな通信が行われる。
図1に示すように、ユーザー端末11は、端末制御部15と、端末入力部16と、端末表示部17と、端末記憶部18と、を備えている。端末制御部15は、CPUや、ROM、RAM等を備え、ユーザー端末11の各部を制御する。端末制御部15は、ウェブブラウザーを実行することによって、サービス提供サーバー10に対して、各種リクエストを行なう。端末入力部16は、キーボードや、マウス、その他の入力デバイスに接続され、入力デバイスに対する入力を検出して、端末制御部15に出力する。端末表示部17は、液晶表示パネル等の表示パネルを備え、端末制御部15の制御の下、各種画像を表示パネルに表示する。端末記憶部18は、ハードディスクやEEPROM等の不揮発性メモリーを備え、各種データを書き換え可能に不揮発的に記憶する。
また、図1に示すように、サービス提供サーバー10は、サーバー制御部20と、サーバー記憶部21と、を備えている。サーバー制御部20は、CPUや、ROM、RAM等を備え、サービス提供サーバー10の各部を制御する。サーバー記憶部21は、ハードディスク等の不揮発性メモリーを備え、各種データを不揮発的に書き換え可能に記憶する。
なお、図1では、サービス提供サーバー10は、1つのブロックによって表わされているが、サービス提供サーバー10は、実装された機能が異なる複数のサーバー装置が連係した構成であってもよく、また、集中型システムの一部であってもよい。すなわち、後述する各種機能を実現可能な構成であれば、どのような構成であってもよい。
さて、本実施形態に係るサービス提供サーバー10は、音声ファイル(音声データ)に基づいて、各種サービスを提供する機能を有する。以下、サービス提供サーバー10が提供するサービスについて詳述する。
サービスの利用の前提として、ユーザーは、サービス提供会社に対して、サービスの利用の登録を行なう。登録は、オンライン、書類、対面、電話等、どのような方法で行なわれてもよい。登録に応じて、サービス提供会社から、ユーザーに対して、サービスを利用する際にアクセスすべきURL、及び、ログインID、ログインパスワードが通知される。
さらに、サービスの利用に際し、ユーザーは、ICレコーダーや、録音機能付の携帯電話、携帯端末等を利用して、所定の音声ファイルフォーマットの音声ファイル(音声データ)を用意し、自身が所持するユーザー端末11の端末記憶部18に記憶する。
この音声ファイルは、複数の話者の発言が録音されて生成されたものであることが想定されている。後述するように、音声ファイルが、オフィス等において行なわれる会議が録音されることによって生成されたものである場合、特に有益なサービスを受けることができるため、以下の説明では、音声ファイルは、会議を録音することによって生成されたもの(以下、「会議音声ファイル」と表現し、符号F1を付番する。)であるものとする。
その後、ユーザーは、自身が所有するユーザー端末11において、ブラウザーを立ち上げ、サービス提供サーバー10上の所定のURLにアクセスする。サービス提供サーバー10のサーバー制御部20は、当該アクセスに応じて、HTML等で記述された所定の表示ファイルを生成して、ユーザー端末11に送信し、ブラウザーウィンドー上にログイン画面を表示させる。
以下の説明では、サーバー制御部20が、HTML等で記述された表示ファイルをユーザー端末11に送信して、表示ファイルに係る画面をブラウザーウィンドーに表示させることを、単に、「サーバー制御部20は、ブラウザーウィンドーに画面を表示させる」と表現することがあるものとする。
ユーザーは、ブラウザーウィンドーに表示されたログイン画面上で、ログインID、ログインパスワードを入力し、ログインする。すると、サーバー制御部20は、音声ファイル(本例では、会議音声ファイルF1)を当該サーバーにアップロードするための画面G1(図2(A))をブラウザーウィンドーに表示させる。ユーザーは、画面G1を利用して、会議音声ファイルF1をアップロードする。
会議音声ファイルF1がアップロードされると、サーバー制御部20は、以下の処理を行ない、当該ファイルに係るサービスを提供可能な状態とする。
まず、サーバー制御部20は、発言文章生成機能K1により、会議音声ファイルF1に基づいて、話者が行なった各発言を文字化して、発言文章を生成する。
ここで、本実施形態において、「発言」とは、1人の話者が連続して発した言葉のことをいう。会議では、異なる話者の発言が順次行なわれる。例えば、話者A、話者B、及び、話者Cの3人によって会議が行なわれたとする。そして、話者Aが「こんにちは。」と言い、次に話者Bが「よろしくお願いします。」と言い、次に話者Cが「私は○○と申します。」と言い、さらに話者Aが「私は××と申します。」と言ったとする。この場合、話者Aが発した「こんにちは。」、話者Bが発した「よろしくお願いします。」、話者Cが発した「私は○○と申します。」、及び、話者Aが発した「私は××と申します。」のそれぞれが、「発言」に該当する。そして、1つの発言文章は、1つの発言を文字化して生成された文章である。
さらに、サーバー制御部20は、話者区別機能K2により、会議音声ファイルF1を分析して、会議において発言した話者を区別する。すなわち、サーバー制御部20は、会議音声ファイルF1を分析して、会議には何人の異なる話者がいたのかを判別する。
発言文章生成機能K1、及び、話者区別機能K2を実現する技術としては、存在する全ての技術を利用可能である。以下一例を挙げる。
<発言文章生成機能K1>
サーバー制御部20は、会議音声ファイルF1に記録された音声について、声紋が変わったタイミングで話者が変わるものと推定し、声紋を分析して、声紋が変わるタイミングを検出する。そして、サーバー制御部20は、会議音声ファイルF1に記録された音声について、音声を声紋が変わるタイミングで区分し、これにより、音声を発言ごとに区分する。声紋の分析には、存在する全ての技術を利用可能である。
次いで、サーバー制御部20は、区分した発言のそれぞれについて、既存の音声認識技術を利用して、発言文章を生成する。
なお、発言文章の精度を上げるために、例えば、ユーザーが単語を登録可能な辞書データを記憶し、当該辞書データを利用して発言文章を生成してもよい。
<話者区別機能K2>
サーバー制御部20は、異なる声紋がいくつ検出されたかを判別することにより、会議には何人の異なる話者がいたのかを判別する。周知のとおり、声紋は、そのパターンの特徴が、話者によって異なるため、異なる声紋がいくつ検出されたかを判別することにより、会議には何人の異なる話者がいたのかを判別することが可能である。
さて、会議音声ファイルF1に記録された各発言の発言文章を生成した後、サーバー制御部20は、分析結果を示す分析結果データD1を、サーバー記憶部21に記憶された分析結果データベースDB1に格納する。
この分析結果データD1には、各発言の発言文章と、各発言の開始時間である発言開始時間とを対応付けた情報が含まれている。なお、1の発言の発言開始時間とは、正確には、会議音声ファイルF1を再生した場合に、再生の開始時間を基点とした、当該1の発言が開始されるときの経過時間のことである。サーバー制御部20は、各発言について、発言開始時間を判別する機能を有している。
また、分析結果データD1には、会議に何人の異なる話者がいたのかを示す情報が含まれている。
また、分析結果データD1には、各発言文章について、話者区別機能K2によって区別した話者のうち、いずれの話者が発言したものであるかを示す情報が含まれている。例えば、話者の区別によって、異なる話者が3人存在すると判別した場合、サーバー制御部20は、3人の話者のそれぞれに、一意な識別情報を付与し、各発言文章について、発言文章と、発言文章に係る発言の話者の識別情報とを対応付けた情報を分析結果データD1に含める。
なお、分析結果データD1には、サービス提供サーバー10が、後述する各画面を表示させるために必要な情報が不足なく含まれている。
分析結果データD1の分析結果データベースDB1への格納に際し、サーバー制御部20は、所定の規則に準じて一意なURL(後にユーザーに通知するURLであり、以下、「サービス利用URL」という。)を生成し、生成したサービス利用URLと、分析結果データD1とを対応付ける。
以上により、サービス提供サーバー10によって会議音声ファイルF1に係るサービスを開始するための準備が完了する。当該準備の完了後、サーバー制御部20は、ユーザーに対して、サービス利用URLを通知する。当該通知は、例えば、ユーザーによって事前に登録されたメールアドレスに対して、サービス利用URLが記述されたメールが送信されることによって行なわれる。当該通知の方法はどのようなものであってもよい。
サービスを利用しようとするユーザーは、自身が所有するユーザー端末11において、ブラウザーを立ち上げ、サービス利用URLにアクセスする。サービス提供サーバー10のサーバー制御部20は、当該アクセスに応じて、「簡易表示サービス」、及び、「議事録作成サービス」のいずれかのサービスを利用するかを選択するための画面G2(図2(B))を、ブラウザーウィンドーに表示させる。
ユーザーは、「簡易表示サービス」、及び、「議事録作成サービス」のうち、いずれかのサービスを選択する。以下、それぞれのサービスについて説明する。
<簡易表示サービス>
簡易表示サービスを選択した場合、サーバー制御部20は、画面G3(図3(A))を、ブラウザーウィンドーに表示させる。
画面G3では、発言文章が、発言開始時間が早い順に上から下に向かって表示される。発言文章ごとに、話者を表わす話者アイコンWと、セリフを表わす吹出しFが表示されており、各発言文章は、発言開始時間と共に、対応する吹出しFの中に表示される。
ここで、画面G3では、各話者アイコンWに対応付けて、話者区別機能K2によって区別した話者のそれぞれに便宜的に付与した名称が表示される。図3(A)の例では、区別した話者のそれぞれに、話者1、話者2、及び、話者3という名称が付与されており、各話者アイコンWの近傍に、対応する名称が表示される。例えば、最上部に位置する話者アイコンWの近傍に、「話者1」と表示されている。すなわち、サービス提供サーバー10は、各発言文章を、区別した話者のうちのいずれの話者が発言したものであるかを識別可能な態様で表示させる機能を備えている。このように、話者アイコンWに対応付けて、話者の名称が付与されるため、ユーザーは、画面G3を視認することにより、各発言文章が、区別した話者のうちのいずれの話者の発言に係る者であるかを確実、かつ、迅速に認識できる。
さらに、画面G3では、話者アイコンW、及び、吹出しFが話者に応じて色分けされることにより、各発言文章が、話者区別機能K2によって区別した話者のうちのいずれの話者の発言に係るものであるかを認識可能となっている。すなわち、サービス提供サーバー10は、各発言文章を、区別した話者のうちのいずれの話者が発言したものであるかを識別可能な態様で表示させる機能を備えている。
図3(A)の例では、話者1に係る話者アイコンW及び吹出しFは青色で、話者2に係る話者アイコンW及び吹出しFは赤色で、話者3に係る話者アイコンW及び吹出しFは黄色で描画される。
これにより、ユーザーは、画面G3を視認することにより、感覚的、直感的に、各発言文章が、区別した話者のうちのいずれの話者の発言に係るものであるかを認識でき、かつ、どのような会話のキャッチボールが行なわれて会議が進んでいったのかを感覚的に認識できる。
さらに、画面G3では、話者アイコンWの位置について、画面左側にあるのか、右側にあるのかが、話者ごとに固定されている。図3(A)の例では、話者1、及び、話者3に係る話者アイコンWは、常に左側に位置し、話者2に係る話者アイコンWは、常に右側に位置した状態とされる。これにより、ユーザーは、画面G3を視認することにより、話者と、その発言との関係について、感覚的、直感的に認識できる。
画面G3において、話者アイコンWのそれぞれは、マウスポインターを合わせた後、マウスをクリックすることによって選択可能となっている。そして、話者アイコンWが選択された場合、ストリーミング再生に対応した所定の音声出力ソフトウェアが立ち上がり、その話者アイコンWに対応する発言文章の発言から、音声データに係る音声が出力される。つまり、ユーザーにより選択された発言文章に対応する発言から、録音した会議の音声が出力される
より具体的には、話者アイコンWが選択された場合、ユーザー端末11の端末制御部15は、例えば画面G3の表示ファイルに実装されたスクリプトの機能により、話者アイコンWが選択されたことを示す情報、及び、選択された話者アイコンWに対応する発言文章を特定する情報を含む所定のフォーマットのデータを、サーバー制御部20に送信する。サーバー制御部20は、受信したデータに含まれる情報に基づいて、会議音声ファイルF1(会議音声ファイルF1そのものではなく、当該ファイルに基づいて生成された別の音声データであってもよい。)において、特定された発言文章に対応する再生開始位置を特定する。会議音声ファイルF1は、サーバー上の適切な位置に記憶されている。次いで、サーバー制御部20は、端末制御部15と通信して、音声出力ソフトウェアを起動させると共に、特定した再生開始位置から音声データをストリーミング再生し、ユーザーによって選択された発言文章に対応する位置から、音声データに係る音声(録音された会議の音声)を出力させる。
このように本実施形態では、サービス提供サーバー10は、各発言文章を、選択可能な態様で表示させると共に、選択された発言文章に対応する位置から音声データに係る音声を出力させる機能を備えている。
このような構成のため、ユーザーは、話者アイコンWを選択するという簡易な作業により、所望の位置から、会議の音声を聞くことができ、これにより、例えば、発言文章に誤りがある場合は、それを訂正等することができる(訂正の手段については後述。)。特に、音声ファイルについては、例えば重要な発言が行なわれた位置等、所望の位置から音声の出力を開始できるようにしたいとする強いニーズがあるが、上記構成によれば、ユーザーは、発言文章によって発言の内容を把握した上で、所望の位置から音声の出力を開始させることができるため、上記ニーズに的確に応えることができる。
なお、選択された発言文章に対応する発言のみを音声出力する構成であってもよく、いずれの態様で音声出力するかをユーザーが設定できる構成であってもよい。
図3(A)に示すように、画面G3において、吹出しFのそれぞれには、チェックボックスC1が設けられており、チェックボックスC1にチェックを入れることにより、所望の発言文章を選択できる構成になっている。
そして、1または複数のチェックボックスC1にチェックが入れられた状態で、ボタンB1が選択されると、画面G3から画面G4(図3(B))へと画面が推移する。なお、画面G4の表示の態様は任意であり、画面G3に係るブラウザーウィンドーとは別のブラウザーウィンドーに表示されてもよく、ウェブブラウザーがタブによって複数のブラウザーウィンドーを管理する機能を有している場合は画面G3に係るタブと別のタブに係るブラウザーウィンドーに表示されてもよい。
図3(B)は、図3(A)の画面G3において、最上部、2番目、及び、最下部の発言文章が選択された状態で、ボタンB1が選択された場合に表示される画面G4を示す図である。
図3(B)に示すように、画面G4では、画面G3において選択された発言文章について、発言開始時間と、区別した話者に付与した名称と、発言文章とが対応付けられた状態で、発言開始時間が早い順に上から下へ向かって順番に表示されている。
そして、画面G4において、各発言文章は、編集可能な構成となっている。編集は、テキストファイルに記述されたテキストの編集等と同様の方法によって行なうことができる。
また、画面G4において、ユーザーは、ボタンB10を選択すれば、画面G4の発言文章を対象として文字列検索が可能であり、ボタンB11を選択すれば、文字列の置換が可能であり、ボタンB12を選択すれば、画面G4の情報を含む画像を印刷でき、ボタンB13を選択すれば、画面G4の情報を含むデータをダウンロードできる。また、ボタンB14を選択すれば、編集した内容が確定し、画面が画面G4から画面G3へと推移する。推移後の画面G3では、画面G4において行なわれた発言文章の編集が反映された状態となる。印刷される画像の態様、内容は、どのようなものであってもよく、図3(B)に示す画面G4と同様の画像が印刷されてもよく、また、形式が異なった態様で印刷されてもよい。ダウンロードされるデータの態様、内容についても同様である。
このように、本実施形態では、サービス提供サーバー10は、1又は複数の発言文章を、選択可能な態様で表示させると共に、選択された発言文章を抜き出して表示させる機能を備えている。
このような構成のため、ユーザーは、所望の発言文章のみを抜き出して表示させ、その内容を確認することができる。特に、会議では、雑談等の会議の趣旨からすると、その内容が重要でない発言が行なわれることが多々あるが、上記構成によれば、ユーザーは、このような発言に係る発言文章を除いた状態で、会議の趣旨に添った発言文章のみを視認することができる。
また、本実施形態では、画面G4において、抜き出した発言文章を編集することが可能である。このような構成のため、音声認識に誤りがあればそれを正すことができ、また、発言文章の表現を、より適切な表現に修正することが可能である。
さて、図3(A)の画面G3を参照し、ユーザーは、ボタンB2を選択すれば、画面G3の発言文章を対象として文字列検索が可能であり、ボタンB3を選択すれば、文字列の置換が可能であり、ボタンB4を選択すれば、画面G3の情報を含む画像を印刷でき、ボタンB5を選択すれば、画面G3の情報を含むデータをダウンロードできる。また、ボタンB6を選択すれば、簡易表示サービスの提供が完了する。
以上のように、簡易表示サービスでは、サービス提供サーバー10のサーバー制御部20は、分析結果データD1に基づいて、適切な表示ファイルを生成し出力することにより、画面G3、G4(ユーザーインターフェース)をユーザー端末11に表示させ、画面G3、G4を介して各種サービスをユーザーに提供する。分析結果データD1には、画面G3、G4を表示させ、かつ、上述した各種サービスを提供するために必要な情報が不足なく含まれている。
<議事録作成サービス>
次いで、議事録作成サービスについて説明する。
この議事録作成サービスは、ユーザーが、会議の議事録を簡易、かつ、的確に作成できるようにすることを目的としたサービスであり、ユーザーが正式な議事録を作成するために利用可能な基礎的な議事録を提供する。
議事録作成サービスは、会議情報入力ステージ、話者割り当てステージ、及び、議事録作成ステージの3つのステージからなっており、ユーザーは、それぞれのステージを段階的に処理していく。
<会議情報入力ステージ>
ユーザーが、画面G2(図2(B))において、議事録作成サービスを選択した場合、サーバー制御部20は、画面G5(図4)をブラウザーウィンドーに表示させる。
図4は、画面G5を示す図である。
画面G5は、録音された会議に関する情報を入力する画面である。図4に示すように、画面G5では、会議名、会議が行なわれた年月日、会議の開始時間、会議の終了時間、会議の開催場所、会議の議題を入力するためのユーザーインターフェースが提供されている。会議の議題は、複数、入力可能である。
さらに、画面G5では、会議に参加したメンバー(=話者)のそれぞれについて、そのグループ名、役割、名前、を入力するためのユーザーインターフェースが提供されている。
グループ名とは、例えば、複数の会社の人間が会議に参加している場合は、所属する会社のことであり、また例えば、1つの会社において、異なる部署、チーム等が会議に参加している場合は、所属する部署、チーム等のことである。すなわち、ユーザーは、会議の態様に応じて参加メンバーを任意にグループ分けし、各グループについて任意の名称(グループ名)を入力することができる。
役割とは、会議における役割のことであり、本実施形態では、「進行係」と、「発言係」と、の2つをプルダウンメニューから選択できる構成となっている。役割は、例を挙げたものに限らず、例えば、主催、来賓、観覧等、任意に設定可能である。
ユーザーは、画面G5における各種情報の入力が完了すると、確定ボタンを操作する。これにより、入力が確定し、ステージが話者割り当てステージへと移行する。
確定ボタンの操作をトリガーとして、端末制御部15は、ユーザーが入力した情報が含まれるデータを、サーバー制御部20に送信する。サーバー制御部20は、当該データ(または当該データに基づいて生成されるデータ)を所定の記憶領域に記憶する。
<話者割り当てステージ>
画面G5の確定ボタンが操作され、そのことを検出すると、サーバー制御部20は、画面G6(図5)をブラウザーウィンドーに表示させる。
図5は、画面G6を示す図である。
画面G6は、話者区別機能K2により区別した話者について、属するグループ名、及び、その名前を割り当てるための画面である。
画面G6では、区別した話者のそれぞれについて、便宜的に付与された名称(図5の例では、話者1〜話者3)が一覧表示され、話者の名称ごとに、グループ名と、名前とを入力する欄が設けられている。また、各話者の名称の近傍にチェックボックスC2が設けられている。また、画面G6には、発言内容欄R1が設けられている。
例えば、ユーザーが、話者1について、グループ名、及び、名前を割り当てるとすると、まず、ユーザーは、話者1のチェックボックスC2にチェックを入れる。話者1のチェックボックスC2にチェックが入ると、発言内容欄R1に、話者1の発言文章が、時系列で表示される。この発言内容欄R1を参照することにより、ユーザーは、話者1が、会議に出席した人物のうち、実際にはどの人物であるかを特定できる。発言内容欄R1に表示された発言内容を選択した場合、その発言内容に対応する発言がストリーミング再生される構成であってもよい。これによれば、ユーザーは、より的確かつスムーズに、人物の特定をできる。
そして、ユーザーは、話者1がどの人物であるのかを特定した後、グループ名、名前を入力することにより、話者1に対して、グループ名、及び、名前を割り当てる。グループ名、及び、名前は、それぞれ、上述した画面G5でユーザーによって入力されたものがプルダウンメニューに選択可能に表示される構成となっており、ユーザーは、グループ名、名前の双方について、プルダウンメニューから適切なものを選択する。
ユーザーは、以上のようにして、区別された話者の全てについて、グループ名、及び、名前の割り当てを行ない、確定ボタンを選択する。これにより、入力が確定し、ステージが議事録作成ステージへと移行する。
確定ボタンの選択をトリガーとして、端末制御部15は、ユーザーが入力した情報が含まれるデータを、サーバー制御部20に送信する。サーバー制御部20は、当該データ(または当該データに基づいて生成されるデータ)を所定の記憶領域に記憶する。
なお、この画面G6は、区別した話者について、各話者が属するグループを入力するためのユーザーインターフェースに該当する。すなわち、サービス提供サーバー10は、区別した話者について、各話者が属するグループを入力するためのユーザーインターフェースを提供する機能を有している。
<議事録作成ステージ>
画面G6の確定ボタンが操作され、そのことを検出すると、サーバー制御部20は、画面G7(図6(A))をブラウザーウィンドーに表示させる。
図6(A)は、画面G7を示す図である。
画面G7では、各発言文章が時系列で、上から下へ向かって順番に表示される。そして画面G7では、各発言文章ごとに話者アイコンW及び吹出しFが表示されると共に、吹出しFの中に、発言文章及び発言開始時間が表示される。また、吹出しFの中には、チェックボックスC1が設けられており、チェックボックスC1にチェックを入れることによって、発言文章を選択すると共に、1または複数の発言文章を選択した状態でボタンB31を選択することにより、選択した発言文章が、図3(B)と同様の態様で表示され、ユーザーは、抜き出されて表示された発言文章を編集できる。これらの点において、画面G7と、画面G3とは、共通している。
一方で、図6(A)に示すように、画面G7では、各話者アイコンWの近傍には、区別した話者に便宜的に付与された名称ではなく、画面G6においてユーザーが割り当てた名前が表示される。このような構成のため、ユーザーは、画面G7を視認することにより、具体的に誰がどういった内容の発言をしたのかを、迅速かつ的確に認識できる。名前と共に、属するグループ名を表示してもよい。
また、画面G7では、話者アイコンW、及び、吹出しFが、「グループ」に応じて色分けされることにより、各発言文章が、いずれのグループに属する話者の発言に係るものであるかを認識可能となっている。すなわち、サービス提供サーバー10は、上述したように、区別した話者について、各話者が属するグループを入力するためのユーザーインターフェースを提供する機能を備えると共に、各発言文章を、発言した話者が属するグループが認識できる態様で表示させる機能を備えている。
図6(A)の例では、名前「A夫」の話者がグループAに属しており、一方、名前「B夫」及び名前「C夫」の話者がグループBに属しており、「A夫」に係る話者アイコンW、及び、吹出しFは青色で描画される一方、「B夫」、及び、「C夫」に係る話者アイコンW、及び、吹出しFは赤色で描画される。
ここで、会議においては、どの人物がどういった内容の発言をしたかが重要であると共に、どのグループの人物がどういった内容の発言をしたかが重要である。例えば、会議に複数の会社が参加しており、会社ごとにグループ分けされているとすると、どの会社の人間が、どういった内容の発言をしたかが把握されることにより、各会社の議題に対する立場、姿勢、考え方の傾向等を分析可能となるからである。
そして、本実施形態では、画面G7は、話者アイコンW、及び、吹出しFが、「グループ」に応じて色分けされることにより、各発言文章が、いずれのグループに属する話者の発言に係るものであるかを認識可能となっているため、ユーザーは、画面G7を参照することにより、迅速、かつ、直感的、感覚的に、各発言文章が、どのグループに属する話者の発言に係るものであるかを認識でき、当該認識の下、例えば、グループ間の意見の相違や、各グループの発言の内容の傾向等を分析可能である。
また、画面G7において、ボタンB30が選択されると、図示は省略するが、存在するグループのうちの1つを選択させる画面が表示される。ユーザーにより、1つのグループが選択されると、サーバー制御部20は、画面G7から画面G8(図6(B))へと画面を推移させる。画面G8は、別のブラウザーウィンドーに表示されてもよいし、別のタブに係るブラウザーウィンドーに表示されてもよい。
図6(B)は、画面G8を示す図である。
画面G8は、ユーザーによって選択されたグループに属する話者の発言文章を、一覧表示する画面である。すなわち、サービス提供サーバー10は、グループが共通する発言文章を抜き出して表示させる機能を備えている。
このように、画面G8では、選択したグループについて、グループが共通する発言文章が抜き出されて表示されるため、ユーザーは、画面G8を視認することにより、グループごとの発言を的確に把握することができ、グループ間の意見の相違や、各グループの発言の内容の傾向等をより正確に分析可能である。
図6(B)に示すとおり、ユーザーは、適切なボタンを選択することにより、文字列の検索、文字列の置換、画像の印刷、データのダウンロードを実行できる。
また、画面G7では、話者アイコンWの位置について、画面左側にあるのか、右側にあるのかが、話者の「役割」(本例では、「進行係」、または、「発言係」)によって固定されている。図6(A)の例では、A夫の役割は「進行係」であり、B夫、及び、C夫の役割は「発言係」である。そして、「進行係」のA夫に係る話者アイコンWは、常に左側に位置し、「発言係」のB夫、及び、C夫に係る話者アイコンWは、常に右側に位置した状態とされる。
ここで、一般に、会議においては、進行係の人物が、議題を提案したり、話題を提供したり、疑問を投げかけたり等し、会議の参加者がそれに応じることによって会議が進んでいく。そして、図6(A)の画面G7のような表示態様によれば、ユーザーは、画面G7を視認することにより、進行係の人物の発言文章と、それ以外の人物の発言文章とを区別して認識することができ、より的確に会議の内容を把握することが可能となる。
また、画面G7では、吹出しFのそれぞれの中に、属性付加ボタンQ1が表示される。
この属性付加ボタンQ1が選択されると、当該ボタンに対応する位置に、属性付加画面Q2が表示される。この属性付加画面Q2では、対応する発言文章が、どの議題に対応するものであるかを入力(設定)できる。すなわち、会議情報入力ステージにおいて、画面G5(図4)では、議題1、議題2・・・というように、<議題+数字>という情報と対応付けて議題を入力できる構成となっている。そして、属性付加画面Q2では、図6に示すように、<議題+数字>の<数字>の部分を入力(プルダウンメニューから選択する構成であってもよい)ことにより、対応する議題を設定できる構成となっている。また、図6に示すように、属性付加画面Q2は、対応する発言文章に係る発言よりも、時間的に前に行なわれた発言に係る発言文章に対して、一括で、対応する発言文章に設定した議題を設定できる構成となっている。
さらに、属性付加画面Q2では、対応する発言文章の内容が、「決定事項」であるか、または、「懸案事項」であるかを入力(設定)できる構成となっている。換言すれば、発言文章に、属性を付加できる構成となっている。決定事項とは、会議において確定した内容のことであり、また、懸案事項とは、後に検討を要する内容のことである。
ここで、会議における発言に関しては、その内容が決定事項であるのか、懸案事項であるのかを示す情報は、後に会議の内容を検討するにあたって、非常に重要な情報である。これを踏まえ、本実施形態では、任意の発言文章について、決定事項、または、懸案事項という属性を付加できる構成となっている。後述するように、決定事項という属性が付加された発言文章、及び、懸案事項という属性が付加された発言文章は、抜き出されて表示される。
なお、発言文章に付加可能な属性は、上記に限らない。例えば、発言の重要度を属性として付加可能としてもよく、また、発言を行なった者の性別や、年齢層等を属性として付加可能としてもよい。すなわち、発言文章や、発言文章に係る話者の特徴や性質等を示す情報であれば、何であってもよい。
さて、図6(A)の画面G7を参照し、ユーザーは、ボタンB32を選択すれば、画面G3の発言文章を対象として文字列検索が可能であり、ボタンB33を選択すれば、文字列の置換が可能であり、ボタンB34を選択すれば、画面G7の情報を含む画像を印刷でき、ボタンB35を選択すれば、画面G7の情報を含むデータをダウンロードできる。
また、ユーザーにより、ボタンB36が選択されると、ユーザーが画面G7を利用して行なった各種編集(発言文章の編集や、属性の付加等)が確定する。
ボタンB36の選択をトリガーとして、端末制御部15は、ユーザーが画面G7を介して行なった編集を示す情報が含まれるデータを、サーバー制御部20に送信する。サーバー制御部20は、当該データ(または当該データに基づいて生成されるデータ)を所定の記憶領域に記憶する。
サービス提供サーバー10のサーバー制御部20は、分析結果データD1や、画面G5、G6の入力に基づいて生成されたデータに基づいて、適切な表示ファイルを生成し出力することにより、画面G7、G8(ユーザーインターフェース)をユーザー端末11に表示させ、画面G7、G8を介して各種サービスをユーザーに提供する。
画面G7において、ボタンB36が選択されたことを検出すると、サーバー制御部20は、画面G9(図7)をブラウザーウィンドーに表示させる。
図7は、画面G9を示す図である。
この画面G9では、後にユーザーが正式に議事録を作成する際に、その基礎として利用できる情報が、議事録を模した態様で表示される。
すなわち、会議名、開催日時、及び、その出席者が、画面G5への入力に基づいて表示される。
さらに、画面G9では、議題ごとに、決定事項欄R2と、懸案事項欄R3とが設けられる。決定事項欄R2には、属性として決定事項が付加された発言文章が、時系列で、発言開始時間、話者が属するグループ名、及び、話者の名前と対応付けて一覧表示される。また、懸案事項欄R3には、属性として懸案事項が付加された発言文章が、時系列で、発言開始時間、話者が属するグループ名、話者の名前と対応付けて一覧表示される。
このように、画面G9では、付加された属性が共通する発言文章が抜き出されて表示される。すなわち、サービス提供サーバー10は、属性を付加可能な態様で表示させると共に、付加された属性が共通する発言文書を抜き出して表示させる機能を、備えている。
ユーザーは、画面G9を視認することにより、会議名、開催日時等を取得して、会議の概要を迅速に把握できる。さらに、ユーザーは、画面G9を視認することにより、議題ごとに、決定事項に係る発言文章のそれぞれと、懸案事項に係る発言文章のそれぞれとを把握できる。これにより、ユーザーは、後に正式な議事録を作成する際に、有益な情報を的確に取得することができる。
なお、画面G9の情報は、通常のテキスト編集と同様の方法により、ユーザーが自由に編集できる構成となっている。
また、画面G9の態様は、図7に例示したものに限らない。例えば、付加された属性にかかわらず、全ての発言文章を、話者の名前等の必要な情報と対応付けて、一覧表示する欄が設けられていてもよい。
画面G9において、ユーザーによってボタンB41が選択されると、画面G9の内容を有する画像が印刷され、ボタンB42が選択されると、画面G9の内容を有するデータがダウンロードされる。
画面G9の内容を印刷し、または、データをダウンロードすることにより、ユーザーは、正式な議事録を作成する際に、いつでも、有益な情報を得ることができる。
また、ユーザーによってボタンB43が選択されると、議事録作成サービスが終了する。
以上説明したように、本実施形態に係るサービス提供サーバー10(情報処理装置)は、音声データに記録された複数の発言を文字化して発言文章を生成する機能と、音声データを分析して、発言した話者を区別する機能と、各発言文章を、区別した話者のうちのいずれの話者が発言したものであるかを識別可能な態様で表示させる機能と、を備えている。
この構成によれば、ユーザーは、表示内容を視認することにより、感覚的、直感的に、各発言文章が、区別した話者のうちのいずれの話者の発言に係るものであるかを認識でき、かつ、どのような会話のキャッチボールが行なわれて会議が進んでいったのかを感覚的に認識できる。すなわち、音声データに記録された発言に係る文章の表示に際し、ユーザーの利便性が向上する。
また、本実施形態に係るサービス提供サーバー10は、1又は複数の発言文章を、選択可能な態様で表示させると共に、選択された発言文章を抜き出して表示させる機能を備えている。
この構成によれば、ユーザーは、所望の発言文章のみを抜き出して表示させ、その内容を確認することができる。特に、会議では、雑談等の会議の趣旨からすると、その内容が重要でない発言が行なわれることが多々あるが、上記構成によれば、ユーザーは、このような発言に係る発言文章を除いた状態で、会議の趣旨に添った発言文章のみを視認することができる。
また、本実施形態に係るサービス提供サーバー10は、各発言文章を、選択可能な態様で表示させると共に、選択された発言文章に対応する位置から音声データに係る音声を出力させる機能を備えている。
この構成によれば、ユーザーは、所望の位置から、会議の音声を聞くことができ、これにより、例えば、発言文章に誤りがある場合は、それを訂正等することができる。特に、音声ファイルについては、例えば重要な発言が行なわれた位置等、所望の位置から音声の出力を開始できるようにしたいとする強いニーズがあるが、上記構成によれば、ユーザーは、発言文章によって発言の内容を把握した上で、所望の位置から音声の出力を開始させることができるため、上記ニーズに的確に応えることができる。
また、本実施形態に係るサービス提供サーバー10は、各発言文書を、属性を付加可能な態様で表示させると共に、付加された属性が共通する発言文書を抜き出して表示させる機能と、をさらに備える。
この構成によれば、ユーザーは、属性が共通する発言文章を、的確に、把握できる。
また、本実施形態に係るサービス提供サーバー10は、区別した話者について、各話者が属するグループを入力するためのユーザーインターフェースを提供する機能と、各発言文章を、発言した話者が属するグループが認識できる態様で表示させる機能と、を備えている。
この構成によれば、ユーザーは、迅速、かつ、直感的、感覚的に、各発言文章が、どのグループに属する話者の発言に係るものであるかを認識でき、当該認識の下、例えば、グループ間の意見の相違や、各グループの発言の内容の傾向等を分析可能である
また、本実施形態に係るサービス提供サーバー10は、グループが共通する発言文章を抜き出して表示させる機能を備えている。
この構成によれば、ユーザーは、グループごとの発言を的確に把握することができ、グループ間の意見の相違や、各グループの発言の内容の傾向等をより正確に分析可能である。
なお、上述した実施の形態は、あくまでも本発明の一態様を示すものであり、本発明の範囲内で任意に変形および応用が可能である。
例えば、本実施形態では、サービス提供サーバー10が、情報処理装置と機能していた。しかしながら、デスクトップ型、ノート型、モバイル型、タブレット型のPCや、スマートフォン等の携帯電話に、専用のソフトウェア(アプリケーション)をインストールし、このソフトウェアの機能により、上述した各種機能が発揮できるようにしてもよい。この場合、ソフトウェアがインストールされた装置が、「情報処理装置」として機能する。
また、各種画面について、図面を用いて具体的に説明したが、各種画面の態様は、例示したものに限定されないことは言うまでもない。例えば、本実施形態では、簡易表示サービスに係る画面G3において、話者アイコンW、及び、吹出しFが話者に応じて色分けされることにより、各発言文章が、区別した話者のうちのいずれの話者の発言に係るものであるかを認識可能としていたが、色分けではなく、各話者アイコンW、各吹出しFの枠の太さを変えたり、形を変えたりして、各発言文章が、区別した話者のうちのいずれの話者の発言に係るものであるかを認識可能とする構成であってもよい。
1 情報処理システム
10 サービス提供サーバー(情報処理装置)
11 ユーザー端末
15 端末制御部
20 サーバー制御部

Claims (7)

  1. 話者の発言が記録された音声データを処理する情報処理装置であって、
    前記音声データに記録された複数の発言を文字化して発言文章を生成する機能と、
    前記音声データを分析して、発言した話者を区別する機能と、
    各発言文章を、区別した話者のうちのいずれの話者が発言したものであるかを識別可能な態様で表示させる機能と、
    を備えることを特徴とする情報処理装置。
  2. 1又は複数の発言文章を、選択可能な態様で表示させると共に、選択された発言文章を抜き出して表示させる機能を、さらに備えることを特徴とする請求項1に記載の情報処理装置。
  3. 各発言文章を、選択可能な態様で表示させると共に、選択された発言文章に対応する位置から前記音声データに係る音声を出力させる機能をさらに備えることを特徴とする請求項1または2に記載の情報処理装置。
  4. 各発言文書を、属性を付加可能な態様で表示させると共に、付加された属性が共通する発言文書を抜き出して表示させる機能と、をさらに備えることを特徴とする請求項1ないし3のいずれかに記載の情報処理装置。
  5. 区別した話者について、各話者が属するグループを入力するためのユーザーインターフェースを提供する機能と、
    各発言文章を、発言した話者が属するグループが認識できる態様で表示させる機能と、をさらに備えることを特徴とする請求項1ないし4のいずれかに記載の情報処理装置。
  6. グループが共通する発言文章を抜き出して表示させる機能をさらに備えることを特徴とする請求項5に記載の情報処理装置。
  7. 話者の発言が記録された音声データを処理する情報処理装置を制御するコンピューターにより実行されるプログラムであって、
    前記コンピューターに、
    前記音声データに記録された複数の発言を文字化して発言文章を生成する機能と、
    前記音声データを分析して、発言した話者を区別する機能と、
    各発言文章を、区別した話者のうちのいずれの話者が発言したものであるかを識別可能な態様で表示させる機能と、
    を発揮させることを特徴とするプログラム。
JP2013084704A 2013-04-15 2013-04-15 情報処理装置、及び、プログラム Pending JP2014206896A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013084704A JP2014206896A (ja) 2013-04-15 2013-04-15 情報処理装置、及び、プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013084704A JP2014206896A (ja) 2013-04-15 2013-04-15 情報処理装置、及び、プログラム

Publications (1)

Publication Number Publication Date
JP2014206896A true JP2014206896A (ja) 2014-10-30

Family

ID=52120390

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013084704A Pending JP2014206896A (ja) 2013-04-15 2013-04-15 情報処理装置、及び、プログラム

Country Status (1)

Country Link
JP (1) JP2014206896A (ja)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016177612A (ja) * 2015-03-20 2016-10-06 株式会社リコー 情報処理システム、表示位置決定方法、端末装置、情報処理装置及びプログラム
JP2018092365A (ja) * 2016-12-02 2018-06-14 株式会社アドバンスト・メディア 情報処理システム、情報処理装置、情報処理方法及びプログラム
JP2020060735A (ja) * 2018-10-12 2020-04-16 三浦 浩之 音声認識システム
JP2020095210A (ja) * 2018-12-14 2020-06-18 コニカミノルタ株式会社 議事録出力装置および議事録出力装置の制御プログラム
JP2020154847A (ja) * 2019-03-20 2020-09-24 Tis株式会社 配信システム、配信システムの制御方法、プログラム
JP2020187394A (ja) * 2019-05-10 2020-11-19 株式会社リコー 表示端末、共用システム、表示制御方法およびプログラム
WO2022024371A1 (ja) * 2020-07-31 2022-02-03 マクセル株式会社 Web会議システムおよびWeb会議プログラム

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016177612A (ja) * 2015-03-20 2016-10-06 株式会社リコー 情報処理システム、表示位置決定方法、端末装置、情報処理装置及びプログラム
JP2018092365A (ja) * 2016-12-02 2018-06-14 株式会社アドバンスト・メディア 情報処理システム、情報処理装置、情報処理方法及びプログラム
JP2020060735A (ja) * 2018-10-12 2020-04-16 三浦 浩之 音声認識システム
JP7110057B2 (ja) 2018-10-12 2022-08-01 浩之 三浦 音声認識システム
JP2020095210A (ja) * 2018-12-14 2020-06-18 コニカミノルタ株式会社 議事録出力装置および議事録出力装置の制御プログラム
JP7259307B2 (ja) 2018-12-14 2023-04-18 コニカミノルタ株式会社 議事録出力装置および議事録出力装置の制御プログラム
JP2020154847A (ja) * 2019-03-20 2020-09-24 Tis株式会社 配信システム、配信システムの制御方法、プログラム
JP7098561B2 (ja) 2019-03-20 2022-07-11 Tis株式会社 配信システム、配信システムの制御方法、プログラム
JP2020187394A (ja) * 2019-05-10 2020-11-19 株式会社リコー 表示端末、共用システム、表示制御方法およびプログラム
JP7302270B2 (ja) 2019-05-10 2023-07-04 株式会社リコー 表示端末、共用システム、表示制御方法およびプログラム
WO2022024371A1 (ja) * 2020-07-31 2022-02-03 マクセル株式会社 Web会議システムおよびWeb会議プログラム

Similar Documents

Publication Publication Date Title
US20240029025A1 (en) Computer-based method and system of analyzing, editing and improving content
US10911718B2 (en) Enhancing meeting participation by an interactive virtual assistant
JP6791197B2 (ja) 電子会議システム
US11483273B2 (en) Chat-based interaction with an in-meeting virtual assistant
JP6304345B2 (ja) 電子会議システム
US11630651B2 (en) Computing device and method for content authoring of a digital conversational character
JP2014206896A (ja) 情報処理装置、及び、プログラム
US20120321062A1 (en) Telephonic Conference Access System
US10460031B2 (en) Generating structured meeting reports through semantic correlation of unstructured voice and text data
WO2006085565A1 (ja) 情報通信端末、情報通信システム、情報通信方法、情報通信プログラムおよびそれを記録した記録媒体
US10904631B2 (en) Auto-completion for content expressed in video data
US20220343914A1 (en) Method and system of generating and transmitting a transcript of verbal communication
JP2022170726A (ja) コンピュータ実装方法、コンピュータシステム、及びコンピュータプログラム(共有された画面上のコンテクスチャルリアルタイムコンテンツハイライト)
JP2021163250A (ja) 会議登録システム、ユーザ端末、管理システム、情報処理方法、及びプログラム
US20230169272A1 (en) Communication framework for automated content generation and adaptive delivery
JP6733452B2 (ja) 音声分析プログラム、音声分析装置、及び音声分析方法
KR20220046165A (ko) 앱과 웹의 연동을 통해 음성 파일에 대한 메모를 작성하는 방법, 시스템, 및 컴퓨터 판독가능한 기록 매체
KR20220089367A (ko) 회의록 작성 시스템
JP2021152875A (ja) 情報処理システム、情報処理装置、ユーザ端末、情報処理方法、及びプログラム
US11838139B1 (en) Conferencing platform integration with assent tracking
US20230403174A1 (en) Intelligent virtual event assistant
US20240146557A1 (en) Conferencing platform integration with assent tracking
US20240146879A1 (en) Conferencing platform integration with workflow management
Chang Influences of new media communication on the deaf/hard of hearing as reflected in interaction design
KR20230058953A (ko) 회의록 작성 시스템