JP6914154B2 - 表示制御装置、表示制御方法及びプログラム - Google Patents

表示制御装置、表示制御方法及びプログラム Download PDF

Info

Publication number
JP6914154B2
JP6914154B2 JP2017177792A JP2017177792A JP6914154B2 JP 6914154 B2 JP6914154 B2 JP 6914154B2 JP 2017177792 A JP2017177792 A JP 2017177792A JP 2017177792 A JP2017177792 A JP 2017177792A JP 6914154 B2 JP6914154 B2 JP 6914154B2
Authority
JP
Japan
Prior art keywords
message
display
displayed
attribute information
displaying
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017177792A
Other languages
English (en)
Other versions
JP2019053566A (ja
Inventor
慶子 蛭川
慶子 蛭川
寺田 智
智 寺田
戸丸 知信
知信 戸丸
和輝 佐藤
和輝 佐藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP2017177792A priority Critical patent/JP6914154B2/ja
Priority to CN201811025049.7A priority patent/CN109508214A/zh
Priority to US16/131,272 priority patent/US11262977B2/en
Publication of JP2019053566A publication Critical patent/JP2019053566A/ja
Application granted granted Critical
Publication of JP6914154B2 publication Critical patent/JP6914154B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/44Arrangements for executing specific programs
    • G06F9/451Execution arrangements for user interfaces
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/26Speech to text systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L2015/088Word spotting

Description

本発明は、表示制御装置等に関する。
従来から、会議等の議事録を生成する装置が提案されている。例えば、実施した会議の情報を、アイコンを用いて時系列に表現し、各アイコンは議論内容および参照資料へリンクさせるようにして、一見して会議の状況及び参照資料が把握できると共に、所望の情報に容易にアクセスすることを可能とする発明が提案されている(例えば、特許文献1)。
特開2013−222347号公報
前述した特許文献1によれば、実際に会議中に話された内容を確認するには、アイコンをクリックすることによって再生される音声を再生しなければならない。また、テキストベースの議事録が表示されておらず、議事録を参照する際に、別の操作が必要となる。この場合、会議の全体の様子と、要約とを比較したい場合は、様々な操作が必要で、利便性が高くない。
上述した課題に鑑み、本発明の目的は、入力されたメッセージの中から必要なメッセージを抽出して表示することにより、利用者がメッセージの内容を容易に確認することができる表示制御装置等を提供することである。
上述した課題を解決するために、本発明の表示制御装置は、
入力されたメッセージを記憶するメッセージ記憶部と、
前記メッセージに属性情報を付加する属性情報付加部と、
前記メッセージを時系列に表示する第1表示領域と、前記メッセージの中から、前記属性情報に基づき抽出したメッセージを表示する第2表示領域とを有する第1表示画面を表示する制御を行う表示制御部と、
を備えたことを特徴とする。
本発明の表示制御方法は、
入力されたメッセージを記憶するメッセージ記憶ステップと、
前記メッセージに属性情報を付加する属性情報付加ステップと、
前記メッセージを時系列に表示する第1表示領域と、前記メッセージの中から、属性情報が付加されたメッセージを抽出して表示する第2表示領域とを有する第1表示画面を生成し、当該第1表示画面を表示する表示制御ステップと、
を含むことを特徴とする。
本発明のプログラムは、
コンピュータに、
入力されたメッセージを記憶するメッセージ記憶機能と、
前記メッセージに属性情報を付加する属性情報付加機能と、
前記メッセージを時系列に表示する第1表示領域と、前記メッセージの中から、属性情報が付加されたメッセージを抽出して表示する第2表示領域とを有する第1表示画面を生成し、当該第1表示画面を表示する表示制御機能と、
を実現させることを特徴とする。
本発明によれば、入力されたメッセージの中から、属性情報が付加されたメッセージを抽出して、メッセージを時系列に表示する領域とは別の領域に表示することとなる。したがって、利用者は、抽出されたメッセージを確認することにより、容易に入力されたメッセージの内容を確認することが可能となる。
第1実施形態における会議支援システムの概要を説明するための図である。 第1実施形態における表示装置の機能構成を説明するための図である。 第1実施形態における(a)基本情報、(b)議題情報、(c)メンバ情報のデータ構成の一例を示した図である。 第1実施形態におけるメッセージ情報のデータ構成の一例を示した図である。 第1実施形態におけるキャプチャ情報のデータ構成の一例を示した図である。 第1実施形態におけるメイン処理を説明するための動作フローである。 第1実施形態における会議記憶処理を説明するための動作フローである。 第1実施形態におけるサマライズ画面表示処理を説明するための動作フローである。 第1実施形態におけるサマライズ画面表示処理を説明するための動作フローである。 第1実施形態における要約表示処理を説明するための動作フローである。 第1実施形態における詳細画面表示処理を説明するための動作フローである。 第1実施形態における動作例(会議画面)を説明するための図である。 第1実施形態における動作例(サマライズ画面)を説明するための図である。 第1実施形態における動作例(サマライズ画面)を説明するための図である。 第1実施形態における動作例(サマライズ画面)を説明するための図である。 第1実施形態における動作例(サマライズ画面)を説明するための図である。 第1実施形態における動作例(サマライズ画面、詳細画面)を説明するための図である。 第2実施形態における動作例(サマライズ画面、詳細画面)を説明するための図である。
以下、図面を参照して本発明を実施するための一実施形態について図面を参照して説明する。なお、本実施形態としては、一例として、本発明における表示制御装置を含む会議支援システムについて説明する。
[1.第1実施形態]
[1.1 全体構成]
まず、本発明の表示制御装置を含む表示装置10と、サーバ装置20と、端末装置30と含む会議支援システム1を図1に示す。会議支援システム1において、表示装置10と、サーバ装置20と、端末装置30とはネットワークNW(LAN(Local Area Network))を介して接続されている。なお、端末装置30は複数接続されていてもよい。また、表示装置10と、サーバ装置20と、端末装置30とは同一ネットワークに接続されていることとして説明しているが、外部のネットワークを介して接続されていてもよい。例えば、サーバ装置20をクラウドに配備してもよい。
表示装置10は、表示パネルに、コンピュータ等の表示制御装置が接続された装置であったり、単体の装置であったりする。表示装置10においては、会議資料が表示されたり、資料に対する書き込み操作を受け付けたりすることが可能である。また、会議に関する情報を記憶したり、記憶した情報をサーバ装置20へ送信したりする。
表示装置10は、例えば液晶ディスプレイ(LCD)や、有機ELパネル(OLED)といった表示装置であり、タッチ入力が可能なタッチパネルを備えて構成されている。タッチ入力の検出方式としては、静電容量方式のようなタッチパネルであってもよいし、感圧式のタッチパネルであってもよい。すなわち、タッチ入力といった、利用者の操作入力を適宜受け付けることが可能な装置であればよい。また、タッチする方法としては、利用者による指であってもよいし、操作ペンであってもよい。
このように、表示パネルと、表示制御装置とで異なる装置の場合もあれば、表示装置として一体に構成されている場合も含まれる。以下、本実施形態では、説明の都合上、表示装置が表示制御装置の機能を併せて有することとして説明する。
サーバ装置20は、表示装置10から受信したサマライズ情報を記憶し、端末装置30からのサマライズ情報の送信要求に対して、要求されたサマライズ情報を送信する。サーバ装置20は、コンピュータによって構成されてもよいし、仮想サーバ装置により実現されてもよい。
端末装置30は、サーバ装置20から提供されるサービスを利用することが可能な装置であり、本実施形態ではPC(パーソナルコンピュータ)によって実現されているものとする。なお、端末装置30は、画像を表示可能な携帯型の端末装置であればよく、例えばタブレットやスマートフォンのような小型の装置であってもよい。
[1.2 機能構成]
表示装置10の機能構成について、図2に基づいて説明する。表示装置10は、制御部100と、表示部110と、操作検出部120と、画像処理部130と、音声入力部140と、音声認識部150と、通信部160と、記憶部170とを備えて構成される。
制御部100は、表示装置10の全体を制御するための機能部である。制御部100は、記憶部170に記憶されている各種プログラムを読み出して実行することにより各種機能を実現しており、例えばCPU(Central Processing Unit)等により構成されている。
表示部110は、操作者に対して各種情報を表示したり、オブジェクトが表示されたりする機能部である。また、本実施形態においては、会議において表示される資料の他に、発言を時系列順に表示したタイムラインが併せて表示される。表示部110は、例えば、液晶ディスプレイ(LCD:liquid crystal display)や、有機ELディスプレイ等により構成されている。
操作検出部120は、操作者からの操作を検出するための機能部である。例えば、表示部110と一体に構成されるタッチパネルや、ハードウェアボタン等により構成されている。タッチパネルによる操作の検出方式としては、静電容量方式であったり、抵抗膜方式等の感圧式や、赤外線方式、電磁誘導方式であったりと何れの方法であってもよい。
画像処理部130は、表示部110において表示される画像の処理を実行する機能部である。一般的な画像処理として、例えば画像データを鮮鋭化処理したり、色調整処理したりして出力することができる。
音声入力部140は、音声入力装置(例えば、マイク)から入力された音声を、音声データとして出力する機能部である。音声入力部140としては、マイク等の音声入力装置が予め備えられていてもよいし、入力IFとして外部マイクやマイクミキサ等が接続されてもよい。
音声認識部150は,音声データを認識し、テキストデータに変換し、出力するための機能部である。音声データを認識してテキストデータに変換するために用いる技術としては、いずれか公知の手法を用いればよい。例えば、汎用大語彙連続音声認識エンジンであるJulius等を用いることができる。また、音声認識を行う外部サービスにネットワークを介して音声データを送信し、外部サービスからの認識結果を受信してもよい。
通信部160は、表示装置10が外部機器と通信を行うための機能部である。例えば、有線/無線LANで利用されるNIC(Network Interface Card)や、3G/LTE回線に接続可能な通信モジュールにより実現されている。
記憶部170は、表示装置10の動作に必要な各種プログラムや、各種データが記憶されている機能部である。記憶部170は、例えば、半導体メモリであるSSD(Solid State Drive)や、HDD(Hard Disk Drive)等により構成されている。
記憶部170には、特に、会議に関する情報である会議情報172と、コンテンツデータ190とが記憶されている。会議情報172には、会議に関する基本的な情報を記憶した基本情報174と、会議において議論する内容に関する情報を記憶した議題情報176と、利用者の情報を記憶したメンバ情報178と、会議においてされた発言を記憶したメッセージ情報180と、コンテンツデータをキャプチャしているキャプチャ情報182とが含まれている。
会議情報172の具体的な内容について、図を参照して説明する。図3(a)は基本情報174のデータ構造の一例を示した図である。基本情報174には、会議を識別するための会議名(例えば、「新製品開発MTG」)と、利用者(例えば、「A、B、C」)と、会議の開催時に表示する資料(コンテンツデータ)を示す資料データ(例えば、「MTG.ppt, SHIRYO.png」)と、会議の開始予定時刻と終了予定時刻を示す開催日時(例えば、「2017/09/01 13:30−14:30」)とが記憶されている。
資料データは、例えば、プレゼンテーション形式のファイルのデータをそのまま記憶させてもよいし、記憶部170のコンテンツデータ190として記憶され、当該コンテンツデータ190から読み出されたコンテンツデータが資料として表示される。そして、会議情報172においては、保存されているコンテンツデータのファイル名やファイルパスを記憶させてもよいし、実ファイルを記憶させてもよい。また、上述した属性に加えて、会議場所や、進捗状況や、音声認識部150についての設定情報(例えば、音声認識エンジン名や、認識する言語)といった、会議に関係する属性を記憶させてもよい。
図3(b)は議題情報176のデータ構造の一例を示した図である。議題情報176には、会議を識別する会議名(例えば、「新製品開発MTG」)と、議題を識別する議題名(例えば、「調達部材について」)とが記憶されている。これらの属性に加えて、議題について議論する予定時間や、当該議題に関するキーワードを記憶させてもよい。
図3(c)はメンバ情報178のデータ構造の一例を示した図である。メンバとは、会議に参加する個人をいう。メンバ情報178には、メンバを識別するメンバ名(例えば、「A」)と、メンバの役職(例えば、「課長」)と、メンバを識別表示するために用いられる画像データ(例えば、「shain_a.jpg」)とが記憶されている。これ以外にも、例えば連絡先や、所属部署といった個人に関する情報を記憶させてもよい。
図4は、メッセージ情報180のデータ構造の一例を示した図である。メッセージ情報180には、会議を識別するための会議名(例えば、「新製品開発MTG」)と、議題を識別するための議題名(例えば、「調達部材について」)と、メッセージを識別するためのメッセージ番号(例えば、「3」)と、発言をした発言者や、メッセージの送信者としての発言者(例えば、「C」)と、発言日時(例えば、「2017/09/01 13:42:34」)と、メッセージ(例えば、「取引先のABC様からもう少し…」)と、メッセージに関する属性情報(例えば、「課題」)とが記憶されている。
ここで、メッセージ関する属性情報とは、利用者又はシステムが付与する属性が記憶される。属性とは、メッセージの内容や重要度等を表すものであり、タグや、評価、フラグ等を付与することができる。例えば、本実施形態では、タグを一例とすると、新たに検討すべき事項を示すタグである「タスク」と、議論に対する結論を示すタグである「結論」と、会議を振り返る場合に参照すべき発言を示す「重要」との3つのうちいずれかをメッセージに付与できることとする。なお、説明のため、タグが付与されない場合を明確にするために、タグが付与されない場合は、メッセージ情報180のタグに「なし」と記載することとする。
上述したタグ以外にも、「疑問」、「賛成」、「反対」、「緊急」といったようなタグを付与できてもよく、また1つのメッセージに対して複数のタグを付与してもよい。付与できるタグは利用者によって設定されてもよいし、表示装置10に予め設定されていてもよい。また、会議や議題毎に付与できるタグが選択できてもよい。
なお、メッセージに属性を付与する方法として、上述したようにタグ以外の方法を用いても構わないことは勿論である。例えば、メッセージに対して重要であるか否かのみを識別するフラグや、「いいね」「Good」「Bad」等の評価を用いてもよく、重要度といった値を用いて識別してもよい。
また、発言番号はメッセージを識別できればよく、本実施形態では議題毎に1から始まる連番を付与することとしている。なお、発言番号は、会議毎に1から始まる連番を付与してもよいし、会議開始時間からの経過時間でもよいし、発言日時やメッセージといった属性又はそれらの組み合わせから求められるハッシュ値を発言番号として用いてもよい。
図5は、キャプチャ情報182のデータ構造の一例を示した図である。キャプチャ情報182には、会議を識別するための会議名(例えば、「新製品開発MTG」)と、議題を識別するための議題名(例えば、「調達部材について」)と、キャプチャデータを識別するためのキャプチャ番号(例えば、「1」)と、コンテンツ(資料)がキャプチャされた日時であるキャプチャ日時(例えば、「2017/09/01 13:42:00」)と、コンテンツ(資料)をキャプチャした画像であるキャプチャデータ(例えば、「20170901134200.jpg」)と、そのキャプチャデータを特定するための特定フラグ(例えば、「Off」)とが記憶されている。このキャプチャデータを特定するのは、例えば利用者が重要だと判断した場合や、後で利用したいと考えた場合に、フラグが付与される。
本実施形態において、キャプチャデータとは、表示装置10に表示されているコンテンツを画像データとして表現したものをいう。また、コンテンツとは、会議において利用者に提示される内容をいい、資料データとして記憶されたデータ(ファイル)や、手書き入力された線や文字、アプリケーションの画面をいう。
キャプチャ情報182に記憶するキャプチャデータは、画像データをそのまま記憶させてもよいし、記憶部170にキャプチャデータの画像データをファイルとして格納する領域を設け、当該領域に保存したファイルのファイル名やファイルパスを記憶させてもよい。
また、特定フラグには、「Off」又は「On」の何れかが記憶されることとし、特定フラグが「On」であるキャプチャデータは、例えば重要であるキャプチャデータであることを示す。本実施形態においては、キャプチャデータを特定するために、フラグによって示しているが、タグや値によって示してもよい。
また、キャプチャ番号は、本実施形態では議題毎に1から始まる連番を付与することとしているが、会議毎に1から始まる連番を付与してもよいし、会議開始時間からの経過時間でもよいし、キャプチャ日時やキャプチャデータといった属性又はそれらの組み合わせから求められるハッシュ値をキャプチャ番号として用いてもよい。
[1.3 処理の流れ]
[1.3.1 メイン処理]
つづいて、本実施形態における処理の流れについて、図を参照して説明する。まず、図6を参照して、本実施形態におけるメイン処理について説明する。
まず、会議のメンバの登録を行う(ステップS102)。例えば、表示装置10にメンバの登録を行うための画面を表示し、利用者の名前と役職と画像を入力させる。入力後、利用者の名前はメンバ名として、役職は役職名として、画像は画像データとして、メンバ情報178に記憶する。
つづいて、会議の登録を行う(ステップS104)。例えば、表示装置10に会議の登録のための画面を設け、会議名、参加者(会議に参加する利用者)、資料データ、開催日時及び会議において議論する議題名を入力させる。入力された情報は、基本情報174と議題情報176とのデータ構造に対応させて記憶する。なお、会議を再開する場合は、既に登録されている会議情報から、再開を所望する会議を選択させてもよい。
つづいて、会議が開始したかを判定する(ステップS106)。会議の開始については、利用者による会議開始操作がなされた場合に会議を開始してもよいし、基本情報174に記憶されている会議の開催日時を読み込み、現在時刻と会議の開始予定時刻とが合致した場合に当該会議を開始してもよい。
会議が開始されたら、当該会議における議題のうち、1番目の議題を現在の議題とする(ステップS106;Yes→ステップS108)。ここで、議題の選択とは、発言やコンテンツが、どの議題に関連しているかを指定することであり、指定された議題を現在の議題という。本実施形態においては、会議を開始した直後においてはステップS104において記憶した議題のうち1番目の議題を現在の議題として選択することとしている。
つづいて、利用者により議題の選択操作がされたかを判定する(ステップS110)。議題の選択操作がされた場合は、当該選択された議題を現在の議題に変更する(ステップS110;Yes→ステップS112)。議題の選択操作は、例えば、ステップS104で入力された議題名を選択できるリストを表示し、利用者に当該リストに表示された議題名を選択させることにより実現する。
つづいて、会議記憶処理を行う(ステップS114)。会議記憶処理については後述する。
つづいて、利用者の操作により、サマライズ画面の表示指示がされた場合には、サマライズ画面表示処理を行う(ステップS116;Yes→ステップS118)。サマライズ画面表示処理については後述する。
つづいて、会議が終了したかを判定する(ステップS120)。会議が終了しない場合はステップS110へ戻り(ステップS120;No)、会議が終了する場合はメイン処理が終了する(ステップS120;Yes)。会議の終了については、利用者によって会議終了操作がなされた場合に会議を終了してもよいし、基本情報174に記憶されている会議の開催日時を読み込み、現在時刻と会議の終了予定時刻とが合致した場合に当該会議を終了してもよい。
[1.3.2 会議記憶処理]
つづいて、図7を参照して、会議記憶処理について説明する。会議記憶処理とは、会議中に利用者によってなされた発言や、表示装置10に表示されたコンテンツを記憶する処理である。会議記憶処理を会議の開始から終了に至るまで繰り返し行うことで、会議の内容を表示装置10に記憶することができる。
はじめに、利用者によって発言がされたかを判定する(ステップS152)。例えば、音声入力部140に入力された音声信号が所定の音量以上であった状態が所定の長さ継続した場合に、発言がされたと判定すればよい。この場合、環境音やささやき声によっては発言がされたとは判定されず、また、大きな物音がしても、それが短い間に発音された場合には発言がされたとは判定されない。
発言がされた場合は、当該発言を音声認識することで発言をテキストデータ化する(ステップS152;Yes→ステップS154)。さらに、当該テキストデータをメッセージとして、会議名と、議題名と、発言者と、発言番号とともに、メッセージ情報180に記憶する(ステップS156)。なお、タグは「なし」として記憶(すなわち、メッセージに属性は付与されずに記憶)する。
発言者の特定は、例えば利用者ごとにマイクが割り当てられている場合は、音声入力部140に入力された信号の出力元を特定することによって行う。マイクミキサなどを用いていて、複数の利用者の音声信号が音声入力部140に入力される場合は、公知の話者認識によって発言者を特定してもよいし、ユーザの操作によって発言者を特定してもよい。
つづいて、タイムラインに表示されている発言に対して利用者による発言に対するタグ付け操作がされた場合は、メッセージ情報180から対応するメッセージを抽出し、タグを付与して更新する(ステップS158;Yes→;ステップS160)。タグ付け操作については後述する。
つづいて、メッセージ情報180に基づき、タイムラインを更新する(ステップS162)。すなわち、メッセージ情報180にメッセージが記憶されたり、既存のメッセージにタグが付与されたりした場合にタイムラインを更新する。具体的には、メッセージが記憶されたら、記憶されたメッセージをタイムラインに表示し、タグ付け操作されたら、当該メッセージを識別表示する。メッセージの識別表示としては、背景色や文字色を変えたり、付与されたタグを表すアイコンを表示したりしてもよく、これらを組み合わせてもよい。
つづいて、コンテンツキャプチャ条件に該当するかを判定し、コンテンツキャプチャ条件に該当する場合は、表示装置10に表示されているコンテンツをキャプチャして、キャプチャ情報182に記憶する(ステップS164;Yes→;ステップS166)。キャプチャ情報182の記憶については、コンテンツをキャプチャすることで取得されるキャプチャデータとともに、会議名と、議題名と、キャプチャ番号と、キャプチャを行った日時とを記憶する。
コンテンツキャプチャ条件としては、例えば以下のものが挙げられる。
(1)コンテンツ(資料)のページめくりが起きたとき
(2)コンテンツ(資料)を閉じるとき
(3)コンテンツに手書き入力がされたとき
(4)アクティブウィンドウが変更されたとき
(5)新たなウィンドウが開かれたとき
(6)サマライズ画面の表示指示がされたとき
上述したコンテンツキャプチャ条件以外にも必要な条件を追加してもよい。また、複数の条件を組み合わせてもよい。これらの条件を満たしたタイミングで、コンテンツがキャプチャされ、キャプチャデータ(キャプチャ画像)が生成される。
つづいて、コンテンツ(コンテンツに基づくキャプチャデータ)に対して、コンテンツの特定操作がされたか否かを判定する(ステップS168)。コンテンツの特定操作がされた場合は、当該コンテンツに対応するキャプチャデータの特定フラグを更新する(ステップS170)。コンテンツの特定操作としては、例えば利用者によって、コンテンツに対して重要であることを示すボタンを選択する操作であってよい。
つづいて、会議情報172をサーバ装置20へ送信する。すなわち、サーバ装置20の記憶部にも表示装置10の記憶部に記憶された内容と同一の内容を保存する。これにより、表示装置10が動作していない状態であっても、会議支援システムの利用者は端末装置30からサーバ装置20へ接続することで、会議情報を確認することが可能となる。
[1.3.3 サマライズ画面表示処理]
つづいて、図8と図9を参照して、サマライズ画面表示処理について説明する。サマライズ画面とは、利用者が、会議の情報と会議の要約とを閲覧する場合に表示する画面である。
本実施形態において、サマライズ画面の生成は、タグが付与されたメッセージと、重要なキャプチャデータとを抽出し、表示することによって行う。このとき、タグが付与されたメッセージは、タグ毎に分類して表示可能である。
はじめに、閲覧の対象となる会議の会議情報172を読み込む(ステップS202)。つづいて、会議情報172に含まれる基本情報174から会議名と利用者とを読み込み、議題情報176から会議における議題名を読み込み、メンバ情報178から会議に参加した利用者の画像データを読み込み、表示する(ステップS204)。
つづいて、会議のキャプチャ情報182を読み込み、キャプチャデータを縮小してサムネイルの画像を生成し、当該生成されたサムネイルを表示する(ステップS206)。なお、サムネイルは、キャプチャデータ記憶時や会議終了時にキャプチャデータから生成して記憶されてもよい。
つづいて、サマライズ画面を表示するために、要約表示処理を行う(ステップS208)。要約表示処理については後述する。
つづいて、選択された議題についてのメッセージを、メッセージ情報180から読み込む(ステップS210)。なお、初めてステップS210の処理を行う場合など、議題の選択がされていない場合は、会議における1番目の議題が選択されたとして後続の処理を行ってもよいし、議題が選択されるまで処理を停止してもよい。
つづいて、サムネイル表示されたキャプチャデータに識別表示されているものがあるかを判定する(ステップS212)。識別表示されているものがない場合は、選択された議論における1番目のキャプチャデータを識別表示し、当該1番目のキャプチャデータのキャプチャ日時以降における最初の発言を選択する(ステップS212;Yes→ステップS214)。
キャプチャデータの識別表示としては、サムネイルを他のサムネイルよりも拡大して表示したり、サムネイルの周囲に表示する枠線の色や太さを変えたりしてもよく、これらを組み合わせてもよい。また、発言の識別表示としては、発言を表示する領域の背景を変えたり、当該領域の周囲に表示する枠線の色や太さを変えたりしてもよく、これらを組み合わせてもよい。
つづいて、別の議題に切替えられたかを判定する(ステップS216)。例えば、別の議題に切替える操作としては、例えば議題名を選択できるリストを表示し、当該リストに表示された議題名を選択するといった操作が考えられる。別の議題に切替えられた場合は、ステップS210の処理を行う(ステップS216;Yes→ステップS210)。
なお、議論が切り替えられた場合は、キャプチャデータが選択されていない状態に変えてもよい。キャプチャデータが選択されていない状態とすることで、ステップS214の処理を行うこととなり、選択された議題における1番目のサムネイルと、対応する発言とが選択される状態とすることができる。
つづいて、メッセージの絞込み条件が指定されたかを判定する(ステップS218)。メッセージの絞込み条件としては、例えば、タグ付けされたメッセージ、特定の利用者のメッセージ、指定した文字列を含むメッセージ等が考えられる。また、画面上には、絞り込むためのボタンやフィールドを設け、利用者によってメッセージの絞込み条件を指定できるようにする。
メッセージの絞込み条件が指定されている場合は、ステップS210で読み込んだメッセージのうち、絞込みの条件に合致したメッセージを抽出する(ステップS218;Yes→ステップS220)。メッセージの絞込みが指定されていない場合は、ステップS210で読み込んだメッセージの全てを抽出する(ステップS218;No→ステップS222)。
つづいて、抽出したメッセージを表示する(ステップS224)。このとき、メッセージの性質によって表示形態を変えてもよい。例えば、タグがついているメッセージである場合は、それを示す表示として、発言を表示する領域の背景を変えたり、当該領域の周囲に表示する枠線の色や太さを変えたり、文字の太さを変えてもよく、これらを組み合わせてもよい。
なお、本実施形態では、選択された議題に関するメッセージ情報180を読み込み、その後に絞込みを行うが、メッセージを絞り込んで表示することができれば別の方法によって実現されても構わないことは勿論である。例えば、議論の選択及び絞込みの条件が指定されるたびに、メッセージ情報180から、条件に合致する発言を抽出して表示してもよい。
つづいて、ステップS224で表示された発言のうちの1つの発言が選択する操作がされたかを判定する(ステップS226)。発言が選択された場合は、これまで選択されていた発言に代わって、当該選択された発言に対して識別表示を行う。また、その発言がされたときにおけるキャプチャデータを識別表示する(ステップS226;Yes→ステップS228)。なお、選択されたメッセージの横に、識別表示されたキャプチャデータが表示されるように、キャプチャデータの表示位置を変更(スクロール)してもよい。
つづいて、ステップS206で表示したキャプチャデータが選択されたかを判定する(ステップS230)。キャプチャデータが選択された場合は、当該選択されたキャプチャデータが既に識別表示されていたか判定する(ステップS230;Yes→ステップS232)。既に識別表示されていたキャプチャデータを選択した場合は、詳細表示処理を行う(ステップS232;Yes→ステップS234)。詳細表示処理については後述する。
識別表示がされていないキャプチャデータを選択した場合は、これまで識別表示されていたキャプチャデータは通常の表示に戻して、選択されたキャプチャデータに対して識別表示を行う。また、そのキャプチャデータのキャプチャ日時以降における最初の発言を選択し、識別表示する(ステップS232;No→ステップS236)。
つづいて、終了操作がされたかを判定する(ステップS238)。終了操作とは、例えば、サマライズ画面を閉じる操作であったりする。終了操作がされた場合は、サマライズ画面表示処理を終了する(ステップS238;Yes)。それ以外の場合は、ステップS216の処理を行う(ステップS238;No→図8ステップS216)。
[1.3.4 要約表示処理]
つづいて、図10を参照して、要約表示処理について説明する。要約表示とは、特定のメッセージ(例えば、重要なメッセージや、利用者が表示させたいメッセージ等)と、特定のキャプチャデータ(例えば、重要なキャプチャデータや、利用者が表示させたいキャプチャデータ等)をまとめて表示することをいう。
はじめに、会議名に基づき議題情報176を読み込み、その会議における議題名を抽出する(ステップS252)。つづいて、抽出した議題名のうち、1番目の議題名を抽出し(ステップS254)、会議名と議題名とを用いて、メッセージ情報180に記憶されているメッセージのうち、タグが付与されたメッセージを抽出する。
つづいて、抽出されたメッセージをタグの種類ごとにまとめて表示する(ステップS258)。例えば、タグが「結論」であるメッセージを表示し、その次にタグが「タスク」であるメッセージを表示する。これにより、メッセージを全て確認しなくても、重要なメッセージだけを確認する事が可能となる。また、タグが「重要」であるメッセージは表示しないなど、タグによって表示の有無を指定してもよい。表示するタグの種類は、利用者によって指定されてもよいし、表示装置10に予め設定されていてもよい。
つづいて、会議名と議題名に基づき重要なキャプチャデータを表示する。すなわち、キャプチャ情報182から、特定フラグが「On」となっているキャプチャを抽出し表示する。これにより、全てのキャプチャデータを確認しなくても、重要なキャプチャデータだけを確認することが可能となる。
つづいて、全ての議題名を抽出したかを判定する(ステップS262)。全ての議題名を抽出していない場合は、次の議題名を抽出して、ステップS256に戻る(ステップS262;Yes→ステップS264)。すなわち、その会議における全ての議題に対して、重要なメッセージ及び重要なキャプチャデータの表示を行う。全ての議題名を抽出した場合は、要約表示処理を終わる(ステップS262;Yes)。
[1.3.5 詳細表示処理]
つづいて、図11を参照して、詳細表示処理について説明する。詳細表示画面とは、キャプチャデータと、そのキャプチャデータに基づく発言とを確認するための画面である。
はじめに、詳細表示画面を表示する(ステップS302)。例えば、詳細表示画面がサマライズ画面と重なるように、ダイアログ形式で表示すればよい。
つづいて、選択されたキャプチャデータと前後のキャプチャデータとを表示する(ステップS304)。ここで、選択されたキャプチャデータとは、図9のステップS230において選択されたキャプチャデータか、後述するステップS308によって選択されたキャプチャデータの何れかである。また、当該選択されたキャプチャデータの前後のキャプチャデータ、すなわち、時系列にキャプチャデータを並べたときに、当該選択されたキャプチャデータの前後に位置するキャプチャデータも読み込んで表示する。これにより、キャプチャデータの前後関係を表示することができる。
つづいて、選択されたキャプチャデータに対応するメッセージを表示する。例えば、選択されたキャプチャデータのキャプチャ日時と、その前にキャプチャされたキャプチャデータのキャプチャ日時の間に記憶されたメッセージを表示する。これにより、選択されたキャプチャが記憶されるまでにされた発言等を確認することができる。
つづいて、選択されたキャプチャデータの前後のキャプチャデータが選択された場合は、ステップS304へ戻り、新たに選択されたキャプチャデータ及びその前後のキャプチャデータとメッセージを表示する(ステップS308;Yes→ステップS304)。そうでない場合は、詳細表示画面を閉じる操作がされたかを判定し、閉じる操作がされた場合は、詳細表示画面を非表示にする(ステップS310;Yes→ステップS312)。
[1.4 動作例]
つづいて、第1実施形態における動作例(画面例)を、図を参照して説明する。はじめに会議画面について説明する。会議画面とは会議において議論を進めているとき等に表示される画面であり、会議画面の一例である表示画面W100を図12(a)に示す。
図12(a)に示すように、表示画面W100には、コンテンツ表示領域R100と、タイムライン領域R110と、議題を選択するための議題リストL120と、サマライズ画面表示指示を行うためのサマライズボタンB120とが表示されている。
コンテンツ表示領域R100には、コンテンツC100と、重要コンテンツ指定操作を行うためのボタンB100とが表示されている。コンテンツC100は、利用者による操作によりページ送りや手書き入力が可能である。また、ボタンB100に対する操作(例えば、タッチ操作)により、コンテンツC100のキャプチャデータを特定すること(例えば、重要なキャプチャデータであることを特定すること)ができる。
タイムライン領域R110には、メッセージが時系列に表示されている。本実施形態では、メッセージ毎に、メンバを識別する画像S112と、メッセージS114と、メッセージに付与されたタグを示すタグ画像S116とによって構成されるメッセージ領域S110を生成し、タイムライン領域R110に追加する。
メッセージ領域S110をタイムライン領域R110に追加する場合は、タイムライン領域R110の一番下に追加してもよいし、一番上に追加してもよい。また、タイムライン領域R110にメッセージ領域S110を追加する領域がない場合は、すでに表示されているメッセージ領域S110をスクロールさせ、新たに追加されるメッセージ領域S110がタイムライン領域R110の一番上又は一番下に表示させる。
ここで、メッセージに対する属性の付与方法の1つとして、タグの付与の操作について、図12(b)〜(d)を参照して説明する。はじめに、利用者はタグを示す画像S116を長押しする(図12(b))。長押しをすると、タグ選択領域S118が表示される(図12(c))。タグ選択領域S118に表示されたタグを選択することで、メッセージにタグが付与され、識別表示がされる(図12(d))。既に付与したタグを変更する場合も、上述した操作によって新たに付与するタグを選択することが可能である。
また、利用者によってタグを示す画像S116が選択され、タグ選択領域S118を表示する前に選択状態が解除された場合には、タグを示す画像S116に対応するタグをメッセージに付与してもよい。なお、このような操作がされた場合に付与するタグは、表示装置10に予め設定されていてもよいし、利用者によって設定されてもよい。
なお、メッセージ領域S110が識別表示されていないときに、画像S116として、タグ選択領域S118を用いないで付与するタグを示す画像を表示してもよい。本実施形態では、メッセージ領域S110が識別表示されていないときは、当該付与するタグの輪郭を表示している。
また、タグの付与を取り消す場合の操作については、図12(e)に示すようにメッセージを長押しする。長押しした結果、タグの付与が取り消され、図12(f)に示すように、メッセージの識別表示がされなくなる。
議題リストL120は、リストを選択(例えば、タッチ操作)することでリストが展開され、開催している会議における議題名が一覧表示されるリストである。また、一覧表示された議題名から1つの議題名を選択することで、議題を変更することができる。議題が変更された場合は、タイムライン領域R110は、当該議題におけるメッセージが表示される。
つづいて、サマライズ画面について説明する。サマライズ画面はサマライズ画面表示処理が実行されることにより表示される画面である。
はじめに、サマライズの一例である表示画面W200を図13に示す。表示画面W200は、会議名、日時といった会議の基本情報を表示する領域R200と、要約領域R210と、タイムライン領域R220と、サムネイル領域R230と、議題を選択するための議題リストL240と、メッセージの絞込みを行うボタンB240及びB242と、スクロールバーB244とから構成される。すなわち、表示画面W200には、第1表示領域として、タイムライン領域R220(サムネイル領域R230)が、第2表示領域として要約領域R210が設けられている。
要約領域R210には議題毎に要約が表示される。また、要約の表示は、議題名を表示する領域R212と、タグが付与されたメッセージをタグの種類別に表示する領域R214と、重要キャプチャデータを表示する領域R216とから構成される。要約が要約領域R210に表示しきれない場合は、要約領域R210をスクロールさせることにより、表示されていなかった要約を表示させることができる。
タイムライン領域220には、議題リストL240で選択された議題におけるメッセージが時系列順に表示される。また、サムネイル領域R230は、会議におけるキャプチャデータが、時系列順にサムネイル表示で表示される。
サムネイル領域R230に表示されるキャプチャデータは、スクロールバーB244を操作することで変更することが可能である。このとき、識別表示されるキャプチャデータは、スクロールバーB244のつまみの位置によって変わる。また、それまで選択していた議題と異なる議題に関するキャプチャデータが識別表示された場合は、対応する議題を議題リストL240に表示させたり、対応する議題が要約領域R210に表示されるように要約領域R210をスクロールさせたりする。
さらに、スクロールバーB244の内部の余白部分に、タグ付けされたメッセージの位置を表示してもよい。これにより、利用者は、タグが付与されたメッセージを表示しようとする場合に、スクロールバーB244の表示を参考につまみを操作することが可能となる。
つづいて、メッセージの絞込みについて図14を参照して説明する。図14(a)はメッセージの絞込みを行うボタンB242を選択している状態における動作例である。ここで、ボタンB242は、タグが付与されたメッセージのみを表示することを指示するボタンである。
ボタンB242を選択した後の動作例を図14(b)に示す。ここで、ボタンB242の表示形態を変えることで、当該ボタンB242が選択されていることを示す。また、ボタンB242が選択されたことにより、タイムライン領域R220には、タグが付与されたメッセージに絞り込んで表示される。また、サムネイル領域R230は、タグが付与されたメッセージに対応するキャプチャデータのみが表示される。
なお、再度ボタンB242を選択することで、ボタンB242の選択されている状態が解除される。このとき、タグが付与されたメッセージ及び対応するキャプチャデータのみを表示するという指示が解除される。したがって、タイムライン領域R220には全てのメッセージが表示され、サムネイル領域R230には全てのキャプチャデータが表示されることとなる。
ボタンB240は、メッセージを発言者によって絞り込んで表示することを指示するボタンであり、利用者の画像が表示される。選択時の操作はボタンB242と同じであり、選択された利用者のメッセージのみがタイムライン領域R220に表示される。
なお、ボタンB240と、ボタンB242とは、同時に一つのボタンしか選択できなくてもよいし、同時に複数のボタンが選択できてもよい。複数のボタンが選択された場合は絞り込み条件を組み合わせてメッセージの絞込みを行う。また、上述したボタン以外にも、指定した文字列が含まれるメッセージを絞り込んで表示するためのテキストフィールドを表示してもよい。
つづいて、メッセージを選択した場合の挙動について図15を参照して説明する。図15(a)はタイムライン領域240に表示されたメッセージ領域S202を選択している状態を示した図である。また図15(b)はメッセージ領域S202を選択した後の状態を示した図である。
メッセージを選択した場合は、メッセージ領域S202が識別表示され、それまで識別表示されていたメッセージ領域S200の識別表示が解除される。また、メッセージ領域S202のメッセージに対応するキャプチャデータT202が識別表示され、メッセージ領域S202の横に位置するようにスクロールする。このとき、それまで識別表示されていたキャプチャデータT200の識別表示が解除される。
すなわち、メッセージを選択することで、対応するキャプチャデータが識別表示されるとともに、選択したメッセージの横に移動する。この動作により、発言がされた時に表示されていたコンテンツを容易に参照することができる。
つづいて、識別表示がされていないキャプチャデータを選択した場合の挙動について図16を参照して説明する。図16(a)は識別表示されていないキャプチャデータT212を選択している状態を示した図である。また図16(b)はキャプチャデータT212を選択した後の状態を示した図である。
キャプチャデータT212を選択することで、それまで識別表示されていたキャプチャデータT210に代わって、キャプチャデータT212が識別表示される。また、選択したキャプチャデータに対応するメッセージS210が、キャプチャデータT212横に位置するようにスクロールし、当該メッセージS210が識別表示される。この動作により、コンテンツに対応するメッセージを容易に参照することができる。
つづいて、識別表示がされているキャプチャデータを選択した場合の挙動について図17を参照して説明する。図17(a)は識別表示されているキャプチャデータT220を選択している状態を示した図である。また図17(b)はキャプチャデータT220を選択した後の状態を示した図である。
識別表示がされているキャプチャデータを選択することで詳細表示処理が実行され、サマライズ画面に重なるように、詳細画面の表示画面W300が表示される。表示画面W300には、選択されたキャプチャデータR300と、その前後のキャプチャデータR302及びR304とが表示される。また、選択されたキャプチャデータR300に対応するメッセージがR306に表示される。
前後のキャプチャデータR302又はR304のいずれかが選択されることにより、詳細表示処理を再度実行し、表示画面W300を更新する。また、詳細画面を閉じるためのボタンB300が選択された場合は、詳細画面を非表示にする。
[2.第2実施形態]
つづいて、第2実施形態について説明する。第2実施形態は、音声を録音データとして記憶し、サマライズ画面において録音データを再生する実施形態である。なお、本実施形態における機能構成及び処理フローは、第1実施形態と原則同じであるため、相違する点を中心に説明する。
本実施形態では、メッセージ情報180に、音声データを追加する。また、ステップS154において、音声認識部150に入力した音声を記憶する。すなわち、メッセージと音声データとが関連付けられる。
また、サマライズ画面又は詳細画面においては、メッセージを表示する領域に、音声データを再生するためのボタンを表示する。利用者はこのボタンを選択することで、音声データを再生することが可能となる。
図18を参照して動作例を説明する。図18(a)はサマライズ画面の動作例であり、メッセージ領域に音声データを再生するためのボタンB400を表示する。また、図18(b)は詳細画面の動作例であり、メッセージが表示されている領域に、音声データを再生するためのボタンB402を表示する
なお、上述した実施形態では、1つのメッセージ毎に1つの音声データが対応付けられるが、会議毎又は議題毎の録音データを用いてもよい。この場合は、発言日時とともに発言終了日時(または発言の長さ)や、議題の開始時間を記憶し、音声データの再生開始位置と再生停止位置を制御することで、メッセージ単位の音声データの再生が可能である。
このように、本実施形態によれば、メッセージと併せて音声データを確認することができる。したがって、発言されたときの雰囲気といった、メッセージのみでは捉えることが難しい情報を認識することができ、会議の内容について、深く理解することが可能となる。
[3.第3実施形態]
つづいて、第3実施形態について説明する。第3実施形態は、音声入力及び音声認識を行わない実施形態である。なお、本実施形態における機能構成及び処理フローは、第1実施形態と原則同じであるため、相違する点を中心に説明する。
表示装置10は、利用者から入力されるメッセージ(例えば、テキストデータ)を受信する。メッセージの受信は、通信部160を介してもよいし、表示装置10に接続された入力装置によってもよい。
また、図7の会議記憶処理において、ステップS152〜ステップS156は、メッセージが入力された場合は、当該入力されたメッセージをメッセージ情報180に記憶する動作に置き換える。
このように、本実施形態によれば、利用者から入力されたメッセージに基づいて要約を行うことが可能となる。したがって、テキストチャットによるミーティングや、音声認識が実行できない環境下において有効な実施形態である。
[4.第4実施形態]
つづいて、第4実施形態について説明する。第4実施形態は、会議記憶処理において、メッセージに自動的にタグを付与する実施形態である。なお、本実施形態における機能構成は、第1実施形態と同じであるため、相違する点を中心に説明する。
本実施形態では、会議記憶処理のステップS154において、音声認識部150から出力されるテキストデータや、発言時に表示装置10に対して行われた操作に基づいて、発言に対するタグ付けを行った後にメッセージを記憶する。
メッセージにタグを付与する方法としては、例えばメッセージ中においてタグ認識語句が含まれているか否かによって判定される。タグ認識語句は、あらかじめ記憶部170に記憶されていてもよいし、利用者により入力されてもよい。タグ認識語句は、付与されるべき属性ごとに記憶されている。例えば、タグ「タスク」に対応するタグ認識語句として「締め切り」「期日」「やるべきこと」といったものが記憶されている。
そして、メッセージに、上述したタグ認識語句が含まれている場合には、当該メッセージには自動的に対応する属性情報(タグ)が付与される。なお、タグ認識語句は1つであってもよいし、複数記憶されていてもよい。また、それぞれメッセージごとに重みをつけてタグが判定されてもよいし、機械学習によって付与されてもよい。
また、表示装置10に対して行われた操作としては、資料の表示の拡大操作や、資料に対する描画操作、発言中に表示装置10の表示内容が重要なものであるとする操作等が考えられ、このような操作がされたときにされた発言は適切なタグを付与してもよい。
上述した方法以外の方法でタグを付与しても構わないことは勿論である。例えば、メンバ情報178に記憶された役職の情報に基づいて、発言を重要とするかの判断基準を調整してもよい。
また同様に、キャプチャデータに対しても自動的に特定フラグを設定してよい。例えば、コンテンツに対する描画操作の数や、表示時間、表示時の発言の大きさ等からコンテンツの重要度を算出し、当該重要度が所定の閾値を超えた場合に特定フラグを「On」にすることが考えられる。
このように、本実施形態によれば、タグを付与する操作がされなかった場合であっても、表示装置10により、発言に対して自動的にタグが付与される。したがって、会議に集中したりしてタグを付与する操作ができなかったり、タグを付与する操作をすることで会議の進行に影響が出てしまうといったことを防ぐことができ、利便性の向上が期待できる。
このように、上述した実施形態によれば、会議システムの利用者が、今までの発言(メッセージ)を、サマライズ画面を見ることで、容易に把握することができる。とくに、会議システムの利用者として、会議に参加していた利用者(参加者)と、会議に参加できなかった利用者がいた場合、会議に参加できかった利用者がサマライズ画面を確認することで、容易に会議の流れを確認することができる。また、参加者も、後で会議の流れを容易に振り返ることができる。
[5.変形例]
以上、この発明の実施形態について図面を参照して詳述してきたが、具体的な構成はこの実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の設計等も特許請求の範囲に含まれる。
また、上述した実施形態では、発話者が発話した内容を音声認識して表示することとして説明したが、音声認識をしなくてもよい。すなわち、テキスト入力によりメッセージ入力をし、当該メッセージに基づいて上述の実施形態の内容が実現されてもよい。
また、上述した実施形態では、同じ言語(例えば日本語)で表示されることとして説明したが、各メッセージを翻訳し表示してもよい。例えば、タグが付与されたメッセージについて他の言語(例えば、英語、ドイツ語、中国語等)に翻訳して表示してもよい。このようにすることで、例えば会議画面及びサマライズ画面においては、所望する言語で表示させるといったことが可能となる。
また、実施形態において各装置で動作するプログラムは、上述した実施形態の機能を実現するように、CPU等を制御するプログラム(コンピュータを機能させるプログラム)である。そして、これら装置で取り扱われる情報は、その処理時に一時的に一時記憶装置(例えば、RAM)に蓄積され、その後、各種ROMやHDD、SSDの記憶装置に格納され、必要に応じてCPUによって読み出し、修正・書き込みが行なわれる。
また、市場に流通させる場合には、可搬型の記録媒体にプログラムを格納して流通させたり、インターネット等のネットワークを介して接続されたサーバ装置コンピュータに転送したりすることができる。この場合、サーバ装置コンピュータの記憶装置も本発明に含まれるのは勿論である。
10 表示装置
100 制御部
110 表示部
120 操作検出部
130 画像処理部
140 音声入力部
150 音声認識部
160 通信部
170 記憶部
172 会議情報
174 基本情報
176 議題情報
178 メンバ情報
180 発言情報
182 キャプチャ情報
190 コンテンツデータ
20 サーバ装置
30 端末装置

Claims (7)

  1. 入力されたメッセージと、当該メッセージに対応付けて第1の属性情報を記憶可能なメッセージ記憶部と、
    前記メッセージを時系列に表示する第1表示領域と、前記メッセージの中から、前記第1の属性情報に基づき抽出したメッセージを表示する第2表示領域とを有する第1表示画面を表示する制御を行う表示制御部と、
    を備え
    前記表示制御部は、前記入力されたメッセージを時系列に表示する第3表示領域と、コンテンツを表示可能な第4表示領域とを有する前記第1表示画面とは異なる第2表示画面を生成し、当該第2表示画面を表示し、
    更に、
    前記第2表示画面において表示されているメッセージの中から選択されたメッセージに前記第1の属性情報を付加する第1の属性情報付加部と
    前記第4表示領域に表示されたコンテンツが所定の条件を満たすときに、前記コンテンツのキャプチャデータを生成するキャプチャデータ生成部と、
    を備え、
    前記表示制御部は、前記キャプチャデータを、前記第1表示画面の第1表示領域に前記メッセージと併せて表示することを特徴とする示制御装置。
  2. 前記第4表示領域に表示されたコンテンツが選択された場合、選択されたときの前記キャプチャデータに第2の属性情報を付加する第2の属性情報付加部を更に備え、
    前記表示制御部は、
    前記第2の属性情報が付加された前記キャプチャデータは、前記第2表示領域に前記抽出されたメッセージと併せて表示されることを特徴とする請求項に記載の表示制御装置。
  3. 前記表示制御部は、前記第2表示画面を表示しているとき、利用者から表示切替の指示が入力された場合に前記第2表示画面から前記第1表示画面に表示を切り替える制御を行うことを特徴とする請求項1又は2に記載の表示制御装置。
  4. 音声信号の入力を行う音声入力部と、
    前記音声入力部に入力された音声信号を認識し、前記メッセージを出力する音声認識部と、
    を更に備え、
    前記メッセージ記憶部は、前記音声認識部により出力された前記メッセージを記憶することを特徴とする請求項1からの何れか一項に記載の表示制御装置。
  5. 第3の属性情報と、認識語句とを対応付けて記憶する記憶部を更に有し、
    記メッセージに前記認識語句が含まれているときには、対応する前記第3の属性情報を付加する第3の属性情報付加部を更に備えたことを特徴とする請求項1からの何れか一項に記載の表示制御装置。
  6. 入力されたメッセージと、当該メッセージに対応付けて第1の属性情報を記憶可能なメッセージ記憶ステップと、
    前記メッセージを時系列に表示する第1表示領域と、前記メッセージの中から、前記第1の属性情報に基づき抽出したメッセージを表示する第2表示領域とを有する第1表示画面表示する表示制御ステップと、
    を含み、
    前記表示制御ステップは、前記入力されたメッセージを時系列に表示する第3表示領域と、コンテンツを表示可能な第4表示領域とを有する前記第1表示画面とは異なる第2表示画面を生成し、当該第2表示画面を表示し、
    更に、
    前記第2表示画面において表示されているメッセージの中から選択されたメッセージに前記第1の属性情報を付加する第1の属性情報付加ステップと
    前記第4表示領域に表示されたコンテンツが所定の条件を満たすときに、前記コンテンツのキャプチャデータを生成するキャプチャデータ生成ステップと、
    を含み、
    前記表示制御ステップは、前記キャプチャデータを、前記第1表示画面の第1表示領域に前記メッセージと併せて表示することを特徴とする表示制御方法。
  7. コンピュータに、
    入力されたメッセージと、当該メッセージに対応付けて第1の属性情報を記憶可能なメッセージ記憶機能と、
    前記メッセージを時系列に表示する第1表示領域と、前記メッセージの中から、前記第1の属性情報が付加されたメッセージを表示する第2表示領域とを有する第1表示画面表示する表示制御機能と、
    を実現させるプログラムであって、
    前記表示制御機能は、前記入力されたメッセージを時系列に表示する第3表示領域と、コンテンツを表示可能な第4表示領域とを有する前記第1表示画面とは異なる第2表示画面を生成し、当該第2表示画面を表示し、
    更に、
    前記第2表示画面において表示されているメッセージの中から選択されたメッセージに前記第1の属性情報を付加する第1の属性情報付加機能と
    前記第4表示領域に表示されたコンテンツが所定の条件を満たすときに、前記コンテンツのキャプチャデータを生成するキャプチャデータ生成機能と、
    を実現し、
    前記表示制御機能は、前記キャプチャデータを、前記第1表示画面の第1表示領域にメッセージと併せて表示することを特徴とするプログラム。
JP2017177792A 2017-09-15 2017-09-15 表示制御装置、表示制御方法及びプログラム Active JP6914154B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2017177792A JP6914154B2 (ja) 2017-09-15 2017-09-15 表示制御装置、表示制御方法及びプログラム
CN201811025049.7A CN109508214A (zh) 2017-09-15 2018-09-04 显示控制装置、显示控制方法及非临时性的记录介质
US16/131,272 US11262977B2 (en) 2017-09-15 2018-09-14 Display control apparatus, display control method, and non-transitory recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017177792A JP6914154B2 (ja) 2017-09-15 2017-09-15 表示制御装置、表示制御方法及びプログラム

Publications (2)

Publication Number Publication Date
JP2019053566A JP2019053566A (ja) 2019-04-04
JP6914154B2 true JP6914154B2 (ja) 2021-08-04

Family

ID=65719515

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017177792A Active JP6914154B2 (ja) 2017-09-15 2017-09-15 表示制御装置、表示制御方法及びプログラム

Country Status (3)

Country Link
US (1) US11262977B2 (ja)
JP (1) JP6914154B2 (ja)
CN (1) CN109508214A (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3675483A1 (en) * 2018-12-28 2020-07-01 Ricoh Company, Ltd. Content server, information sharing system, communication control method, and carrier means
CN113014853B (zh) 2020-04-30 2022-11-11 北京字节跳动网络技术有限公司 互动信息处理方法、装置、电子设备及存储介质
JP2022143863A (ja) * 2021-03-18 2022-10-03 株式会社東芝 コミュニケーションシステム
CN112802480B (zh) * 2021-04-15 2021-07-13 广东际洲科技股份有限公司 基于多方交流的语音数据文字转化方法
WO2023175842A1 (ja) * 2022-03-17 2023-09-21 日本電気株式会社 音分類装置、音分類方法、及びコンピュータ読み取り可能な記録媒体

Family Cites Families (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH052540A (ja) * 1991-06-24 1993-01-08 Fujitsu Ltd 議事録作成機能を有する電子会議システム
JP3185505B2 (ja) * 1993-12-24 2001-07-11 株式会社日立製作所 会議録作成支援装置
US20020103689A1 (en) * 2001-01-27 2002-08-01 Hornick Randall F. Methods and systems for identifying prospective customers and managing deals
US20030182286A1 (en) * 2002-03-19 2003-09-25 Seccuro Paul James System and method to save, secure and access records of discussion
US7512881B2 (en) * 2002-11-14 2009-03-31 International Business Machines Corporation Tool-tip for multimedia files
JP2005341015A (ja) * 2004-05-25 2005-12-08 Hitachi Hybrid Network Co Ltd 議事録作成支援機能を有するテレビ会議システム
JP2006018691A (ja) * 2004-07-02 2006-01-19 Nippon Telegr & Teleph Corp <Ntt> 発言構造化方法、装置、およびプログラム
US20060095857A1 (en) * 2004-10-29 2006-05-04 Torvinen Marko M System, apparatus, and method for a singularity based user interface
JP2007115180A (ja) * 2005-10-24 2007-05-10 Sony Corp 情報処理装置、情報表示方法および情報表示プログラム
JP5045670B2 (ja) * 2006-05-17 2012-10-10 日本電気株式会社 音声データ要約再生装置、音声データ要約再生方法および音声データ要約再生用プログラム
US7823076B2 (en) * 2007-07-13 2010-10-26 Adobe Systems Incorporated Simplified user interface navigation
KR20090107365A (ko) * 2008-04-08 2009-10-13 엘지전자 주식회사 이동 단말기 및 그 메뉴 제어방법
JP5206553B2 (ja) * 2009-03-31 2013-06-12 日本電気株式会社 閲覧システム、方法、およびプログラム
JP2010283457A (ja) * 2009-06-02 2010-12-16 Konica Minolta Business Technologies Inc 画像データ処理装置及び画像データ処理プログラム
US20100333014A1 (en) * 2009-06-24 2010-12-30 Research In Motion Limited Method and system for rendering data records
US9269072B2 (en) * 2010-12-23 2016-02-23 Citrix Systems, Inc. Systems, methods, and devices for facilitating navigation of previously presented screen data in an ongoing online meeting
US9282289B2 (en) * 2010-12-23 2016-03-08 Citrix Systems, Inc. Systems, methods, and devices for generating a summary document of an online meeting
JP2012208630A (ja) * 2011-03-29 2012-10-25 Mizuho Information & Research Institute Inc 発言管理システム、発言管理方法及び発言管理プログラム
US20120262484A1 (en) * 2011-04-12 2012-10-18 Kinesiocapture, Llc Motion Capture and Analysis at a Portable Computing Device
JP2013222347A (ja) 2012-04-17 2013-10-28 Canon Inc 議事録生成装置及び議事録生成方法
JP6022215B2 (ja) * 2012-05-31 2016-11-09 任天堂株式会社 投稿情報共有システム、情報処理システム、情報処理方法、プログラムおよびコンピュータプラットフォーム
JP6051670B2 (ja) * 2012-08-09 2016-12-27 株式会社リコー 画像処理装置、画像処理システム、画像処理方法およびプログラム
US9131017B2 (en) * 2013-03-08 2015-09-08 Futurewei Technologies, Inc. Meeting update dissemination in a real-time communication system
JP5949843B2 (ja) * 2013-06-28 2016-07-13 キヤノンマーケティングジャパン株式会社 情報処理装置、情報処理装置の制御方法、およびプログラム
US20150112749A1 (en) * 2013-10-22 2015-04-23 Abdullah Celik Erdal Method and system for processing actionable messages of an integrated communication and collaboration platform
US20150120840A1 (en) * 2013-10-29 2015-04-30 International Business Machines Corporation Resource referencing in a collaboration application system and method
US10692027B2 (en) * 2014-11-04 2020-06-23 Energage, Llc Confidentiality protection for survey respondents
US9779389B2 (en) * 2015-03-24 2017-10-03 Getgo, Inc. Generation of screenshots for a visual summary of an online meeting under diverse and/or varying network and/or client computer performance conditions
JP6165913B1 (ja) * 2016-03-24 2017-07-19 株式会社東芝 情報処理装置、情報処理方法およびプログラム
US20180012194A1 (en) * 2016-07-11 2018-01-11 Ricoh Company, Ltd. Information processing system, information processing device, information processing method, and recording medium

Also Published As

Publication number Publication date
US20190087154A1 (en) 2019-03-21
JP2019053566A (ja) 2019-04-04
US11262977B2 (en) 2022-03-01
CN109508214A (zh) 2019-03-22

Similar Documents

Publication Publication Date Title
JP6914154B2 (ja) 表示制御装置、表示制御方法及びプログラム
EP2972742B1 (en) Semantic zoom-based navigation of displayed content
CN105229632B (zh) 在提交文档中建议改变之前查看该改变的效果
JP2020191106A (ja) デジタルアシスタントサービスの遠距離拡張
US9508059B2 (en) Messaging device having a graphical user interface for initiating communication to recipients
US10444955B2 (en) Selectable interaction elements in a video stream
US20160328204A1 (en) Methods and apparatus for enhancing electronic presentations with location information
US20130198653A1 (en) Method of displaying input during a collaboration session and interactive board employing same
US20140113268A1 (en) Interactive visual assessment after a rehearsal of a presentation
US20130332804A1 (en) Methods and devices for data entry
WO2006047586A2 (en) Enhanced user assistance
WO2019205552A1 (zh) 在线文档的评论方法和装置
US11848900B2 (en) Contextual messaging in video conference
US20180121084A1 (en) Information display device
US20210294484A1 (en) Information processing system, user terminal, and method of processing information
JP6827236B2 (ja) 情報処理装置、情報処理方法、情報処理プログラムおよび情報処理システム
US20180173377A1 (en) Condensed communication chain control surfacing
JP2009258914A (ja) 情報処理装置及びプログラム、情報処理システム
US20210058677A1 (en) Personal media content retrieval
EP2672379A9 (en) Method and device for data entry
JP2007179083A (ja) 会議システム、その制御方法及びプログラム
JP6978815B1 (ja) 情報処理システム、情報処理方法及びプログラム
US20230376265A1 (en) Communication system, information processing system, and information processing method
US20210297465A1 (en) Information processing system, information processing apparatus, and method of processing information
WO2006090326A1 (en) Soft touch screen family communication board

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200325

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20201216

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201222

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210219

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210622

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210713

R150 Certificate of patent or registration of utility model

Ref document number: 6914154

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150