JP2018073237A - Conference information display system, conference information display method and conference information display program - Google Patents

Conference information display system, conference information display method and conference information display program Download PDF

Info

Publication number
JP2018073237A
JP2018073237A JP2016214354A JP2016214354A JP2018073237A JP 2018073237 A JP2018073237 A JP 2018073237A JP 2016214354 A JP2016214354 A JP 2016214354A JP 2016214354 A JP2016214354 A JP 2016214354A JP 2018073237 A JP2018073237 A JP 2018073237A
Authority
JP
Japan
Prior art keywords
conference
conference information
display
degree
time zone
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016214354A
Other languages
Japanese (ja)
Other versions
JP6814604B2 (en
Inventor
謙士朗 密谷
Kenshiro MITSUTANI
謙士朗 密谷
上村 直子
Naoko Kamimura
直子 上村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP2016214354A priority Critical patent/JP6814604B2/en
Publication of JP2018073237A publication Critical patent/JP2018073237A/en
Application granted granted Critical
Publication of JP6814604B2 publication Critical patent/JP6814604B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

PROBLEM TO BE SOLVED: To make content of a conference based on a record easily visibly displayed to a user when the conference is recorded and the content of the conference is displayed later.SOLUTION: A conference information display system comprises: a storage device which stores at least any of documents, images of materials, voice and images of conference participants as conference information objects; and a display device which displays at least any of the documents and images of the stored conference information objects, and is provided with: a storage processing part which associates each time zone obtained by dividing a period of the conference into a plurality of time zones with the conference information objects to be stored in the storage device; a calculation processing part which calculates degrees of excitation in each time zone of the conference based on the stored conference information objects; and a display processing part which displays the stored conference information objects on the display device at degrees of integration according to the degrees of excitation in each time zone, and in time-series arrangement.SELECTED DRAWING: Figure 4

Description

この発明は、会議情報表示システム、会議情報表示方法および会議情報表示プログラムに関し、より詳細には会議の内容を記憶し後日会議の内容を表示可能な会議情報表示システム、会議情報表示方法および会議情報表示プログラムに関する。   The present invention relates to a conference information display system, a conference information display method, and a conference information display program. More specifically, the present invention relates to a conference information display system, a conference information display method, and conference information capable of storing the content of a conference and displaying the content of the conference at a later date. It relates to the display program.

会議システムとして電子的に会議の内容を記録するシステムが知られている。しかし、一般に会議中の画像や音声を保存するだけである。後から会議の内容を振り返る場合に、記録者が手動で作成した議事録を参照する方法がある。しかし、議事録作成には手間がかかる。また議事録に記録されていない内容について振り返ろうとした場合、会議中の全ての記録(例えば音声録音や会議参加者の動画)を見直す必要が有り、それには長時間を要する。   As a conference system, a system for electronically recording the contents of a conference is known. However, in general, it only saves images and audio during the meeting. There is a method of referring to the minutes manually created by the recorder when looking back on the contents of the meeting later. However, it takes time to create the minutes. Further, when trying to look back on the contents that are not recorded in the minutes, it is necessary to review all the recordings during the meeting (for example, voice recordings and videos of meeting participants), which takes a long time.

これに対して、会議参加者が、各自の携帯電話機を利用して会議システムにアクセスし、会議中に重要であると判断した発言があったとき、あるいは後で確認すべき有効な発言があったときなどに、電子的なしおり挿入を指示することで、重要な発言であったか、あるいは注目される発言であったかを会議進行中に抽出するシステムが提案されている(例えば、特許文献1参照)。   On the other hand, when a conference participant uses his / her mobile phone to access the conference system and finds a statement that is important during the conference, or there is a valid statement to be confirmed later. For example, a system is proposed that extracts whether an utterance is an important utterance or an utterance that attracts attention by instructing insertion of an electronic bookmark when the conference is in progress (see, for example, Patent Document 1). .

さらに、人物の生体情報をその人物の映像情報に同期させ、生体情報又は撮影時の音声情報に基づいて、所定の評価関数を用いて、人物の心的状態を示す状態推定値を求め、人物を表すオブジェクトを人物の心的状態を用いて表現された座標空間内に配置して表示することにより、会議参加者等の感情を含めて内容を振り返ることができる情報処理装置が提案されている(例えば、特許文献2参照)。   Furthermore, the person's biological information is synchronized with the person's video information, and a state estimation value indicating the person's mental state is obtained using a predetermined evaluation function based on the biological information or voice information at the time of photographing. An information processing apparatus has been proposed that can look back on the content including the emotions of conference participants, etc. by arranging and displaying objects representing the position in a coordinate space expressed using the mental state of the person (For example, refer to Patent Document 2).

特開2005−109929号公報JP 2005-109929 A 特開2006−6268395号公報JP 2006-6268395 A

しかしながら、特許文献1のものは、重要な発言等があったタイミングを特定できるものの、会議内容を理解するにはそのタイミング及びその前後の議事内容を見直す必要が有る。
特許文献2のものは、感情に関連する状態推定値に応じて、人物の心的状態を表す座標空間内に人物オブジェクトが配置された表示により、会議参加者の感情の変化を含めて会議の内容を振り返ることができる。しかし、会議の内容それ自体の表示を見易くするものではない。
However, although the thing of patent document 1 can specify the timing when there was an important statement etc., in order to understand the content of a meeting, it is necessary to review the timing and the agenda content before and behind that.
According to the technique disclosed in Patent Document 2, a person object is arranged in a coordinate space representing a person's mental state in accordance with an estimated state value related to emotions, and changes in the meeting's emotions are included. You can look back on the contents. However, it does not make it easy to see the display of the content of the meeting itself.

この発明は、以上のような事情を考慮してなされたものであって、会議を記録して後日会議の内容を表示する際、記録に基づく会議の内容がユーザーに見易く表示される会議情報表示システム、会議情報表示方法および会議情報表示プログラムを提供する。   The present invention has been made in view of the above circumstances, and when recording a meeting and displaying the contents of the meeting at a later date, the meeting information display that displays the contents of the meeting based on the recording in an easy-to-view manner for the user A system, a conference information display method, and a conference information display program are provided.

この発明は、
(I)資料の文書および画像並びに会議参加者の音声および画像の少なくとも何れかを会議情報として記憶する記憶装置と、記憶された会議情報のうち文書および画像の少なくとも何れかを表示する表示装置を含み、会議の期間を複数の時間帯に分割した各時間帯と前記会議情報とを関連付けて前記記憶装置に記憶させる記憶処理部と、記憶された会議情報に基づいて会議の各時間帯における盛上りの度合いを算出する算出処理部と、記憶された会議情報を会議情報オブジェクトとして、各時間帯における前記盛上り度合いに応じた集約の度合いでかつ時系列の配置で前記表示装置に表示する表示処理部とを備える会議情報表示システムを提供する。
This invention
(I) a storage device that stores at least one of a document and an image of a document and a voice and an image of a conference participant as conference information, and a display device that displays at least one of the document and the image among the stored conference information A storage processing unit that associates each time zone obtained by dividing the conference period into a plurality of time zones and stores the conference information in the storage device, and stores the time zone of the conference based on the stored conference information. A calculation processing unit that calculates the degree of ascent, and a display that displays the stored conference information as a conference information object on the display device in a time-series arrangement with a degree of aggregation corresponding to the degree of climax in each time zone A conference information display system including a processing unit is provided.

また、異なる観点からこの発明は、
(II)会議の全期間を複数の時間帯に分割した各時間帯と関連付けて、資料の文書および画像並びに会議参加者の音声および画像の少なくとも何れかを会議情報として記憶装置に記憶する工程と、記憶された会議情報に基づいて会議の各時間帯における盛上りの度合いを算出する工程と、記憶された会議情報を会議情報オブジェクトとして時系列に並べ、各時間帯における前記盛上り度合いに応じて集約の度合いを異ならせたて表示装置に表示する工程とを備える会議情報表示方法を提供する。
さらにまた、この発明は、
(III)ある期間に渡って逐次入力される情報を時系列に受け付けるステップと、受付けた情報を、前記期間を複数の時間帯に分割した各時間帯と関連付けて記憶装置に記憶するステップと、前記情報を情報オブジェクトとして時系列にかつ集約して表示装置に表示するステップと、ユーザーによる何れかの時間帯の選択に応答して、その時間帯に指標の設定をするステップと、前記指標が設定された時間帯について表示オブジェクトの表示の集約の度合いを低くして前記表示装置に表示するステップとを備える情報表示方法を提供する。
Also, from a different point of view, this invention
(II) storing at least one of a document and an image of a document and a voice and an image of a conference participant in a storage device as conference information in association with each time zone obtained by dividing the entire period of the conference into a plurality of time zones; A step of calculating the degree of climax in each time zone of the conference based on the stored conference information, and arranging the stored conference information in time series as a conference information object, and according to the degree of climax in each time zone Providing a conference information display method including a step of displaying on a display device with different degrees of aggregation.
Furthermore, this invention
(III) receiving information sequentially input over a certain period in time series, and storing the received information in a storage device in association with each time period obtained by dividing the period into a plurality of time periods; A step of collecting the information as an information object in a time series and displaying the information on a display device; a step of setting an indicator in the time zone in response to selection of any time zone by the user; and the indicator And a step of lowering the degree of aggregation of display of display objects for the set time period and displaying the information on the display device.

さらに異なる観点からこの発明は、
(IV)会議の全期間を複数の時間帯に分割した各時間帯と関連付けて、資料の文書および画像並びに会議参加者の音声および画像の少なくとも何れかを会議情報として記憶装置に記憶する処理と、記憶された会議情報に基づいて会議の各時間帯における盛上りの度合いを算出する処理と、記憶された会議情報を会議情報オブジェクトとして時系列に並べ、各時間帯における前記盛上り度合いに応じて集約の度合いを異ならせて表示装置に表示する処理とをコンピュータに実行させるための会議情報表示プログラムを提供する。
From a different point of view, this invention
(IV) A process of storing at least one of a document and an image of a document and a voice and an image of a conference participant in a storage device as conference information in association with each time zone obtained by dividing the entire period of the conference into a plurality of time zones. , Processing for calculating the degree of climax in each time zone of the conference based on the stored conference information, and arranging the stored conference information in time series as a conference information object, according to the degree of climax in each time zone A conference information display program is provided for causing a computer to execute a process of displaying on a display device with different degrees of aggregation.

この発明による会議情報表示システムは、表示処理部が記憶された会議情報のうち文章および画像の少なくとも何れかを会議情報オブジェクトとして時系列に並べ、各時間帯における盛上り度合いに応じて集約の度合いを異ならせて表示装置に表示するので、後日会議の内容を表示する際、記録に基づく会議の内容がユーザーに見易く表示される。   The conference information display system according to the present invention arranges at least one of sentences and images in conference information stored in the display processing unit in time series as a conference information object, and the degree of aggregation according to the degree of climax in each time zone Since the contents of the conference are displayed on the display device at a later date, the contents of the conference based on the recording are displayed in an easy-to-view manner for the user.

この発明の実施形態における会議情報表示システムの構成例を示す説明図である。It is explanatory drawing which shows the structural example of the meeting information display system in embodiment of this invention. 図1に示す表示装置およびサーバーの構成例を示すブロック図である。It is a block diagram which shows the structural example of the display apparatus and server shown in FIG. この発明の実施形態において、会議中の画面の一例を示す説明図である。In embodiment of this invention, it is explanatory drawing which shows an example of the screen in a meeting. この発明の実施形態において、呼出された会議の集約表示モードでの表示例を示す説明図である。In embodiment of this invention, it is explanatory drawing which shows the example of a display in the aggregated display mode of the called meeting. この発明の実施形態において、詰め集約状態と緩集約状態の吹き出し配置例を示す説明図である。In embodiment of this invention, it is explanatory drawing which shows the example of balloon arrangement | positioning of a packing aggregation state and a loose aggregation state. 図4に示す集約表示モードと異なる会議表示画面の態様を示す説明図である。It is explanatory drawing which shows the aspect of the meeting display screen different from the aggregation display mode shown in FIG. この発明の実施形態において、記憶部に格納される会議情報のデータ構造およびデータテーブルの例を示す説明図である。In embodiment of this invention, it is explanatory drawing which shows the data structure of the meeting information stored in a memory | storage part, and the example of a data table. この発明の実施形態において、制御部が通常表示モードで実行する処理の一例を示すフローチャートである。6 is a flowchart illustrating an example of processing executed by a control unit in a normal display mode in the embodiment of the present invention. この発明の実施形態において、制御部が集約表示モードで実行する処理の一例を示すフローチャートである。In this embodiment of this invention, it is a flowchart which shows an example of the process which a control part performs by aggregate display mode. 図9において、集約表示モードへ切換える際の処理を示すフローチャートである。In FIG. 9, it is a flowchart which shows the process at the time of switching to a consolidated display mode. この発明の実施形態において、制御部が盛上りデータテーブルを生成する処理の例を示すフローチャートである。In this embodiment of this invention, it is a flowchart which shows the example of the process in which a control part produces | generates a climax data table. この発明の実施形態において、制御部がタイムライン区切りを実行する処理の例を示すフローチャートである。In this embodiment of this invention, it is a flowchart which shows the example of the process in which a control part performs a timeline division | segmentation. この発明の実施形態において、制御部音声データを用いて各参加者のジェスチャーを取得する期間を決定する例を示すグラフである。In embodiment of this invention, it is a graph which shows the example which determines the period which acquires each participant's gesture using control part audio | voice data. 図1に示す会議情報表示システム10の変形例を示す説明図である。It is explanatory drawing which shows the modification of the meeting information display system 10 shown in FIG.

以下、図面を用いてこの発明をさらに詳述する。なお、以下の説明は、すべての点で例示であって、この発明を限定するものと解されるべきではない。   Hereinafter, the present invention will be described in more detail with reference to the drawings. In addition, the following description is an illustration in all the points, Comprising: It should not be interpreted as limiting this invention.

≪会議情報表示意システムの構成例≫
(実施の形態1)
図1は、この実施形態の会議情報表示システムの構成例を示す説明図である。図1に示す会議情報表示システム10は、会議の拠点L1およびL2にそれぞれ配置された表示装置13aおよび13bおよびサーバー11が通信ネットワーク19に接続されてなる。サーバー11は、何れかの拠点にあってもよいし、拠点L1、L2と異なる場所にあってもよい。
≪Example of system for displaying conference information≫
(Embodiment 1)
FIG. 1 is an explanatory diagram showing a configuration example of the conference information display system of this embodiment. The conference information display system 10 shown in FIG. 1 includes display devices 13 a and 13 b and a server 11 which are arranged at conference bases L 1 and L 2, respectively, connected to a communication network 19. The server 11 may be in any of the bases, or may be in a place different from the bases L1 and L2.

拠点L1に設置された表示装置13aには、参加者P1および参加者P2を撮影するカメラ15aが接続されている。会議中、拠点L2の表示装置13bには、拠点L1のカメラ15aで撮影された画像(ライブ動画)が表示される。同様に、会議中、拠点L1の表示装置13aには、拠点L2のカメラ15bで撮影された画像(ライブ動画)が表示される。
さらに表示装置13aには、参加者P1および参加者P2の発言を収音し、拠点L2の参加者P3の発言を拡声する会議用スピーカーフォン17aが接続されている。会議中、拠点L2の会議用スピーカーフォン17bから、拠点L1のスピーカーフォン17aで収音された参加者P1およびP2の発言が拡声される。同様に、会議中、拠点L1の会議用スピーカーフォン17aから、拠点L2の会議用スピーカーフォン17bで収音された参加者P3の発言が拡声される。
The display device 13a installed at the base L1 is connected to a camera 15a that photographs the participant P1 and the participant P2. During the meeting, an image (live video) captured by the camera 15a at the site L1 is displayed on the display device 13b at the site L2. Similarly, during the conference, an image (live video) captured by the camera 15b at the site L2 is displayed on the display device 13a at the site L1.
Furthermore, a conference speaker phone 17a is connected to the display device 13a for collecting the speech of the participants P1 and P2 and amplifying the speech of the participant P3 at the base L2. During the conference, the speeches of the participants P1 and P2 collected by the speakerphone 17a at the base L1 are amplified from the conference speaker 17b at the base L2. Similarly, during the conference, the speech of the participant P3 picked up by the conference speaker phone 17b at the site L2 is amplified from the conference speaker phone 17a at the site L1.

サーバー11は、会議中にカメラ15aおよび15bで撮影された画像データおよび会議用スピーカーフォン17aおよび17bで収音された音声データを格納する。さらに、会議で使用された文書や画像等、資料のデータを格納する。   The server 11 stores image data captured by the cameras 15a and 15b during the conference and audio data collected by the conference speaker phones 17a and 17b. Furthermore, data of materials such as documents and images used in the meeting are stored.

図2は、図1に示す表示装置13aおよびサーバー11の構成例を示すブロック図である。図2(a)は表示装置13aの構成例である。なお、表示装置13bも同様の構成である。図2(b)は、サーバー11の構成例である。
図2(a)に示すように、表示装置13aは、制御部21a、記憶部23a、表示部25a、操作部27aおよび通信部29aを含む。さらに、図1では別体のカメラ15aおよび会議用スピーカーフォン17aが接続されている。
FIG. 2 is a block diagram illustrating a configuration example of the display device 13a and the server 11 illustrated in FIG. FIG. 2A shows a configuration example of the display device 13a. The display device 13b has the same configuration. FIG. 2B is a configuration example of the server 11.
As shown in FIG. 2A, the display device 13a includes a control unit 21a, a storage unit 23a, a display unit 25a, an operation unit 27a, and a communication unit 29a. Further, in FIG. 1, a separate camera 15a and conference speakerphone 17a are connected.

制御部21aはCPUを中心として入出力回路や他の周辺回路で構成される。記憶部23aは、ROM、RAM等の半導体メモリやハードディスク装置などで構成される。表示部25aは、液晶表示装置や液晶プロジェクター等で構成される。操作部27aは、表示装置13aの電源オンオフや設定メニュー、表示部25aに表示されたオブジェクトに対する操作を受付けるもので、スイッチおよび表示部25aの前面に配置された透明のタッチパネルである。通信部29aは、通信ネットワーク19との通信インターフェイスを含む。通信は無線・有線を問わず、通信方式を問わない。また、通信ネットワーク19に限らず、他の周辺機器との通信インターフェイス(例えば、ブルートゥース(登録商標)やNIC等)を含んでもよい。   The controller 21a is composed of an input / output circuit and other peripheral circuits with the CPU at the center. The storage unit 23a includes a semiconductor memory such as a ROM and a RAM, a hard disk device, and the like. The display unit 25a includes a liquid crystal display device, a liquid crystal projector, and the like. The operation unit 27a receives power on / off of the display device 13a, a setting menu, and an operation on an object displayed on the display unit 25a, and is a transparent touch panel disposed on the front surface of the switch and the display unit 25a. The communication unit 29 a includes a communication interface with the communication network 19. Communication does not ask | require a communication system regardless of a radio | wireless and a wire communication. Further, not only the communication network 19 but also a communication interface with other peripheral devices (for example, Bluetooth (registered trademark), NIC, etc.) may be included.

カメラ15aは、動画が撮影可能なものが好ましいが、これに限らず静止画を撮影するものでもよい。静止画を連写してコマ送りすることでライブ画像の代用にできる。会議用スピーカーフォン17aは、多人数で会議をする際に便利なようにマイクとスピーカーが一体になったものであるが、これに限らずマイクとスピーカーが別体でもよく、一人用のヘッドセットでもよい。   The camera 15a is preferably capable of shooting a moving image, but is not limited thereto, and may be a camera that shoots a still image. You can substitute a live image by continuously shooting still images and sending them frame by frame. The conference speakerphone 17a is a unit in which a microphone and a speaker are integrated so as to be convenient when a large number of people hold a meeting. However, the microphone and the speaker are not limited to this, and a headset for one person may be used. But you can.

図2(b)に示すように、サーバー11は、制御部21s、記憶部23sおよび通信部29sを備える。さらに、表示部25s、操作部27sを備えていてもよい。制御部21sはCPUを中心として入出力回路や他の周辺回路で構成される。記憶部23sは、ROM、RAM等の半導体メモリやハードディスク装置などで構成される。表示部25sは、液晶表示装置で構成される。操作部27sは、サーバー11の電源オンオフや設定メニュー、表示部25sに表示されたオブジェクトに対する操作を受付けるもので、具体例としてはキーボードやマウスが挙げられる。通信部29sは、通信ネットワーク19との通信インターフェイスである。通信は無線・有線を問わず、通信方式を問わない。
図2に示すように、表示装置13aは、サーバー11の構成に類似する制御部21a、記憶部23a、通信部29aを備えるので、サーバー11の機能を兼ねることもできる。
As shown in FIG. 2B, the server 11 includes a control unit 21s, a storage unit 23s, and a communication unit 29s. Furthermore, a display unit 25s and an operation unit 27s may be provided. The controller 21s is composed of an input / output circuit and other peripheral circuits with the CPU at the center. The storage unit 23s includes a semiconductor memory such as a ROM and a RAM, a hard disk device, and the like. The display unit 25s is composed of a liquid crystal display device. The operation unit 27s receives power on / off of the server 11, a setting menu, and an operation on an object displayed on the display unit 25s. Specific examples include a keyboard and a mouse. The communication unit 29 s is a communication interface with the communication network 19. Communication does not ask | require a communication system regardless of a radio | wireless and a wire communication.
As shown in FIG. 2, the display device 13 a includes a control unit 21 a, a storage unit 23 a, and a communication unit 29 a similar to the configuration of the server 11, and thus can also function as the server 11.

(実施の形態2)
図14は、図1に示す会議情報表示システム10の変形例を示す説明図である。図1よりも多くの拠点数を有し、図1にない態様の表示装置を示している。即ち、拠点L3には、表示装置13cとして投影型のデータプロジェクターが用いられている。データプロジェクターの方式は問わず、液晶プロジェクターであってもよいしDLP(登録商標)プロジェクターであってもよい。データプロジェクターには、カメラ15cおよび会議用スピーカーフォン17cが接続されている。
拠点L4における表示装置13dは、タブレット端末である。タブレット端末は、カメラ、スピーカー、マイクを内蔵しているので外付けの必要がない。タブレット端末は無線アクセスポイント18dを介して通信ネットワーク19に接続されている。
(Embodiment 2)
FIG. 14 is an explanatory diagram showing a modification of the conference information display system 10 shown in FIG. A display device having a larger number of bases than that in FIG. 1 and not in FIG. 1 is shown. That is, at the base L3, a projection type data projector is used as the display device 13c. Regardless of the method of the data projector, a liquid crystal projector or a DLP (registered trademark) projector may be used. A camera 15c and a conference speakerphone 17c are connected to the data projector.
The display device 13d at the base L4 is a tablet terminal. The tablet terminal has a built-in camera, speaker, and microphone, so there is no need for external connection. The tablet terminal is connected to the communication network 19 via a wireless access point 18d.

(実施の形態3)
図1に示すような、表示装置13a、15bが通信ネットワーク19を介してサーバー11に接続された構成に限らず、表示装置13aあるいは15bの何れか一方がサーバー11の機能を兼ね備えていてもよい。
この態様によれば、特定のサーバー11を設置しなくとも会議情報表示システム10を実施できる。
即ち、この発明の会議情報表示システム10は、サーバー11と表示装置13aあるいは15bとが物理的に別体でなく一体の構成を含む。
(Embodiment 3)
The display devices 13 a and 15 b as shown in FIG. 1 are not limited to the configuration in which the display devices 13 a and 15 b are connected to the server 11 via the communication network 19, and either the display device 13 a or 15 b may have the function of the server 11. .
According to this aspect, the conference information display system 10 can be implemented without installing a specific server 11.
That is, the conference information display system 10 of the present invention includes a configuration in which the server 11 and the display device 13a or 15b are not physically separate but integrated.

≪会議中の会議表示画面≫
図3は、表示装置13aの表示部25aに表示される会議中の画面の一例を示す説明図である。
図3で、会議表示画面31は、表示部25aにウインドウ表示される。会議表示画面31は、大別すると参加者動画領域33、吹き出し表示領域35および操作メニュー37からなる。
≪Meeting display screen during meeting≫
FIG. 3 is an explanatory diagram illustrating an example of a screen during a conference displayed on the display unit 25a of the display device 13a.
In FIG. 3, the conference display screen 31 is displayed in a window on the display unit 25a. The conference display screen 31 is roughly divided into a participant moving image area 33, a balloon display area 35, and an operation menu 37.

参加者動画領域33は会議表示画面31の左側の約2/3の領域を占め、拠点L2のカメラ15bで撮影された参加者P3のライブ動画が表示されている。上方には、拠点L2の参加者P3の名前「Nakajima」が表示されている。参加者名は、例えば会議開催時にログイン操作で使用されるIDが表示される。あるいは、参加者のログインIDと顔写真が予め関連付けてデータベースに登録されており、カメラ15bの画像に顔認識技術を適用して会議参加者のうちカメラ画像に適合する者の名前を表示してもよい。   The participant video area 33 occupies about 2/3 of the area on the left side of the conference display screen 31, and a live video of the participant P3 captured by the camera 15b at the base L2 is displayed. In the upper part, the name “Nakajima” of the participant P3 of the base L2 is displayed. As the participant name, for example, an ID used for a login operation when a conference is held is displayed. Alternatively, the login ID of the participant and the face photograph are registered in the database in advance, and the face recognition technology is applied to the image of the camera 15b to display the names of the meeting participants who match the camera image. Also good.

吹き出し表示領域35は、会議表示画面31の右側の約1/3の領域を占める。会議の参加者の発言が音声認識によりテキスト化されて、吹き出し状に順次表示される。発言吹き出し45および47が該当する。それぞれの吹き出しの左上には参加者の顔画像アイコン(参加者アイコン)が小さく表示され、どの参加者による発言か区別できる。即ち、スライド吹き出し43の左上に参加者アイコン44が表示されている。発言吹き出し45の左上には参加者アイコン46が、発言吹き出し47の左上には参加者アイコン48がそれぞれ表示されている。
参加者ごとに吹き出しの背景色を変えてもよい。発言がどの参加者によるものかは、以下のようにして判別できる。参加者のログインIDと音声の特徴が予め関連付けてデータベースに登録されている。会議用スピーカーフォン17aで収音された音声データに音声認識技術を適用して会議参加者のうちで音声データに適合する者を検索し、その者の顔画像アイコンを発言吹き出しに付加する。顔画像アイコンに用いる画像は、参加者のログインIDと関連付けてデータベースに予め登録されている顔写真を用いる。
The balloon display area 35 occupies about one third of the area on the right side of the conference display screen 31. The speeches of the conference participants are converted into text by voice recognition and sequentially displayed in a balloon shape. The speech balloons 45 and 47 correspond to this. A participant's face image icon (participant icon) is displayed in a small size in the upper left of each balloon, and it is possible to distinguish which participant is speaking. That is, the participant icon 44 is displayed on the upper left of the slide balloon 43. A participant icon 46 is displayed at the upper left of the speech balloon 45, and a participant icon 48 is displayed at the upper left of the speech balloon 47.
The background color of the balloon may be changed for each participant. It is possible to determine which participant is responsible for the speech as follows. Participant's login ID and voice characteristics are pre-associated and registered in the database. The voice recognition technology is applied to the voice data collected by the conference speakerphone 17a to search for a meeting participant who matches the voice data, and the face image icon of the person is added to the speech balloon. As the image used for the face image icon, a face photograph registered in advance in the database in association with the login ID of the participant is used.

図3に発言吹き出し45および47で示す他に、吹き出しとしては、参加者が資料として準備した文書や画像のデータを表示できる。図3にスライド吹き出し43を示している。参加者は、説明に用いるタイミングで予めサーバー11に登録された資料を指定して吹き出し表示領域35に表示させることができる。
スライド吹き出し43および発言吹き出し45および47吹き出しは、時系列で新しい順に上から追加され、古いものは下方向に移動し、画面外に移動する。操作部27aとしてのタッチパネルが操作されると、制御部21aはユーザーによる画面の上下スワイプ操作を検知する。その操作に応答して制御部21aは、吹き出し表示領域35の吹き出しをスクロールさせる。
In addition to the speech balloons 45 and 47 shown in FIG. 3, as speech balloons, documents and image data prepared by participants as materials can be displayed. A slide balloon 43 is shown in FIG. The participant can designate the material registered in advance in the server 11 at the timing used for explanation and display it in the balloon display area 35.
The slide balloon 43 and the speech balloons 45 and 47 are added from the top in chronological order from the top, and the old one moves downward and moves out of the screen. When the touch panel as the operation unit 27a is operated, the control unit 21a detects a screen swipe operation by the user. In response to the operation, the control unit 21a scrolls the balloon in the balloon display area 35.

操作メニュー37は、会議の設定や進行に関するユーザーの指示を受け付ける領域である。図3の操作メニュー37には、会議の設定に関連する「接続先指定」ボタン、「ファイル添付」ボタン(資料登録の操作を行う)、会議の開始を指示する「MTG開始」ボタン、会議の終了を指示する「MTG終了」ボタンが表示されているが、左右にスクロールさせることで隠れたボタンが表示される。隠れたボタンとして、既に終了した会議を指定して呼出し、会議表示画面31に表示させる「会議呼出し」ボタンがある。また、表示装置13aの起動後に表示される図示しないホームメニューにも「会議呼出し」ボタンがある。なお、図3では、ユーザーが操作メニュー37の各操作ボタンをタッチすることで指示を行うことを想定している。変形例として、ユーザーが音声で指示を与えて、スピーカーフォン17aを介して入力された音声による指示を制御部21aが音声認識を適用して認識する態様も考えられる。   The operation menu 37 is an area for receiving user instructions regarding conference settings and progress. The operation menu 37 of FIG. 3 includes a “connection destination designation” button, a “file attachment” button (to perform material registration operation) related to the conference setting, a “MTG start” button for instructing the start of the conference, An “MTG end” button for instructing the end is displayed, but a button hidden by scrolling left and right is displayed. As a hidden button, there is a “call conference” button for calling a conference that has already ended and displaying it on the conference display screen 31. There is also a “call conference” button in a home menu (not shown) displayed after the display device 13a is activated. In FIG. 3, it is assumed that the user gives an instruction by touching each operation button of the operation menu 37. As a modification, a mode is also conceivable in which the control unit 21a recognizes a voice instruction input via the speakerphone 17a by applying voice recognition by the user giving a voice instruction.

≪会議終了後の会議表示画面≫
「会議呼出し」ボタンがタッチされて、呼出す会議が指定されたら、制御部21aは、会議表示画面31に指定された会議の内容を表示する。
制御部21aは、会議が呼び出された時点では会議中と同様、単に時系列に表示する(通常表示モード)。ただし、参加者動画領域33には、ライブ動画でなく会議中に撮影された参加者の動画を再生したものが表示される。
通常表示モードで予め定められた操作(例えば、所定の速さ以上で画面を上下にスワイプする操作)がされると、集約表示モードに移行する。例えば、通常表示モードで、あるいは会議中に、過去の話題に遡るために画面を勢いよく上方向にスワイプすることで、現在進行中の会議の過去の記録を呼び出して集約表示モードで表示する。
集約表示モードで会議表示画面31に表示される会議の内容は、図3に示す会議中の画面と異なる。時系列に吹き出しを表示する点においては、図3に示す会議中の画面と共通する側面があるものの、一覧性を向上させるために各吹き出しの配置を集約して表示し、しかも、各時間帯における会議の盛上り度合いに応じた集約の度合いで表示する。
≪Meeting display screen after the meeting≫
When the “call conference” button is touched and the conference to be called is designated, the control unit 21 a displays the content of the designated conference on the conference display screen 31.
The control unit 21a simply displays in time series when the conference is called, as in the conference (normal display mode). However, in the participant video area 33, a live video that is reproduced during the conference is displayed instead of a live video.
When a predetermined operation in the normal display mode (for example, an operation of swiping the screen up and down at a predetermined speed or higher) is performed, the mode is switched to the aggregate display mode. For example, in a normal display mode or during a conference, swiping the screen up in order to trace back to past topics, the past records of the currently ongoing conference are recalled and displayed in the aggregate display mode.
The content of the conference displayed on the conference display screen 31 in the aggregate display mode is different from the screen during the conference shown in FIG. Although there are aspects common to the screen during the meeting shown in FIG. 3 in that the balloons are displayed in chronological order, the arrangement of the balloons is displayed together to improve the listability, and each time zone is displayed. Is displayed with the degree of aggregation according to the degree of climax of the meeting.

図4は、この実施形態において、呼出された会議の集約表示モードでの表示例を示す説明図である。
図4に示すように、会議表示画面31の左端には、開催された会議について予め定められた刻みで時間の推移を示す時間軸が表示されている。時間軸は画面の縦方向に伸び、下方から上方へ行くにつれて過去から現在へ近づく。ただし、これは一例に過ぎず、時系列であれば縦横の向きや上下の方向は問わない。
FIG. 4 is an explanatory diagram showing a display example in the aggregated display mode of the called conference in this embodiment.
As shown in FIG. 4, a time axis indicating a transition of time in a predetermined increment is displayed at the left end of the conference display screen 31. The time axis extends in the vertical direction of the screen, and approaches from the past to the present as it goes from below to above. However, this is only an example, and the vertical and horizontal directions and the vertical direction are not limited as long as they are time series.

図4の例で時間軸は10分刻みである。一つの時間刻みが一つの時間帯に相当する。図4は、4つの時間帯64a、64b、64cおよび64dが表示されている。時間軸には、各時間帯の代表時刻が表示されている。時間帯64aの代表時刻は「10;30」であり、時間帯64bの代表時刻は「10:40」である。時間帯64cの代表時刻は「10:50」であり、時間帯64dの代表時刻は「11:00」である。代表時刻は、各時間帯の開始時刻や中間の時刻あるいは終了時刻として一律に定められる。そのいずれにするかをユーザーが選択できてもよい。   In the example of FIG. 4, the time axis is in increments of 10 minutes. One time step corresponds to one time zone. In FIG. 4, four time zones 64a, 64b, 64c and 64d are displayed. On the time axis, the representative time of each time zone is displayed. The representative time of the time zone 64a is “10:30”, and the representative time of the time zone 64b is “10:40”. The representative time of the time zone 64c is “10:50”, and the representative time of the time zone 64d is “11:00”. The representative time is uniformly determined as the start time, intermediate time, or end time of each time zone. The user may be able to select one of them.

時間帯64cは、スライド吹き出し51をユーザーがタッチ操作により選択して重要であることを示すマークを付加しているので、拡大して表示される。同じ時間帯に属するが、ユーザーに選択されないスライド吹き出し43やその下側のスライド吹き出し54よりも拡大されて表示されている。
また、時間帯64cは、会議の盛上り度合いが盛上り閾値を超えるので、緩集約状態、即ち集約度が緩い(低い)状態で表示される。なお、重要マークが付された会議情報オブジェクトを含む時間帯は、会議の盛上り度合いが前記盛上り閾値を超える場合と同様に緩集約状態の表示を行うようにしてもよい。時間軸についても、前記盛上り閾値以下の他の時間帯と時間軸の表示態様が異なる。
Since the user selects the slide balloon 51 by a touch operation and adds a mark indicating that it is important, the time zone 64c is displayed enlarged. The slide balloon 43 that belongs to the same time zone but is not selected by the user and the slide balloon 54 below the slide balloon 43 are displayed in an enlarged manner.
In addition, the time zone 64c is displayed in a loosely aggregated state, that is, in a state where the degree of aggregation is loose (low), because the degree of the conference climax exceeds the climax threshold. In the time zone including the conference information object to which the important mark is attached, the loosely aggregated state may be displayed as in the case where the conference climax degree exceeds the climax threshold. Also regarding the time axis, the display mode of the time axis is different from other time zones below the rising threshold.

各時間帯における発言や参照された資料が吹き出しとして表示され、かつ、横方向に集約して並んだ状態で表示される。
時間帯64aに属する会議情報オブジェクトは、詰め集約表示領域62に集約して表示される。同様に、時間帯64b属する会議情報オブジェクトは、詰め集約表示領域57に集約して表示される。一方、重要ポイントを含む時間帯64cに属する会議情報オブジェクトは、緩集約表示領域55に分散して表示される。
時間帯毎に吹き出しを集約して表示することで、ユーザーは会議の経過を容易に振り返って理解できる。
The utterances and referenced materials in each time zone are displayed as balloons and displayed in a state of being gathered and arranged in the horizontal direction.
The conference information objects belonging to the time zone 64a are displayed in an aggregated display area 62. Similarly, the conference information objects belonging to the time zone 64b are displayed together in the packed display area 57. On the other hand, the conference information objects belonging to the time zone 64c including the important points are displayed in the loosely aggregated display area 55 in a distributed manner.
By collecting and displaying balloons for each time period, the user can easily look back and understand the progress of the meeting.

会議表示画面31の右下隅には、「もどる」ボタン63が配置されている。「もどる」ボタン63がタッチされると、制御部21aは、一段階前の表示内容に画面を戻す。即ち、通常表示モードから集約表示モードに遷移した場合は通常表示モードに戻る。会議中の画面から集約表示モードに遷移した場合は会議中の画面に戻る。ホームメニューの「会議呼出し」ボタンから集約表示モードに遷移した場合はホームメニューに戻る。
集約表示モードで、制御部21aは、吹き出しを時間帯ごとにまとめて時間軸方向に集約し、かつ同一時間帯に属し、横方向に並ぶ吹き出しを重ね合わせて表示する。これによって、複数の吹き出しが縦の時間軸方向および同一時間帯の横方向に集約されて画面表示の一覧性が向上する。
A “return” button 63 is arranged in the lower right corner of the conference display screen 31. When the “return” button 63 is touched, the control unit 21a returns the screen to the previous display content. That is, when the normal display mode is changed to the aggregate display mode, the normal display mode is restored. When transitioning to the aggregate display mode from the screen during the conference, the screen returns to the screen during the conference. When transitioning to the aggregate display mode from the “call conference” button in the home menu, the screen returns to the home menu.
In the aggregated display mode, the control unit 21a collects speech balloons for each time zone, aggregates them in the time axis direction, and superimposes and displays speech balloons belonging to the same time zone and arranged in the horizontal direction. As a result, a plurality of balloons are aggregated in the vertical time axis direction and in the horizontal direction in the same time zone, thereby improving the screen display listability.

さらに、この実施形態の会議情報表示システム10は、発言の重要度、言い換えれば会議の盛上り度合いを計算する機能を有する。集約表示モードでは時間帯ごとに吹き出しを集約するとともに、各時間帯における盛上り度合いを算出し、盛上り度グラフとして画面に重畳して表示する(例えば、図4の盛上り度グラフ56参照)。
盛上り度合いが予め定められた盛上り閾値を超える時間帯、即ち、盛上り閾値を超える重要度を有する発言を含む時間帯については、吹き出しの集約形態を前記盛上り閾値以下の時間帯と異ならせて表示する。画面の横方向に延びる配置で複数の情報を羅列するよう表示する。このことにより会議の重要な内容が議論されて盛上り閾値を超える重要度の発言が行われた時間帯は、そうでない時間帯に比べて会議の詳細が見易く表示される。
Furthermore, the conference information display system 10 of this embodiment has a function of calculating the importance level of a statement, in other words, the degree of excitement of the conference. In the aggregate display mode, the speech balloons are aggregated for each time zone, and the degree of climax in each time zone is calculated and displayed as a climax degree graph superimposed on the screen (for example, see the climax degree graph 56 in FIG. 4). .
For a time zone in which the degree of climax exceeds a predetermined climax threshold, that is, a time zone including a statement having an importance level exceeding the climax threshold, the aggregation form of the balloons is different from the time zone below the climax threshold. Display. A plurality of pieces of information are displayed in an arrangement extending in the horizontal direction of the screen. As a result, the details of the conference are displayed more easily in the time zone in which the important content of the conference is discussed and the remarks of the importance level exceeding the climax threshold are made.

なお、参加者が表示された吹き出しをタッチするといったような所定の操作をすることで、吹き出しに特定の属性を付与してもよい。例えば、重要度の高いと参加者が考えた吹き出しに対して円を描くようなジェスチャー操作をすると、発言の重要度が前記盛上り閾値を超える場合と同様に、特定の重要度、即ち、重要性高の属性が付与できてもよい。ここで、発言吹き出しだけでなく、スライド吹き出しに対しても特定の重要度(重要度高の属性)が付与できる(実施の形態4)。
図4において、スライド吹き出し51に円を描く操作を行うことで重要性高の属性を付与し、その属性が視認できるよう円の枠を付与して表示している。
A specific attribute may be given to the speech balloon by performing a predetermined operation such as touching the speech balloon displayed by the participant. For example, when a gesture operation that draws a circle is performed on a speech bubble that the participant thinks is high in importance, the importance level of the speech exceeds a certain threshold value, that is, the importance level is high, that is, the importance level A high-quality attribute may be added. Here, a specific importance (high importance attribute) can be given not only to the speech balloon but also to the slide balloon (Embodiment 4).
In FIG. 4, a highly important attribute is given by performing an operation of drawing a circle on the slide balloon 51, and a circle frame is given and displayed so that the attribute can be visually recognized.

図5(a)は、盛上り度合いが盛上り閾値以下の場合に対応する、詰め集約状態の吹き出し配置例を示す。吹き出しの中心位置を黒字に白抜き文字の丸枠付きの数字1〜4で示す。数字は、吹き出し位置の順序を示し1は順序の先頭に対応する。数字の並びで示すように、同一時間帯の吹き出しは、左から右へ時系列に配置される。隣り合う吹き出しの中心位置の間隔(吹き出し間隔A)は、吹き出しの直径の70%程度であって、吹き出しが部分的に重なるよう配置される。   FIG. 5A shows an example of the arrangement of balloons in a packed and aggregated state corresponding to a case where the degree of climax is equal to or less than the climax threshold. The center position of the balloon is shown in black with numerals 1 to 4 with white circles. The numbers indicate the order of the balloon positions, and 1 corresponds to the head of the order. As indicated by a sequence of numbers, balloons in the same time zone are arranged in time series from left to right. The interval between the center positions of adjacent balloons (balloon interval A) is about 70% of the diameter of the balloons, and the balloons are arranged so as to partially overlap.

一方、図5(b)に示すように、盛上り度合いが盛上り閾値より高い範囲(緩集約状態)では吹き出し間隔BがAより長く設定され、吹き出しの重なりがより少なくて見易く配置される。さらに、吹き出し自体が通常よりも大きく表示される。
さらに、緩集約状態では参加者の動画を示すアイコンが追加されてもよい(実施の形態5)。ユーザーはこのアイコンをタッチすることで参加者の動画を再生できる。
また、同一時間帯に属する吹き出しを横方向に並べて表示してもよいが、一部を時間軸方向に拡げて表示してもよい(実施の形態6)。
On the other hand, as shown in FIG. 5B, in a range where the degree of climax is higher than the climax threshold (slowly aggregated state), the balloon interval B is set to be longer than A, and the balloons are arranged with less overlap and easy to see. Further, the balloon itself is displayed larger than usual.
Furthermore, an icon indicating a participant's video may be added in the loosely aggregated state (Embodiment 5). The user can play the participant's video by touching this icon.
In addition, balloons belonging to the same time zone may be displayed side by side in the horizontal direction, but a part of the balloons may be displayed in a time axis direction (Embodiment 6).

会議の盛上り度合いに応じて表示の集約度合いを変えることで、重要な内容が討議されて会議が盛り上がった時間帯については議事の内容がより詳細に表示される。さらに、会議の内容を把握するための操作がし易いよう配置される。
通常表示から集約表示に移行する際に吹き出しがアニメーションで移動するよう構成してもよい(実施の形態7)。
以上のように、重要ポイントを含む時間帯については図5(a)に示す詰め集約状態で各吹き出しの座標位置が設定される。重要ポイントを含まない時間帯については、図5(b)に示す緩集約状態で各吹き出しの座標位置が設定される。
By changing the aggregation level of the display according to the meeting excitement level, the contents of the agenda are displayed in more detail during the time zone when the important contents were discussed and the meeting was excited. Furthermore, it arrange | positions so that operation for grasping | ascertaining the content of a meeting may be easy.
The speech balloon may be moved by animation when the normal display is changed to the aggregated display (the seventh embodiment).
As described above, for the time zone including the important points, the coordinate position of each balloon is set in the packed and aggregated state shown in FIG. For a time zone that does not include an important point, the coordinate position of each balloon is set in the loosely aggregated state shown in FIG.

図6は、図4に示す集約表示モードと異なる会議表示画面の態様を示す説明図である。図6の表示態様が図4と異なる部分は、時間帯64bである。図6は、時間帯64bに詰め集約状態で表示された吹き出しをユーザーが右へスワイプした後の状態である。操作部27aとしてのタッチパネルが時間帯64bの吹き出しが右スワイプされたことを検出すると、表示部21aは、詰め集約状態で表示され発言吹き出し45の下に隠れた発言吹き出し47を右横へシフトさせて隠れていた吹き出しの内容を表示する。このように、ユーザーは詰め集約状態で隠れた吹き出しに対して所定の操作を行うことでの、隠れた吹き出しの内容を容易に参照できる。   FIG. 6 is an explanatory view showing a mode of a conference display screen different from the aggregate display mode shown in FIG. 6 is different from that in FIG. 4 in a time zone 64b. FIG. 6 shows a state after the user swipes right to the balloon displayed in the packed state in the time zone 64b. When the touch panel as the operation unit 27a detects that the speech bubble of the time zone 64b has been swiped to the right, the display unit 21a shifts the speech speech bubble 47 that is displayed in a packed state and hidden under the speech speech bubble 45 to the right. Display the contents of the balloon that was hidden. As described above, the user can easily refer to the contents of the hidden speech balloon by performing a predetermined operation on the speech balloon hidden in the packed and aggregated state.

図7は、サーバー11の記憶部23sに格納される会議情報オブジェクトのデータ構造およびそれらのデータを管理するデータテーブルの一例を示す。ただし、これに限らず一部のデータが例えば表示装置13aの記憶部23aに格納され、サーバー11や他の表示装置とデータをやり取りしてもよい。
記憶部23sに格納される会議情報オブジェクトのうち、資料のデータや音声データは吹き出しとして表示されるので、吹き出しデータテーブル71で管理される。吹き出しは、代表的な会議情報オブジェクトである。吹き出しデータテーブル71は、吹き出しの属性としてスライドID,タイムライン、ユーザーID,テキスト化音声データ、関連ファイル名および属性データの各項目を有する。
FIG. 7 shows an example of the data structure of the conference information object stored in the storage unit 23s of the server 11 and a data table for managing the data. However, the present invention is not limited to this, and some data may be stored in, for example, the storage unit 23a of the display device 13a and exchange data with the server 11 or other display devices.
Of the conference information objects stored in the storage unit 23 s, material data and audio data are displayed as balloons, and are therefore managed by the balloon data table 71. A balloon is a typical meeting information object. The balloon data table 71 has items of slide ID, timeline, user ID, text-to-speech data, related file name, and attribute data as balloon attributes.

会議の進行中に、会議用スピーカーフォン17aおよび17bで収音された音声データは、会議の進行中に発言毎に分割され、各発言が吹き出しデータテーブル71に登録される。各発言吹き出しはタイムラインとして発言開始時刻が登録される。ユーザーIDとして発言者のIDが登録される。音声認識技術を用いて検索した参加者のIDである。テキスト化音声データは、音声認識技術を用いてテキスト化された発言のテキストデータが登録される。関連ファイル名は発言吹き出しデータの場合は該当する登録内容がない。属性データは、ユーザーがその吹き出しを重要な吹き出しとしてマークを付加したか否かを示す。   The audio data collected by the conference speakerphones 17 a and 17 b during the conference is divided for each utterance during the conference, and each utterance is registered in the balloon data table 71. Each speech balloon has a speech start time registered as a timeline. The speaker's ID is registered as the user ID. This is the ID of the participant searched using the voice recognition technology. As the text-formed voice data, the text data of the speech that has been converted into text using a voice recognition technique is registered. If the related file name is speech balloon data, there is no corresponding registration content. The attribute data indicates whether or not the user has added the mark as an important speech balloon.

動画データ73は各拠点の参加者の動画が静止画の圧縮データ形式で格納されている。各静止画は前後静止画の差分として格納されているのでデータ容量が削減されている。静止画コマにはタイムライン(撮影時刻)が記録されている。なお、図7の例では音声データは単独のデータとして存在せず、動画データ73に包含されるとしている。ただし、テキスト化音声データの生成や発言の話者特定を容易にするために、動画データ73と別に音声データを格納してもよい。   The moving image data 73 stores the moving images of the participants at each base in the compressed data format of still images. Since each still image is stored as a difference between the previous and next still images, the data capacity is reduced. A timeline (photographing time) is recorded on the still image frame. In the example of FIG. 7, the audio data does not exist as single data but is included in the moving image data 73. However, the voice data may be stored separately from the moving picture data 73 in order to facilitate generation of the text voice data and identification of the speaker of the speech.

ユーザー情報テーブル75は、参加者のID(ユーザーID)、参加者名(ユーザー名)、顔写真データ(ユーザー顔写真)が会議の開催前に登録されている。ユーザーの顔写真データは吹き出しに添付するアイコンの元となる。例えば、会議の参加者が自身のIDで会議情報表示システム10にログインした際に、ログインしたユーザーがユーザー情報テーブル75に登録される。
タイムライン区切りデータテーブル77は、集約表示する吹き出しの時間帯を設定するための区切り点と各区切り点に対応するタイムライン(時刻)を記録している。区切り点の時刻と次の区切り点の時刻の間に存在する吹き出しをグループ化して集約表示時に集約する。タイムライン区切りデータテーブル77は、会議の進行と並行して生成される。
In the user information table 75, the participant ID (user ID), the participant name (user name), and face photo data (user face photo) are registered before the conference. The user's face photo data is the source of the icon attached to the balloon. For example, when a conference participant logs in to the conference information display system 10 with his / her ID, the logged-in user is registered in the user information table 75.
The timeline delimiter data table 77 records breakpoints for setting time zones of balloons to be displayed in a consolidated manner and timelines (time) corresponding to the breakpoints. Balloons existing between the time of the breakpoint and the time of the next breakpoint are grouped and aggregated at the time of aggregation display. The timeline delimiter data table 77 is generated in parallel with the progress of the conference.

区切り点とする時刻は、予め定められた時間刻みであってもよいが、例えば、記録された音声のデータから参加者全員の会話の途切れた時刻を抽出し、区切り点として設定してもよい。より詳細には、全参加者の音量を合計した音量が一定時間所定値以下となった時刻を区切り点として抽出する。
あるいはまた、特定のキーワードを検出して話題の区切りとしてもよい。例えば、「ただ今から説明致します〜」、「次の議題は〜」、「私の意見としては〜」といったようなキーワードを予め登録しておき、音声認識技術を用いてキーワードに該当する発言が行われた時刻を区切り点として抽出する。
The time as the break point may be a predetermined time interval. For example, the time when the conversation of all the participants is interrupted may be extracted from the recorded audio data and set as the break point. . More specifically, the time when the total volume of all the participants is equal to or lower than a predetermined value for a certain time is extracted as a breakpoint.
Alternatively, a specific keyword may be detected as a topic break. For example, keywords such as “I will explain from now on”, “Next agenda is”, and “My opinion is” are registered in advance, and the speech corresponding to the keyword using voice recognition technology Extract the time of day as a breakpoint.

集約表示モードで表示を行う場合、タイムライン区切りデータテーブル77を参照して、吹き出しデータテーブル71に登録された各吹き出しのタイムラインが、どの区切り点に属するかを調べることにより、吹き出しを表示する時間帯を決定できる。
このように、吹き出しデータテーブル71とタイムライン区切りデータテーブル77を参照することによって、会議情報オブジェクトとしての吹き出しと時間帯との関連付けを調べることができる。
When displaying in the integrated display mode, the balloon is displayed by referring to the timeline delimiter data table 77 and checking which delimiter the timeline of each balloon registered in the balloon data table 71 belongs to. The time zone can be determined.
Thus, by referring to the balloon data table 71 and the timeline delimiter data table 77, the association between the balloon as the conference information object and the time zone can be examined.

動画データ73についても、動画データ73に付されたタイムラインについて、タイムライン区切りデータテーブル77を参照してどの区切り点に属するかを調べることができるので、一連の動画データ73のどの部分(コマ)がどの時間帯に属するかを決定できる。このようにして、会議情報オブジェクトとしての動画と時間帯との関連付けを調べることができる。
盛上りデータテーブル79は、重要度が算出された会議情報オブジェクトに関連付けられた時刻と、その会議情報オブジェクトの重要度を格納する。重要度は、予め定められた手法を用いて算出される。さらに、重要度が予め定められた盛上り閾値を超えたか否かのフラグ(重要ポイントフラグ)を格納する。即ち、盛上り閾値を超える重要度の会議情報オブジェクトは、重要ポイントとしてマークされる。盛上りデータテーブル79は、会議の進行と並行して生成される。
With respect to the moving image data 73, the timeline attached to the moving image data 73 can be checked with respect to which breakpoint it belongs by referring to the timeline delimiter data table 77. ) Can be determined. In this way, it is possible to check the association between the moving image as the conference information object and the time zone.
The climax data table 79 stores the time associated with the conference information object whose importance is calculated and the importance of the conference information object. The importance is calculated using a predetermined method. Furthermore, a flag (important point flag) indicating whether or not the degree of importance has exceeded a predetermined climax threshold is stored. In other words, a conference information object having an importance level exceeding the climax threshold is marked as an important point. The climax data table 79 is generated in parallel with the progress of the conference.

≪処理の手順≫
フローチャートを用いて上述の処理を説明する。以下の説明においては単純化のために、サーバー11の記憶部23sに吹き出しデータテーブル71、動画データ73、ユーザー情報テーブル75、タイムライン区切りデータテーブル77および盛上りデータテーブル79が集約されて記憶されるものとしている。
会議情報表示システム10は、サーバー11の制御部21sと各拠点の表示装置の制御部(例えば、拠点L1の表示装置13aの制御部21a)とが協働してデータや表示の処理を行う。よって、記憶処理部、算出処理部および表示処理部は、制御部21s、21aの何れが処理する構成もあり得るし、両社が協働して処理する構成もあり得る。単純化のために、以下の説明においてはサーバー11の制御部21sがシステムを制御し、表示装置の制御部(例えば、拠点L1の表示装置13aの制御部21a)は、単なる手足となって制御部21sの処理を補助するものとする。
≪Processing procedure≫
The above process will be described using a flowchart. In the following description, the balloon data table 71, the moving image data 73, the user information table 75, the timeline delimiter data table 77, and the climax data table 79 are collected and stored in the storage unit 23s of the server 11 for simplification. It is supposed to be.
In the conference information display system 10, the control unit 21s of the server 11 and the control unit of the display device at each base (for example, the control unit 21a of the display device 13a at the base L1) perform data and display processing. Therefore, the storage processing unit, the calculation processing unit, and the display processing unit may be configured to be processed by any of the control units 21s and 21a, or may be configured to be processed in cooperation between the two companies. For simplification, in the following description, the control unit 21s of the server 11 controls the system, and the control unit of the display device (for example, the control unit 21a of the display device 13a of the base L1) is simply controlled by limbs. Assume that the processing of the unit 21s is assisted.

図8は、制御部21sが通常表示モードで実行する処理の一例を示すフローチャートである。通常表示モードは、図3の表示形態に対応する。会議中あるいは「会議呼出し」ボタンが押された直後のモードである。
制御部21sは、図8に示す処理を逐次繰り返して実行する。図8では、その処理をフローチャートのループで示しているが、実際には図8に記載されていない他の処理と並行に制御部21sはマルチタスク処理を実行する。
FIG. 8 is a flowchart illustrating an example of processing executed by the control unit 21s in the normal display mode. The normal display mode corresponds to the display form of FIG. This mode is during a meeting or immediately after the “call meeting” button is pressed.
The control unit 21s repeatedly executes the process illustrated in FIG. In FIG. 8, the process is shown by a loop in the flowchart, but the control unit 21 s executes multitask processing in parallel with other processes that are not actually described in FIG. 8.

図8で、制御部21sは、会議用スピーカーフォンが参加者の音声が検出したか否かを調べる(ステップS11)。音声が検出された場合(ステップS11のYes)、その音声について音声認識処理を適用して(ステップS13)テキスト化音声データを生成し、生成されたテキストデータを吹き出しデータテーブル71に格納する(ステップS15)。そして、テキスト化された音声データを発言吹き出しとして会議表示画面31に表示する(ステップS17)。
さらに、制御部21sは、ユーザーがスライド吹き出しを要求する操作を行ったか否かを調べる(ステップS19)。要求があった場合は(ステップS19のYes)、指定されたファイルを読み出して(ステップS21)、吹き出しデータテーブル71に格納する(ステップS23)。そして、読み出されたファイルをスライド吹き出しとして会議表示画面31に表示する(ステップS25)。
In FIG. 8, the control unit 21s checks whether or not the conference speakerphone has detected the voice of the participant (step S11). When speech is detected (Yes in step S11), speech recognition processing is applied to the speech (step S13) to generate textified speech data, and the generated text data is stored in the balloon data table 71 (step S13). S15). Then, the voice data converted into text is displayed as a speech balloon on the conference display screen 31 (step S17).
Further, the control unit 21s checks whether or not the user has performed an operation for requesting a slide balloon (step S19). If there is a request (Yes in step S19), the designated file is read (step S21) and stored in the balloon data table 71 (step S23). Then, the read file is displayed on the conference display screen 31 as a slide balloon (step S25).

それらの吹き出し表示処理の後に、制御部21sは、操作部27aがユーザーによる会議表示画面31への操作を検出したか否かを調べる(ステップS29)。操作が行われた場合、その操作が吹き出しを拡大表示する要求か否かを調べる(ステップS31)。この例では、表示された吹き出しをタップする操作が拡大表示を要求する操作である。その操作がなされた場合は(ステップS31のYes)、タップされた吹き出しを拡大して表示する(ステップS33)。
また、縦方向にスワイプの操作が行われた場合(ステップS35)、スワイプの速さを判定する(ステップS37)。スワイプの速さが、予め定められたスワイプ速さ閾値以下の場合は(ステップS37のNo)スクロール処理を行う。一方、スワイプの速さがスワイプ速さ閾値を超える場合は、集約表示モードの表示に切り換える(ステップS39)。集約表示モードに切り換えるしょりについては、図9で説明する。
After the balloon display processing, the control unit 21s checks whether or not the operation unit 27a has detected an operation on the conference display screen 31 by the user (step S29). When the operation is performed, it is checked whether or not the operation is a request for enlarging and displaying the balloon (step S31). In this example, the operation of tapping the displayed balloon is an operation for requesting enlarged display. When the operation is performed (Yes in step S31), the tapped balloon is enlarged and displayed (step S33).
When the swipe operation is performed in the vertical direction (step S35), the speed of the swipe is determined (step S37). If the swipe speed is equal to or less than a predetermined swipe speed threshold (No in step S37), scroll processing is performed. On the other hand, if the swipe speed exceeds the swipe speed threshold, the display is switched to the aggregate display mode (step S39). The process of switching to the aggregate display mode will be described with reference to FIG.

さらに、制御部21sは、吹き出に対する特定の操作(この例では丸く囲む操作)が行われたか否かを調べる(ステップS43)。丸く囲む操作が行われた場合は、それが重要な内容であるというユーザーの意思表示であるので、属性データとして協調フラグをセットする(図7の吹き出しデータテーブル71参照)。そして、操作の対象とされた吹き出しを強調して表示する(ステップS45.図4のスライド吹き出し51参照)。
以上が、通常表示モードでの処理である。
Furthermore, the control unit 21s checks whether or not a specific operation (an operation that encircles in this example) is performed on the blowout (step S43). When an operation of encircling is performed, it is a user's intention indication that it is an important content, so a cooperation flag is set as attribute data (see the balloon data table 71 in FIG. 7). Then, the speech balloon targeted for operation is highlighted and displayed (step S45; see slide speech balloon 51 in FIG. 4).
The above is the processing in the normal display mode.

続いて、ステップS39の集約表示モードへの切替え処理について述べる。
図9は、制御部21sが集約表示処理で実行する処理の一例を示すフローチャートである。
制御部21sは、まず、会議表示画面31を集約表示モードへ切り換える処理を実行する(ステップS51)。この処理については、図10で詳述する。
その後、制御部21sは、操作部27aが集約表示モードの会議表示画面に表示されたオブジェクトへの操作を検出したか否かを調べる(ステップS53)。何らかの操作が検出された場合(ステップS53のYes)、操作が縦方向のスワイプ操作か否かを調べる(ステップS55)。
Next, the switching process to the consolidated display mode in step S39 will be described.
FIG. 9 is a flowchart illustrating an example of processing executed by the control unit 21s in the aggregate display processing.
First, the control unit 21s executes a process of switching the conference display screen 31 to the aggregate display mode (step S51). This process will be described in detail with reference to FIG.
Thereafter, the control unit 21s checks whether or not the operation unit 27a has detected an operation on an object displayed on the conference display screen in the aggregate display mode (step S53). If any operation is detected (Yes in step S53), it is checked whether or not the operation is a vertical swipe operation (step S55).

縦方向のスワイプ操作であれば(ステップS55のYes)、縦スクロール表示の処理を行う(ステップS57)。
吹き出しへのタッチ操作であれば(ステップS59)。タッチされた吹き出しを拡大して表示する。また、動画のオブジェクトへのタッチ操作であれば、動画を再生する(ステップS61)。
あるいは、吹き出しを横方向にスワイプする操作であれば(ステップS63、図6参照)、吹き出しを横方向に展開して表示する(ステップS65)。
また、「もどる」ボタン63へのタッチ操作であれば(ステップS67)、前の段階の表示に戻す(ステップS69)。
If the swipe operation is in the vertical direction (Yes in step S55), the process of vertical scroll display is performed (step S57).
If it is a touch operation on the speech balloon (step S59). The touched balloon is enlarged and displayed. If the operation is a touch operation on a moving image object, the moving image is reproduced (step S61).
Alternatively, if the operation is to swipe the balloon in the horizontal direction (step S63, see FIG. 6), the balloon is expanded and displayed in the horizontal direction (step S65).
If it is a touch operation on the “return” button 63 (step S67), the display is returned to the previous stage (step S69).

続いて、ステップS51の詳細を述べる。
図9において、集約表示モードへ切換える際の処理を示すフローチャートである。
図10に示すように、制御部21sは、後述する盛上り度合いの算出処理によって算出された各時間帯の盛上り度合いを会議表示画面31に表示する(ステップS71)。さらに、タイムライン区切りデータテーブル77を参照して(ステップS73)、動画データを各時間帯に分割し、吹き出しを各時間帯に割り当て、時間帯ごとに表示すべき会議情報オブジェクトを決定する(ステップS75)。即ち、会議表示画面31に表示すべき会議情報オブジェクトを時間帯別にグループ化する。
Next, details of step S51 will be described.
In FIG. 9, it is a flowchart which shows the process at the time of switching to a consolidated display mode.
As illustrated in FIG. 10, the control unit 21 s displays the degree of climax in each time zone calculated by a climax degree calculation process described later on the conference display screen 31 (step S <b> 71). Further, referring to the timeline delimiter data table 77 (step S73), the moving image data is divided into each time zone, a balloon is assigned to each time zone, and a conference information object to be displayed is determined for each time zone (step S73). S75). That is, the conference information objects to be displayed on the conference display screen 31 are grouped by time zone.

さらに、各時間帯について、盛上り閾値を超える重要度を有する会議情報オブジェクト(重要ポイント)が含まれるか否かを調べる(ステップS77)。
重要ポイントを含む時間帯については(ステップS77のYes)、緩集約状態で会議情報オブジェクトの配置を決定する(ステップS79)。緩集約状態の配置は、図5(a)に対応する。重要ポイントを含まない時間帯については(ステップS77のNo)、詰め集約状態で会議情報オブジェクトの配置を決定する(ステップS81)。詰め集約状態は、図5(b)に対応する。
Further, for each time zone, it is checked whether or not a conference information object (important point) having an importance level exceeding the climax threshold is included (step S77).
For the time zone including the important point (Yes in step S77), the arrangement of the conference information objects is determined in a loosely aggregated state (step S79). The arrangement in the loosely aggregated state corresponds to FIG. For a time zone that does not include an important point (No in step S77), the arrangement of the conference information objects is determined in a packed and aggregated state (step S81). The packed and consolidated state corresponds to FIG.

そして、決定した配置に従って、各時間帯に属する会議オブジェクトを会議表示画面31に表示する(ステップS83)。なお、この際に通常表示モードの位置から各会議オブジェクトを徐々に移動させてアニメーション表示させてもよい。
以上が、集約表示モードへ切換える際の処理である。
And according to the determined arrangement | positioning, the meeting object which belongs to each time slot | zone is displayed on the meeting display screen 31 (step S83). At this time, each conference object may be gradually moved from the position of the normal display mode to display an animation.
The above is the processing when switching to the aggregate display mode.

図11は、この実施形態において制御部が盛上りデータテーブルを生成する処理の例を示すフローチャートである。制御部21sは、図11に示す処理と、図8に示す処理とを並行して実行する。
図11に示すように、制御部21sは、会議の進行中に、何れかの参加者が発言を開始するのを待って(ステップS101)タイマーをリセットし(ステップS103)、その時点から所定期間(この例では20秒)が経過するまで以下の監視を実行する(ステップS109)。即ち、参加者のライブ動画を解析して前記期間中に、指差し動作を行った参加者の数をカウントし(ステップS105)、また、うなずき動作を行った参加者の数をカウントする(ステップS107)。
そして、前記期間中に指差し動作およびうなずき動作を行った人数に基づいて、発言の重要度を算出する(ステップS111)。算出の手法は後述する。
FIG. 11 is a flowchart illustrating an example of processing in which the control unit generates a climax data table in this embodiment. The control unit 21s executes the process shown in FIG. 11 and the process shown in FIG. 8 in parallel.
As shown in FIG. 11, while the conference is in progress, the control unit 21s waits for any participant to start speaking (step S101), resets the timer (step S103), and starts a predetermined period from that point. The following monitoring is executed until (in this example, 20 seconds) elapses (step S109). That is, the participant's live video is analyzed, and the number of participants who have performed a pointing operation during the period is counted (step S105), and the number of participants who have performed a nodding operation is counted (step S105). S107).
Then, the importance level of the utterance is calculated based on the number of persons who performed the pointing action and the nodding action during the period (step S111). The calculation method will be described later.

算出された重要度が、盛上り閾値を超える場合は(ステップS113)、その発言に重要ポイントフラグを設定する(ステップS115)。重要ポイントフラグの設定については、図7の吹き出しデータテーブル71を参照されたい。
このようにして、発言が行われる度に、その発言の重要度を算出し、発言開始時刻と関連付けて盛上りデータテーブル79に記録する(ステップS117)。
なお、図11では、サーバー11の制御部21sが盛上り度合いを算出するものとしているが、これは一例に過ぎない。例えば、表示装置13aの制御部21aが拠点L1に係る盛上り度合いを算出し、同様に表示装置13bが拠点L2に係る盛上り度合いを算出し、サーバー11の制御部21sがそれらに基づいて総合的な盛上り度合いを算出してもよい。
If the calculated importance level exceeds the climax threshold (step S113), an important point flag is set for the statement (step S115). For the setting of the important point flag, refer to the balloon data table 71 in FIG.
In this way, each time a statement is made, the importance level of that statement is calculated and recorded in the climax data table 79 in association with the statement start time (step S117).
In FIG. 11, the control unit 21 s of the server 11 calculates the climax degree, but this is only an example. For example, the control unit 21a of the display device 13a calculates the degree of climax related to the base L1, and similarly, the display device 13b calculates the degree of climax related to the base L2, and the control unit 21s of the server 11 comprehensively calculates them. A typical climax degree may be calculated.

図11の処理について、補足の説明を行う。
発言の重要度の算出に用いるために、制御部21sは、何れかの参加者の発言が開始してから20秒以内における各参加者の身体的反応(ジェスチャー)を取得する。具体的にはカメラ15aおよび15bが撮影した参加者の画像に公知の画像認識技術を適用して、各参加者の指差し動作とうなずき動作を抽出する。そして、動作の有無をパラメータとして会議の盛上り度合いを算出する。
A supplementary explanation will be given for the processing of FIG.
In order to use for calculation of the importance level of the utterance, the control unit 21s acquires the physical reaction (gesture) of each participant within 20 seconds after the utterance of any participant starts. Specifically, a known image recognition technique is applied to the images of the participants taken by the cameras 15a and 15b to extract the pointing action and the nodding action of each participant. Then, the degree of excitement of the conference is calculated using the presence or absence of operation as a parameter.

発言の開始は、音声データの音量に基づいて判断する。図13は、この実施形態において、各参加者の音声データを用いて各参加者の発言開始を判定し、各参加者のジェスチャーを取得する期間を決定する例を示すグラフである。参加者P1、P2およびP3の会話音量は、それぞれの参加者に対応するマイクが置かれている場合は各マイクが収音した音量に対応する。図1の会議用スピーカーフォン17aのように複数の参加者が共有するマイクロフォンは、音声認識技術を用いて各参加者の発言を抽出し、抽出した発言の音量が図13のグラフに相当する。   The start of speech is determined based on the volume of the audio data. FIG. 13 is a graph showing an example of determining the start time of each participant using speech data of each participant and determining a period for acquiring each participant's gesture in this embodiment. The conversation volume of the participants P1, P2 and P3 corresponds to the volume picked up by each microphone when the microphone corresponding to each participant is placed. A microphone shared by a plurality of participants, such as the conference speakerphone 17a of FIG. 1, extracts the speech of each participant using a speech recognition technology, and the volume of the extracted speech corresponds to the graph of FIG.

指差し動作は参加者の手の動きの動作から取得する。うなずき動作は参加者の顔の動作(顔認識)から取得する。
会議参加者のうちで、指さし動作を行った人数と、うなずき動作を行って同意を示した人数とに基づいて発言の重要度を計算する。例えば、以下の式に基づいて重要度を算出する。

重要度 =(発言から20秒の期間に指さし動作を行った人数の全参加者に対する割合) ×(その期間にうなずき動作を行った人数の全参加者に対する割合)
The pointing action is obtained from the movement of the participant's hand. The nodding motion is acquired from the facial motion (face recognition) of the participant.
Based on the number of meeting participants who performed the pointing action and the number of persons who performed the nodding action and indicated consent, the importance of the speech is calculated. For example, the importance is calculated based on the following formula.

Importance = (Percentage of all participants who acted during the 20-second period after remarks) x (Percentage of all participants who noded during that period)

上式によれば、全参加者が指差し動作を行った場合は前項の値が1、誰も指差し動作を行わなかった場合は前項の値が0になる。さらに、全参加者がうなずき動作を行った場合は後項の値が1、誰もうなずき動作を行わなかった場合は後項の値が0になる。従って、全員が指差し動作を行いかつうなずき動作を行った場合は重要度の値が1になり、誰も指差し動作を行わなかったか、誰もうなずき動作を行わなかった場合は重要度が0になる。   According to the above formula, the value of the previous item is 1 when all the participants perform a pointing operation, and the value of the previous item is 0 when no one performs the pointing operation. Further, the value of the latter term is 1 when all participants perform a nodding operation, and the value of the latter term is 0 when no one has performed a nodding operation. Therefore, the importance value is 1 when all perform a pointing action and a nodding action, and the importance level is 0 when no one has performed a pointing action or no one has performed a nodding action. become.

制御部21sは、重要度が算出された発言が吹き出しデータテーブル71に登録される際のタイムライン、即ち、発言開始時刻を重要度と関連付けて、盛上り度合いのグラフを生成する。グラフが見易くするために、各発言の重要度を曲線近似して表示してもよい。なお、制御部21sは、タイムライン区切りデータテーブル77を参照してどの時間帯に属するかを決定する。算出された重要度が盛上り閾値を超える発言を含む時間帯を、重要な発言があった時間帯と判定する。そして、図4の時間帯64cのように時間軸の表現と吹き出しの集約の度合いを重要度の低い時間帯とは異なる態様で表示する。
以上のように制御部21sは、会議の進行中に発言の冒頭に各参加者が示した動作を監視して発言の重要度を算出し、盛上りデータテーブルに重要度(盛上り度合い)を逐次追加していく。
The control unit 21s generates a graph of the degree of excitement by associating the utterance with the importance calculated, the timeline when the utterance is registered in the balloon data table 71, that is, the utterance start time with the importance. In order to make the graph easy to see, the importance of each message may be displayed by approximating the curve. The control unit 21s refers to the timeline delimiter data table 77 and determines which time zone it belongs to. A time zone including a statement in which the calculated importance degree exceeds the climax threshold is determined as a time zone in which an important statement has occurred. Then, as shown in the time zone 64c of FIG. 4, the time axis expression and the degree of balloon aggregation are displayed in a manner different from the time zone of low importance.
As described above, the control unit 21 s calculates the importance level of the utterance by monitoring the action indicated by each participant at the beginning of the utterance during the conference, and adds the importance level (rising degree) to the climax data table. We add sequentially.

続いて、タイムライン区切りデータテーブル77を生成する処理について説明する。タイムラインの区切りは、予め定められた一定の時間間隔(例えば10分)としてもよいが、図12に示すように会議の進行状況に応じて定めてもよい。
制御部21sは、図12に示す処理と、図8および図11に示す処理とを並行して実行する。
Next, a process for generating the timeline delimiter data table 77 will be described. The timeline break may be a predetermined time interval (for example, 10 minutes) or may be determined according to the progress of the conference as shown in FIG.
The control unit 21s executes the process shown in FIG. 12 and the processes shown in FIGS. 8 and 11 in parallel.

図12に示すように、制御部21sは、会議の進行中にタイムラインの区切りを見出すために、各参加者の音声を合計した総発言音量を求め(ステップS121)、その総発言音量が予め定められた期間を超えて予め定められた音量以下か否か、即ち無音期間があるか否かを監視する(ステップS123)。無音期間があったら(ステップS123のYes)、ルーチンはステップS127へ進み、タイムライン区切りデータテーブル77に区切り点を追加する。
さらに、制御部21sは、参加者の音声データを分析して、予め登録された特定のキーワードが発言に含まれるか否かを監視する(ステップS125)。発言にキーワードが含まれていたら(ステップS125のYes)、ルーチンはステップS127へ進む。
As shown in FIG. 12, the control unit 21s obtains a total speech volume obtained by summing up the voices of the participants in order to find a timeline break during the conference (step S121). It is monitored whether or not the volume is below a predetermined volume over a predetermined period, that is, whether there is a silent period (step S123). If there is a silent period (Yes in step S123), the routine proceeds to step S127, and adds a break point to the timeline break data table 77.
Further, the control unit 21s analyzes the participant's voice data and monitors whether or not a specific keyword registered in advance is included in the utterance (step S125). If a keyword is included in the utterance (Yes in step S125), the routine proceeds to step S127.

ステップS127で、制御部21sは、タイムライン区切りデータテーブル77に発言の開始時刻と共に新たな区切り点を追加する(ステップS127)。
区切り点の値は、以前の区切り点と識別可能とするために、この例では直前の区切り点の値に1を加えた値を新たな区切り点の値としてタイムライン区切りデータテーブル77に登録する(ステップS129)。
以上のように制御部21sは、会議の進行中にタイムライン区切りデータテーブル77に区切り点を逐次追加していく。
In step S127, the control unit 21s adds a new break point to the timeline break data table 77 together with the start time of the message (step S127).
In order to make the breakpoint value distinguishable from the previous breakpoint, in this example, a value obtained by adding 1 to the previous breakpoint value is registered in the timeline breakpoint data table 77 as a new breakpoint value. (Step S129).
As described above, the control unit 21s sequentially adds break points to the timeline break data table 77 during the progress of the conference.

以上に述べたように、
(i)この発明による会議情報表示システムは、資料の文書および画像並びに会議参加者の音声および画像の少なくとも何れかを会議情報として記憶する記憶装置と、記憶された会議情報のうち文書および画像の少なくとも何れかを表示する表示装置を含み、会議の期間を複数の時間帯に分割した各時間帯と前記会議情報とを関連付けて前記記憶装置に記憶させる記憶処理部と、記憶された会議情報に基づいて会議の各時間帯における盛上りの度合いを算出する算出処理部と、記憶された会議情報を会議情報オブジェクトとして、各時間帯における前記盛上り度合いに応じた集約の度合いでかつ時系列の配置で前記表示装置に表示する表示処理部とを備えることを特徴とする。
As mentioned above,
(I) A conference information display system according to the present invention includes a storage device that stores at least one of a document and an image of a material and a voice and an image of a conference participant as conference information, and a document and an image of the stored conference information. A storage processing unit that includes a display device that displays at least one of them, divides a conference period into a plurality of time zones, and associates the conference information with the conference information, and stores the conference information in the storage device; A calculation processing unit that calculates the degree of climax in each time zone of the conference based on the stored conference information as a conference information object, and a degree of aggregation according to the climax degree in each time zone and a time series A display processing unit configured to display the display device on the display device.

この発明において、記憶装置は、会議情報として記憶されたデータを格納するものである。その具体的な態様は、例えば、ハードディスク装置やフラッシュメモリ等の不揮発性記憶装置である。上述の実施形態において、記憶装置はサーバー11の構成に含まれる。
記憶装置と表示装置とは本質的に別の装置であるが、一つの筐体に収容されてもよい。
記憶処理部、算出処理部および表示処理部は、専用のハードウェアを用いてもよいが、コンピュータがプログラムを実行することによって、それらの機能が実現されてもよい。
In the present invention, the storage device stores data stored as conference information. A specific aspect thereof is, for example, a nonvolatile storage device such as a hard disk device or a flash memory. In the above-described embodiment, the storage device is included in the configuration of the server 11.
The storage device and the display device are essentially separate devices, but may be housed in a single housing.
The storage processing unit, calculation processing unit, and display processing unit may use dedicated hardware, but their functions may be realized by a computer executing a program.

記憶処理部、算出処理部および表示処理部は、前記記憶装置または前記表示装置と接続される別の装置、例えば情報処理装置に配置されてもよいが、それらの全部または一部が前記記憶装置または前記表示装置の何れかに配置されてもよい。
また、会議情報としての資料は、例えば、文書作成ソフトウェアや帳票計算ソフトウェアを用いて作成された文書や表のデータ、ドローイングソフトウェアを用いて作成された画像データなど、さまざまな種類の文書(画像を含んでもよい)である。会議参加者の音声は、マイクロフォンを用いて収録された音声データである。会議参加者の画像は、カメラを用いて撮影された画像データであって静止画像、動画の種別を問わない。
The storage processing unit, the calculation processing unit, and the display processing unit may be arranged in the storage device or another device connected to the display device, for example, an information processing device. Or you may arrange | position in either of the said display apparatuses.
Documents as conference information include various types of documents (images created using document creation software and form calculation software, image data created using drawing software, etc.). May be included). The voice of the conference participant is voice data recorded using a microphone. The image of the conference participant is image data taken using a camera, and may be a still image or a moving image.

さらにまた、時間帯は、予め定められた期間(例えば、10分刻み)であってもよいが、記録時または記録後に適応的に決められてもよい。例えば、発言が所定期間途絶えたら新たな時間帯を開始するといったように決められてもよい。
盛上り度合いは、各時間帯における会議の内容の重要度に関連する指標である。後日、会議の記録を見る場合、重要な部分を優先的に見たいと考えるのは当然である。しかし、重要か否かは会議の内容および背景を理解した者でなければ妥当な判断が難しい。そこで、記憶された会議情報から抽出可能な指標であって、重要度と十分密接な相関があると考えられる指標を盛上り度合いと表現している。
Furthermore, the time zone may be a predetermined period (for example, every 10 minutes), but may be adaptively determined at the time of recording or after recording. For example, it may be determined that a new time zone is started when the speech is interrupted for a predetermined period.
The degree of excitement is an index related to the importance of the content of the meeting in each time zone. Of course, when you look at the meeting records at a later date, you should naturally prioritize the important parts. However, it is difficult for a person who understands the content and background of the meeting to determine whether it is important. Therefore, an index that can be extracted from the stored conference information and is considered to have a sufficiently close correlation with the importance degree is expressed as a degree of climax.

例えば、会議中に参加者が資料を指差す動作やうなずきの動作が頻繁な時間帯は、重要な内容について議論されている可能性が高いと推測される。そして、指差し動作やうなずき動作は参加者の様子を撮影した動画データがあれば画像認識技術を用いて抽出可能である。また、重要な内容については活発な議論が行われて参加者は大きな声で発言する傾向にあると推測される。参加者の発言を記録した音声データがあれば、音声処理技術を用いて発言の音量を抽出可能である。   For example, it is presumed that there is a high possibility that important contents are discussed during a time period in which participants frequently point to materials or nod during the meeting. The pointing action and the nodding action can be extracted by using image recognition technology if there is moving image data that captures the state of the participant. In addition, it is speculated that there is a lively discussion on important contents and that participants tend to speak loudly. If there is audio data in which a participant's utterance is recorded, the volume of the utterance can be extracted using an audio processing technique.

さらに、この発明の好ましい態様について説明する。
(ii)前記会議情報は、会議の参加者を撮影した動画を含み、前記表示処理部は、前記盛上り度合いが予め定められた閾値より高い時間帯において、その時間帯の動画を操作可能なアイコンを一つの会議情報オブジェクトとして表示してもよい。
このようにすれば、重要な内容が議論されて会議が盛り上がった時間帯については、その時間帯の動画を操作可能なアイコンが表示されるので、ユーザーはその時間帯の動画を操作して容易に視聴が可能である。
Furthermore, the preferable aspect of this invention is demonstrated.
(Ii) The conference information includes a moving image of a participant in the conference, and the display processing unit can operate the moving image in the time zone in a time zone in which the degree of climax is higher than a predetermined threshold. The icon may be displayed as one meeting information object.
In this way, icons that can be used to operate videos during that time period will be displayed for the time period when important content was discussed and the meeting was exciting, so the user can easily operate the video during that time period. Can be viewed.

(iii)前記表示処理部は、盛上り度合いが低くて集約して表示されている会議情報オブジェクトの何れかがユーザーにより選択された場合、選択された会議情報オブジェクトおよび共に集約されている会議情報オブジェクトを分散して前記表示装置に表示してもよい。
このようにすれば、盛上り度合いが低くて集約して表示されている会議情報オブジェクトについても、ユーザーの選択により分散して表示させて選択された会議情報オブジェクトの内容をユーザーに見易く表示することができる。
(Iii) The display processing unit, when any one of the conference information objects that are aggregated and displayed with a low degree of climax is selected by the user, the selected conference information object and the conference information aggregated together Objects may be distributed and displayed on the display device.
In this way, even for conference information objects that are aggregated and displayed with a low degree of climax, the contents of the selected conference information objects can be displayed in an easy-to-read manner for the user by being distributed according to the user's selection. Can do.

(iv)前記会議情報は、会議の参加者を撮影した動画を含み、前記算出処理部は、各時間帯において前記動画から抽出された参加者の指差し動作およびうなずき動作の頻度に基づいて前記盛上り度合いを算出してもよい。   (Iv) The conference information includes a moving image of a participant in the conference, and the calculation processing unit is configured to perform the pointing operation and the nodding operation of the participant extracted from the moving image in each time period. The degree of swell may be calculated.

(v)前記表示処理部は、前記盛上り度合いが高い時間帯は前記盛上り度合いが低い時間帯に比べて前記会議情報オブジェクトを表示する集約の度合いをより低くして分散して表示してもよい。
このようにすれば、重要な内容が議論されて会議が盛り上がった時間帯は低い集約度で会議情報オブジェクトが表示され、記録に基づく会議の内容がユーザーに見易く表示される。
(V) The display processing unit displays the conference information objects in a time zone in which the degree of climax is high compared to a time zone in which the climax degree is low, and is distributed and displayed. Also good.
In this way, the conference information object is displayed at a low degree of aggregation during the time when the conference was excited because important content was discussed, and the content of the conference based on the record is displayed in an easy-to-view manner for the user.

(vi)前記表示処理部は、前記盛上り度合いが高い時間帯は、前記盛上り度合いが低い時間帯に比べて会議情報オブジェクトの大きさをより大きく表示してもよい。
このようにすれば、重要な内容が議論されて会議が盛り上がった時間帯については、大きなサイズで会議情報オブジェクトが表示され、記録に基づく会議の内容がユーザーに見易く表示される。
(vii)前記表示処理部は、各時間帯における前記盛上り度合いをグラフとして表し、前記会議情報オブジェクトと共に前記表示装置に表示してもよい。
このようにすれば、ユーザーは、グラフ表示された盛上り度合いを参考に重要な内容が論議されて会議が盛り上がった時間帯を推察して優先的に記録を見ることができる。
この発明の好ましい態様には、上述した複数の態様のうちの何れかを組み合わせたものも含まれる。
前述した実施の形態の他にも、この発明について種々の変形例があり得る。それらの変形例は、この発明の範囲に属さないと解されるべきものではない。この発明には、請求の範囲と均等の意味および前記範囲内でのすべての変形とが含まれるべきである。
(Vi) The display processing unit may display the size of the conference information object larger in the time zone where the degree of climax is higher than in the time zone where the climax degree is low.
In this way, the conference information object is displayed in a large size for the time zone in which important content is discussed and the conference is excited, and the content of the conference based on the record is displayed in an easy-to-view manner for the user.
(Vii) The display processing unit may represent the degree of climax in each time zone as a graph and display the degree on the display device together with the conference information object.
In this way, the user can preferentially view the record by inferring a time zone in which important contents were discussed and the meeting was excited with reference to the degree of climax displayed in the graph.
Preferred embodiments of the present invention include combinations of any of the plurality of embodiments described above.
In addition to the embodiments described above, there can be various modifications of the present invention. These modifications should not be construed as not belonging to the scope of the present invention. The present invention should include the meaning equivalent to the scope of the claims and all modifications within the scope.

10:会議情報表示システム、 11:サーバー、 13a,13b,13c,13d:表示装置 15b,15c:カメラ、 17a,17b,17c:会議用スピーカーフォン、 18d:無線アクセスポイント、 19:通信ネットワーク 21a,21s:制御部、 23a,23s:記憶部、 25a,25s:表示部、 27a,27s:操作部、 29a,29s:通信部
31:会議表示画面、 33:参加者動画領域、 35:吹き出し表示領域、 37:操作メニュー、 43,51,54:スライド吹き出し、 44,46,48,50,52,59,61:参加者アイコン、 45,47,49,58,60:発言吹き出し、 55:緩集約表示領域、 56:盛上り度グラフ、 57,62:詰め集約表示領域、 63:「もどる」ボタン、 64a,64b,64c,64d:時間帯
71:吹き出しデータテーブル、 73:動画データ、 75:ユーザー情報テーブル、 77:タイムライン区切りデータテーブル、 79:盛上りデータテーブル
L1,L2,L3,L4:拠点
P1,P2,P3,P4,P5:参加者
10: Conference information display system, 11: Server, 13a, 13b, 13c, 13d: Display device 15b, 15c: Camera, 17a, 17b, 17c: Conference speakerphone, 18d: Wireless access point, 19: Communication network 21a, 21s: control unit, 23a, 23s: storage unit, 25a, 25s: display unit, 27a, 27s: operation unit, 29a, 29s: communication unit 31: conference display screen, 33: participant video area, 35: balloon display area 37: Operation menu, 43, 51, 54: Slide balloon, 44, 46, 48, 50, 52, 59, 61: Participant icon, 45, 47, 49, 58, 60: Speech balloon, 55: Loose aggregation Display area, 56: climax graph, 57, 62: packed aggregate display area, 63: “return” button, 64 a, 64b, 64c, 64d: time zone 71: balloon data table, 73: moving image data, 75: user information table, 77: timeline delimiter data table, 79: rising data table L1, L2, L3, L4: base P1, P2, P3, P4, P5: Participants

Claims (10)

資料の文書および画像並びに会議参加者の音声および画像の少なくとも何れかを会議情報として記憶する記憶装置と、
記憶された会議情報のうち文書および画像の少なくとも何れかを表示する表示装置を含み、
会議の期間を複数の時間帯に分割した各時間帯と前記会議情報とを関連付けて前記記憶装置に記憶させる記憶処理部と、
記憶された会議情報に基づいて会議の各時間帯における盛上りの度合いを算出する算出処理部と、
記憶された会議情報を会議情報オブジェクトとして、各時間帯における前記盛上り度合いに応じた集約の度合いでかつ時系列の配置で前記表示装置に表示する表示処理部とを備える会議情報表示システム。
A storage device that stores at least one of a document and an image of a document and a voice and an image of a conference participant as conference information;
Including a display device that displays at least one of a document and an image of stored conference information,
A storage processing unit that associates each time zone obtained by dividing a conference period into a plurality of time zones and stores the conference information in the storage device;
A calculation processing unit that calculates the degree of climax in each time zone of the conference based on the stored conference information;
A conference information display system comprising: a display processing unit configured to display the stored conference information as a conference information object on the display device in a time-series arrangement with a degree of aggregation corresponding to the degree of climax in each time zone.
前記会議情報は、会議の参加者を撮影した動画を含み、
前記表示処理部は、前記盛上り度合いが予め定められた盛上り閾値より高い時間帯において、その時間帯の動画を操作可能なアイコンを一つの会議情報オブジェクトとして表示する請求項1に記載の会議情報表示システム。
The conference information includes a video of the conference participants,
The conference according to claim 1, wherein the display processing unit displays, as a conference information object, an icon capable of operating a moving image in the time zone in a time zone where the degree of climax is higher than a predetermined climax threshold. Information display system.
前記表示処理部は、盛上り度合いが低く集約して表示されている会議情報オブジェクトの何れかがユーザーにより選択された場合、選択された会議情報オブジェクトおよび共に集約されている会議情報オブジェクトを分散して前記表示装置に表示する請求項1または2に記載の会議情報表示システム。   The display processing unit distributes the selected conference information object and the conference information object that are aggregated together when any of the conference information objects that are aggregated and displayed with a low climax is selected by the user. The conference information display system according to claim 1, wherein the conference information is displayed on the display device. 前記会議情報は、会議の参加者を撮影した動画を含み、
前記算出処理部は、各時間帯において前記動画から抽出された参加者の指差し動作およびうなずき動作の頻度に基づいて前記盛上り度合いを算出する請求項1〜3の何れか一つに記載の会議情報表示システム。
The conference information includes a video of the conference participants,
The said calculation process part calculates the said excitement degree based on the frequency of the participant's pointing operation and nodding operation extracted from the said moving image in each time slot | zone. Conference information display system.
前記表示処理部は、前記盛上り度合いが高い時間帯は前記盛上り度合いが低い時間帯に比べて前記会議情報オブジェクトを表示する集約の度合いをより低くして分散して表示する請求項1〜4の何れか一つに記載の会議情報表示システム。   The display processing unit displays a time zone in which the degree of climax is high in a distributed manner with a lower degree of aggregation for displaying the conference information objects than a time zone in which the degree of climax is low. 4. The conference information display system according to any one of 4. 前記表示処理部は、前記盛上り度合いが高い時間帯は、前記盛上り度合いが低い時間帯に比べて会議情報オブジェクトの大きさをより大きく表示する請求項1〜5の何れか一つに記載の会議情報表示システム。   The said display process part displays the magnitude | size of a meeting information object larger in the time slot | zone where the said climax degree is high compared with the time slot | zone where the said climax degree is low. Meeting information display system. 前記表示処理部は、各時間帯における前記盛上り度合いをグラフとして表し、前記会議情報オブジェクトと共に前記表示装置に表示する請求項1〜6の何れか一つに記載の会議情報表示システム。   The conference information display system according to claim 1, wherein the display processing unit represents the degree of climax in each time zone as a graph and displays the degree on the display device together with the conference information object. 会議の全期間を複数の時間帯に分割した各時間帯と関連付けて、資料の文書および画像並びに会議参加者の音声および画像の少なくとも何れかを会議情報として記憶装置に記憶する工程と、
記憶された会議情報に基づいて会議の各時間帯における盛上りの度合いを算出する工程と、
記憶された会議情報を会議情報オブジェクトとして時系列に並べ、各時間帯における前記盛上り度合いに応じて集約の度合いを異ならせて表示装置に表示する工程とを備える会議情報表示方法。
Storing at least one of a document and an image of a document and a voice and an image of a conference participant in a storage device as conference information in association with each time zone obtained by dividing the entire period of the conference into a plurality of time zones;
Calculating the degree of climax in each time zone of the conference based on the stored conference information;
A conference information display method comprising: arranging stored conference information in a time series as a conference information object, and displaying the conference information on a display device with different degrees of aggregation according to the degree of climax in each time zone.
会議の全期間を複数の時間帯に分割した各時間帯と関連付けて、資料の文書および画像並びに会議参加者の音声および画像の少なくとも何れかを会議情報として記憶装置に記憶する処理と、
記憶された会議情報に基づいて会議の各時間帯における盛上りの度合いを算出する処理と、
記憶された会議情報を会議情報オブジェクトとして時系列に並べ、各時間帯における前記盛上り度合いに応じて集約の度合いを異ならせて表示装置に表示する処理とをコンピュータに実行させるための会議情報表示プログラム。
A process of storing at least one of a document and an image of a document and a voice and an image of a conference participant in a storage device as conference information in association with each time zone obtained by dividing the entire period of the conference into a plurality of time zones;
Processing for calculating the degree of climax in each time zone of the conference based on the stored conference information;
Conference information display for causing a computer to execute a process of arranging stored conference information in a time series as a conference information object, and displaying on a display device with a different degree of aggregation according to the degree of climax in each time zone program.
ある期間に渡って逐次入力される情報を時系列に受け付けるステップと、
受付けた情報を、前記期間を複数の時間帯に分割した各時間帯と関連付けて記憶装置に記憶するステップと、
前記情報を情報オブジェクトとして時系列にかつ集約して表示装置に表示するステップと、
ユーザーによる何れかの時間帯の選択に応答して、その時間帯に指標の設定をするステップと、
前記指標が設定された時間帯について表示オブジェクトの表示の集約の度合いを低くして前記表示装置に表示するステップとを備える情報表示方法。
Receiving information input sequentially over a period of time in time series;
Storing the received information in a storage device in association with each time period obtained by dividing the period into a plurality of time periods;
A step of collecting the information as an information object in time series and displaying it on a display device;
Responsive to user selection of any time zone and setting an indicator for that time zone;
An information display method comprising: displaying on the display device at a reduced degree of aggregation of display of display objects for a time zone in which the index is set.
JP2016214354A 2016-11-01 2016-11-01 Meeting information display system, meeting information display method and meeting information display program Active JP6814604B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016214354A JP6814604B2 (en) 2016-11-01 2016-11-01 Meeting information display system, meeting information display method and meeting information display program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016214354A JP6814604B2 (en) 2016-11-01 2016-11-01 Meeting information display system, meeting information display method and meeting information display program

Publications (2)

Publication Number Publication Date
JP2018073237A true JP2018073237A (en) 2018-05-10
JP6814604B2 JP6814604B2 (en) 2021-01-20

Family

ID=62114199

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016214354A Active JP6814604B2 (en) 2016-11-01 2016-11-01 Meeting information display system, meeting information display method and meeting information display program

Country Status (1)

Country Link
JP (1) JP6814604B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20200043894A (en) 2018-10-18 2020-04-28 벨페이스 가부시키가이샤 Review system for online communication, method, and computer program
JP2022056128A (en) * 2020-09-29 2022-04-08 ソフトバンク株式会社 Information processing device, information processing method, information processing program, and information processing system
WO2024062779A1 (en) * 2022-09-22 2024-03-28 ソニーグループ株式会社 Information processing device, information processing system, and information processing method

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11272679A (en) * 1998-03-18 1999-10-08 Fuji Xerox Co Ltd Statement structure information presenting device
JP2005267279A (en) * 2004-03-18 2005-09-29 Fuji Xerox Co Ltd Information processing system and information processing method, and computer program
JP2005275885A (en) * 2004-03-25 2005-10-06 Nec Personal Products Co Ltd Information processor and program
JP2009163431A (en) * 2007-12-28 2009-07-23 Nec Corp Communication calculation device, function calculation device for meeting, and function calculation method and program for meeting
JP2011239075A (en) * 2010-05-07 2011-11-24 Sony Corp Display device, display method and program

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11272679A (en) * 1998-03-18 1999-10-08 Fuji Xerox Co Ltd Statement structure information presenting device
JP2005267279A (en) * 2004-03-18 2005-09-29 Fuji Xerox Co Ltd Information processing system and information processing method, and computer program
JP2005275885A (en) * 2004-03-25 2005-10-06 Nec Personal Products Co Ltd Information processor and program
JP2009163431A (en) * 2007-12-28 2009-07-23 Nec Corp Communication calculation device, function calculation device for meeting, and function calculation method and program for meeting
JP2011239075A (en) * 2010-05-07 2011-11-24 Sony Corp Display device, display method and program

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
丁井 雅美、外3名: "ネットワーク会議における会議進行モデル構築の試み", 電子情報通信学会技術研究報告, vol. 第98巻,第100号, JPN6010047924, 6 June 1998 (1998-06-06), JP, pages 49 - 57, ISSN: 0004344908 *
馬田 一郎、外6名: "共同作業時のコミュニケーションにおける視線行動の分析", 情報処理学会研究報告, vol. 第2006巻,第14号, JPN6020034433, 17 February 2006 (2006-02-17), JP, pages 191 - 196, ISSN: 0004344907 *

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20200043894A (en) 2018-10-18 2020-04-28 벨페이스 가부시키가이샤 Review system for online communication, method, and computer program
US11348587B2 (en) 2018-10-18 2022-05-31 Bellface, Inc. Review system for online communication, method, and computer program
JP2022056128A (en) * 2020-09-29 2022-04-08 ソフトバンク株式会社 Information processing device, information processing method, information processing program, and information processing system
WO2024062779A1 (en) * 2022-09-22 2024-03-28 ソニーグループ株式会社 Information processing device, information processing system, and information processing method

Also Published As

Publication number Publication date
JP6814604B2 (en) 2021-01-20

Similar Documents

Publication Publication Date Title
EP3817395A1 (en) Video recording method and apparatus, device, and readable storage medium
CN106502638B (en) For providing the equipment, method and graphic user interface of audiovisual feedback
EP3195601B1 (en) Method of providing visual sound image and electronic device implementing the same
JP5559691B2 (en) Enhanced interface for voice and video communication
CN108538291A (en) Sound control method, terminal device, cloud server and system
CN109219796A (en) Digital touch on real-time video
CN108139863A (en) For in the equipment, method and graphic user interface with providing feedback during strength sensitive button interaction
JP6304941B2 (en) CONFERENCE INFORMATION RECORDING SYSTEM, INFORMATION PROCESSING DEVICE, CONTROL METHOD, AND COMPUTER PROGRAM
CN109691074A (en) The image data of user&#39;s interaction for enhancing
JP6115074B2 (en) Information presentation system, information presentation apparatus, program, and information presentation method
CN109683714A (en) Multimedia resource management method, apparatus and storage medium
CN107122049A (en) For capturing the message user interface with transmission media and location conten
JP2015018365A (en) Information processing device, information processing method, and program
CN106233237B (en) A kind of method and apparatus of processing and the new information of association
TW201327226A (en) Electronic device and method thereof for offering mood services according to user expressions
CN109672937A (en) TV applications method for switching theme, TV, readable storage medium storing program for executing and system
US20230164296A1 (en) Systems and methods for managing captions
JP6176041B2 (en) Information processing apparatus and program
JP2018073237A (en) Conference information display system, conference information display method and conference information display program
CN113918522A (en) File generation method and device and electronic equipment
EP3261324A1 (en) Method and device for application switching
CN110109730A (en) For providing the equipment, method and graphic user interface of audiovisual feedback
CN106921802B (en) Audio data playing method and device
CN110383229A (en) For navigating, showing and editing equipment, method and the graphic user interface of the media item with multiple display patterns
CN107295167A (en) Method for information display and device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190920

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200820

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200915

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201012

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20201208

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20201221

R150 Certificate of patent or registration of utility model

Ref document number: 6814604

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150