JP7061860B2 - Digest data generation device, digest data playback device, digest data generation system, digest data generation method and program - Google Patents

Digest data generation device, digest data playback device, digest data generation system, digest data generation method and program Download PDF

Info

Publication number
JP7061860B2
JP7061860B2 JP2017192842A JP2017192842A JP7061860B2 JP 7061860 B2 JP7061860 B2 JP 7061860B2 JP 2017192842 A JP2017192842 A JP 2017192842A JP 2017192842 A JP2017192842 A JP 2017192842A JP 7061860 B2 JP7061860 B2 JP 7061860B2
Authority
JP
Japan
Prior art keywords
data
section
importance
digest
image data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017192842A
Other languages
Japanese (ja)
Other versions
JP2019068300A (en
Inventor
佑一 加耒
洋樹 棟朝
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP2017192842A priority Critical patent/JP7061860B2/en
Publication of JP2019068300A publication Critical patent/JP2019068300A/en
Application granted granted Critical
Publication of JP7061860B2 publication Critical patent/JP7061860B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Telephonic Communication Services (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Description

本発明は、ダイジェストデータ生成装置等に関する。 The present invention relates to a digest data generator and the like.

従来から、会議や研修といった多人数による会合の音声や映像を記録し、あとから振り返られるようにするための会議システムが使用されている。 Traditionally, a conference system has been used to record audio and video of a multi-person meeting such as a conference or training so that it can be looked back on later.

記録された音声データや映像データといった会議データを確認するには、一般的には、会議の開始から順次再生することによって行われる。しかし、会議においては、会議の参加者が議論について話している場面がある一方で、無言となっている場面もある。したがって、会議の記録内容を効率的に確認するには、会議について議論をしている場面のように、会議において重要な場面を特定して、その場面に限って確認できることが望ましい。 In order to confirm the conference data such as recorded audio data and video data, it is generally performed by sequentially playing back from the start of the conference. However, in some meetings, the participants of the meeting are talking about the discussion, while others are silent. Therefore, in order to efficiently check the recorded contents of a meeting, it is desirable to be able to identify an important scene in the meeting and check it only in that scene, such as when discussing a meeting.

そこで、会議において重要と考えられる部分を特定する技術が提案されている。例えば、重要であると判断した発言があったとき、あるいは後で確認すべき有効な発言があったとき等に、しおり挿入を指示することで、後で再生したい発言にインデックスを付与できる発明が開示されている(例えば、特許文献1参照)。 Therefore, a technique for identifying a part considered to be important in a conference has been proposed. For example, when there is a statement that is judged to be important, or when there is a valid statement that should be confirmed later, there is an invention that can add an index to the statement that you want to play later by instructing the insertion of a bookmark. It is disclosed (see, for example, Patent Document 1).

また、映像データから会議の進行に沿った時系列としての特徴量を抽出し、当該特徴量に基づいて、絶対評価値として、会議の進行に沿った時系列としての盛り上がり度を算出し、参加者の性格と参加場所、発言のコンテンツ、会話関係を考慮した相対的な盛り上がり度を推定する会議分析装置に関する発明が開示されている(例えば、特許文献2参照)。 In addition, the feature amount as a time series along the progress of the meeting is extracted from the video data, and based on the feature amount, the degree of excitement as a time series along the progress of the meeting is calculated as an absolute evaluation value and participates. An invention relating to a conference analyzer that estimates a relative degree of excitement in consideration of a person's character, place of participation, content of remarks, and conversational relationship is disclosed (see, for example, Patent Document 2).

また、撮影した画像を時系列に関連付けて記憶できるシステムが知られている。例えば、会議中の様子を音声データとして併せてサンプリング時間毎に静止画像を記憶する。これにより、会議を振り替えるとき、音声と併せて画像でも会議の様子を確認することが可能となる。 Further, there is known a system that can store captured images in chronological order. For example, a still image is stored for each sampling time together with the state during the meeting as audio data. As a result, when transferring a meeting, it is possible to confirm the state of the meeting with an image as well as a voice.

特開2005-109928号公報Japanese Unexamined Patent Publication No. 2005-109928 特開2016-012216号公報Japanese Unexamined Patent Publication No. 2016-012216

ここで、会議を振り替えりやすくするために、会議で重要だと思われる場面を直接指示する方法は、その指示によって会話を妨げてしまう恐れや、会話に集中するあまり指示をし忘れる問題があった。 Here, in order to make it easier to transfer the meeting, the method of directly instructing the scene that seems to be important in the meeting has the problem that the instruction may interfere with the conversation and that the instruction is too focused on the conversation and the instruction is forgotten. rice field.

また、会議データを記憶するときに、細かいサンプリング時間で撮影することで詳細な状況の記憶をすることができるが、情報量が多くなり重要な場面の特定が難しくなるという問題があった。 Further, when storing the conference data, it is possible to memorize the detailed situation by taking a picture with a fine sampling time, but there is a problem that the amount of information becomes large and it becomes difficult to identify an important scene.

特に、情報量が多くなると、会議データの記憶量が大きくなってしまう。そうすることで、記憶領域の空き容量が不足してしまったり、ネットワーク経由で受信する場合に、大きな通信帯域を確保しなければならなかったりするという問題が生じていた。 In particular, as the amount of information increases, the amount of storage of conference data increases. By doing so, there are problems that the free space of the storage area becomes insufficient and that a large communication band must be secured when receiving via the network.

本発明の目的は、上記の課題を解決することであり、音声データと画像データとを含むコンテンツデータに対して、所定の時間の区間ごとに重要度を判定し、重要度に応じて前記画像データを削除したダイジェストデータを生成する装置を提供することである。 An object of the present invention is to solve the above-mentioned problems, and the importance of content data including audio data and image data is determined for each predetermined time interval, and the image is determined according to the importance. It is to provide a device for generating digest data from which data has been deleted.

上述した課題を解決するために、本発明のダイジェストデータ生成装置は、
画像データを取得する画像データ取得手段と、
音声データと、音声データに対応して定期的に取得された画像データとをコンテンツデータとして記憶する記憶手段と、
前記コンテンツデータに対して所定時間長の区間毎に特徴量を決定する特徴量決定手段 と、
前記特徴量から、前記区間毎の重要度を判定する重要度判定手段と、
前記コンテンツデータから、前記区間毎に判定された重要度に応じて、前記画像データを削除したダイジェストデータを生成するダイジェストデータ生成手段と、
を備えることを特徴とする。
In order to solve the above-mentioned problems, the digest data generator of the present invention is used.
Image data acquisition means for acquiring image data and
A storage means for storing audio data and image data periodically acquired in response to audio data as content data,
A feature amount determining means for determining a feature amount for each section of a predetermined time length with respect to the content data,
An importance determination means for determining the importance of each section from the feature amount,
A digest data generation means for generating digest data from which the image data is deleted according to the importance determined for each section from the content data.
It is characterized by having.

本発明のダイジェストデータ生成装置は、
画像データを取得する画像データ取得手段と、
音声データと、音声データに対応して定期的に取得された画像データとをコンテンツデータとして記憶する記憶手段と、
前記コンテンツデータに対して、複数の異なる特徴に基づき、特徴毎に所定時間長の区間毎の特徴量を決定する特徴量決定手段と、
前記特徴毎に決定した前記区間毎の特徴量に基づき前記区間毎の重要度を判定する重要度判定手段と、
前記コンテンツデータから、前記区間毎に判定された重要度に応じて、前記画像データを削除したダイジェストデータを生成するダイジェストデータ生成手段と、
を備えることを特徴とする。
The digest data generator of the present invention is
Image data acquisition means for acquiring image data and
A storage means for storing audio data and image data periodically acquired in response to audio data as content data,
With respect to the content data, a feature amount determining means for determining a feature amount for each section having a predetermined time length for each feature based on a plurality of different features,
An importance determination means for determining the importance of each section based on the feature amount of each section determined for each feature, and
A digest data generation means for generating digest data from which the image data is deleted according to the importance determined for each section from the content data.
It is characterized by having.

本発明のダイジェストデータ生成システムは、
サーバ装置に端末装置が接続されたダイジェストデータ生成システムであって、
前記端末装置は、
画像データを取得する画像データ取得手段と、
音声データと、音声データに対応して定期的に取得された画像データとをコンテンツデータとして前記サーバ装置に送信するコンテンツデータ送信手段と、
を備え
前記サーバ装置は、
前記端末装置から前記コンテンツデータを受信するコンテンツデータ受信手段と、
前記コンテンツデータに対して所定時間長の区間毎に特徴量を決定する特徴量決定手段と、
前記特徴量から、前記区間毎の重要度を判定する重要度判定手段と、
前記コンテンツデータから、前記区間毎に判定された重要度に応じて、前記画像データを削除したダイジェストデータを生成するダイジェストデータ生成手段と、
前記ダイジェストデータを前記端末装置に送信するダイジェストデータ送信手段と、
を備えることを特徴とする。
The digest data generation system of the present invention is
A digest data generation system in which a terminal device is connected to a server device.
The terminal device is
Image data acquisition means for acquiring image data and
A content data transmission means for transmitting audio data and image data periodically acquired corresponding to the audio data as content data to the server device, and
The server device is equipped with
A content data receiving means for receiving the content data from the terminal device,
A feature amount determining means for determining a feature amount for each section of a predetermined time length with respect to the content data,
An importance determination means for determining the importance of each section from the feature amount,
A digest data generation means for generating digest data from which the image data is deleted according to the importance determined for each section from the content data.
A digest data transmitting means for transmitting the digest data to the terminal device,
It is characterized by having.

本発明のダイジェストデータ生成システムは、
サーバ装置に端末装置が接続されたダイジェストデータ生成システムであって、
前記端末装置は、
画像データを取得する画像データ取得手段と、
音声データと、音声データに対応して定期的に取得された画像データとをコンテンツデータとして前記サーバ装置に送信するコンテンツデータ送信手段と、
を備え
前記サーバ装置は、
前記端末装置から前記コンテンツデータを受信するコンテンツデータ受信手段と、
前記コンテンツデータに対して、複数の異なる特徴に基づき、特徴毎に所定時間長の区間毎の特徴量を決定する特徴量決定手段と、
前記特徴毎に決定した前記区間毎の特徴量に基づき前記区間毎の重要度を判定する重要度判定手段と、
前記コンテンツデータから、前記区間毎に判定された重要度に応じて、前記画像データを削除したダイジェストデータを生成するダイジェストデータ生成手段と、
前記ダイジェストデータを前記端末装置に送信するダイジェストデータ送信手段と、
を備えることを特徴とする。
The digest data generation system of the present invention is
A digest data generation system in which a terminal device is connected to a server device.
The terminal device is
Image data acquisition means for acquiring image data and
A content data transmission means for transmitting audio data and image data periodically acquired corresponding to the audio data as content data to the server device, and
The server device is equipped with
A content data receiving means for receiving the content data from the terminal device,
With respect to the content data, a feature amount determining means for determining a feature amount for each section having a predetermined time length for each feature based on a plurality of different features,
An importance determination means for determining the importance of each section based on the feature amount of each section determined for each feature, and
A digest data generation means for generating digest data from which the image data is deleted according to the importance determined for each section from the content data.
A digest data transmitting means for transmitting the digest data to the terminal device,
It is characterized by having.

本発明のダイジェストデータ生成方法は、
画像データを取得する画像データ取得ステップと、
音声データと、音声データに対応して定期的に取得された画像データとをコンテンツデータとして記憶する記憶ステップと、
前記コンテンツデータに対して所定時間長の区間毎に特徴量を決定する特徴量決定ステップと、
前記特徴量から、前記区間毎の重要度を判定する重要度判定ステップと、
前記コンテンツデータから、前記区間毎に判定された重要度に応じて、前記画像データを削除したダイジェストデータを生成するダイジェストデータ生成ステップと、
を含むことを特徴とする。
The digest data generation method of the present invention is
Image data acquisition step to acquire image data and
A storage step that stores audio data and image data that is periodically acquired in response to audio data as content data,
A feature amount determination step for determining a feature amount for each section of a predetermined time length with respect to the content data, and a feature amount determination step.
An importance determination step for determining the importance of each section from the feature amount,
A digest data generation step for generating digest data from which the image data is deleted according to the importance determined for each section from the content data.
It is characterized by including.

本発明のダイジェストデータ生成方法は、
画像データを取得する画像データ取得ステップと、
音声データと、音声データに対応して定期的に取得された画像データとをコンテンツデータとして記憶する記憶ステップと、
前記コンテンツデータに対して、複数の異なる特徴に基づき、特徴毎に所定時間長の区間毎の特徴量を決定する特徴量決定ステップと、
前記特徴毎に決定した前記区間毎の特徴量に基づき前記区間毎の重要度を判定する重要度判定ステップと、
前記コンテンツデータから、前記区間毎に判定された重要度に応じて、前記画像データを削除したダイジェストデータを生成するダイジェストデータ生成ステップと、
を含むことを特徴とする。
The digest data generation method of the present invention is
Image data acquisition step to acquire image data and
A storage step that stores audio data and image data that is periodically acquired in response to audio data as content data,
With respect to the content data, a feature amount determination step for determining a feature amount for each section having a predetermined time length for each feature based on a plurality of different features, and a feature amount determination step.
An importance determination step for determining the importance of each section based on the feature amount for each section determined for each feature, and
A digest data generation step for generating digest data from which the image data is deleted according to the importance determined for each section from the content data.
It is characterized by including.

本発明のプログラムは、
コンピュータに、
画像データを取得する画像データ取得機能と、
音声データと、音声データに対応して定期的に取得された画像データとをコンテンツデータとして記憶する記憶機能と、
前記コンテンツデータに対して所定時間長の区間毎に特徴量を決定する特徴量決定機能と、
前記特徴量から、前記区間毎の重要度を判定する重要度判定機能と、
前記コンテンツデータから、前記区間毎に判定された重要度に応じて、前記画像データを削除したダイジェストデータを生成するダイジェストデータ生成機能と、
を実行させることを特徴とする。
The program of the present invention
On the computer
Image data acquisition function to acquire image data and
A storage function that stores audio data and image data that is periodically acquired in response to audio data as content data,
A feature amount determination function that determines a feature amount for each section of a predetermined time length for the content data, and a feature amount determination function.
An importance determination function for determining the importance of each section from the feature amount,
A digest data generation function that generates digest data from which the image data is deleted according to the importance determined for each section from the content data.
Is characterized by executing.

本発明のプログラムは、
コンピュータに、
画像データを取得する画像データ取得機能と、
音声データと、音声データに対応して定期的に取得された画像データとをコンテンツデータとして記憶する記憶機能と、
前記コンテンツデータに対して、複数の異なる特徴に基づき、特徴毎に所定時間長の区間毎の特徴量を決定する特徴量決定機能と、
前記特徴毎に決定した前記区間毎の特徴量に基づき前記区間毎の重要度を判定する重要度判定機能と、
前記コンテンツデータから、前記区間毎に判定された重要度に応じて、前記画像データを削除したダイジェストデータを生成するダイジェストデータ生成機能と、
を実行させることを特徴とする。
The program of the present invention
On the computer
Image data acquisition function to acquire image data and
A storage function that stores audio data and image data that is periodically acquired in response to audio data as content data,
With respect to the content data, a feature amount determination function for determining a feature amount for each section of a predetermined time length for each feature based on a plurality of different features, and a feature amount determination function.
An importance determination function that determines the importance of each section based on the feature amount of each section determined for each feature, and
A digest data generation function that generates digest data from which the image data is deleted according to the importance determined for each section from the content data.
Is characterized by executing.

本発明によれば、音声データと会議画像データとを含むコンテンツデータを記憶し、コンテンツデータの各所定の時間の区間に対し特徴量を決定し、当該特徴量から重要度を決定する。また、重要度に基づき、重要でない区間のコンテンツデータに含まれる画像データを削除することによって、コンテンツデータからダイジェストデータを生成することとなる。これによって、重要度に応じて記憶される情報量が変化するため、重要の場面の特定を容易にし、また、必要な記憶容量や通信帯域を抑えることが可能となる。 According to the present invention, content data including audio data and conference image data is stored, a feature amount is determined for each predetermined time interval of the content data, and the importance is determined from the feature amount. Further, the digest data is generated from the content data by deleting the image data included in the content data of the non-important section based on the importance. As a result, the amount of information to be stored changes according to the importance, so that it is possible to easily identify important scenes and to suppress the required storage capacity and communication band.

第1実施形態における会議支援システムの全体構成を説明するための図である。It is a figure for demonstrating the whole structure of the conference support system in 1st Embodiment. 第1実施形態における表示装置の機能構成を説明するための図である。It is a figure for demonstrating the functional structure of the display device in 1st Embodiment. 第1実施形態における会議データのデータ構成の一例を示した図である。It is a figure which showed an example of the data structure of the conference data in 1st Embodiment. 第1実施形態における評価情報のデータ構成の一例を示した図である。It is a figure which showed an example of the data structure of the evaluation information in 1st Embodiment. 第1実施形態におけるブックマーク情報のデータ構成の一例を示した図である。It is a figure which showed an example of the data structure of the bookmark information in 1st Embodiment. 第1実施形態における重要度テーブルのデータ構成の一例を示した図である。It is a figure which showed an example of the data structure of the importance table in 1st Embodiment. 第1実施形態におけるメイン処理を説明するための動作フローである。It is an operation flow for demonstrating the main process in 1st Embodiment. 第1実施形態における参加者評価信号送信処理を説明するための動作フローである。It is an operation flow for demonstrating the participant evaluation signal transmission processing in 1st Embodiment. 第1実施形態における携帯端末装置の動作例を説明するための図である。It is a figure for demonstrating the operation example of the mobile terminal apparatus in 1st Embodiment. 第1実施形態における重要度決定処理を説明するための動作フローである。It is an operation flow for explaining the importance degree determination process in 1st Embodiment. 第1実施形態における重要度決定処理の動作例を説明するための図である。It is a figure for demonstrating the operation example of the importance degree determination process in 1st Embodiment. 第1実施形態における最適化処理を説明するための動作フローである。It is an operation flow for demonstrating the optimization process in 1st Embodiment. 第1実施形態における最適化処理の動作例を説明するための図である。It is a figure for demonstrating the operation example of the optimization process in 1st Embodiment. 第1実施形態におけるダイジェストデータ再生処理を説明するための動作フローである。It is an operation flow for demonstrating the digest data reproduction processing in 1st Embodiment. 第1実施形態におけるダイジェストデータ再生処理の動作例を説明するための図である。It is a figure for demonstrating the operation example of the digest data reproduction processing in 1st Embodiment. 第2実施形態におけるダイジェストデータ再生処理を説明するための動作フローである。It is an operation flow for demonstrating the digest data reproduction processing in 2nd Embodiment. 第2実施形態における再生区間絞込み処理を説明するための動作フローである。It is an operation flow for demonstrating the reproduction section narrowing process in 2nd Embodiment. 第2実施形態における再生区間抽出の動作例を説明するための図である。It is a figure for demonstrating the operation example of the reproduction section extraction in 2nd Embodiment. 第2実施形態におけるダイジェストデータ再生処理の動作例を説明するための図である。It is a figure for demonstrating the operation example of the digest data reproduction processing in 2nd Embodiment. 第2実施形態におけるダイジェストデータ再生処理の動作例を説明するための図である。It is a figure for demonstrating the operation example of the digest data reproduction processing in 2nd Embodiment. 第3実施形態における重要度決定処理を説明するための動作フローである。It is an operation flow for explaining the importance degree determination process in 3rd Embodiment. 第3実施形態における重要度決定処理の動作例を説明するための図である。It is a figure for demonstrating the operation example of the importance degree determination process in 3rd Embodiment. 第3実施形態における複数の特徴量を用いる場合の動作例を説明するための図である。It is a figure for demonstrating the operation example in the case of using a plurality of feature quantities in 3rd Embodiment. 第3実施形態におけるダイジェストデータ再生処理の動作例を説明するための図である。It is a figure for demonstrating the operation example of the digest data reproduction processing in 3rd Embodiment. 第4実施形態におけるダイジェストデータ再生処理の動作例を説明するための図である。It is a figure for demonstrating the operation example of the digest data reproduction processing in 4th Embodiment. 第6実施形態における会議支援システムの全体構成を説明するための図である。It is a figure for demonstrating the whole structure of the conference support system in the 6th Embodiment. 第8実施形態における会議支援システムの全体構成を説明するための図である。It is a figure for demonstrating the whole structure of the conference support system in 8th Embodiment.

以下、本発明の実施の形態について、図面を参照して説明する。なお、本実施形態では、一例として、本発明におけるダイジェストデータ生成装置を有する表示装置を含めた、会議支援システムについて説明する。 Hereinafter, embodiments of the present invention will be described with reference to the drawings. In this embodiment, as an example, a conference support system including a display device having a digest data generation device according to the present invention will be described.

[1. 第1実施形態]
[1.1 全体構成]
まず、本実施形態の会議支援システム1の全体構成について、図1に基づいて説明する。図1に示すように、会議支援システム1には、表示装置10に、携帯端末装置20がNW(ネットワーク)及びAP(アクセスポイント)を介して接続されている。携帯端末装置20は、1つ接続されてもよいし、複数接続されてもよい。また、図1においては、携帯端末装置20は、表示装置10と同一ネットワークで接続されていることとして示しているが、別のネットワークを介して接続されていてもよい。また、有線接続されていてもよい。
[1. First Embodiment]
[1.1 Overall configuration]
First, the overall configuration of the conference support system 1 of the present embodiment will be described with reference to FIG. As shown in FIG. 1, in the conference support system 1, a mobile terminal device 20 is connected to a display device 10 via a NW (network) and an AP (access point). One mobile terminal device 20 may be connected, or a plurality of mobile terminal devices 20 may be connected. Further, in FIG. 1, the mobile terminal device 20 is shown to be connected to the display device 10 by the same network, but may be connected via another network. Further, it may be connected by wire.

さらに、表示装置10にはボタン型ビーコン装置30が1又は複数接続されてもよい。図1においては、ボタン型ビーコン装置30は、表示装置10と近距離間の通信手段によって接続されていることとして表示されているが、ネットワークで接続されていてもよい。また、ボタン型入力装置として有線接続されていてもよい。 Further, one or a plurality of button-type beacon devices 30 may be connected to the display device 10. In FIG. 1, the button-type beacon device 30 is displayed as being connected to the display device 10 by a short-distance communication means, but may be connected by a network. Further, it may be connected by wire as a button type input device.

[1.2 機能構成]
表示装置10の機能構成について、図2に基づいて説明する。表示装置10は、制御部110と、記憶部120と、音声入出力部140と、映像入力部150と、通信部160と、操作部170と、表示部180とを備えて構成されている。
[1.2 Function configuration]
The functional configuration of the display device 10 will be described with reference to FIG. The display device 10 includes a control unit 110, a storage unit 120, an audio input / output unit 140, a video input unit 150, a communication unit 160, an operation unit 170, and a display unit 180.

制御部110は、表示装置10の全体を制御するための機能部である。制御部110は、記憶部120に記憶されている各種プログラムを読み出して実行することにより各種機能を実現しており、例えばCPU(Central Processing Unit)等により構成されている。 The control unit 110 is a functional unit for controlling the entire display device 10. The control unit 110 realizes various functions by reading and executing various programs stored in the storage unit 120, and is configured by, for example, a CPU (Central Processing Unit) or the like.

記憶部120は、表示装置10の動作に必要な各種プログラムや、各種データが記憶されている機能部である。記憶部120は、例えば、半導体メモリや、HDD(Hard Disk Drive)等により構成されている。 The storage unit 120 is a functional unit that stores various programs and various data necessary for the operation of the display device 10. The storage unit 120 is composed of, for example, a semiconductor memory, an HDD (Hard Disk Drive), or the like.

ここで記憶部120には、会議データ122と、評価情報132と、ブックマーク情報134と、重要度テーブル136と、ダイジェストデータ138とが記憶されている。ここで、会議データ122とは、会議に関する基本的な属性と、会議を記録したコンテンツデータとを、会議ごとに記憶したものである。本実施形態では、会議に関する基本的な属性を、会議の基本情報124として記憶する。また、コンテンツデータとして、音声データ126と、撮像データ128と、画面データ130とを記憶する。なお本実施形態においては、コンテンツデータとしては、音声データと画像データとを記憶することとして説明するが、動画データやその他の会議に関するデータを含めてもよい。 Here, the storage unit 120 stores the conference data 122, the evaluation information 132, the bookmark information 134, the importance table 136, and the digest data 138. Here, the conference data 122 stores basic attributes related to the conference and content data recording the conference for each conference. In this embodiment, the basic attributes related to the conference are stored as the basic information 124 of the conference. Further, as the content data, the audio data 126, the image pickup data 128, and the screen data 130 are stored. In the present embodiment, the content data will be described as storing audio data and image data, but moving image data and other data related to the conference may be included.

会議データ122に記憶されているデータについて、図3を参照して説明する。基本情報124は、会議に関する基本的な情報である。例えば、会議名(例えば「20170403_定例会議1」)と、会議の開始日時(例えば「2017年4月3日 10:00:00」)と、会議参加者(例えば「参加者A、参加者B、参加者C」)といった会議の基本情報が記憶されている。これ以外にも、例えば会議場所や議題等といった、会議に関する情報を記憶してもよい。 The data stored in the conference data 122 will be described with reference to FIG. The basic information 124 is basic information about the conference. For example, the meeting name (for example, "20170403_regular meeting 1"), the start date and time of the meeting (for example, "April 3, 2017 10:00: 00"), and the meeting participants (for example, "Participant A, Participant B"). , Participant C ”), and other basic information about the conference is stored. In addition to this, information about the conference such as the conference location and the agenda may be stored.

音声データ126は、音声入出力部140に音声を入力し、出力された音声データを記憶したものである。音声データは、表示装置10で再生・出力できる形式であればよく、例えば、MP3(MPEG Audio Layer-3)やAAC(Advanced Audio Coding)、WAV等の音声符号化器により符号化された情報であるのが一般的である。 The voice data 126 is obtained by inputting voice to the voice input / output unit 140 and storing the output voice data. The audio data may be in a format that can be reproduced and output by the display device 10, and is, for example, information encoded by an audio encoder such as MP3 (MPEG Audio Layer-3), AAC (Advanced Audio Coding), or WAV. It is common to have.

撮像データ128は、映像入力部150によって撮影され、出力された画像データを記憶したもので、例えば会議室内の様子を撮影した静止画データである。撮像データは、表示装置10で表示できる形式であればよく、例えば、JPG、GIF、PNG等の静止画データである。また、撮影の頻度は、1秒間に1枚や、1分に12枚といったように、時間とその時間内に撮影する枚数とを設定すればよい。この撮影の頻度は、予め設定された間隔であってもよいし、利用者に設定された間隔であってもよい。 The image pickup data 128 is a storage of image data taken and output by the video input unit 150, and is, for example, still image data obtained by taking a picture of a state in a conference room. The image pickup data may be in a format that can be displayed on the display device 10, and is, for example, still image data such as JPG, GIF, and PNG. Further, the frequency of shooting may be set to a time and the number of shots taken within that time, such as 1 shot per second or 12 shots per minute. The frequency of this shooting may be a preset interval or a user-set interval.

画面データ130は、会議において表示した画面をキャプチャし、画像データとして記憶させたものである。例えば、表示装置10の表示部180に会議の資料を映し出して、表示部180を定期的にキャプチャすればよい。画像データは、表示装置10で処理できる形式であればよく、例えば、JPG、GIF、PNG等の静止画データであってよい。また、撮影の頻度は、1秒間に1枚や、1分に12枚といったように、時間とその時間内に撮影する枚数とを設定すればよい。この撮影の頻度は、予め設定された間隔であってもよいし、利用者に設定された間隔であってもよい。 The screen data 130 captures the screen displayed in the conference and stores it as image data. For example, the conference material may be projected on the display unit 180 of the display device 10 and the display unit 180 may be captured periodically. The image data may be in a format that can be processed by the display device 10, and may be, for example, still image data such as JPG, GIF, or PNG. Further, the frequency of shooting may be set to a time and the number of shots taken within that time, such as 1 shot per second or 12 shots per minute. The frequency of this shooting may be a preset interval or a user-set interval.

評価情報132について、図4を参照して説明する。評価情報132は、会議中に、会議参加者により入力された評価を記憶したものである。評価情報132には、会議名(例えば「20170403_定例会議1」)と、入力がされた日時を表す評価日時(例えば「2017/4/3 10:04:23」)と、入力された評価内容を表す感情タグ(例えば「ポジティブ」)とが記憶されている。 The evaluation information 132 will be described with reference to FIG. The evaluation information 132 stores the evaluation input by the conference participants during the conference. In the evaluation information 132, the conference name (for example, "20170403_regular meeting 1"), the evaluation date and time indicating the input date and time (for example, "2017/4/3 10:04:23"), and the input evaluation content An emotional tag (for example, "positive") representing the above is stored.

会議参加者が入力した評価内容については、例えば後述する携帯端末装置20で動作するアプリケーションの操作によって表示装置10へ入力される。また、感情タグは、ポジティブとネガティブ以外にあってもよく、例えば、「驚き」や「疑問を抱いた」といった評価を用いてもよい。 The evaluation contents input by the conference participants are input to the display device 10 by, for example, operating an application running on the mobile terminal device 20 described later. In addition, the emotion tag may be other than positive and negative, and for example, an evaluation such as "surprise" or "questioned" may be used.

ブックマーク情報134について、図5を参照して説明する。ブックマーク情報134は、会議参加者が入力したブックマークの時点が記憶されており、例えば、会議を振り返る場合に、振り返る必要がある時点であると考えた時点を記憶する。ブックマーク情報134には、会議名(例えば「20170403_定例会議1」)と、ブックマーク日時(例えば「2017/4/3 10:04:34」)とが記憶されている。 The bookmark information 134 will be described with reference to FIG. The bookmark information 134 stores the time point of the bookmark entered by the conference participant, and for example, when looking back at the conference, it stores the time point considered to be the time point when it is necessary to look back. The bookmark information 134 stores the conference name (for example, "20170403_regular conference 1") and the bookmark date and time (for example, "2017/4/3 10:04:34").

ブックマーク情報の入力については、例えば、後述する携帯端末装置20で動作するアプリケーションの操作によって表示装置10へ入力される。 The bookmark information is input to the display device 10 by, for example, operating an application running on the mobile terminal device 20 described later.

重要度テーブル136について、図6を参照して説明する。重要度テーブル136とは、所定の時間長の区間(例えば「1分」)ごとの重要度を記憶したものである。重要度テーブル136は、会議名(例えば「20170403_定例会議1」)と、区間を識別する区間番号(例えば「1」)と、区間開始日時(例えば「2017/4/3 10:00:00」)と、区間終了日時(例えば、「2017/4/3 10:01:00」)と、区間の重要度(例えば「1」)とが記憶されている。 The importance table 136 will be described with reference to FIG. The importance table 136 stores the importance of each interval (for example, "1 minute") having a predetermined time length. In the importance table 136, the meeting name (for example, "20170403_regular meeting 1"), the section number for identifying the section (for example, "1"), and the section start date and time (for example, "2017/4/3 10:00:00") are displayed. ), The date and time of the end of the section (for example, "2017/4/3 10:01: 00"), and the importance of the section (for example, "1") are stored.

ここで重要度とは、会議における各区間が、当該会議においてどれくらい重要であるかを数値により表現したものである。本実施形態では、最も重要である区間の重要度を「4」とし、最も重要でない区間の重要度を「1」として、4段階で表現している。図6の例では、重要度が「4」である区間54は重要な区間であり、重要度が「3」である区間5はそれに続くとしている。これらの区間は重要であることを表している。一方で、区間1から4や、区間6、区間53、区間55は重要度が「1」であるため、これらの区間は重要ではないことを表している。 Here, the importance is a numerical expression of how important each section in a conference is in the conference. In the present embodiment, the importance of the most important section is set to "4", and the importance of the least important section is set to "1", which are expressed in four stages. In the example of FIG. 6, the section 54 having an importance of “4” is an important section, and the section 5 having an importance of “3” follows. These sections show that they are important. On the other hand, since the importance of sections 1 to 4, section 6, section 53, and section 55 is "1", it indicates that these sections are not important.

なお、本実施形態においては、重要度を数値として表現しているが、例えば最大を100パーセントとし表現するように、割合で重要度合いを細かく設定しても良い。数値以外にも、例えば「高」「中」「低」といった階級で表してもよいし、重要であるかないかといったフラグで表現してもよい。 In the present embodiment, the importance is expressed as a numerical value, but the importance may be finely set in proportion so that the maximum is expressed as 100%, for example. In addition to the numerical value, it may be expressed by a class such as "high", "medium", or "low", or it may be expressed by a flag such as whether it is important or not.

ダイジェストデータ138は、重要度に基づいて、会議データ122から重要でない場面のデータを削除したデータである。ダイジェストデータ138には、会議データ122と同様に、会議の基本情報と、音声データと、撮像データと、画面データとが記憶される。ここで、会議データ122の撮像データ128や画面データ130の一部又は全てが、ダイジェストデータ138の撮像データ又は画面データに含まれていなくてよい。 The digest data 138 is data obtained by deleting data of unimportant scenes from the conference data 122 based on the importance. Similar to the conference data 122, the digest data 138 stores the basic information of the conference, the voice data, the imaging data, and the screen data. Here, a part or all of the image pickup data 128 and the screen data 130 of the conference data 122 may not be included in the image pickup data or the screen data of the digest data 138.

音声入出力部140は、音声の入出力が可能な機能部である。入力された音声を処理して各機能部に音声データとして出力したり、音声データに基づいて音声を出力したりする。具体的には、マイクやスピーカやヘッドフォンによって構成されてもよいし、他の端末装置のマイクやスピーカを利用してもよい。 The audio input / output unit 140 is a functional unit capable of inputting / outputting audio. The input voice is processed and output as voice data to each function unit, or the voice is output based on the voice data. Specifically, it may be configured by a microphone, a speaker, or headphones, or a microphone or speaker of another terminal device may be used.

映像入力部150は、外部の映像を入力し映像データを生成する機能部である。例えば、カメラ等によって構成される。 The video input unit 150 is a functional unit that inputs an external video and generates video data. For example, it is composed of a camera and the like.

通信部160は、携帯端末装置20やボタン型ビーコン装置30と通信を行うための機能部である。例えば、有線LANにより通信可能な機能部であったり、無線LANにより通信可能な機能部であったり、Bluetooth(登録商標)といった近距離無線通信を行う機能部であったりする。LANによる通信方式としては、Ethernet(登録商標)やIEEE802.11a/b/g/nであってもよいし、LTE(登録商標)通信網やWiMAX(登録商標)のような通信網であってもよい。 The communication unit 160 is a functional unit for communicating with the mobile terminal device 20 and the button-type beacon device 30. For example, it may be a functional unit that can communicate by a wired LAN, a functional unit that can communicate by a wireless LAN, or a functional unit that performs short-range wireless communication such as Bluetooth (registered trademark). The LAN communication method may be Ethernet (registered trademark) or IEEE802.11a / b / g / n, or may be an LTE (registered trademark) communication network or a communication network such as WiMAX (registered trademark). May be good.

操作部170は、表示装置10に指示を与えたり、データを入力したりするための機能部である。例えば、キーボードやマウスによって構成されている。 The operation unit 170 is a functional unit for giving an instruction to the display device 10 and inputting data. For example, it consists of a keyboard and a mouse.

表示部180は、表示装置10の利用者の操作のために必要な画面や、会議データを表示するための機能部である。例えば、LCD(liquid crystal display)や、有機ELディスプレイ、プロジェクタ等により構成されている。また、操作部170と一体に形成されたタッチパネルであってもよい。 The display unit 180 is a functional unit for displaying screens necessary for the operation of the user of the display device 10 and conference data. For example, it is composed of an LCD (liquid crystal display), an organic EL display, a projector, and the like. Further, it may be a touch panel integrally formed with the operation unit 170.

[1.3 処理の流れ]
つづいて、本実施形態における処理の流れについて説明する。
[1.3 Processing flow]
Next, the flow of processing in this embodiment will be described.

[1.3.1 メイン処理]
図7は、表示装置10のメイン処理について説明するフローチャートである。まず、利用者が操作部170を用いて、何らかの操作があったかどうかを判定する(ステップS1002)。利用者の操作はキーボードによる入力操作であってもよいし、表示部180にメニューを表示し、マウスの操作による選択操作であってもよい。
[1.3.1 Main processing]
FIG. 7 is a flowchart illustrating the main processing of the display device 10. First, the user uses the operation unit 170 to determine whether or not any operation has been performed (step S1002). The user's operation may be an input operation using a keyboard, or may be a selection operation by displaying a menu on the display unit 180 and operating a mouse.

何らかの操作が行われた場合、ステップS1002で行われた操作が会議データ記憶操作であるかを判定する(ステップS1002;Yes→ステップS1004)。会議データ記憶操作であれば、利用者に会議の基本情報を入力させ、会議データの記憶を開始する(ステップS1004;Yes→ステップS1006)。 When any operation is performed, it is determined whether the operation performed in step S1002 is a conference data storage operation (step S1002; Yes → step S1004). In the case of the conference data storage operation, the user is made to input the basic information of the conference, and the storage of the conference data is started (step S1004; Yes → step S1006).

会議の基本情報として、例えば、会議名の入力を行う。この場合、会議参加者が操作部170を用いて会議名を入力してもよいし、予め表示装置10に記憶させた定型文を選ばせてもよい。定型文としては、「定例会議」「緊急会議」等が考えられる。また、同名の別の会議を識別するために、日時や通し番号を加えたものを会議名として用いてもよい。例えば、定型文として「定例会議」を選択したときの会議名として「定例会議0001」としてもよい。 For example, input the conference name as the basic information of the conference. In this case, the conference participant may input the conference name using the operation unit 170, or may have the display device 10 select a fixed phrase stored in advance. As a fixed phrase, "regular meeting", "emergency meeting", etc. can be considered. Further, in order to identify another conference having the same name, the conference name may be added with the date and time and the serial number. For example, "regular meeting 0001" may be used as the meeting name when "regular meeting" is selected as the fixed phrase.

また、会議データの記憶の開始とは、具体的には音声入出力部140から入力される音声に基づく音声データ126の記憶する処理と、所定の間隔で撮像データ128及び会議画面のキャプチャ画像データである画面データ130とを記憶する処理とを開始することをいう。なお、本実施形態において記憶する撮像データと画面データとを含めたもの又はどちらか一方を会議画像データという。 Further, the start of storage of the conference data is specifically a process of storing the audio data 126 based on the audio input from the audio input / output unit 140, and the captured image data 128 and the captured image data of the conference screen at predetermined intervals. It means to start the process of storing the screen data 130. In addition, the one including the image pickup data and the screen data to be stored in this embodiment, or one of them is referred to as a conference image data.

ここで、会議画像データを所定の間隔で記憶する処理については、例えば周期的にカウンタを増加させるタイマを用意し、所定のカウント数に到達した場合に会議画像データを記憶するとともに、カウンタをリセットしてもよい。この場合、タイマが動作する周期が1秒とし、所定のカウント数を15とすれば、15秒ごと1枚の会議画像データが記憶されることとなる。 Here, for the process of storing the conference image data at predetermined intervals, for example, a timer that periodically increases the counter is prepared, and when the predetermined count number is reached, the conference image data is stored and the counter is reset. You may. In this case, if the cycle in which the timer operates is 1 second and the predetermined count number is 15, one conference image data is stored every 15 seconds.

会議データの記憶がされている間は、感情タグを受信したかを判定する(ステップS1008)。会議参加者が入力した感情タグを受信した場合は、会議名と、受信した日時と、受信した感情タグとを、評価情報132として記憶する(ステップS1008;Yes→ステップS1010)。 While the conference data is stored, it is determined whether or not the emotion tag has been received (step S1008). When the emotion tag input by the conference participant is received, the conference name, the date and time of reception, and the received emotion tag are stored as evaluation information 132 (step S1008; Yes → step S1010).

また、ブックマーク情報を受信したかを判定する(ステップS1012)。ブックマーク情報を受信した場合は、会議名と、受信した日時とをブックマーク情報134として記憶する(ステップS1012;Yes→ステップS1014)。なお、本実施形態において、携帯端末装置20から表示装置10へ送信されるブックマーク情報は、ブックマークボタンが押されたという情報が含まれていればよい。 Further, it is determined whether or not the bookmark information has been received (step S1012). When the bookmark information is received, the conference name and the received date and time are stored as bookmark information 134 (step S1012; Yes → step S1014). In the present embodiment, the bookmark information transmitted from the mobile terminal device 20 to the display device 10 may include information that the bookmark button has been pressed.

本実施形態では、感情タグを受信したこと及びブックマーク情報を受信したことは、携帯端末装置20を操作することで送信される感情タグ及びブックマーク情報が、ネットワークを介して表示装置10の通信部160で受信したかにより判定する。なお、携帯端末装置20から表示装置10へ送信される感情タグ及びブックマーク情報を、参加者評価信号(評価信号)という。 In the present embodiment, the fact that the emotion tag is received and the bookmark information is received means that the emotion tag and bookmark information transmitted by operating the mobile terminal device 20 are displayed via the network in the communication unit 160 of the display device 10. Judgment is made based on whether it was received by. The emotion tag and bookmark information transmitted from the mobile terminal device 20 to the display device 10 are referred to as a participant evaluation signal (evaluation signal).

携帯端末装置20から参加者評価信号を送信する方法について、図8を用いて説明する。はじめに、会議参加者は参加者評価信号を送信するためのアプリケーションを起動する(ステップS1052)。当該アプリケーションの動作例については後述する。 A method of transmitting a participant evaluation signal from the mobile terminal device 20 will be described with reference to FIG. First, the conference participants launch an application for transmitting a participant evaluation signal (step S1052). An operation example of the application will be described later.

つづいて、アプリケーションの表示画面に配置されたボタンの選択操作があったかを判定する(ステップS1054)。ボタンの選択操作があった場合は(ステップS1054;Yes)、つづいて、どのボタンが選択されたかを判定する。 Subsequently, it is determined whether or not there has been a button selection operation arranged on the display screen of the application (step S1054). If there is a button selection operation (step S1054; Yes), it is subsequently determined which button has been selected.

まず、ポジティブの感情タグを送信するためのボタンが選択されたかを判定する(ステップS1056)。当該ボタンが選択された場合は、ポジティブの感情タグを携帯端末装置20から表示装置10へ送信する(ステップS1056;Yes→ステップS1058)。送信後は、ステップS1054へ戻る。 First, it is determined whether the button for transmitting the positive emotion tag is selected (step S1056). When the button is selected, a positive emotion tag is transmitted from the mobile terminal device 20 to the display device 10 (step S1056; Yes → step S1058). After transmission, the process returns to step S1054.

つづいて、ネガティブの感情タグを送信するためのボタンが選択されたかを判定する(ステップS1060)。当該ボタンが選択された場合は、ネガティブの感情タグを携帯端末装置20から表示装置10へ送信する(ステップS1060;Yes→ステップS1062)。送信後は、ステップS1054へ戻る。 Subsequently, it is determined whether or not the button for transmitting the negative emotion tag is selected (step S1060). When the button is selected, a negative emotion tag is transmitted from the mobile terminal device 20 to the display device 10 (step S1060; Yes → step S1062). After transmission, the process returns to step S1054.

つづいて、ブックマーク情報を送信するためのボタンが選択されたかを判定する(ステップS1064)。当該ボタンが選択された場合は、ブックマーク情報を携帯端末装置20から表示装置10へ送信する(ステップS1064;Yes→ステップS1066)。送信後は、ステップS1054へ戻る。 Subsequently, it is determined whether or not the button for transmitting the bookmark information has been selected (step S1064). When the button is selected, the bookmark information is transmitted from the mobile terminal device 20 to the display device 10 (step S1064; Yes → step S1066). After transmission, the process returns to step S1054.

なお、参加者評価信号には、感情タグ又はブックマーク情報以外に、送信日時の情報を含めてもよい。参加者評価信号に送信日時を含める場合には、評価情報132の評価日時又はブックマーク情報134のブックマーク日時として、表示装置10の受信日時の代わりに、参加者評価信号に含まれる日時を記憶すればよい。 In addition to the emotion tag or bookmark information, the participant evaluation signal may include information on the transmission date and time. When the transmission date and time is included in the participant evaluation signal, the date and time included in the participant evaluation signal can be stored as the evaluation date and time of the evaluation information 132 or the bookmark date and time of the bookmark information 134 instead of the reception date and time of the display device 10. good.

つづいて、アプリケーションの終了操作があったかを判定する(ステップS1068)。アプリケーションの終了操作があった場合は(ステップS1068;Yes)、参加者評価信号送信を送信するためのアプリケーションを終了する。終了操作としては、アプリケーションを終了する操作であったり、携帯端末装置20の電源を切る操作であったりする。 Subsequently, it is determined whether or not the application has been terminated (step S1068). If there is an operation to terminate the application (step S1068; Yes), the application for transmitting the participant evaluation signal transmission is terminated. The termination operation may be an operation of terminating the application or an operation of turning off the power of the mobile terminal device 20.

参加者評価信号を送信するためのアプリケーションの動作例を、図9を参照して説明する。アプリケーションの表示画面W100には、ポジティブの感情タグを送信するためのLikeボタン(いいねボタン)E100と、ネガティブの感情タグを送信するためのHmmボタン(う~んボタン)E102と、ブックマーク情報を送信するためのBookmarkボタンE104とが表示されている。会議参加者は、会議データが録音されている最中に、任意のタイミングでLikeボタンと、Hmmボタンと、Bookmarkボタンとをタッチすることができる。これらのボタンが会議参加者によってタッチされたときに、タッチされたボタンに応じて、携帯端末装置20は、表示装置10に、参加者評価信号を送信する。 An operation example of the application for transmitting the participant evaluation signal will be described with reference to FIG. On the application display screen W100, a Like button (like button) E100 for transmitting a positive emotion tag, an Hmm button (um button) E102 for transmitting a negative emotion tag, and bookmark information are displayed. A Bookmark button E104 for transmitting is displayed. The conference participant can touch the Like button, the Hmm button, and the Bookmark button at any time while the conference data is being recorded. When these buttons are touched by the conference participants, the mobile terminal device 20 transmits a participant evaluation signal to the display device 10 in response to the touched buttons.

なお、参加者評価信号の送信は、ボタン型ビーコン装置30の操作によって送信してもよく、ボタンの押し方によって送信する参加者評価信号を変えてもよい。例えば、シングルクリックと、ダブルクリックと、長押しとが判定できるボタン型ビーコン端末、または、ボタン型入力端末であれば、シングルクリックでポジティブの感情タグを送信し、ダブルクリックでネガティブの感情タグを送信し、長押しでブックマーク情報を送信してもよい。 The participant evaluation signal may be transmitted by operating the button-type beacon device 30, or the participant evaluation signal to be transmitted may be changed depending on how the button is pressed. For example, in the case of a button-type beacon terminal that can determine single-click, double-click, and long-press, or a button-type input terminal, a single-click sends a positive emotion tag, and a double-click sends a negative emotion tag. You may send and press and hold to send bookmark information.

図7に戻って、つづいて、会議が終了したことを判定する(ステップS1016)。会議が終了したことは、例えば表示装置10の表示部180に会議の終了を指示するためのボタンを表示し、会議参加者によって操作部170から入力される当該ボタン操作があったことによって判定してもよい。また、所定の時間が経過したときに、会議が終了したと判定してもよい。会議が終了していない場合は、ステップS1008へ戻る(ステップS1012;No)。 Returning to FIG. 7, it is subsequently determined that the conference has ended (step S1016). The end of the conference is determined by, for example, displaying a button for instructing the end of the conference on the display unit 180 of the display device 10 and performing the button operation input from the operation unit 170 by the conference participants. You may. Further, it may be determined that the conference has ended when a predetermined time has elapsed. If the meeting has not ended, the process returns to step S1008 (step S1012; No).

会議が終了した場合は(ステップS1016;Yes)、会議データの記憶を停止する(ステップS1018)。すなわち、音声入出力部から入力される音声の記憶を停止し、会議画像データを所定の間隔で記憶する処理を停止する。 When the conference is completed (step S1016; Yes), the storage of the conference data is stopped (step S1018). That is, the storage of the audio input from the audio input / output unit is stopped, and the process of storing the conference image data at predetermined intervals is stopped.

つづいて、重要度決定処理を行い(ステップS1020)、最適化処理を行う(ステップS1022)。重要度決定処理及び最適化処理の詳細については後述する。 Subsequently, the importance determination process is performed (step S1020), and the optimization process is performed (step S1022). Details of the importance determination process and the optimization process will be described later.

つづいて、ステップS1002でされた利用者の操作が、ダイジェストデータ再生操作であったかを判定する(ステップS1024)。ダイジェストデータ再生操作であった場合は、後述するダイジェストデータ再生処理を行う(ステップS1024;Yes→ステップS1026)。 Subsequently, it is determined whether the user's operation performed in step S1002 is a digest data reproduction operation (step S1024). If it is a digest data reproduction operation, the digest data reproduction process described later is performed (step S1024; Yes → step S1026).

つづいて、ステップS1002でされた利用者の操作が、終了操作であったかを判定する(ステップS1028)。終了操作としては、電源OFFの操作であったり、プログラムを終了する操作であったりする。終了操作であった場合は、メイン処理を終了する(ステップS1028;Yes)。終了操作でなかった場合は、ステップS1002へ戻る(ステップS1028;No)。 Subsequently, it is determined whether the user's operation performed in step S1002 is an end operation (step S1028). The end operation may be an operation of turning off the power or an operation of terminating the program. If it is an end operation, the main process is terminated (step S1028; Yes). If it is not an end operation, the process returns to step S1002 (step S1028; No).

[1.3.2 重要度決定処理]
つづいて、重要度決定処理について図10を参照して説明する。重要度決定処理は、会議データの記憶を停止した後、評価情報132に記憶された感情タグに基づき、区間ごとに会議の重要度を算出する処理である。
[1.3.2 Importance determination process]
Subsequently, the importance determination process will be described with reference to FIG. The importance determination process is a process of calculating the importance of the meeting for each section based on the emotion tag stored in the evaluation information 132 after stopping the storage of the meeting data.

まず、重要度決定処理の対象となる会議について、区間ごとに、区間内の感情タグに基づく特徴量を決定する(ステップS1102)。特徴量とは、評価情報や、音声データや、会議画像データといった会議データに関するデータにおいて、特定の特性に注目したときに、その特性を数値として表したものである。本実施形態においては、評価情報132に記憶されている評価日時と感情タグとから、区間ごとに、区間内に含まれる感情タグを用いて、特徴量を算出する。 First, for the conference that is the target of the importance determination process, the feature amount based on the emotion tag in the section is determined for each section (step S1102). The feature amount is a numerical value representing a specific characteristic when attention is paid to a specific characteristic in data related to the conference data such as evaluation information, voice data, and conference image data. In the present embodiment, the feature amount is calculated for each section from the evaluation date and time and the emotion tag stored in the evaluation information 132 by using the emotion tag included in the section.

感情タグに基づく特徴量の算出方法(決定方法)としては、以下のものを採用することができる。 The following can be adopted as a method (determination method) for calculating the feature amount based on the emotion tag.

(方法1)
どの区間にどの感情タグが集中したかの割合を特徴量とする方法である。具体的には、以下の手順によって算出する。なお、この特徴量をネガポジ度ということにする。
(1)ポジティブの全体平均値を、処理対象の会議の会議中に受信したポジティブの感情タグの総数を、当該会議の区間の数で除した値と定義する。
(2)ネガティブの全体平均値を、処理対象の会議の会議中に受信したネガティブの感情タグの総数を、当該会議の区間の数で除した値と定義する。
(3)区間ごとに区間値を求める。ここで区間値は、注目している区間に含まれるポジティブの感情タグの数とポジティブの全体平均値とを乗じた値から、当該区間に含まれるネガティブの感情タグの数とネガティブの全体平均値とを乗じた値を減じたものと定義する。ただし、0を下回った場合は、その区間の区間値は0とする。
(4)(3)で求めた区間値のうち、最大のものを、最大区間値と定義する。
(5)注目している区間のネガポジ度は、当該区間の区間値を、最大区間値で除した値に100を乗じたもとする。
(Method 1)
This is a method in which the ratio of which emotion tag is concentrated in which section is used as the feature quantity. Specifically, it is calculated by the following procedure. In addition, this feature amount is referred to as negative / positive degree.
(1) The overall mean value of positives is defined as a value obtained by dividing the total number of positive emotion tags received during the conference of the conference to be processed by the number of sections of the conference.
(2) The overall mean value of negatives is defined as a value obtained by dividing the total number of negative emotion tags received during the conference of the conference to be processed by the number of sections of the conference.
(3) Obtain the section value for each section. Here, the interval value is the value obtained by multiplying the number of positive emotion tags included in the section of interest by the positive overall average value, and the number of negative emotion tags included in the interval and the negative overall average value. It is defined as the value obtained by multiplying and subtracting. However, if it is less than 0, the section value of that section is set to 0.
(4) Of the interval values obtained in (3), the maximum one is defined as the maximum interval value.
(5) The negative / positive degree of the section of interest is calculated by multiplying the section value of the section by the maximum section value by 100.

(方法2)
どの区間に感情タグの入力が集中したかの割合を特徴量として用いる方法である。体的には、以下の手順によって算出する。
(1)全体平均値として、処理対象の会議の会議中に送信された感情タグの総数を、当該会議の区間の数で除した値と定義する。
(2)区間ごとに区間値を求める。ここで区間値は、注目している区間に含まれる感情タグの数と全体平均値とを乗じた値と定義する。
(3)(2)で求めた区間値のうち、最大のものを、最大区間値と定義する。
(4)注目している区間の特徴量は、当該区間の区間値を、最大区間値で除した値に100を乗じたもとする。
(Method 2)
This is a method of using the ratio of the input of emotion tags concentrated in which section as a feature quantity. Physically, it is calculated by the following procedure.
(1) As the overall average value, it is defined as a value obtained by dividing the total number of emotion tags transmitted during the conference of the conference to be processed by the number of sections of the conference.
(2) Obtain the section value for each section. Here, the interval value is defined as a value obtained by multiplying the number of emotion tags included in the section of interest by the overall average value.
(3) Of the interval values obtained in (2), the maximum one is defined as the maximum interval value.
(4) The feature amount of the section of interest is calculated by multiplying the section value of the section by the maximum section value by 100.

(方法3)
どの区間にポジティブの感情タグの入力が集中したかの割合を特徴量として用いる方法である。以下の手順によって算出する。
(1)全体平均値として、処理対象の会議の会議中に送信されたポジティブの感情タグの総数を、当該会議の区間の数で除した値と定義する。
(2)区間ごとに区間値を求める。ここで区間値は、注目している区間に含まれるポジティブの感情タグの数と全体平均値とを乗じた値と定義する。
(3)(2)で求めた区間値のうち、最大のものを、最大区間値と定義する。
(4)注目している区間の特徴量は、当該区間の区間値を、最大区間値で除した値に100を乗じたもとする。
(Method 3)
This is a method in which the ratio of the concentration of positive emotion tag inputs in which section is used as the feature quantity. Calculate according to the following procedure.
(1) As the overall average value, it is defined as a value obtained by dividing the total number of positive emotion tags transmitted during the conference of the conference to be processed by the number of sections of the conference.
(2) Obtain the section value for each section. Here, the interval value is defined as a value obtained by multiplying the number of positive emotion tags included in the interval of interest by the overall average value.
(3) Of the interval values obtained in (2), the maximum one is defined as the maximum interval value.
(4) The feature amount of the section of interest is calculated by multiplying the section value of the section by the maximum section value by 100.

なお、上記に列挙した方法以外で特徴量を決定してもよいことは勿論である。たとえば、方法3において、ネガティブの感情タグを用いて算出した値を特徴量としてもよい。また、区間内に含まれる感情のタグのうち、ポジティブの感情のタグの数や、ネガティブの感情タグの数を特徴量としてもよいし、ポジティブの感情のタグの数からネガティブの感情のタグの数を引いたものを特徴量としてもよい。 Of course, the feature amount may be determined by a method other than those listed above. For example, in the method 3, the value calculated by using the negative emotion tag may be used as the feature amount. Further, among the emotion tags included in the section, the number of positive emotion tags and the number of negative emotion tags may be used as feature quantities, and the number of positive emotion tags may be used to determine the number of negative emotion tags. The feature quantity may be obtained by subtracting the number.

つづいて、区間ごとに特徴量から重要度を決定する(ステップS1104)。決定の方法としては、例えば、ステップS1102で算出した特徴量がどの数値範囲に含まれるかによって決めればよい。すなわち、特徴量が高い区間に「4」、次に高い区間に「3」といったように重要度を決定する。なお、数値範囲については、予め定めたものを用いてもよいし、利用者が定めてもよい。また、数値範囲の設定は、記憶部120に記憶されていてもよい。 Subsequently, the importance is determined from the feature amount for each section (step S1104). As a method of determination, for example, it may be determined depending on which numerical range the feature amount calculated in step S1102 is included in. That is, the importance is determined such that "4" is for the section with the highest feature amount and "3" is for the section with the next highest feature amount. The numerical range may be predetermined or may be determined by the user. Further, the setting of the numerical range may be stored in the storage unit 120.

つづいて、重要度決定の対象としている会議の会議名と、区間番号と、区間の開始日時と、区間の終了日時と、ステップS1104で決定した区間の重要度とを、重要度テーブル136に記憶して(ステップS1106)、重要度決定処理は終了する。 Next, the conference name of the conference whose importance is to be determined, the section number, the start date and time of the section, the end date and time of the section, and the importance of the section determined in step S1104 are stored in the importance table 136. Then (step S1106), the importance determination process ends.

重要度決定処理の動作例を、図11を参照して説明する。図11(a)は、区間番号と、区間開始日時と、区間終了日時と、ポジティブの感情タグの数と、ネガティブの感情タグの数と、ネガポジ度と、重要度とを示したものである。また、図11(b)はネガポジ度と重要度との対応表である。この例では、ネガポジ度が図11(b)の表のどの数値範囲に含まれるかによって、重要度を決定する。 An operation example of the importance determination process will be described with reference to FIG. FIG. 11A shows the section number, the section start date / time, the section end date / time, the number of positive emotion tags, the number of negative emotion tags, the negative / positive degree, and the importance. .. Further, FIG. 11B is a correspondence table between the negative / positive degree and the importance. In this example, the importance is determined by which numerical range in the table of FIG. 11B the negative / positive degree is included.

図11(a)のネガポジ度は、先述した特徴量の算出方法のうち、方法1に記載した方法によって求められる特徴量である。図11(a)の例では、ポジティブの全体平均値は、会議全体のポジティブの数である50から区間の数である5を除した10となる。また、ネガティブの全体平均値は「3」であり、区間値の最大は区間番号が「3」である区間の194である。また、例えば、区間番号が「1」である区間のネガポジ度は、当該区間の区間値である50から194を除して100を掛けることにより、約25.77という値が算出される。 The negative / positive degree in FIG. 11A is a feature amount obtained by the method described in Method 1 among the above-mentioned feature amount calculation methods. In the example of FIG. 11A, the overall mean value of positives is 10 obtained by subtracting 5 which is the number of sections from 50 which is the number of positives of the entire conference. Further, the negative overall mean value is "3", and the maximum interval value is 194 of the interval in which the interval number is "3". Further, for example, the negative / positive degree of the section whose section number is "1" is calculated as about 25.77 by subtracting 194 from the section value of the section and multiplying by 100.

つづいて、ネガポジ度と、図11(b)に示した表とから、区間ごとに重要度を決定する。例えば、区間番号が「2」である区間のネガポジ度は72.68…であり、この値はネガポジ度が60以上75未満の範囲に含まれるため、当該区間の重要度は「3」と決定する。 Next, the importance is determined for each section from the negative / positive degree and the table shown in FIG. 11 (b). For example, the negative / positive degree of the section where the section number is "2" is 72.68 ..., and since this value is included in the range where the negative / positive degree is 60 or more and less than 75, the importance of the section is determined to be "3". do.

[1.3.3 最適化処理]
つづいて、最適化処理について図12を参照して説明する。最適化処理とは、会議データ122から、会議画像データを区間の重要度に応じて削除したダイジェストデータ138を作成し、記憶する処理である。
[1.3.3 Optimization processing]
Subsequently, the optimization process will be described with reference to FIG. The optimization process is a process of creating and storing digest data 138 from the conference data 122 by deleting the conference image data according to the importance of the section.

はじめに、最適化処理の対象とする会議の先頭区間の重要度を、重要度テーブル136から読み出す(ステップS1152)。 First, the importance of the head section of the conference to be optimized is read from the importance table 136 (step S1152).

つづいて、読み出した重要度に応じて、区間内の会議画像データのうち、削除対象の会議画像データを決定する(ステップS1154)。すなわち、最適化処理の対象とする会議データから、注目している区間に含まれる会議画像データのうち、どの会議画像データを削除するかを、当該注目している区間の重要度に応じて決定する。 Subsequently, among the conference image data in the section, the conference image data to be deleted is determined according to the read importance (step S1154). That is, which of the conference image data included in the section of interest is to be deleted from the conference data to be optimized, is determined according to the importance of the section of interest. do.

削除対象とする会議画像データの決定や、削除する会議画像データの割合は、いずれか妥当な方法で決定する。例えば、削除する会議画像データの割合として、重要度が「4」であれば0%、「3」であれば50%、「2」であれば75%、「1」であれば100%といったように決定すればよい。 The conference image data to be deleted and the ratio of the conference image data to be deleted are determined by any appropriate method. For example, the ratio of conference image data to be deleted is 0% if the importance is "4", 50% if the importance is "3", 75% if the importance is "2", 100% if the importance is "1", and so on. It should be decided as follows.

上記の処理を全ての区間で行うため、対象とする会議の全ての区間の重要度を読み出したかを判定する(ステップS1156)。全て読み出していれない場合は、次の区間の重要度を読み出し(ステップS1156;No→ステップS1158)、ステップS1154へ戻る。 Since the above processing is performed in all sections, it is determined whether or not the importance of all sections of the target conference has been read (step S1156). If not all have been read, the importance of the next section is read (step S1156; No → step S1158), and the process returns to step S1154.

最適化処理の動作例について、図13を参照して説明する。図13は、重要度を縦軸に、経過時間を横軸にとったグラフと、経過時間に対応して記憶されている会議画像データG100とを並べたものである。また、最適化処理を行った後の会議画像データを、経過時間に対応させて示したものを会議画像データG102として示したものである。 An operation example of the optimization process will be described with reference to FIG. FIG. 13 shows a graph in which the importance is on the vertical axis and the elapsed time is on the horizontal axis, and the conference image data G100 stored corresponding to the elapsed time is arranged side by side. Further, the conference image data after the optimization process is shown as the conference image data G102 corresponding to the elapsed time.

図13の例では、区間としてt0からt1と、t1からt2と、t2からt3と、t3からt4との4つの区間が含まれることを示す。また、区間ごとに、会議画像データが、4枚記憶されていることを示す。 In the example of FIG. 13, it is shown that four sections of t0 to t1, t1 to t2, t2 to t3, and t3 to t4 are included as sections. Further, it is shown that four conference image data are stored for each section.

ここで、削除する会議画像データの割合を、重要度が「4」であれば0%、「3」であれば50%、「2」であれば75%、「1」であれば100%とする。このとき、t0からt1の区間は重要度が1なので、この区間に含まれる全ての会議画像データを削除する。本実施形態においては、最適化の対象となる会議画像データは区間の開始時点の会議データとするが、区間の終わりの会議画像データであってもよい。また、t1からt2の区間は重要度が4なので、この区間に含まれる会議画像データは削除しない。t2からt3の区間は重要度が3なので、この区間に含まれる会議画像データの50%を削除する。ここでは、区間の4分の1の時点と、区間の4分の3の時点における2枚の会議画像データを削除する。t3からt4の区間は重要度が2なので、この区間に含まれる会議画像データの75%を削除する。 Here, the ratio of the conference image data to be deleted is 0% if the importance is "4", 50% if the importance is "3", 75% if the importance is "2", and 100% if the importance is "1". And. At this time, since the interval from t0 to t1 has an importance of 1, all the conference image data included in this interval is deleted. In the present embodiment, the conference image data to be optimized is the conference data at the start of the section, but may be the conference image data at the end of the section. Further, since the section from t1 to t2 has an importance of 4, the conference image data included in this section is not deleted. Since the section from t2 to t3 has an importance of 3, 50% of the conference image data included in this section is deleted. Here, the two conference image data at the time point of one quarter of the section and the time point of three quarters of the section are deleted. Since the section from t3 to t4 has an importance of 2, 75% of the conference image data included in this section is deleted.

以上により、会議画像データG102において、網点で示した時点の会議画像データが削除対象となり、網点で示していない時点の会議画像データが、後述するダイジェストデータの記憶処理において、ダイジェストデータに含まれる会議画像データとして記憶されることとなる。 As described above, in the conference image data G102, the conference image data at the time indicated by the net dots is to be deleted, and the conference image data at the time not indicated by the mesh dots is included in the digest data in the digest data storage process described later. It will be stored as conference image data.

なお、本実施形態ではステップS1106で重要度を重要度テーブル136に記憶し、ステップS1152で改めて重要度を読み出すものとして説明しているが、ステップS1104で重要度を決定したら、つづいて当該重要度に応じて会議画像データの削除を行ってもよい。 In the present embodiment, the importance is stored in the importance table 136 in step S1106, and the importance is read out again in step S1152. However, once the importance is determined in step S1104, the importance is subsequently determined. The conference image data may be deleted according to the situation.

図12に戻って、全ての区間の重要度を読み出した場合は、つづいてダイジェストデータを記憶する(ステップS1156;Yes→ステップS1160)。すなわち、会議データ122の基本情報124と、音声データ126と、ステップS1154において削除対象とされなかった撮像データ128と、画面データ130とを、ダイジェストデータ138として記憶する。 Returning to FIG. 12, when the importance of all the sections is read out, the digest data is subsequently stored (step S1156; Yes → step S1160). That is, the basic information 124 of the conference data 122, the audio data 126, the image pickup data 128 that was not deleted in step S1154, and the screen data 130 are stored as digest data 138.

これにより、会議データ122よりもデータ量の少ないダイジェストデータ138が記憶されることとなる。なお、ダイジェストデータ138を記憶したあとに、元となった会議データ122を削除してもよい。ダイジェストデータ138のみを残すことにより、表示装置10が保存するデータ量を小さくすることができる。 As a result, the digest data 138, which has a smaller amount of data than the conference data 122, is stored. After storing the digest data 138, the original conference data 122 may be deleted. By leaving only the digest data 138, the amount of data stored by the display device 10 can be reduced.

[1.3.4 ダイジェストデータ再生処理]
つづいて、ダイジェストデータ再生処理について図14を参照して説明する。
[1.3.4 Digest data playback processing]
Subsequently, the digest data reproduction process will be described with reference to FIG.

はじめに、記憶部120に記憶されているダイジェストデータ138を一覧表示する(ステップS1202)。一覧表示については、例えばダイジェストデータ138に含まれる基本情報の会議名をリストとして表示してもよいし、それ以外の基本情報や、会議画像データの一部を表示してもよい。 First, the digest data 138 stored in the storage unit 120 is displayed in a list (step S1202). Regarding the list display, for example, the conference name of the basic information included in the digest data 138 may be displayed as a list, or other basic information or a part of the conference image data may be displayed.

つづいて、利用者によってダイジェストデータ138が選択されたら(ステップS1204;Yes)、ポジティブの感情タグの数と、ネガティブの感情タグの数とに基づくネガポジグラフを表示し(ステップS1206)、ネガポジグラフ上にブックマーク情報を表示する(ステップS1208)。 Subsequently, when the digest data 138 is selected by the user (step S1204; Yes), a negative / positive graph based on the number of positive emotion tags and the number of negative emotion tags is displayed (step S1206), and the negative / positive graph is displayed. The bookmark information is displayed in (step S1208).

ネガポジグラフは、ステップS1102で求めたネガポジ度を表示してもよいし、重要度テーブル136に記憶されている重要度を表示してもよい。また、会議の全区間における特徴量の変化を表示してもよいし、再生時点の前後における特徴量の変化を拡大して表示してもよいし、その両方を表示してもよい。すなわち、特徴量や重要度の変化を、再生時点に対応させて、適切に表示すればよい。 The negative / positive graph may display the negative / positive degree obtained in step S1102, or may display the importance stored in the importance table 136. Further, the change in the feature amount in the entire section of the conference may be displayed, the change in the feature amount before and after the reproduction time may be enlarged and displayed, or both may be displayed. That is, changes in the feature amount and the importance may be appropriately displayed in correspondence with the time of reproduction.

また、ブックマーク情報の表示は、ステップS1206で表示したネガポジグラフの対応する位置に、グラフに重ねて表示させてもよいし、ネガポジグラフとは別の領域にリストとして表示してもよい。 Further, the bookmark information may be displayed on the graph at the corresponding position of the negative / positive graph displayed in step S1206, or may be displayed as a list in an area different from the negative / positive graph.

つづいて、ステップS1204で選択されたダイジェストデータ138に含まれる音声データの再生を開始する(ステップS1210)。また、再生時点に応じてネガポジグラフの表示を更新する(ステップS1212)。例えば、ネガポジグラフ上に再生位置を示す表示をしている場合は、当該再生位置を示す表示を適切な位置、大きさにするように更新する。また、ネガポジグラフが、再生時点の前後を拡大するように表示されている場合は、再生時点の変化に応じて、拡大する範囲を変える。 Subsequently, the reproduction of the audio data included in the digest data 138 selected in step S1204 is started (step S1210). In addition, the display of the negative / positive graph is updated according to the playback time point (step S1212). For example, when the display indicating the reproduction position is displayed on the negative / positive graph, the display indicating the reproduction position is updated so as to have an appropriate position and size. Further, when the negative / positive graph is displayed so as to be enlarged before and after the reproduction time point, the enlargement range is changed according to the change of the reproduction time point.

つづいて、再生時点における会議画像データが記憶されていれば、会議画像データを表示する(ステップS1214;Yes→ステップS1216)。会議画像データの表示については、例えば、会議の開始日時と音声の再生時点とから、再生時点に対応する実際の会議の時刻を求め、当該時刻より前に記憶した会議画像データのうち最新のものを表示すればよい。 Subsequently, if the conference image data at the time of reproduction is stored, the conference image data is displayed (step S1214; Yes → step S1216). Regarding the display of the conference image data, for example, the time of the actual conference corresponding to the playback time is obtained from the start date and time of the conference and the playback time of the voice, and the latest conference image data stored before the time is obtained. Should be displayed.

つづいて、利用者がシークバー又はステップS1206で表示したネガポジグラフを選択したかを判定する(ステップS1218)。シークバー又はネガポジグラフが選択された場合は、選択された位置に再生時点を移動する(ステップS1218;Yes→ステップS1220)。その後、ステップS1212へ戻ることによって、移動時点におけるネガポジグラフ及び会議画像データが表示される。 Subsequently, it is determined whether the user has selected the seek bar or the negative / positive graph displayed in step S1206 (step S1218). When the seek bar or the negative / positive graph is selected, the reproduction time point is moved to the selected position (step S1218; Yes → step S1220). After that, by returning to step S1212, the negative / positive graph and the conference image data at the time of movement are displayed.

つづいて、ダイジェストデータ再生処理を終了する操作を行ったかを判定する(ステップS1222)。終了操作がされた場合は、ダイジェスト表示処理を終了する(ステップS1222;Yes)。終了操作がされなかった場合は(ステップS1222;No)、ステップS1212へ戻り、ダイジェストデータ138の再生を続ける。 Subsequently, it is determined whether or not the operation for ending the digest data reproduction process has been performed (step S1222). When the end operation is performed, the digest display process is terminated (step S1222; Yes). If the end operation is not performed (step S1222; No), the process returns to step S1212 and the reproduction of the digest data 138 is continued.

ダイジェストデータ再生処理の動作例を、図15を参照して説明する。表示画面W110には、ダイジェストデータ138を選択するリストE110と、再生時点における実際の会議の時刻を表示するラベルE112と、ネガポジ度に基づいたネガポジグラフE114と、シークバーE118と、画面データ130を表示する領域E120と、撮像データ128を表示する領域E122と、会議の基本情報を表示する領域E124と、音声の再生を指示するボタンE126と、音声の再生の停止を指示するボタンE128とが表示されている。また、ブックマーク情報は、E116に示しているように、ネガポジグラフE114の上に重ねて表示している。 An operation example of the digest data reproduction process will be described with reference to FIG. The display screen W110 displays a list E110 for selecting digest data 138, a label E112 for displaying the actual meeting time at the time of reproduction, a negative / positive graph E114 based on the negative / positive degree, a seek bar E118, and screen data 130. The area E120 for displaying the image data 128, the area E122 for displaying the image pickup data 128, the area E124 for displaying the basic information of the conference, the button E126 for instructing the sound reproduction, and the button E128 for instructing to stop the sound reproduction are displayed. ing. Further, the bookmark information is displayed superimposed on the negative / positive graph E114 as shown in E116.

なお、この例では、会議の開始日時は「2017年4月3日の10時00分00秒」であり、会議の長さは「54分30秒」であり、再生時点は「10時6分45秒」の時点である。したがって、実際の会議の時刻を表示するラベルE112には、「10時6分45秒」が表示されている。 In this example, the start date and time of the conference is "10:00:00 on April 3, 2017", the length of the conference is "54:30", and the playback time is "10:06". It is at the time of "minute 45 seconds". Therefore, "10:06:45" is displayed on the label E112 that displays the time of the actual meeting.

また、1つの区間の長さは1分として、ネガポジグラフE114には、縦軸は各区間のポジティブの感情タグの数とネガティブの感情タグの数とを二軸でとり、横軸として実際の会議の時刻を表示している。例えば、「10時01分00秒」の時点に打たれている点は、「10時00分00秒」から「10時01分00秒」までの1分間の間に入力された、ポジティブの感情タグの数又はネガティブの感情タグの数を合計したものである。 Further, the length of one section is 1 minute, and in the negative / positive graph E114, the vertical axis is the number of positive emotion tags and the number of negative emotion tags in each section on two axes, and the horizontal axis is the actual number. The time of the meeting is displayed. For example, the point struck at the time of "11:00:00" is a positive input during one minute from "10:00:00" to "10:11:00". It is the sum of the number of emotion tags or the number of negative emotion tags.

このようにすることで、利用者は会議参加者の反応があった部分を確認しながらダイジェストデータを再生することが可能となり、一方で、重要度に基づいて会議画像データを削除するため、ダイジェストデータのデータ量を削減することができる。 By doing so, the user can play the digest data while checking the part where the conference participants responded, while the conference image data is deleted based on the importance, so the digest The amount of data can be reduced.

[2.第2実施形態]
つづいて、第2実施形態について説明する。第2実施形態は、ダイジェストデータ再生処理において、ダイジェストデータ全体ではなく、重要度が高い部分に限って再生する実施形態である。なお、第2実施形態は、第1実施形態と同一の機能構成である。また、処理についてはほぼ同じであるため、その説明を省略し、第1実施形態と異なる内容を中心に説明する。
[2. Second Embodiment]
Next, the second embodiment will be described. The second embodiment is an embodiment in which, in the digest data reproduction process, not the entire digest data but only a portion having high importance is reproduced. The second embodiment has the same functional configuration as the first embodiment. Further, since the processing is almost the same, the description thereof will be omitted, and the contents different from those of the first embodiment will be mainly described.

本実施形態は、第1実施形態の図14の処理を、図16の処理に置き換えた実施形態である。ステップS1204でダイジェストデータ138を選択した後に、再生区間絞込み処理を行う(ステップS2002)。再生区間絞込み処理については後述する。また、利用者の操作が再生区間絞込み操作であった場合は、ステップS2002へ戻る(ステップS2004;Yes)。 This embodiment is an embodiment in which the process of FIG. 14 of the first embodiment is replaced with the process of FIG. After selecting the digest data 138 in step S1204, the reproduction section narrowing process is performed (step S2002). The reproduction section narrowing process will be described later. If the user's operation is a reproduction section narrowing operation, the process returns to step S2002 (step S2004; Yes).

ここで、再生区間とは、本実施形態において再生する対象とする区間をいい、再生区間絞込みとは、ダイジェストデータ138の区間のうち利用者によって指定された条件に合致する区間を抽出し、再生区間とすることをいう。本実施形態における絞込み方法は、重要度を指定する方法と、再生時間を指定する方法とのいずれかを、利用者が指定できることとする。 Here, the reproduction section refers to a section to be reproduced in the present embodiment, and the reproduction section narrowing is to extract a section of the digest data 138 that meets the conditions specified by the user and reproduce the section. It means to make it a section. As the narrowing-down method in the present embodiment, the user can specify either a method of designating the importance or a method of designating the reproduction time.

再生区間絞込み処理について図17を参照して説明する。はじめに、絞込み方法が重要度を指定する方法であるかを判定する(ステップS2052)。 The reproduction section narrowing process will be described with reference to FIG. First, it is determined whether the narrowing method is a method for designating the importance (step S2052).

絞込み方法が重要度を指定する方法であれば、利用者に抽出対象とする重要度の閾値を選択させる(ステップS2052;Yes→ステップS2054)。つづいて、重要度の閾値が指定されたら、指定された重要度の閾値に基づいて、再生対象の区間として抽出する(ステップS2056)。例えば、ダイジェストデータ138のうち重要度が指定した重要度以上の区間を抽出してもよいし、ダイジェストデータ138のうち指定した重要度に満たない区間を再生対象から除外することによって抽出してもよい。 If the narrowing method is a method of designating the importance, the user is made to select the threshold of the importance to be extracted (step S2052; Yes → step S2054). Subsequently, when the threshold value of importance is specified, it is extracted as a section to be reproduced based on the threshold value of the designated importance (step S2056). For example, the section of the digest data 138 whose importance is equal to or higher than the specified importance may be extracted, or the section of the digest data 138 whose importance is less than the specified importance may be extracted by excluding it from the reproduction target. good.

つづいて、抽出された区間を再生対象の区間とし(ステップS2070)、再生区間絞込み処理を終了する。 Subsequently, the extracted section is set as the section to be reproduced (step S2070), and the reproduction section narrowing process is completed.

絞込み方法が再生時間の指定であった場合は、利用者に再生時間を指定させる(ステップS2052;No→ステップS2058)。つづいて、指定された再生時間に基づき、再生対象の区間を抽出する。 When the narrowing-down method is the specification of the reproduction time, the user is made to specify the reproduction time (step S2052; No → step S2058). Then, the section to be reproduced is extracted based on the specified reproduction time.

再生時間に基づく再生対象の区間の抽出は、はじめに、重要度が最も高い区間を抽出する(ステップS2060)。つづいて、抽出した区間の長さが、ステップS2058で指定された再生時間と一致するかを判定する(ステップS2062)。一致すれば抽出した区間を再生対象の区間として、再生区間絞込み処理を終了する(ステップS2062;Yes→ステップS2070)。 In the extraction of the section to be reproduced based on the reproduction time, first, the section having the highest importance is extracted (step S2060). Subsequently, it is determined whether the length of the extracted section matches the reproduction time specified in step S2058 (step S2062). If they match, the extracted section is set as the section to be reproduced, and the reproduction section narrowing process is terminated (step S2062; Yes → step S2070).

抽出した区間の長さと、ステップS2058で指定された再生時間と一致しなかった場合は、当該抽出した区間の長さが再生時間を超えるかを判定する(ステップS2064)。再生時間を超えないのであれば(ステップS2064;No)、さらに重要度が1段階低い区間を含めて抽出し(ステップS2068)、さらに再生時間に収まるかを判定する(ステップS2062)。 If the length of the extracted section does not match the reproduction time specified in step S2058, it is determined whether the length of the extracted section exceeds the reproduction time (step S2064). If the reproduction time is not exceeded (step S2064; No), a section having a lower importance by one step is extracted (step S2068), and it is determined whether or not the reproduction time is within the reproduction time (step S2062).

再生時間を超える場合は(ステップS2064;Yes)、再生時間に収まるように抽出した区間を絞込む(ステップS2066)。この場合の再生時間に収まるように抽出した区間を絞込む例としては、再生時間に収まった重要度までを再生対象の区間として抽出してもよいし、特徴量に基づいて再生時間に収まるように、特徴量の大きさから順に優先的に再生対象の区間に含めてもよい。 If the reproduction time is exceeded (step S2064; Yes), the extracted sections are narrowed down so as to fit within the reproduction time (step S2066). As an example of narrowing down the extracted sections so as to fit in the playback time in this case, the sections up to the importance within the playback time may be extracted as the sections to be played back, or the sections may be narrowed down to fit in the playback time based on the feature amount. In addition, it may be preferentially included in the section to be reproduced in order from the size of the feature amount.

再生区間絞込みの動作例を、図18を参照して説明する。図18(a)は、ポジティブの感情タグのみを用いて重要度を決定した場合の重要度と、ネガティブの感情タグのみを用いて重要度を決定した場合の重要度とを、二軸グラフ(例えば、上側をポジティブの感情タグ、下側をネガティブの感情タグ)で表したものである。例えば、「10時01分00秒」の時点に打たれている点は、「10時00分00秒」から「10時01分00秒」までの区間のポジティブの感情タグ及びネガティブの感情タグを用いて算出したそれぞれの重要度が、ともに1であることを表している。 An operation example of narrowing down the reproduction section will be described with reference to FIG. FIG. 18A is a two-axis graph showing the importance when the importance is determined using only the positive emotion tag and the importance when the importance is determined using only the negative emotion tag (a). For example, the upper side is represented by a positive emotion tag, and the lower side is represented by a negative emotion tag). For example, the points struck at the time of "11:00:00" are the positive emotion tag and the negative emotion tag in the section from "10:00:00" to "10:11:00". It shows that each importance calculated by using the above is 1.

また、t1とt2との間にブックマーク情報b1が、t4とt5との間にブックマーク情報b2が、t7とt8との間にブックマーク情報b3が、それぞれ記憶されていることを表している。 Further, it indicates that the bookmark information b1 is stored between t1 and t2, the bookmark information b2 is stored between t4 and t5, and the bookmark information b3 is stored between t7 and t8.

例えば、重要度が2以上の区間のみを再生することとした場合、図18(a)において矩形で囲んだ箇所は、重要度が「2」に満たない区間、すなわち重要度が「1」である区間が続いている部分である。この部分は、ダイジェストデータ138を振り返る際に、振り返る必要性がないとして、再生区間には含めない。 For example, when it is decided to reproduce only a section having an importance of 2 or more, the section surrounded by a rectangle in FIG. 18A is a section having an importance of less than "2", that is, a section having an importance of "1". This is the part where a certain section continues. This part is not included in the reproduction section because it is not necessary to look back when looking back on the digest data 138.

この結果、図18(b)に示すように、ダイジェストデータ138から、区間t1とt2の間と、区間t3とt4の間と、区間t5とt6の間と、区間t7からt8の間と、区間t9からt10の間とが再生対象の区間として抽出される。なお、ブックマーク情報b2が存在する区間t4とt5の間は再生区間には含まれないため、ダイジェストデータ138を再生する際には、当該ブックマーク情報が表示されなくてもよい。 As a result, as shown in FIG. 18B, from the digest data 138, between the sections t1 and t2, between the sections t3 and t4, between the sections t5 and t6, and between the sections t7 and t8. The section between t9 and t10 is extracted as the section to be reproduced. Since the section t4 and t5 in which the bookmark information b2 exists is not included in the reproduction section, the bookmark information may not be displayed when the digest data 138 is reproduced.

なお、本実施形態では、重要度が「2」以上となるに隣接する区間における重要度「1」の区間は、再生区間に含むこととする。例えば、「10:04:00」は、ポジティブの感情タグ/ネガティブの感情タグの重要度が「1」以外であることから、その前後の時間についても再生対象区間として含まれている。 In addition, in this embodiment, the section of importance "1" in the adjacent section where the importance is "2" or more is included in the reproduction section. For example, "10:04: 00" is included as a reproduction target section for the time before and after the importance of the positive emotion tag / negative emotion tag other than "1".

本実施形態におけるダイジェストデータ再生処理の動作例を、図19を参照して説明する。表示画面W200には、表示画面W110に表示した各要素に加えて、再生対象の区間の絞込みを設定するための領域E200が表示されている。また、グラフE114に代えて、再生対象の区間を画面全体に引き伸ばし、連続している区間との境目を示す境界線の表示を加えたグラフE202を表示する。 An operation example of the digest data reproduction processing in the present embodiment will be described with reference to FIG. On the display screen W200, in addition to each element displayed on the display screen W110, an area E200 for setting a narrowing down of a section to be reproduced is displayed. Further, instead of the graph E114, the graph E202 is displayed by extending the section to be reproduced to the entire screen and adding the display of the boundary line indicating the boundary with the continuous section.

なお、グラフE202は、再生時点の前後に対応する区間を拡大表示するなど、他の適切な形式で特徴量や重要度を表示しても構わない。さらに、表示画面W200に代えて、図20に示す表示画面W210を表示してもよい。表示画面W210には、会議画像データを表示する領域E210と、再生及び停止を切り替えるボタンE212と、シークバーE214と、再生時点における実際の会議の時刻を表示するラベルE216とが表示されている。 In addition, the graph E202 may display the feature amount and the importance in another appropriate format such as enlarging the section corresponding to before and after the reproduction time. Further, instead of the display screen W200, the display screen W210 shown in FIG. 20 may be displayed. On the display screen W210, an area E210 for displaying the conference image data, a button E212 for switching playback and stop, a seek bar E214, and a label E216 for displaying the actual conference time at the time of reproduction are displayed.

ここで、会議画像データは撮像データ又は画面データの両方を表示してもよいし、どちらか片方を表示してもよい。また、シークバーには連続している区間との境目を示す境界線を表示してもよい。 Here, as the conference image data, both the captured image data and the screen data may be displayed, or either one may be displayed. Further, the seek bar may display a boundary line indicating a boundary with a continuous section.

このようにすることで、ダイジェストデータ138のうち重要度の高い区間を絞り込み、当該区間に限って再生することで、利用者はダイジェストデータ138を効率よく振り返ることができる。また、再生できる区間が限られることにより、利用者が選択可能な再生時点も限定されることから、操作性の向上も期待できる。さらに、表示画面W210のように、表示画面上に表示する要素を限定することで、解像度が低い表示装置においても、利便性を保ったまま、会議の振り返りを行うことができる。 By doing so, the user can efficiently look back on the digest data 138 by narrowing down the section of the digest data 138 having a high importance and reproducing only the section. Further, since the section that can be reproduced is limited, the reproduction time point that can be selected by the user is also limited, so that improvement in operability can be expected. Further, by limiting the elements to be displayed on the display screen such as the display screen W210, it is possible to look back on the conference while maintaining convenience even in a display device having a low resolution.

また、本実施形態を応用して、再生区間を絞り込んだ後のダイジェストデータをまとめて、1つの動画ファイルとしてダウンロードできるようにしてもよい。このようにすることで、動画を再生できる端末であれば、ダイジェストデータ138を再生することが可能となる。この場合、動画ファイルの再生時間を実際の会議よりも短くするために、音声データ126から再生対象でない区間の音声データを削除し、短くした音声データと、対応する会議画像データとから、動画を構成すればよい。 Further, by applying the present embodiment, the digest data after narrowing down the reproduction section may be collectively downloaded as one moving image file. By doing so, the digest data 138 can be reproduced if the terminal can reproduce the moving image. In this case, in order to make the playback time of the video file shorter than the actual conference, the audio data of the section not to be reproduced is deleted from the audio data 126, and the video is created from the shortened audio data and the corresponding conference image data. It should be configured.

[3.第3実施形態]
つづいて、第3実施形態について説明する。第3実施形態は、第1実施形態と構成は同じであるが、重要度の決定に、感情タグから求められる特徴量と平均音量値との2つの特徴量を用いる実施形態である。なお、第3実施形態は、第1実施形態と同一の機能構成であり、処理についてもほぼ同一であるため、その説明を省略し、第1実施形態と異なる内容を中心に説明する。また、ステップS1102で算出する特徴量をネガポジ度であるとして説明する。
[3. Third Embodiment]
Next, the third embodiment will be described. The third embodiment has the same configuration as the first embodiment, but is an embodiment in which two feature quantities, a feature amount obtained from the emotion tag and an average volume value, are used for determining the importance. Since the third embodiment has the same functional configuration as the first embodiment and the processing is almost the same, the description thereof will be omitted and the contents different from those of the first embodiment will be mainly described. Further, the feature amount calculated in step S1102 will be described as a negative / positive degree.

本実施形態は、第1実施形態の図10の処理を、図21の処理に置き換えた実施形態である。はじめに、重要度決定処理の対象となる会議について、区間ごとに、区間内の感情タグに基づき、第1の特徴量としてネガポジ度を算出する(ステップS1102)。つづいて、ネガポジ度から重要度判定値を決定する(ステップS3002)。ここで、重要度判定値とは、複数の異なる特徴量を扱う場合に、それぞれの特徴量が取りうる値の範囲を吸収して、均一化した値として表した値である。 This embodiment is an embodiment in which the process of FIG. 10 of the first embodiment is replaced with the process of FIG. 21. First, for each section of the conference that is the target of the importance determination process, the negative / positive degree is calculated as the first feature amount based on the emotion tag in the section (step S1102). Subsequently, the importance determination value is determined from the negative / positive degree (step S3002). Here, the importance determination value is a value expressed as a uniform value by absorbing a range of values that each feature amount can take when dealing with a plurality of different feature amounts.

つづいて、第2の特徴量として区間ごとの平均音量値を算出する(ステップS3004)。平均音量値としては、音声データ126の着目している区間について、当該区間の音量の平均値を用いてもよい。つづいて、平均音量値から重要度判定値を決定する(ステップS3006)。 Subsequently, the average volume value for each section is calculated as the second feature amount (step S3004). As the average volume value, the average value of the volume of the section of interest of the voice data 126 may be used. Subsequently, the importance determination value is determined from the average volume value (step S3006).

つづいて、ステップS3002及びステップS3006で算出した重要度判定値から区間ごとの重要度を決定し、重要度テーブル136に記憶する(ステップS3008)。重要度の決定の方法としては、例えば、重要度判定値を加算した値に基づいて重要度を決定してもよい。この場合には、それぞれの重要度判定値に重み付けをしてもよい。また、ネガポジ度の重要度判定値と、平均音量値の重要度判定値とのいずれか大きい値に基づいて重要度を決定してもよい。 Subsequently, the importance of each section is determined from the importance determination values calculated in steps S3002 and S3006, and stored in the importance table 136 (step S3008). As a method of determining the importance, for example, the importance may be determined based on the value obtained by adding the importance determination value. In this case, each importance determination value may be weighted. Further, the importance may be determined based on the larger of the importance determination value of the negative / positive degree and the importance determination value of the average volume value.

本実施形態における重要度決定処理の動作例について、図22と図23とを参照して説明する。図22(a)は、区間番号と、区間開始日時と、区間終了日時と、第1の特徴量であるネガポジ度と、第2の特徴量である平均音量値とを表した表である。また、図22(b)は重要度判定値と第1及び第2の特徴量との対応を、図22(c)は重要度判定値の合計値と重要度との対応を、それぞれ表で示している。 An operation example of the importance determination process in the present embodiment will be described with reference to FIGS. 22 and 23. FIG. 22A is a table showing the section number, the section start date and time, the section end date and time, the negative positive degree which is the first feature amount, and the average volume value which is the second feature amount. Further, FIG. 22 (b) shows the correspondence between the importance judgment value and the first and second feature quantities, and FIG. 22 (c) shows the correspondence between the total value of the importance judgment value and the importance. Shown.

図22(d)は、区間ごとの第1及び第2の特徴量と、それぞれの重要度判定値と、それぞれの重要度判定値の合計値と、重要度とを表した表である。例えば、区間番号「2」である区間では、第1の特徴量であるネガポジ度は「80」なので、図22(b)の表からネガポジ度の重要度判定値を「5」とする。また、第2の特徴量である平均音量値は「75dB」なので、図22(b)の表から平均音量値の重要度判定値を「5」とする。また、それぞれの重要度判定値を合計すると「10」となるため、図22(c)より、当該区間の重要度を「4」と決定している。 FIG. 22D is a table showing the first and second feature quantities for each section, the respective importance determination values, the total value of the respective importance determination values, and the importance. For example, in the section having the section number “2”, the negative / positive degree, which is the first feature amount, is “80”, so the importance determination value of the negative / positive degree is set to “5” from the table of FIG. 22 (b). Further, since the average volume value, which is the second feature amount, is "75 dB", the importance determination value of the average volume value is set to "5" from the table of FIG. 22 (b). Further, since the sum of the importance determination values is "10", the importance of the section is determined to be "4" from FIG. 22 (c).

図23は、図22(a)で示した第1の特徴量であるネガポジ度と、図22(b)で示した第2の特徴量である平均音量とをグラフで表し、最適化処理を行ったあとの状態の会議画像データG104を表した図である。例えば、t1からt2の区間では、音量もネガポジ度も高いため、重要度を「4」とし、会議画像データは全て記憶される。一方で、t3からt4の区間では、ネガポジ度は低くなり、音量がt1からt2の区間と比べて半分程度となっている。したがって、重要度を「2」と決定し、t3からt4の区間に含まれる会議画像データが4枚のうち1枚が記憶される。 FIG. 23 graphically represents the negative positive degree, which is the first feature amount shown in FIG. 22 (a), and the average volume, which is the second feature amount shown in FIG. 22 (b), and performs the optimization process. It is a figure which showed the meeting image data G104 of the state after having done. For example, in the section from t1 to t2, since the volume and the negative / positive degree are high, the importance is set to "4" and all the conference image data is stored. On the other hand, in the section from t3 to t4, the negative / positive degree is low, and the volume is about half that in the section from t1 to t2. Therefore, the importance is determined to be "2", and one of the four conference image data included in the section from t3 to t4 is stored.

このように複数の特徴量から重要度を算出することで、会議において重要な区間を総合的に決定することができる。例えば、会議においては、会議参加者が会話に集中することで、携帯端末装置20の操作をし忘れることが想定される。その場合であっても、平均音量値に基づく特徴量が大きければ、その区間は重要であると判断されることが期待できる。 By calculating the importance from a plurality of features in this way, it is possible to comprehensively determine important sections in a meeting. For example, in a conference, it is assumed that the conference participants concentrate on the conversation and forget to operate the mobile terminal device 20. Even in that case, if the feature amount based on the average volume value is large, it can be expected that the section is judged to be important.

また、本実施形態におけるダイジェストデータ再生処理の動作例を図24に示す。ダイジェストデータ再生処理の処理内容は、第1実施形態のダイジェストデータ再生処理とほぼ同様であるが、ステップS1206において、ネガポジグラフの代わりに、特徴量であるネガポジ度と平均音量値とから判定された重要度判定値に基づくグラフを表示してもよい。例えば、グラフの上半分にネガポジ度に基づく重要度判定値を、グラフの下半分に平均音量値に基づく重要度判定値を表示する。また、それぞれの特徴量を表示してもよい。 Further, FIG. 24 shows an operation example of the digest data reproduction process in the present embodiment. The processing content of the digest data reproduction processing is substantially the same as that of the digest data reproduction processing of the first embodiment, but in step S1206, it was determined from the negative / positive degree and the average volume value, which are the feature quantities, instead of the negative / positive graph. A graph based on the importance determination value may be displayed. For example, the importance determination value based on the negative / positive degree is displayed in the upper half of the graph, and the importance determination value based on the average volume value is displayed in the lower half of the graph. In addition, each feature amount may be displayed.

ネガポジ度と平均音量値とに基づく特徴を表示することで、注目している区間が重要である理由が、会議参加者の評価に起因するのか、音量に起因するのか、又はその両方に起因するのかを判別することができる。こうすることで、利用者がそれぞれの特徴量の変化を確認しながら、重要な場面を振り返ることが可能となる。 By displaying features based on negative positives and average volume values, the reason why the section of interest is important is due to the evaluation of the conference participants, the volume, or both. Can be determined. By doing so, the user can look back on important scenes while checking the changes in each feature amount.

なお、本実施形態では、ネガポジ度と平均音量値とを用いて重要度を決定したが、これ以外の特徴量を用いても構わないのは勿論である。例えば、会議画像データの変化量を特徴量として用いてもよい。これは、画像の変化量が多い場面は活発な動きをしていて、場の状況が変化しているため、重要であると考えるものである。また、特徴量は、区間内の会議画像データについて、1ピクセルあたりの画素値の変化量の平均を用いてもよい。 In the present embodiment, the importance is determined by using the negative / positive degree and the average volume value, but it goes without saying that other feature quantities may be used. For example, the amount of change in the conference image data may be used as the feature amount. This is important because the scene with a large amount of change in the image is actively moving and the situation of the place is changing. Further, as the feature amount, the average of the change amounts of the pixel values per pixel may be used for the conference image data in the section.

[4.第4実施形態]
つづいて、第4実施形態について説明する。第4実施形態は、第2実施形態と構成は同じであるが、再生区間を抽出する際に、重要度が高い区間の前後を含めて抽出する実施形態である。なお、第4実施形態は、第2実施形態と同一の機能構成である。また、処理については第2実施形態とほぼ同様であるため、その説明を省略し、第2実施形態と異なる内容を中心に説明する。
[4. Fourth Embodiment]
Next, the fourth embodiment will be described. The fourth embodiment has the same configuration as the second embodiment, but is an embodiment in which the reproduction section is extracted including the front and back of the section having high importance. The fourth embodiment has the same functional configuration as the second embodiment. Further, since the processing is almost the same as that of the second embodiment, the description thereof will be omitted, and the contents different from those of the second embodiment will be mainly described.

本実施形態においては、ステップS2056及びS2060において、重要度の高い区間の前に3区間、後に1区間を加えた区間を、重要度の高い区間として抽出する。これによって、重要度の高い区間の前後関係を含めて再生することができる。 In the present embodiment, in steps S2056 and S2060, a section in which three sections are added before the high-importance section and one section is added after the high-importance section is extracted as the high-importance section. As a result, it is possible to reproduce including the context of the section of high importance.

本実施形態の動作例を、図25を参照して説明する。表示画面W400の構成は、図19のW200と変わらないが、再生区間を重要度の高い区間と当該区間の前後の区間とを含めた区間とし、グラフE400においては、抽出された区間を結合して表示している。 An operation example of this embodiment will be described with reference to FIG. 25. The configuration of the display screen W400 is the same as that of W200 in FIG. 19, but the reproduction section is a section including a section having high importance and a section before and after the section, and in the graph E400, the extracted sections are combined. Is displayed.

重要度の高い区間の前後に含める区間の長さは、例えば、本実施形態の「前に3区間、後に1区間」といったように予め決めてもよいし、音声データや会議画像データの特徴量の変化が所定の閾値以下になるまでといったように動的に決めてもよい。 The length of the section to be included before and after the section of high importance may be determined in advance, for example, "3 sections before, 1 section after" in the present embodiment, and the feature amount of the audio data or the conference image data. It may be dynamically determined until the change of is equal to or less than a predetermined threshold value.

このようにすることで、重要度が高い区間に至る前後関係を含めて振り返ることができるため、会議をより明確に振り返ることができる効果が期待できる。 By doing so, it is possible to look back on the context including the context that leads to the section of high importance, so it is expected that the effect of being able to look back on the meeting more clearly can be expected.

[5.第5実施形態]
つづいて、第5実施形態について説明する。第5実施形態は、第1実施形態と構成は同じであるが、音声データを解析して、話者の数や、話者といった会議環境情報を考慮して重要度を決定する実施形態である。
[5. Fifth Embodiment]
Next, the fifth embodiment will be described. The fifth embodiment has the same configuration as the first embodiment, but is an embodiment that analyzes voice data and determines the importance in consideration of the number of speakers and conference environment information such as speakers. ..

例えば、話者が1人である区間は、音量が小さくなるため、音量平均値という特徴量は小さい値となる。ここで、話者が1人である区間が続く場合は、当該区間を重要な区間であるとして平均音量値を補正してもよいし、会議環境情報に関する特徴量を設けて重要度の判定に用いてもよい。 For example, in the section where there is only one speaker, the volume is low, so the feature amount of the average volume value is small. Here, if a section with one speaker continues, the average volume value may be corrected by regarding the section as an important section, or a feature amount related to the conference environment information may be provided to determine the importance. You may use it.

このようにすることで、会議環境情報に応じて重要度を決めることができる。例えば、1人で発言している区間は、発表をしている区間と考え、重要な区間であるとすることができる。この場合、再生区間絞込み処理を行うと、発表をしている区間と、それに対する反応をしている区間とが、抽出できることが期待できる。 By doing so, the importance can be determined according to the conference environment information. For example, a section in which one person is speaking can be considered as a section in which an announcement is being made, and can be regarded as an important section. In this case, it can be expected that the section in which the announcement is made and the section in which the reaction is made can be extracted by performing the reproduction section narrowing process.

[6.第6実施形態]
つづいて、第6実施形態について説明する。第6実施形態は、生体情報を考慮して重要度を決定する実施形態である。生体情報とは、例えば会議参加者の脳波、心拍数、呼吸数等が挙げられる。
[6. 6th Embodiment]
Next, the sixth embodiment will be described. The sixth embodiment is an embodiment in which the importance is determined in consideration of biological information. Examples of biometric information include brain waves, heart rate, respiratory rate, and the like of conference participants.

第6実施形態は、第1実施形態の図1の全体構成を、図26の全体構成に置き換えた実施形態である。図26に示すように、会議支援システム1には、表示装置10に、携帯端末装置20とボタン型ビーコン装置30とが複数接続されている。また、表示装置10に、生体情報計測装置40が複数接続されている。図26においては、生体情報計測装置40は、表示装置10と同一ネットワークで接続されていることとして表示されているが、別のネットワークを介して接続されていてもよい。また、有線接続されていてもよい。 The sixth embodiment is an embodiment in which the overall configuration of FIG. 1 of the first embodiment is replaced with the overall configuration of FIG. 26. As shown in FIG. 26, in the conference support system 1, a plurality of mobile terminal devices 20 and button-type beacon devices 30 are connected to the display device 10. Further, a plurality of biometric information measuring devices 40 are connected to the display device 10. In FIG. 26, the biometric information measuring device 40 is displayed as being connected to the display device 10 by the same network, but may be connected via another network. Further, it may be connected by wire.

生体情報計測装置40は、当該装置を装着した者の生体情報を計測することができる装置であるものとする。例えばスマートウォッチや、ヘッドセット型の脳波測定器であってもよい。 It is assumed that the biological information measuring device 40 is a device capable of measuring the biological information of the person who wears the device. For example, it may be a smart watch or a headset-type electroencephalograph.

生体情報の測定結果は、会議データの記憶中に表示装置10に随時送信してもよいし、会議を行っている最中は生体情報の記憶を行い、会議終了後にデータを表示装置10へ送信してもよい。 The measurement result of the biometric information may be transmitted to the display device 10 at any time during the storage of the conference data, the biometric information is stored during the conference, and the data is transmitted to the display device 10 after the conference is completed. You may.

生体情報から重要度を決定するには、生体情報から重要度を直接決定してもよい。また、生体情報から重要度判定値を求め、当該重要度判定値と他の重要度判定値とから、重要度を決定してもよい。 In order to determine the importance from the biometric information, the importance may be determined directly from the biometric information. Further, the importance determination value may be obtained from the biological information, and the importance may be determined from the importance determination value and another importance determination value.

このようにすることで、会議参加者による評価や、発言といった、能動的な動作による特徴量に加えて、会議参加者の生体情報を考慮した特徴量を用いて、重要度を総合的に決定できることが期待できる。 By doing so, the importance is comprehensively determined using the features that take into account the biometric information of the meeting participants, in addition to the features that are based on active movements such as evaluations and remarks by the meeting participants. You can expect to be able to do it.

[7.第7実施形態]
つづいて、第7実施形態について説明する。第7実施形態は、重要度を平均音量値に基づいて決定する実施形態である。
[7. Seventh Embodiment]
Next, the seventh embodiment will be described. The seventh embodiment is an embodiment in which the importance is determined based on the average volume value.

具体的には、例えば、図10の重要度決定処理において、区間ごとに感情タグに基づく特徴量を算出する処理を行うかわりに、区間ごとの平均音量値を求め、その平均音量値に基づいて重要度を決定すればよい。もしくは、図21の重要度決定処理において、感情タグの特徴量から決定される重要度判定値の重みを0として、重要度を決定してもよい。 Specifically, for example, in the importance determination process of FIG. 10, instead of performing the process of calculating the feature amount based on the emotion tag for each section, the average volume value for each section is obtained and based on the average volume value. You just have to decide the importance. Alternatively, in the importance determination process of FIG. 21, the importance may be determined by setting the weight of the importance determination value determined from the feature amount of the emotion tag to 0.

このようにすることで、携帯端末装置20やボタン型ビーコン装置30を使用できない場合であっても、会議データのみから、ダイジェストデータを作成することができる。 By doing so, even when the mobile terminal device 20 or the button-type beacon device 30 cannot be used, the digest data can be created only from the conference data.

[8.第8実施形態]
つづいて、第8実施形態について説明する。第8実施形態は、会議データを記憶する装置と、ダイジェストデータを作成し、記憶する装置とを別にした、クライアントサーバ方式による実施形態である。
[8. Eighth Embodiment]
Next, the eighth embodiment will be described. The eighth embodiment is an embodiment based on a client-server system in which a device for storing conference data and a device for creating and storing digest data are separated.

第8実施形態は、第1実施形態の図1の全体構成を、図27の全体構成に置き換えた実施形態である。ここで、表示装置10と、サーバ装置50とは、ネットワークを介して接続されている。図27では、表示装置10と、サーバ装置50とが同一のネットワーク内に存在するものとして表現しているが、それぞれの装置が別のネットワークに存在してもよい。 The eighth embodiment is an embodiment in which the overall configuration of FIG. 1 of the first embodiment is replaced with the overall configuration of FIG. 27. Here, the display device 10 and the server device 50 are connected via a network. In FIG. 27, the display device 10 and the server device 50 are represented as existing in the same network, but each device may exist in a different network.

メイン処理について、図7を参照して、クライアント側である表示装置10とサーバ装置50との動作を説明する。例えば、ステップS1006において、会議の基本情報を表示装置10に入力されたら、入力された情報を表示装置10に記憶し、また、サーバ装置50に送信する。送信されたデータをサーバ装置50が受信することで、サーバ装置50は会議が開始されたことを検知できる。 Regarding the main processing, the operation of the display device 10 and the server device 50 on the client side will be described with reference to FIG. 7. For example, in step S1006, when the basic information of the conference is input to the display device 10, the input information is stored in the display device 10 and transmitted to the server device 50. When the server device 50 receives the transmitted data, the server device 50 can detect that the conference has started.

つづいて、表示装置10が定期的に記憶する会議画像データや、ステップS1008やステップS1012において表示装置10が受信する参加者評価信号を、会議名とともにサーバ装置50に送信する。サーバ装置50は受信した会議画像データや参加者評価信号を、会議名と紐付けて記憶する。 Subsequently, the conference image data periodically stored by the display device 10 and the participant evaluation signal received by the display device 10 in steps S1008 and S1012 are transmitted to the server device 50 together with the conference name. The server device 50 stores the received conference image data and the participant evaluation signal in association with the conference name.

また、ステップS1018において、表示装置10で会議データの記憶を停止させたら、音声データを会議名とともにサーバ装置50へ送信する。サーバ装置50は受信した音声データを会議名と紐付けて記憶したら、ステップS1020の重要度決定処理と、ステップS1012の最適化処理とを行う。 Further, in step S1018, when the display device 10 stops the storage of the conference data, the audio data is transmitted to the server device 50 together with the conference name. When the server device 50 stores the received voice data in association with the conference name, the server device 50 performs the importance determination process in step S1020 and the optimization process in step S1012.

さらに、ステップS1024において、表示装置10でダイジェストデータの再生を行う場合は、表示装置10は、サーバ装置50が記憶しているダイジェストデータを取得すればよい。 Further, in step S1024, when the display device 10 reproduces the digest data, the display device 10 may acquire the digest data stored in the server device 50.

上述したように、メイン処理の一部をサーバ装置50が行うことで、表示装置10は会議データの記憶及びサーバ装置50への送信と、参加者評価信号の受信及びサーバ装置50への送信とを行えばよいこととなる。これによって、表示装置10が性能の低い装置であっても、ダイジェストデータの作成及び閲覧が可能となる。 As described above, the server device 50 performs a part of the main processing, so that the display device 10 stores the conference data and sends it to the server device 50, receives the participant evaluation signal, and sends it to the server device 50. Will be done. This makes it possible to create and view digest data even if the display device 10 is a device having low performance.

また、最適化処理により、サーバ装置50から表示装置10へ送信される会議画像データのデータ量が、元の会議データと比較して削減されるため、効率的にダイジェストデータを閲覧することができる。 Further, since the amount of conference image data transmitted from the server device 50 to the display device 10 is reduced by the optimization process as compared with the original conference data, the digest data can be browsed efficiently. ..

[9.変形例]
以上、この発明の実施形態について図面を参照して詳述してきたが、具体的な構成は実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の設計等も特許請求の範囲に含まれる。
[9. Modification example]
Although the embodiments of the present invention have been described in detail with reference to the drawings, the specific configuration is not limited to the embodiments, and the design and the like within a range not deviating from the gist of the present invention are also within the scope of claims. included.

上述した実施形態は、説明の都合上、各実施形態を分けて説明しているが、可能な範囲で組み合わせて実行することが可能である。例えば、第1実施例と第2実施例を組み合わせて、会議全体を再生する表示画面W110と、当該表示画面W200とを切り替えるためのボタンを表示されていてもよい。 Although the above-described embodiments are described separately for convenience of explanation, they can be combined and executed to the extent possible. For example, a button for switching between the display screen W110 for reproducing the entire conference and the display screen W200 may be displayed by combining the first embodiment and the second embodiment.

なお、上述した実施形態は、会議を対象として説明をしているが、会議以外に応用してもよいことは勿論である。例えば、研修や授業といった会議に似た環境に応用することをはじめ、音声データと映像データをともに扱う分野(例えばスポーツを記録したデータ等)に応用してもよい。 Although the above-described embodiment is described for a conference, it is needless to say that the embodiment may be applied to other than the conference. For example, it may be applied to an environment similar to a conference such as training or class, or may be applied to a field that handles both audio data and video data (for example, data recording sports).

また、上述した実施形態は、会議画像データとして撮像データと画面データと含むと説明しているが、どちらか一方のみを用いる実施形態であってもよいし、会議画像データを用いない実施形態であってもよい。また、複数のカメラを用いて撮像データの種類を増やしてもよいし、複数の画面をキャプチャして、画面データの種類を増やしたりしてもよい。ダイジェスト再生画面においては、会議データとして記憶している会議画像データの種類の数だけ、会議画像データを表示する領域を設ければよい。 Further, although it is explained that the above-described embodiment includes the imaging data and the screen data as the conference image data, it may be an embodiment in which only one of them is used, or an embodiment in which the conference image data is not used. There may be. Further, the types of imaging data may be increased by using a plurality of cameras, or a plurality of screens may be captured to increase the types of screen data. On the digest playback screen, as many areas as the number of types of conference image data stored as conference data may be provided to display the conference image data.

また、実施形態において各装置で動作するプログラムは、上述した実施形態の機能を実現するように、CPU等を制御するプログラム(コンピュータを機能させるプログラム)である。そして、これら装置で取り扱われる情報は、その処理時に一時的に一時記憶装置(例えば、RAM)に蓄積され、その後、HDDやSSD(solid state drive)等の記憶装置に格納され、必要に応じてCPUによって読み出し、修正・書き込みが行なわれる。 Further, the program that operates in each device in the embodiment is a program that controls a CPU or the like (a program that causes a computer to function) so as to realize the functions of the above-described embodiment. The information handled by these devices is temporarily stored in a temporary storage device (for example, RAM) at the time of processing, and then stored in a storage device such as an HDD or SSD (solid state drive), if necessary. Read, modify and write by the CPU.

また、市場に流通させる場合には、可搬型の記録媒体にプログラムを格納して流通させたり、インターネット等のネットワークを介して接続されたサーバコンピュータに転送したりすることができる。この場合、サーバコンピュータの記憶装置も本発明に含まれるのは勿論である。 Further, in the case of distribution to the market, the program can be stored and distributed in a portable recording medium, or transferred to a server computer connected via a network such as the Internet. In this case, it goes without saying that the storage device of the server computer is also included in the present invention.

10 表示装置
110 制御部
120 記憶部
122 会議データ
124 基本情報
126 音声データ
128 撮像データ
130 画面データ
132 評価情報
134 ブックマーク情報
136 重要度テーブル
138 ダイジェストデータ
140 音声入出力部
150 映像入力部
160 通信部
170 操作部
180 表示部
20 携帯端末装置
30 ボタン型ビーコン装置
10 Display device 110 Control unit 120 Storage unit 122 Conference data 124 Basic information 126 Audio data 128 Imaging data 130 Screen data 132 Evaluation information 134 Bookmark information 136 Importance table 138 Digest data 140 Audio input / output unit 150 Video input unit 160 Communication unit 170 Operation unit 180 Display unit 20 Portable terminal device 30 Button type beacon device

Claims (17)

ポジティブな感情を示す第1の情報及びネガティブな感情を示す第2の情報のうちユーザにより選択された情報を評価信号として送信する複数の外部装置に接続可能なダイジェストデータ生成装置であって、
画像データを取得する画像データ取得手段と、
音声データと、当該音声データに対応して定期的に取得された前記画像データとをコンテンツデータとして記憶する記憶手段と、
前記評価信号を受信する受信手段と、
前記コンテンツデータに対して所定時間長の区間毎に前記評価信号に含まれる前記第1の情報及び前記第2の情報に基づいて特徴量を決定する特徴量決定手段と、
前記区間毎の特徴量から、前記区間毎の重要度を判定する重要度判定手段と、
前記コンテンツデータから、前記区間毎に判定された重要度に応じて、前記画像データを削除したダイジェストデータを生成するダイジェストデータ生成手段と、
を備えることを特徴とするダイジェストデータ生成装置。
A digest data generator that can be connected to a plurality of external devices that transmit information selected by the user among the first information indicating positive emotions and the second information indicating negative emotions as evaluation signals.
Image data acquisition means for acquiring image data and
A storage means for storing the audio data and the image data periodically acquired corresponding to the audio data as content data, and
A receiving means for receiving the evaluation signal and
A feature amount determining means for determining a feature amount based on the first information and the second information included in the evaluation signal for each interval of a predetermined time length with respect to the content data.
An importance determination means for determining the importance of each section from the feature amount for each section,
A digest data generation means for generating digest data from which the image data is deleted according to the importance determined for each section from the content data.
A digest data generator characterized by being equipped with.
前記特徴量決定手段は、前記区間毎に、注目している前記区間に対する前記第1の情報を含む前記評価信号の数に、前記第1の情報を含む前記評価信号の総数を前記コンテンツデータに対する前記区間の数で除した値を乗じた値から、注目している前記区間に対する前記第2の情報を含む前記評価信号の数に、前記第2の情報を含む前記評価信号の総数を前記コンテンツデータに対する前記区間の数で除した値を乗じた値を減じた値を注目している前記区間の区間値として求め、区間に対する特徴量として、当該区間の前記区間値を前記区間毎に求めた前記区間値のうち最大の前記区間値で除した値に100を乗じた値を特徴量とすることを特徴とする請求項1に記載のダイジェストデータ生成装置。The feature amount determining means sets the total number of the evaluation signals including the first information to the number of the evaluation signals including the first information for the section of interest for the content data for each section. From the value obtained by multiplying the value divided by the number of the sections, the total number of the evaluation signals including the second information is added to the number of the evaluation signals including the second information for the section of interest. The value obtained by subtracting the value obtained by multiplying the data by the number of the sections is the section value of the section of interest, and the section value of the section is obtained for each section as the feature amount for the section. The digest data generation device according to claim 1, wherein the feature amount is a value obtained by multiplying the maximum value divided by the section value among the section values by 100. 前記特徴量決定手段は、区間に対する特徴量として、当該区間に対する前記第1の情報を含む前記評価信号の数から当該区間に対する前記第2の情報を含む前記評価信号の数を引いた値を特徴量とすることを特徴とする請求項1に記載のダイジェストデータ生成装置。The feature amount determining means is characterized by a value obtained by subtracting the number of the evaluation signals including the second information for the section from the number of the evaluation signals containing the first information for the section as the feature amount for the section. The digest data generation device according to claim 1, wherein the amount is used. ポジティブな感情を示す第1の情報及びネガティブな感情を示す第2の情報のうちユーザにより選択された情報を評価信号として送信する複数の外部装置に接続可能なダイジェストデータ生成装置であって、
画像データを取得する画像データ取得手段と、
音声データと、当該音声データに対応して定期的に取得された前記画像データとをコンテンツデータとして記憶する記憶手段と、
前記評価信号を受信する受信手段と、
前記コンテンツデータに対して、前記評価信号に含まれる前記第1の情報及び前記第2の情報に基づく特徴を含む複数の異なる特徴に基づき、特徴毎に所定時間長の区間毎の特徴量を決定する特徴量決定手段と、
前記特徴毎に決定した前記区間毎の特徴量に基づき前記区間毎の重要度を判定する重要度判定手段と、
前記コンテンツデータから、前記区間毎に判定された重要度に応じて、前記画像データを削除したダイジェストデータを生成するダイジェストデータ生成手段と、
を備えることを特徴とするダイジェストデータ生成装置。
A digest data generator that can be connected to a plurality of external devices that transmit information selected by the user among the first information indicating positive emotions and the second information indicating negative emotions as evaluation signals.
Image data acquisition means for acquiring image data and
A storage means for storing the audio data and the image data periodically acquired corresponding to the audio data as content data, and
A receiving means for receiving the evaluation signal and
With respect to the content data, a feature amount for each section having a predetermined time length is determined for each feature based on a plurality of different features including the first information included in the evaluation signal and the feature based on the second information. Means for determining the amount of features to be used,
An importance determination means for determining the importance of each section based on the feature amount of each section determined for each feature, and
A digest data generation means for generating digest data from which the image data is deleted according to the importance determined for each section from the content data.
A digest data generator characterized by being equipped with.
前記特徴量決定手段は、前記評価信号に含まれる前記第1の情報及び前記第2の情報に基づく特徴量を第1特徴量とし、前記音声データの音量に基づく特徴量を第特徴量とすることを特徴とする請求項に記載のダイジェストデータ生成装置。 The feature amount determining means uses the feature amount based on the first information and the second information included in the evaluation signal as the first feature amount, and the feature amount based on the volume of the voice data as the second feature amount. The digest data generation device according to claim 4 , wherein the digest data is generated. 画像を撮像する撮像手段を更に備え、
前記画像データ取得手段は、前記撮像手段により時系列的に撮像された画像を前記画像データとして取得することを特徴とする請求項1からの何れか一項に記載のダイジェストデータ生成装置。
Further equipped with an imaging means for capturing an image,
The digest data generation device according to any one of claims 1 to 5 , wherein the image data acquisition means acquires images captured in time series by the image pickup means as the image data.
前記ダイジェストデータ生成手段は、前記コンテンツデータから、前記区間毎に判定された重要度に応じて、前記画像データ及び前記音声データを削除した前記ダイジェストデータを生成することを特徴とする請求項1からの何れか一項に記載のダイジェストデータ生成装置。 From claim 1, the digest data generation means generates the digest data from the content data by deleting the image data and the audio data according to the importance determined for each section. The digest data generation device according to any one of 6 . 前記ダイジェストデータ生成手段は、前記コンテンツデータから、前記区間毎に判定された重要度に基づいて、前記画像データ及び前記音声データを削除したダイジェストデー
タから動画データを生成することを特徴とする請求項1からの何れか一項に記載のダイジェストデータ生成装置。
The digest data generating means is characterized in that moving image data is generated from the digest data from which the image data and the audio data are deleted based on the importance determined for each section from the content data. The digest data generator according to any one of 1 to 7 .
前記請求項1からの何れか一項に記載のダイジェストデータ生成装置において生成された前記ダイジェストデータを再生するダイジェストデータ再生装置において、
前記ダイジェストデータに含まれる前記音声データの再生時点を選択する再生時点選択手段と、
前記再生時点に対応して、前記特徴量の時系列の変化を表すグラフを表示するグラフ表示手段と、
を備えたことを特徴とするダイジェストデータ再生装置。
In the digest data reproduction apparatus for reproducing the digest data generated in the digest data generation apparatus according to any one of claims 1 to 8 .
A reproduction time point selection means for selecting a reproduction time point of the audio data included in the digest data, and a reproduction time point selection means.
A graph display means for displaying a graph showing a time-series change of the feature amount corresponding to the reproduction time point, and a graph display means.
A digest data playback device characterized by being equipped with.
前記グラフ表示手段は、区間毎に、区間に対応する前記第1の情報を含む前記評価信号の数と前記第2の情報を含む前記評価信号の数とを示したグラフを表示することを特徴とする請求項9に記載のダイジェストデータ再生装置。The graph display means is characterized in that, for each section, a graph showing the number of the evaluation signals including the first information corresponding to the section and the number of the evaluation signals including the second information is displayed. The digest data reproduction device according to claim 9. 前記再生時点選択手段は、前記重要度判定手段により判定された前記区間毎の重要度に基づいて、選択可能な前記再生時点を限定することを特徴とする請求項9又は10に記載のダイジェストデータ再生装置。 The digest data according to claim 9 or 10, wherein the reproduction time point selection means limits selectable reproduction time points based on the importance of each section determined by the importance determination means. Playback device. サーバ装置と、表示装置と、複数の端末装置が接続されたダイジェストデータ生成システムであって、
前記端末装置は、
ポジティブな感情を示す第1の情報及びネガティブな感情を示す第2の情報のうちユーザにより選択された情報を評価信号として送信する第1の送信手段
を備え、
前記表示装置は、
画像データを取得する画像データ取得手段と、
音声データと、当該音声データに対応して定期的に取得された前記画像データとをコンテンツデータとして前記サーバ装置に送信するコンテンツデータ送信手段と、
前記端末装置から受信した前記評価信号を前記サーバ装置に送信する第2の送信手段と、
を備え
前記サーバ装置は、
前記表示装置から前記コンテンツデータ及び前記評価信号を受信する受信手段と、
前記コンテンツデータに対して所定時間長の区間毎に前記評価信号に含まれる前記第1の情報及び前記第2の情報に基づいて特徴量を決定する特徴量決定手段と、
前記区間毎の特徴量から、前記区間毎の重要度を判定する重要度判定手段と、
前記コンテンツデータから、前記区間毎に判定された重要度に応じて、前記画像データを削除したダイジェストデータを生成するダイジェストデータ生成手段と、
前記ダイジェストデータを前記端末装置に送信するダイジェストデータ送信手段と、
を備えることを特徴とするダイジェストデータ生成システム。
A digest data generation system in which a server device , a display device, and a plurality of terminal devices are connected.
The terminal device is
A first transmission means for transmitting information selected by the user among the first information indicating positive emotions and the second information indicating negative emotions as an evaluation signal.
Equipped with
The display device is
Image data acquisition means for acquiring image data and
A content data transmission means for transmitting the voice data and the image data periodically acquired corresponding to the voice data to the server device as content data.
A second transmission means for transmitting the evaluation signal received from the terminal device to the server device, and
The server device is equipped with
A receiving means for receiving the content data and the evaluation signal from the display device, and
A feature amount determining means for determining a feature amount based on the first information and the second information included in the evaluation signal for each interval of a predetermined time length with respect to the content data.
An importance determination means for determining the importance of each section from the feature amount for each section,
A digest data generation means for generating digest data from which the image data is deleted according to the importance determined for each section from the content data.
A digest data transmitting means for transmitting the digest data to the terminal device,
A digest data generation system characterized by being equipped with.
サーバ装置と、表示装置と、複数の端末装置が接続されたダイジェストデータ生成システムであって、
前記端末装置は、
ポジティブな感情を示す第1の情報及びネガティブな感情を示す第2の情報のうちユーザにより選択された情報を評価信号として送信する第1の送信手段
を備え、
前記表示装置は、
画像データを取得する画像データ取得手段と、
音声データと、当該音声データに対応して定期的に取得された前記画像データとをコンテンツデータとして前記サーバ装置に送信するコンテンツデータ送信手段と、
前記端末装置から受信した前記評価信号を前記サーバ装置に送信する第2の送信手段と、
を備え
前記サーバ装置は、
前記表示装置から前記コンテンツデータ及び前記評価信号を受信する受信手段と、
前記コンテンツデータに対して、前記評価信号に含まれる前記第1の情報及び前記第2の情報に基づく特徴を含む複数の異なる特徴に基づき、特徴毎に所定時間長の区間毎の特徴量を決定する特徴量決定手段と、
前記特徴毎に決定した前記区間毎の特徴量に基づき前記区間毎の重要度を判定する重要度判定手段と、
前記コンテンツデータから、前記区間毎に判定された重要度に応じて、前記画像データを削除したダイジェストデータを生成するダイジェストデータ生成手段と、
前記ダイジェストデータを前記端末装置に送信するダイジェストデータ送信手段と、
を備えることを特徴とするダイジェストデータ生成システム。
A digest data generation system in which a server device , a display device, and a plurality of terminal devices are connected.
The terminal device is
A first transmission means for transmitting information selected by the user among the first information indicating positive emotions and the second information indicating negative emotions as an evaluation signal.
Equipped with
The display device is
Image data acquisition means for acquiring image data and
A content data transmission means for transmitting the voice data and the image data periodically acquired corresponding to the voice data to the server device as content data.
A second transmission means for transmitting the evaluation signal received from the terminal device to the server device, and
The server device is equipped with
A receiving means for receiving the content data and the evaluation signal from the display device, and
With respect to the content data, a feature amount for each section having a predetermined time length is determined for each feature based on a plurality of different features including the first information included in the evaluation signal and the feature based on the second information. Means for determining the amount of features to be used,
An importance determination means for determining the importance of each section based on the feature amount of each section determined for each feature, and
A digest data generation means for generating digest data from which the image data is deleted according to the importance determined for each section from the content data.
A digest data transmitting means for transmitting the digest data to the terminal device,
A digest data generation system characterized by being equipped with.
ポジティブな感情を示す第1の情報及びネガティブな感情を示す第2の情報のうちユーザにより選択された情報を評価信号として送信する複数の外部装置に接続可能なダイジェストデータ生成装置によるダイジェストデータ生成方法であって、
画像データを取得する画像データ取得ステップと、
音声データと、当該音声データに対応して定期的に取得された前記画像データとをコンテンツデータとして記憶する記憶ステップと、
前記評価信号を受信する受信ステップと、
前記コンテンツデータに対して所定時間長の区間毎に前記評価信号に含まれる前記第1の情報及び前記第2の情報に基づいて特徴量を決定する特徴量決定ステップと、
前記区間毎の特徴量から、前記区間毎の重要度を判定する重要度判定ステップと、
前記コンテンツデータから、前記区間毎に判定された重要度に応じて、前記画像データを削除したダイジェストデータを生成するダイジェストデータ生成ステップと、
を含むことを特徴とするダイジェストデータ生成方法。
A method for generating digest data by a digest data generator that can be connected to a plurality of external devices that transmit information selected by the user among the first information indicating positive emotions and the second information indicating negative emotions as evaluation signals. And
Image data acquisition step to acquire image data and
A storage step of storing the audio data and the image data periodically acquired corresponding to the audio data as content data, and a storage step.
A reception step for receiving the evaluation signal and
A feature amount determination step of determining a feature amount based on the first information and the second information included in the evaluation signal for each interval of a predetermined time length with respect to the content data.
An importance determination step for determining the importance of each section from the feature amount for each section,
A digest data generation step for generating digest data from which the image data is deleted according to the importance determined for each section from the content data.
A digest data generation method comprising.
ポジティブな感情を示す第1の情報及びネガティブな感情を示す第2の情報のうちユーザにより選択された情報を評価信号として送信する複数の外部装置に接続可能なダイジェストデータ生成装置によるダイジェストデータ生成方法であって、
画像データを取得する画像データ取得ステップと、
音声データと、当該音声データに対応して定期的に取得された前記画像データとをコンテンツデータとして記憶する記憶ステップと、
前記評価信号を受信する受信ステップと、
前記コンテンツデータに対して、前記評価信号に含まれる前記第1の情報及び前記第2の情報に基づく特徴を含む複数の異なる特徴に基づき、特徴毎に所定時間長の区間毎の特徴量を決定する特徴量決定ステップと、
前記特徴毎に決定した前記区間毎の特徴量に基づき前記区間毎の重要度を判定する重要度判定ステップと、
前記コンテンツデータから、前記区間毎に判定された重要度に応じて、前記画像データを削除したダイジェストデータを生成するダイジェストデータ生成ステップと、
を含むことを特徴とするダイジェストデータ生成方法。
A method for generating digest data by a digest data generator that can be connected to a plurality of external devices that transmit information selected by the user among the first information indicating positive emotions and the second information indicating negative emotions as evaluation signals. And
Image data acquisition step to acquire image data and
A storage step of storing the audio data and the image data periodically acquired corresponding to the audio data as content data, and a storage step.
A reception step for receiving the evaluation signal and
With respect to the content data, a feature amount for each section having a predetermined time length is determined for each feature based on a plurality of different features including the first information included in the evaluation signal and the feature based on the second information. The feature amount determination step to be performed and
An importance determination step for determining the importance of each section based on the feature amount of each section determined for each feature, and
A digest data generation step for generating digest data from which the image data is deleted according to the importance determined for each section from the content data.
A digest data generation method comprising.
ポジティブな感情を示す第1の情報及びネガティブな感情を示す第2の情報のうちユーザにより選択された情報を評価信号として送信する複数の外部装置に接続可能なコンピュータに、
画像データを取得する画像データ取得機能と、
音声データと、当該音声データに対応して定期的に取得された前記画像データとをコンテンツデータとして記憶する記憶機能と、
前記評価信号を受信する受信機能と、
前記コンテンツデータに対して所定時間長の区間毎に前記評価信号に含まれる前記第1の情報及び前記第2の情報に基づいて特徴量を決定する特徴量決定機能と、
前記区間毎の特徴量から、前記区間毎の重要度を判定する重要度判定機能と、
前記コンテンツデータから、前記区間毎に判定された重要度に応じて、前記画像データを削除したダイジェストデータを生成するダイジェストデータ生成機能と、
を実行させるプログラム。
To a computer that can be connected to a plurality of external devices that transmit information selected by the user among the first information indicating positive emotions and the second information indicating negative emotions as evaluation signals .
Image data acquisition function to acquire image data and
A storage function that stores audio data and the image data periodically acquired in response to the audio data as content data, and
The reception function for receiving the evaluation signal and
A feature amount determination function for determining a feature amount based on the first information and the second information included in the evaluation signal for each interval of a predetermined time length with respect to the content data.
An importance determination function for determining the importance of each section from the feature amount for each section, and
A digest data generation function that generates digest data from which the image data is deleted according to the importance determined for each section from the content data.
A program to execute.
ポジティブな感情を示す第1の情報及びネガティブな感情を示す第2の情報のうちユーザにより選択された情報を評価信号として送信する複数の外部装置に接続可能なコンピュータに、
画像データを取得する画像データ取得機能と、
音声データと、当該音声データに対応して定期的に取得された前記画像データとをコンテンツデータとして記憶する記憶機能と、
前記評価信号を受信する受信機能と、
前記コンテンツデータに対して、前記評価信号に含まれる前記第1の情報及び前記第2の情報に基づく特徴を含む複数の異なる特徴に基づき、特徴毎に所定時間長の区間毎の特徴量を決定する特徴量決定機能と、
前記特徴毎に決定した前記区間毎の特徴量に基づき前記区間毎の重要度を判定する重要度判定機能と、
前記コンテンツデータから、前記区間毎に判定された重要度に応じて、前記画像データを削除したダイジェストデータを生成するダイジェストデータ生成機能と、
を実行させるプログラム。
To a computer that can be connected to a plurality of external devices that transmit information selected by the user among the first information indicating positive emotions and the second information indicating negative emotions as evaluation signals .
Image data acquisition function to acquire image data and
A storage function that stores audio data and the image data periodically acquired in response to the audio data as content data, and
The reception function for receiving the evaluation signal and
With respect to the content data, a feature amount for each section having a predetermined time length is determined for each feature based on a plurality of different features including the first information included in the evaluation signal and the feature based on the second information. Feature amount determination function and
An importance determination function that determines the importance of each section based on the feature amount of each section determined for each feature, and
A digest data generation function that generates digest data from which the image data is deleted according to the importance determined for each section from the content data.
A program to execute.
JP2017192842A 2017-10-02 2017-10-02 Digest data generation device, digest data playback device, digest data generation system, digest data generation method and program Active JP7061860B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017192842A JP7061860B2 (en) 2017-10-02 2017-10-02 Digest data generation device, digest data playback device, digest data generation system, digest data generation method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017192842A JP7061860B2 (en) 2017-10-02 2017-10-02 Digest data generation device, digest data playback device, digest data generation system, digest data generation method and program

Publications (2)

Publication Number Publication Date
JP2019068300A JP2019068300A (en) 2019-04-25
JP7061860B2 true JP7061860B2 (en) 2022-05-02

Family

ID=66339876

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017192842A Active JP7061860B2 (en) 2017-10-02 2017-10-02 Digest data generation device, digest data playback device, digest data generation system, digest data generation method and program

Country Status (1)

Country Link
JP (1) JP7061860B2 (en)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220006926A (en) 2020-07-09 2022-01-18 삼성전자주식회사 Device and method for generating summary video
JP7130290B2 (en) * 2020-10-27 2022-09-05 株式会社I’mbesideyou information extractor
JPWO2022091230A1 (en) * 2020-10-27 2022-05-05
WO2022201269A1 (en) * 2021-03-22 2022-09-29 株式会社I’mbesideyou Video analysis program
JPWO2022201264A1 (en) * 2021-03-22 2022-09-29
WO2022201384A1 (en) * 2021-03-24 2022-09-29 株式会社I’mbesideyou Video analysis program
JPWO2022254499A1 (en) * 2021-05-31 2022-12-08
JPWO2022259488A1 (en) * 2021-06-10 2022-12-15
JP7179384B1 (en) 2021-12-07 2022-11-29 株式会社Abelon Server, information processing method and program

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004350134A (en) 2003-05-23 2004-12-09 Nippon Telegr & Teleph Corp <Ntt> Meeting outline grasp support method in multi-point electronic conference system, server for multi-point electronic conference system, meeting outline grasp support program, and recording medium with the program recorded thereon
JP2005109928A (en) 2003-09-30 2005-04-21 Dowango:Kk Electronic conference system and electronic conference management method
JP2005117541A (en) 2003-10-10 2005-04-28 Sony Corp Editing device and editing method
JP2011193371A (en) 2010-03-16 2011-09-29 Sony Corp Information management apparatus, information terminal and method for viewing information content
JP2013031009A (en) 2011-07-28 2013-02-07 Fujitsu Ltd Information processor, digest generating method, and digest generating program

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4096132B2 (en) * 1997-07-24 2008-06-04 富士ゼロックス株式会社 Time-series information specific section determination device, information storage device, and information storage / playback device

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004350134A (en) 2003-05-23 2004-12-09 Nippon Telegr & Teleph Corp <Ntt> Meeting outline grasp support method in multi-point electronic conference system, server for multi-point electronic conference system, meeting outline grasp support program, and recording medium with the program recorded thereon
JP2005109928A (en) 2003-09-30 2005-04-21 Dowango:Kk Electronic conference system and electronic conference management method
JP2005117541A (en) 2003-10-10 2005-04-28 Sony Corp Editing device and editing method
JP2011193371A (en) 2010-03-16 2011-09-29 Sony Corp Information management apparatus, information terminal and method for viewing information content
JP2013031009A (en) 2011-07-28 2013-02-07 Fujitsu Ltd Information processor, digest generating method, and digest generating program

Also Published As

Publication number Publication date
JP2019068300A (en) 2019-04-25

Similar Documents

Publication Publication Date Title
JP7061860B2 (en) Digest data generation device, digest data playback device, digest data generation system, digest data generation method and program
US10255929B2 (en) Media presentation playback annotation
JP3733984B2 (en) Information storage device and information storage method
JP3758754B2 (en) Information storage / reproduction apparatus and information storage / reproduction method
CN108616696A (en) A kind of video capture method, apparatus, terminal device and storage medium
US20080310725A1 (en) Image processing apparatus and method and program
CN107111620A (en) Video editing using context data and the content discovery using group
CN105874780A (en) Method and apparatus for generating a text color for a group of images
US20160006977A1 (en) Recording events in a virtual world
JP4240235B2 (en) Time-series information specific section determination device, information storage device, and information storage / playback device
JP4096132B2 (en) Time-series information specific section determination device, information storage device, and information storage / playback device
CN106170786A (en) Method and apparatus for automatic video partition
JP2016046705A (en) Conference record editing apparatus, method and program for the same, conference record reproduction apparatus, and conference system
CN109039872A (en) Exchange method, device, electronic equipment and the storage medium of Instant audio messages
JP6176041B2 (en) Information processing apparatus and program
JP2005094713A (en) Data display system, data display method, program and recording medium
WO2021202041A1 (en) Customizing soundtracks and hairstyles in modifiable videos of multimedia messaging application
CN110139164A (en) A kind of voice remark playback method, device, terminal device and storage medium
KR20160137924A (en) Method of Recording and Replaying Game Video by Object State Recording
EP4199383A1 (en) Information processing device, information processing program, and recording medium
US20170374245A1 (en) Device and method for causing a targeted reaction by a subject when capturing an image
KR102430547B1 (en) Apparatus for creation of contents of game play
JP6977463B2 (en) Communication equipment, communication systems and programs
JP7087779B2 (en) Terminal devices, conference systems, terminal device control methods, and programs
KR100574045B1 (en) Aparatus for playing multimedia contents and method thereof

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200917

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210408

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210427

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210625

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211130

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211224

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220329

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220419

R150 Certificate of patent or registration of utility model

Ref document number: 7061860

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150