JP2014204411A - Conference recording system, conference recording device, conference recording-reproduction method, and computer program - Google Patents

Conference recording system, conference recording device, conference recording-reproduction method, and computer program Download PDF

Info

Publication number
JP2014204411A
JP2014204411A JP2013081869A JP2013081869A JP2014204411A JP 2014204411 A JP2014204411 A JP 2014204411A JP 2013081869 A JP2013081869 A JP 2013081869A JP 2013081869 A JP2013081869 A JP 2013081869A JP 2014204411 A JP2014204411 A JP 2014204411A
Authority
JP
Japan
Prior art keywords
conference
information
attention
data
time
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2013081869A
Other languages
Japanese (ja)
Inventor
拓 小笠原
Hiroshi Ogasawara
拓 小笠原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2013081869A priority Critical patent/JP2014204411A/en
Publication of JP2014204411A publication Critical patent/JP2014204411A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Television Signal Processing For Recording (AREA)
  • Studio Devices (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a conference recording system for selectively reproducing a content which gathered the attention of participants in a conference.SOLUTION: There is provided a conference recording system comprising a conference recording device 101 for recording a conference content and an information processing device 121 for reproducing a recorded conference content. The conference recording device 101 acquires conference data pertaining to video/audio at a conference, creates, on the basis of a conference data, noteworthy information indicating information to which conference participants paid attention, and records the conference data in correlation with the noteworthy information. The information processing device 121 acquires the conference data from the conference recording device 101 and reproduces the conference data according to the noteworthy information corresponding to the conference data.

Description

本発明は、会議記録システム、会議記録装置、会議記録再生方法およびコンピュータプログラムに関する。   The present invention relates to a conference recording system, a conference recording device, a conference recording / reproducing method, and a computer program.

ビデオカメラ等を用いて動画・音声データを記録し、タイムライン形式で再生することで、会議の内容全体を時系列に振り返ることを支援する会議記録システムが提案されている。   There has been proposed a conference recording system that supports video and audio data recorded using a video camera or the like and played back in a timeline format to look back over the entire content of the conference in time series.

特許文献1は、会議中の発言者と発言者の視認領域を検出し、動画と共に視認していた領域の画像を合わせて表示するシステムを開示している。   Patent Document 1 discloses a system that detects a speaker during a meeting and a visual recognition area of the speaker, and displays an image of the region that was visually recognized together with a moving image.

特開2005−124160号公報JP 2005-124160 A

会議記録システムでは、会議全体の内容を時系列に沿って振り返ることを可能にするとともに、会議中に参加者の注目を集めた内容を効率良く短時間で振り返ることを可能にすることが望まれている。   It is desirable for the meeting recording system to be able to look back on the contents of the entire meeting in chronological order, and to be able to look back on the contents that attracted the attention of participants during the meeting efficiently and in a short time. ing.

例えば、ブレインストーミング等を行うアイデア出し会議では、全発言を振り返る必要はなく、参加者の注目を集めたアイデアを選択的に振り返りたい場合がある。このような場合、従来技術では、全時間分の動画を閲覧したり、アイデアの発言者などを思い出し、発言者名での検索と再生を繰り返したりして、所望の内容を見つける必要がある。したがって、従来技術では、会議にて注目の高かった内容を振り返る際に時間が掛かる。   For example, in an idea presentation meeting where brainstorming or the like is performed, there is a case where it is not necessary to look back on all the statements, and there is a case where it is desired to selectively look back on the ideas that attracted the attention of participants. In such a case, in the related art, it is necessary to browse the moving image for the entire time, remember the idea speaker, etc., and repeat search and reproduction by the speaker name to find the desired content. Therefore, in the prior art, it takes time to look back on the content that attracted attention at the conference.

また、最近では、会議を記録する際に全方位ビデオカメラを使用する場合がある。全方位ビデオカメラでは、出力動画を透視投影変換処理してパノラマ動画として記録する。したがって、会議記録システムが全方位ビデオカメラを用いて記録したパノラマ動作を再生すると、会議内容を振り返る時に確認する範囲が非常に広くなるので、注目を集めた内容を見つけ出すことに時間が掛かる。   Recently, an omnidirectional video camera may be used to record a conference. In the omnidirectional video camera, the output moving image is subjected to perspective projection conversion processing and recorded as a panoramic moving image. Therefore, when the panorama operation recorded by the conference recording system using the omnidirectional video camera is reproduced, the range to be confirmed when looking back on the conference content becomes very wide, so it takes time to find the content that attracted attention.

本発明は、上記の課題の少なくとも一つを解決するためになされたものである。本発明は、会議において参加者の注目を集めた内容に絞って再生する仕組みの提供を目的とする。   The present invention has been made to solve at least one of the above problems. It is an object of the present invention to provide a mechanism for playing back content that attracts the attention of participants in a conference.

本発明の一実施形態の会議記録システムは、会議内容を記録する会議記録装置と、前記記録された会議内容を再生する情報処理装置とを備えるシステムである。前記会議記録装置は、会議での映像/音声に関する会議データを取得する取得手段と、前記取得された会議データに基づいて、会議参加者が注目した情報を示す注目情報を作成する作成手段と、前記会議データを前記注目情報と対応付けて記録する記録手段とを備える。前記情報処理装置は、前記会議記録装置から前記記録された会議データを取得する取得手段と、前記取得された会議データを、当該会議データに対応する注目情報にしたがって再生する再生手段とを備える。   A conference recording system according to an embodiment of the present invention is a system including a conference recording device that records conference content and an information processing device that reproduces the recorded conference content. The conference recording device includes an acquisition unit that acquires conference data related to video / audio in a conference, and a generation unit that generates attention information indicating information that a conference participant has focused on based on the acquired conference data; Recording means for recording the conference data in association with the attention information. The information processing apparatus includes an acquisition unit that acquires the recorded conference data from the conference recording device, and a reproduction unit that reproduces the acquired conference data according to attention information corresponding to the conference data.

本発明の会議記録システムによれば、会議において参加者の注目を集めた内容に絞って再生することが可能となる。   According to the conference recording system of the present invention, it is possible to play back the content focused on the attention of the participants in the conference.

本実施形態の会議記録システムの構成例を示す図である。It is a figure which shows the structural example of the meeting recording system of this embodiment. 会議記録装置の構成例を示す図である。It is a figure which shows the structural example of a meeting recording device. 会議データの取得を説明する図である。It is a figure explaining acquisition of meeting data. 会議記録装置の動作処理の例を説明するフローチャートである。It is a flowchart explaining the example of the operation | movement process of a meeting recording device. 注目領域の算出処理の例を説明する図である。It is a figure explaining the example of the calculation process of an attention area. サーバの構成例を示す図である。It is a figure which shows the structural example of a server. サーバの動作処理の一例を示す図である。It is a figure which shows an example of the operation | movement process of a server. 会議記録データの構成例を示す図である。It is a figure which shows the structural example of meeting recording data. 情報処理装置の構成例を示す図である。It is a figure which shows the structural example of information processing apparatus. 会議記録データの取得処理と提供処理とを説明する図である。It is a figure explaining the acquisition process and provision process of meeting record data. 会議記録データの再生処理の例を説明するフローチャートである。It is a flowchart explaining the example of the reproduction | regeneration processing of meeting recording data. 会議記録データの再生に関わる画面構成例である。It is an example of a screen structure in connection with reproduction | regeneration of meeting recording data. オブジェクト抽出処理の例を説明する図である。It is a figure explaining the example of an object extraction process. パノラマ画像からのスライドと人の検出を説明する図である。It is a figure explaining the detection of a slide and a person from a panoramic image. 注目情報の構成の一例を示す図である。It is a figure which shows an example of a structure of attention information. 会議記録データの再生処理を説明するフローチャートである。It is a flowchart explaining the reproduction | regeneration processing of meeting recording data. 情報処理装置の画面表示例を示す図である。FIG. 11 illustrates a screen display example of the information processing apparatus.

図1は、本実施形態の会議記録システムの構成例を示す図である。図1に示す会議記録システムは、会議記録装置101、サーバ131、情報処理装置121を備える。本実施形態の会議記録再生方法は、図1に示す会議記録システムによって実現される。会議記録装置101とサーバ131と情報処理装置121とは、ネットワーク141を介して通信する。この例では、ネットワーク141は、LAN(Local Area Network)である。   FIG. 1 is a diagram illustrating a configuration example of a conference recording system according to the present embodiment. The conference recording system shown in FIG. 1 includes a conference recording device 101, a server 131, and an information processing device 121. The conference recording / reproducing method of the present embodiment is realized by the conference recording system shown in FIG. The conference recording apparatus 101, the server 131, and the information processing apparatus 121 communicate via the network 141. In this example, the network 141 is a LAN (Local Area Network).

会議記録装置101は、会議を記録する。具体的には、会議記録装置101は、ビデオカメラを用いて会議を撮影することで映像/音声を取得し、当該映像/音声に関するデータを会議データとして記録する。もちろん、会議記録装置101が、外部装置から会議データを受信して記録するようにしてもよい。   The conference recording device 101 records the conference. Specifically, the conference recording apparatus 101 acquires video / audio by capturing a conference using a video camera, and records data regarding the video / audio as conference data. Of course, the conference recording device 101 may receive and record conference data from an external device.

会議記録装置101は、例えばオフィスや所定の会場等において開催される会議を記録するが、本発明が適用対象とする会議は、複数の人物の視認/発声行動を伴う集まりであればよく、オフィスや所定の会場等において開催される会議に限定されない。例えば、面接や、取り調べ等も本発明の適用対象となる。   The conference recording device 101 records conferences held in, for example, an office or a predetermined venue, but the conference to which the present invention is applied may be a group involving visual recognition / speaking behaviors of a plurality of persons. It is not limited to conferences held at predetermined venues. For example, interviews and surveys are also applicable to the present invention.

サーバ131は、会議記録装置101が記録した会議データを会議記録装置101から取得して蓄積する。情報処理装置121は、サーバ131から、上記蓄積された会議データを取得して、再生する。情報処理装置121は、スマートフォン等の携帯端末やパーソナルコンピュータ等である。   The server 131 acquires the conference data recorded by the conference recording device 101 from the conference recording device 101 and accumulates it. The information processing apparatus 121 acquires the stored conference data from the server 131 and reproduces it. The information processing apparatus 121 is a mobile terminal such as a smartphone or a personal computer.

会議記録装置101、サーバ131、情報処理装置121は、それぞれ、汎用コンピュータに搭載される標準的な構成要素(例えば、CPU、メモリ、ハードディスク、ネットワークI/F等)を有している。CPUは、Central Processing Unitの略称である。I/Fは、Interfaceの略称である。   Each of the conference recording apparatus 101, the server 131, and the information processing apparatus 121 has standard components (for example, a CPU, a memory, a hard disk, and a network I / F) that are mounted on a general-purpose computer. CPU is an abbreviation for Central Processing Unit. I / F is an abbreviation for Interface.

図2は、会議記録装置の構成例を示す図である。会議記録装置101は、CPU103、メモリ104、ビデオカメラ105、動画音声処理部106、視認領域抽出部107、注目情報処理部108、HDD109、通信処理部110、ネットワークI/F111を備える。HDDは、Hard Disk Driveの略称である。会議記録装置101が備える各処理部は、システムバス102で相互に接続される。   FIG. 2 is a diagram illustrating a configuration example of the conference recording apparatus. The conference recording apparatus 101 includes a CPU 103, a memory 104, a video camera 105, a moving image / audio processing unit 106, a visual recognition area extraction unit 107, an attention information processing unit 108, an HDD 109, a communication processing unit 110, and a network I / F 111. HDD is an abbreviation for Hard Disk Drive. The processing units included in the conference recording apparatus 101 are connected to each other via a system bus 102.

CPU103は、会議記録装置101全体を制御する。メモリ104には会議記録装置101の制御プログラム(コンピュータプログラム)が格納される。CPU103がこの制御プログラムを実行する。ビデオカメラ105は、会議における参加者の言動等を記録する。   The CPU 103 controls the entire conference recording apparatus 101. The memory 104 stores a control program (computer program) for the conference recording apparatus 101. The CPU 103 executes this control program. The video camera 105 records the behavior of participants in the conference.

図3(A)は、本実施形態における会議を示す。この会議には、会議参加者211乃至215が参加している。会議室の机の上に会議記録装置101が設置されている。本実施形態では、ビデオカメラ105として全方位ビデオカメラを使用する。   FIG. 3A shows a conference in this embodiment. Conference participants 211 to 215 participate in this conference. A conference recording device 101 is installed on a desk in the conference room. In this embodiment, an omnidirectional video camera is used as the video camera 105.

動画音声処理部106は、ビデオカメラ105で撮影することで取得した会議データ(動画/音声データ)に含まれる映像から、参加者の視認領域の抽出を行うよう視認領域抽出部107に指示する。視認領域抽出部107は、動画音声処理部106から受けた指示にしたがって、参加者の視認領域を抽出する。視認領域抽出部107は、例えば、参加者の瞳の位置、及び、顔の向きに基づいて予測することで、視認領域を抽出する。視認領域の抽出方法として、下記の参考文献は、全方位カメラにて被写体の視線を推定し、視認領域を出力する技術を開示している。
参考文献:特開2012−124767号公報
The video / audio processing unit 106 instructs the visual recognition region extraction unit 107 to extract the visual recognition region of the participant from the video included in the conference data (moving image / audio data) acquired by photographing with the video camera 105. The visual recognition area extraction unit 107 extracts the visual recognition area of the participant in accordance with the instruction received from the video / audio processing unit 106. The visual recognition area extraction unit 107 extracts the visual recognition area by performing prediction based on, for example, the pupil position and the face orientation of the participant. As a method for extracting a visual recognition area, the following reference discloses a technique for estimating the line of sight of a subject using an omnidirectional camera and outputting the visual recognition area.
Reference: JP 2012-124767 A

図3(B)は、全方位ビデオカメラによる撮影で取得される全方位画面を示す。動画音声処理部106は、全方位画像210に対し透視投影変換を行い、図3(C)に示すパノラマ画像230を生成する。図3(A),(B)中の符号224は、会議参加者214の視認領域を示す。符号221は、会議参加者211の視認領域を示す。符号222は、会議参加者212の視認領域を示す。符号225は、会議参加者215の視認領域を示す。   FIG. 3B shows an omnidirectional screen acquired by photographing with an omnidirectional video camera. The moving image / audio processor 106 performs perspective projection conversion on the omnidirectional image 210 to generate a panoramic image 230 shown in FIG. A reference numeral 224 in FIGS. 3A and 3B indicates a visual recognition area of the conference participant 214. Reference numeral 221 indicates a visual recognition area of the conference participant 211. Reference numeral 222 denotes a visual recognition area of the conference participant 212. Reference numeral 225 indicates a visual recognition area of the conference participant 215.

注目情報処理部108は、会議参加者の視認領域の重なりを検知する。図3(C)中の符号240は、視認領域が重なった領域(重複領域)を示す。重複領域240は、左上原点の2次元の座標値(x,y)と、領域の幅と高さ(w,h)を持ち、場所の特定とサイズ計算が可能である。   The attention information processing unit 108 detects an overlap of the viewing areas of the conference participants. The code | symbol 240 in FIG.3 (C) shows the area | region (overlapping area | region) with which the visual recognition area overlapped. The overlapping area 240 has a two-dimensional coordinate value (x, y) of the upper left origin and the width and height (w, h) of the area, and can specify the location and calculate the size.

注目情報処理部108は、重複領域の検知結果に基づいて、注目情報を作成する。注目情報は、会議参加者の注目を集めたシーンに関する情報である。具体的には、注目情報は、少なくとも、注目領域と、注目を集めた時間(注目時間)とを含む。注目領域は、会議参加者の注目を集めた領域である。注目領域は、会議データにおいて、視認領域の重なりが検出されたフレーム同士の重なりが連続する場合に、当該連続するフレーム間での視認領域の論理和演算により得られる(OR領域である)。注目時間は、会議データにおいて、視認領域の重なりが検出されるフレームの連続数に対応する。   The attention information processing unit 108 generates attention information based on the detection result of the overlapping area. The attention information is information regarding a scene that attracts the attention of the conference participants. Specifically, the attention information includes at least an attention area and a time (attention time) at which attention is collected. The attention area is an area that attracts the attention of the conference participants. The attention area is obtained by ORing the viewing areas between the consecutive frames when the overlapping of the frames in which the overlapping of the viewing areas is detected continues in the conference data. The attention time corresponds to the number of consecutive frames in which the overlapping of the viewing areas is detected in the conference data.

注目情報処理部108は、注目情報を示すタグセットIDを会議データと対応付けてHDD109に保存する。当該保存されるデータを、以下では、会議記録データと記述する。通信処理部110は、ネットワークI/F111を介して、サーバ131に会議記録データを送信する。   The attention information processing unit 108 stores the tag set ID indicating the attention information in the HDD 109 in association with the conference data. The stored data is hereinafter referred to as meeting record data. The communication processing unit 110 transmits conference record data to the server 131 via the network I / F 111.

図4は、会議記録装置の動作処理の例を説明するフローチャートである。
まず、会議記録装置101が、処理の開始指示を受け付けて、会議の属性情報を設定する(ステップS301)。具体的には、CPU103が、会議の日時、場所、会議参加者を会議記録データに保存する。
FIG. 4 is a flowchart for explaining an example of operation processing of the conference recording apparatus.
First, the conference recording apparatus 101 receives a process start instruction and sets conference attribute information (step S301). Specifically, the CPU 103 saves the meeting date and time, location, and meeting participants in the meeting record data.

次に、動画音声処理部106が、ビデオカメラ105による会議データの撮影処理を開始する。視認領域抽出部107が、会議データに含まれる動画のフレーム単位に、各参加者の視認領域の抽出を行う(ステップS302)。続いて、動画音声処理部106が、全方位画像210(図3(B))に対して透視投影変換を行い、図3(C)に示すパノラマ画像230を生成する。   Next, the moving image / sound processor 106 starts the conference data shooting process by the video camera 105. The visual recognition area extraction unit 107 extracts the visual recognition area of each participant for each frame of the moving image included in the conference data (step S302). Subsequently, the moving image / sound processor 106 performs perspective projection conversion on the omnidirectional image 210 (FIG. 3B) to generate a panoramic image 230 shown in FIG.

次に、注目情報処理部108が、パノラマ画像230の現在フレームにおいて、各会議参加者の視認領域の当たり判定を行う(ステップS304)。視認領域の当たり判定とは、パノラマ画像230における各会議参加者の視認領域が、互いに重なるかを判断することである。   Next, the attention information processing unit 108 performs a hit determination of the viewing area of each conference participant in the current frame of the panoramic image 230 (step S304). The visual recognition area hit determination is to determine whether the visual recognition areas of the conference participants in the panoramic image 230 overlap each other.

図3(A)に示すように、会議参加者が5人(211乃至215)である会議を記録する場合を例にとって説明する。ステップS304の当たり判定は、全参加者の内、規定の割合以上の参加者が同じ箇所を見ているかを判断するために行う。規定の割合を60%とすると、当たり判定では、全参加者5人の60%にあたる3人が同時に同じ箇所を見ているかが判断される。なお、上記規定の割合は、変更可能である。   As shown in FIG. 3A, a case where a conference with five conference participants (211 to 215) is recorded will be described as an example. The hit determination in step S304 is performed to determine whether or not more than a prescribed percentage of all the participants are viewing the same part. Assuming that the prescribed ratio is 60%, in the hit determination, it is determined whether three people, which are 60% of all five participants, are viewing the same part at the same time. Note that the prescribed ratio can be changed.

図5(A)は、N番目のフレームにおける視認領域の重なりを説明する図である。会議参加者3人が同じ箇所を見ているものとする。3人の会議参加者の視認領域は、矩形で示す3つの視認領域221、222、225である。重複領域401は、上記3つの視認領域が重なる領域である。   FIG. 5A is a diagram for explaining the overlapping of the viewing areas in the Nth frame. Assume that three conference participants are looking at the same location. The viewing areas of the three conference participants are three viewing areas 221, 222, and 225 indicated by rectangles. The overlapping area 401 is an area where the three viewing areas overlap.

図4のステップS304での当たり判定では、注目情報処理部108は、重複領域401が規定サイズ(Xピクセル)以上であるかを判定する。視認領域221乃至225は、左上原点の2次元の座標値(x,y)と、領域の幅と高さ(w,h)を持つため、これらの値より、重複領域の座標値(x,y)と領域の幅と高さ(w,h)を計算可能である。   In the hit determination in step S304 of FIG. 4, the attention information processing unit 108 determines whether or not the overlapping area 401 is equal to or larger than a specified size (X pixel). Since the visual recognition areas 221 to 225 have a two-dimensional coordinate value (x, y) of the upper left origin and the width and height (w, h) of the area, the coordinate values (x, y) and the width and height (w, h) of the region can be calculated.

重複領域401が規定サイズ未満である場合、注目情報処理部108は、会議参加者の視認領域が互いに重ならないと判断して、処理がステップS312に進む。重複領域401が規定サイズ以上である場合、注目情報処理部108は、会議参加者の視認領域が互いに重なると判断して、処理がステップS305に進む。   When the overlapping area 401 is less than the specified size, the attention information processing unit 108 determines that the viewing areas of the conference participants do not overlap each other, and the process proceeds to step S312. When the overlapping area 401 is equal to or larger than the specified size, the attention information processing unit 108 determines that the viewing areas of the conference participants overlap each other, and the process proceeds to step S305.

次に、注目情報処理部108が、前フレームについての当たり判定によってフラグがONとなっているかを判定する(ステップS305)。このフラグは、フレームにおいて会議参加者の視認領域が互いに重なるか否かを示す。フラグがONであることは、会議参加者の視認領域が互いに重なることを示す。フラグがOFFであることは、会議参加者の視認領域が互いに重ならないことを示す。   Next, the attention information processing unit 108 determines whether the flag is ON by the hit determination for the previous frame (step S305). This flag indicates whether the viewing areas of the conference participants overlap each other in the frame. The flag being ON indicates that the viewing areas of the conference participants overlap each other. The flag being OFF indicates that the viewing areas of the conference participants do not overlap each other.

フラグがONとなっていない場合は、処理がステップS306に進む。そして、注目情報処理部108が、フラグをONに設定して(ステップS306)、処理がステップS313に進む。フラグがONとなっている場合は、処理がステップS307に進む。そして、注目情報処理部108が、連続フレーム間での視認領域の当たり判定を行う(ステップS307)。具体的には、前フレーム(i−1番目のフレーム)での重複領域と現行フレーム(i番目のフレーム)での重複領域とが互いに重なるかを判定する。   If the flag is not ON, the process proceeds to step S306. Then, the attention information processing unit 108 sets the flag to ON (step S306), and the process proceeds to step S313. If the flag is ON, the process proceeds to step S307. Then, the attention information processing unit 108 performs a hit determination of the visual recognition area between consecutive frames (step S307). Specifically, it is determined whether the overlapping area in the previous frame (i-1th frame) and the overlapping area in the current frame (i-th frame) overlap each other.

図5(B)は、ステップS307における当たり判定を説明する図である。領域401は、前フレーム(i−1番目のフレーム)で視認領域が重なる重複領域である。領域402は、現行フレーム(i番目のフレーム)で視認領域が重なる重複領域である。領域411は、領域401と領域402とが重なる重複領域である。注目情報処理部108は、領域411のサイズを算出する。算出したサイズが規定サイズ(Yピクセル)以上である場合、連続フレーム間での視認領域の当たり判定で真と判定する。そして、注目情報処理部108が、カウンタ値を1加算(インクリメント)し、ステップS309に進む。カウンタ値は、ステップS307での当たり判定において、連続で真と判定されたフレーム数を表す。   FIG. 5B is a diagram for explaining the hit determination in step S307. A region 401 is an overlapping region in which the viewing region overlaps with the previous frame (i−1th frame). A region 402 is an overlapping region where the viewing region overlaps the current frame (i-th frame). The region 411 is an overlapping region where the region 401 and the region 402 overlap. The attention information processing unit 108 calculates the size of the region 411. When the calculated size is equal to or larger than the specified size (Y pixel), it is determined to be true in the hit determination of the viewing area between consecutive frames. The attention information processing unit 108 adds 1 to the counter value (increment), and proceeds to step S309. The counter value represents the number of frames that are continuously determined to be true in the hit determination in step S307.

次に、注目情報処理部108が、カウンタ値がM以上かを判定する(ステップS309)。Mの値は予め決められている。カウンタ値がM未満である場合は、処理がステップS312に進む。そして、注目情報処理部108が、フラグをOFFにし、カウンタ値を0とする(ステップS312)。そして、処理がステップS313に進む。   Next, the attention information processing unit 108 determines whether the counter value is M or more (step S309). The value of M is predetermined. If the counter value is less than M, the process proceeds to step S312. Then, the attention information processing unit 108 turns off the flag and sets the counter value to 0 (step S312). Then, the process proceeds to step S313.

カウンタ値がM以上である場合は、処理がステップS310に進む。そして、注目情報処理部108が、会議データ(動画)にタグセットIDを対応付けて会議記録データとして記録する(ステップS310)。タグセットIDは、注目情報を示す。注目情報は、前述した注目領域の座標情報を含む。注目領域は、ステップS307,S309での判定処理で真となった連続フレームにおける、会議参加者の視認領域の合計領域である。注目領域は、会議参加者の視認領域の論理和演算により得られる。   If the counter value is greater than or equal to M, the process proceeds to step S310. Then, the attention information processing unit 108 associates the tag set ID with the conference data (moving image) and records it as conference recording data (step S310). The tag set ID indicates attention information. The attention information includes the coordinate information of the attention area described above. The attention area is a total area of the viewing areas of the conference participants in the continuous frames that are true in the determination processing in steps S307 and S309. The attention area is obtained by a logical sum operation of the visual recognition areas of the conference participants.

図5(C)は、注目領域の例を説明する図である。この例では、カウンタ値がMであって、連続してM回、隣り合うフレームの重複領域が重なったものとする。図中の網かけを施した部分が、k−1番目とk番目のフレーム間での重複領域であり、図5(B)の領域411と同じである。点線の矩形で囲った部分が、k−1番目とk番目のフレーム間で重複領域を持つ視認領域の合計領域である。つまり、この点線の矩形で囲った部分の領域が、注目領域である。   FIG. 5C is a diagram illustrating an example of a region of interest. In this example, it is assumed that the counter value is M, and the overlapping areas of adjacent frames are overlapped M times consecutively. The shaded portion in the figure is an overlapping area between the (k−1) th and kth frames, which is the same as the area 411 in FIG. 5 (B). A portion surrounded by a dotted rectangle is a total area of the viewing areas having an overlapping area between the (k−1) th and kth frames. That is, the area of the portion surrounded by the dotted rectangle is the attention area.

注目情報処理部108は、注目領域の座標情報を注目情報に設定して記録する。具体的には、合計領域の座標(x,y)と幅(h)、高さ(w)を、図8を参照して後述する会議記録データの領域513に設定する。また、注目情報処理部108は、図4のS307での判定が真となってから偽となるまでのフレーム数を時間514に設定する。   The attention information processing unit 108 sets and records the coordinate information of the attention area as the attention information. Specifically, the coordinates (x, y), width (h), and height (w) of the total area are set in an area 513 for conference recording data, which will be described later with reference to FIG. The attention information processing unit 108 sets the number of frames from the determination in S307 of FIG.

図4に戻って、注目情報処理部108が、注目情報に評価値を設定する(ステップS311)。評価値は、注目領域の注目度を示す。例えば、ステップS307,S309での判定処理で、連続Mフレーム真となった場合を想定する。注目情報処理部108は、例えば、当該Mフレームに含まれる各々のフレームにおける重複領域のサイズにMを乗算することで、評価値を算出する。評価値の算出方法は、ここで示すものに限定されない。注目情報処理部108は、図8(B)に示す注目情報の評価値515に評価値を設定する。   Returning to FIG. 4, the attention information processing unit 108 sets an evaluation value for attention information (step S <b> 311). The evaluation value indicates the attention level of the attention area. For example, it is assumed that continuous M frames are true in the determination processing in steps S307 and S309. The attention information processing unit 108 calculates the evaluation value by, for example, multiplying the size of the overlapping region in each frame included in the M frame by M. The method for calculating the evaluation value is not limited to the one shown here. The attention information processing unit 108 sets an evaluation value to the evaluation value 515 of attention information shown in FIG.

次に、CPU103が、会議記録の終了指示を受け付けたかを判定する(ステップS313)。会議記録の終了指示を受け付けていない場合は、処理がステップS314に進む。そして、CPU103が、次のフレームを処理対象にして(ステップS314)、ステップS302に戻る。会議記録の終了指示を受け付けた場合は、処理がステップS315に進む。そして、CPU103が、通信処理部110を介して、会議記録データをサーバ131へ送信する(ステップS315)。   Next, the CPU 103 determines whether an instruction to end conference recording has been received (step S313). If the conference recording end instruction has not been received, the process proceeds to step S314. Then, the CPU 103 sets the next frame as a processing target (step S314), and returns to step S302. If an instruction to end conference recording is received, the process proceeds to step S315. Then, the CPU 103 transmits the conference record data to the server 131 via the communication processing unit 110 (step S315).

図4を参照して説明したことから、注目情報処理部108は、視認領域が重なる時間が規定時間以上(Mフレームに相当する時間以上)続いたかを判断する(S304,S305,S307)。このために、注目情報処理部108は、隣り合うフレーム同士で重複領域が重なることが規定フレーム数以上連続するかを判断する。そして、隣り合うフレーム同士で重複領域が重なることが規定フレーム数以上連続する場合に、注目情報処理部108は、視認領域が重なる時間が規定時間以上続いたと判断する。そして、注目情報処理部108は、視認領域が重なる時間分の視認領域に対応する映像に関する情報(注目領域の座標情報、時間、評価値)を注目情報として生成する。   Since it demonstrated with reference to FIG. 4, the attention information processing part 108 judges whether the time which a visual recognition area overlaps continued for more than regulation time (time equivalent to M frame) (S304, S305, S307). For this purpose, the attention information processing unit 108 determines whether or not the overlapping areas overlap between adjacent frames for a predetermined number of frames or more. Then, when the overlapping area overlaps between adjacent frames for a predetermined number of frames or more, the attention information processing unit 108 determines that the time for which the viewing area overlaps has continued for a predetermined time or more. Then, the attention information processing unit 108 generates information (image coordinate information, time, evaluation value) on the video corresponding to the viewing area for the time that the viewing areas overlap as attention information.

図6は、サーバの構成例を示す図である。サーバ131は、CPU133、メモリ134、HDD135、テーブル処理部136、ネットワークI/F137、通信処理部138を備える。サーバ131が備える各処理部は、システムバス132で相互に接続される。   FIG. 6 is a diagram illustrating a configuration example of a server. The server 131 includes a CPU 133, a memory 134, an HDD 135, a table processing unit 136, a network I / F 137, and a communication processing unit 138. The processing units included in the server 131 are connected to each other via a system bus 132.

CPU133は、サーバ131全体を制御する。メモリ134にはサーバ131の制御プログラム(コンピュータプログラム)が格納される。CPU103がこの制御プログラムを実行する。テーブル処理部136は、HDD135内に記憶された会議記録管理テーブルへの読み出しや書き出しを行う。この例では、テーブル処理部136は、会議記録装置101から受信した会議記録データを会議記録管理テーブルに記憶して管理する。通信処理部138は、ネットワークI/F137を介してLAN141に接続し、会議記録装置101や情報処理装置121とのデータ送受信を行い、テーブル処理部136を介して、会議記録管理テーブルへのデータアクセスを行う。   The CPU 133 controls the entire server 131. The memory 134 stores a control program (computer program) for the server 131. The CPU 103 executes this control program. The table processing unit 136 reads and writes to and from the conference record management table stored in the HDD 135. In this example, the table processing unit 136 stores and manages conference record data received from the conference recording apparatus 101 in a conference record management table. The communication processing unit 138 is connected to the LAN 141 via the network I / F 137, performs data transmission / reception with the conference recording apparatus 101 and the information processing apparatus 121, and accesses data to the conference record management table via the table processing unit 136. I do.

なお、本実施形態では、通信プロトコルとして、HTTP(Hyper Text Transfer Protocol)を用いる。また、データフォーマットとして、JSONなど一般的なデータフォーマットを用いる。JSONは、JavaScript(登録商標) Object Notationの略称である。   In this embodiment, HTTP (Hyper Text Transfer Protocol) is used as the communication protocol. A general data format such as JSON is used as the data format. JSON is an abbreviation for JavaScript (registered trademark) Object Notation.

図7は、サーバの動作処理の一例を示す図である。まず、サーバ131の通信処理部138が、LAN141に接続された会議記録装置101から、会議記録データを受信する(ステップS701)。この会議記録データは、図4のステップS315にて、会議記録装置101が送信したものである。そして、テーブル処理部136が、受信した会議記録データを、HDD135内の会議記録管理テーブルに保存する(ステップS702)。   FIG. 7 is a diagram illustrating an example of server operation processing. First, the communication processing unit 138 of the server 131 receives conference record data from the conference recording device 101 connected to the LAN 141 (step S701). This meeting record data is transmitted by the meeting recording apparatus 101 in step S315 of FIG. Then, the table processing unit 136 stores the received conference record data in the conference record management table in the HDD 135 (step S702).

図8は、会議記録管理テーブルに保存される会議記録データの構成例を示す図である。図8(A)は、会議記録データの構成を示す。図8(B)は、注目情報511の構成を示す。注目情報は、タグセットID508,512によって会議記録データ501に対応付けられて会議記録管理テーブルに保存されている。   FIG. 8 is a diagram illustrating a configuration example of conference record data stored in the conference record management table. FIG. 8A shows the structure of conference record data. FIG. 8B shows a configuration of attention information 511. The attention information is associated with the conference record data 501 by the tag set IDs 508 and 512 and stored in the conference record management table.

会議記録データ501は、会議記録データID502、日時503、時間504、場所505、参加者506、データ507、タグセットID508といったデータ項目を有する。   The conference record data 501 includes data items such as a conference record data ID 502, a date and time 503, a time 504, a place 505, a participant 506, data 507, and a tag set ID 508.

会議記録データID502は、会議記録データを一意に識別する識別子である。日時503は、会議の日時である。時間504は、会議の時間である。場所505は、会議の場所である。参加者506は、会議参加者である。会議記録装置101が、図4のステップS301において、会議の日時、時間、場所、参加者を設定する。   The conference record data ID 502 is an identifier for uniquely identifying conference record data. Date and time 503 is the date and time of the meeting. Time 504 is a meeting time. A place 505 is a meeting place. Participant 506 is a conference participant. The conference recording apparatus 101 sets the date, time, place, and participant of the conference in step S301 in FIG.

データ507は、ビデオカメラ105で記録された会議の動画データである。会議記録装置101が、図4のステップS310において、動画データを設定する。タグセットID508は、注目情報を一意に識別する識別子である。会議記録データ1つに対し、タグセットIDは複数設定が可能である。   Data 507 is video data of the conference recorded by the video camera 105. The conference recording apparatus 101 sets moving image data in step S310 of FIG. The tag set ID 508 is an identifier that uniquely identifies attention information. A plurality of tag set IDs can be set for one conference record data.

注目情報511は、タグセットID512、領域513、時間514、評価値515といったデータ項目を有する。タグセットID512は、会議記録データ501のタグセットID508に対応する。領域513は、注目領域である。この例では、注目領域は、左上原点の座標値(x,y)と、領域の幅・高さ(w,h)という座標情報を有する。会議記録装置101は、図4のステップS310において領域513を設定する。時間514は、注目情報の時間、すなわち視認領域の当たり判定で真と判定された連続フレームの数に対応する時間情報である。会議記録装置101は、図4のステップS310において、時間514を設定する。評価値515は、注目情報の評価値である。会議記録装置101は、図4のステップS311において、評価値515を設定する。   The attention information 511 includes data items such as a tag set ID 512, an area 513, a time 514, and an evaluation value 515. The tag set ID 512 corresponds to the tag set ID 508 of the conference recording data 501. A region 513 is a region of interest. In this example, the attention area has coordinate information of the coordinate value (x, y) of the upper left origin and the width / height (w, h) of the area. The conference recording apparatus 101 sets the area 513 in step S310 of FIG. Time 514 is time information corresponding to the time of attention information, that is, the number of consecutive frames determined to be true in the hit determination of the visual recognition area. The conference recording apparatus 101 sets time 514 in step S310 in FIG. The evaluation value 515 is an evaluation value of attention information. The conference recording apparatus 101 sets an evaluation value 515 in step S311 of FIG.

図9は、情報処理装置の構成例を示す図である。情報処理装置121は、CPU123、メモリ124、HDD125、再生処理部126、通信処理部127、ネットワークI/F128、ディスプレイ129、表示処理部130を備える。情報処理装置121が備える各処理部は、システムバス122で相互に接続される。   FIG. 9 is a diagram illustrating a configuration example of the information processing apparatus. The information processing apparatus 121 includes a CPU 123, a memory 124, an HDD 125, a reproduction processing unit 126, a communication processing unit 127, a network I / F 128, a display 129, and a display processing unit 130. The processing units included in the information processing apparatus 121 are connected to each other via a system bus 122.

CPU123は、情報処理装置121全体を制御する。メモリ124には情報処理装置121の制御プログラム(コンピュータプログラム)が格納される。CPU123がこの制御プログラムを実行する。   The CPU 123 controls the entire information processing apparatus 121. The memory 124 stores a control program (computer program) for the information processing apparatus 121. The CPU 123 executes this control program.

通信処理部127は、ネットワークI/F128を介してLAN141に接続し、サーバ131から会議記録データを受信する。通信処理部127は、受信した会議記録データをHDD125に保存する。再生処理部126は、HDD125に保存した会議記録データを読み出す。また、再生処理部126は、会議記録データが有するタグセットIDが示す注目情報に応じて再生処理を行う。具体的には、再生処理部126は、表示処理部130を介して、ディスプレイ129に会議記録データの動画を再生する。   The communication processing unit 127 is connected to the LAN 141 via the network I / F 128 and receives conference record data from the server 131. The communication processing unit 127 stores the received conference record data in the HDD 125. The reproduction processing unit 126 reads the conference record data stored in the HDD 125. Further, the reproduction processing unit 126 performs reproduction processing according to attention information indicated by the tag set ID included in the conference recording data. Specifically, the reproduction processing unit 126 reproduces the moving image of the conference recording data on the display 129 via the display processing unit 130.

図10は、会議記録データの取得処理と、会議記録データの提供処理とを説明する図である。図10(A)は、会議記録データの取得処理を示す。   FIG. 10 is a diagram for explaining conference record data acquisition processing and conference record data provision processing. FIG. 10A shows conference record data acquisition processing.

まず、情報処理装置121の通信処理部127が、会議記録データの取得要求をサーバ131に送信する(ステップS1001)。会議記録データの取得要求には、ユーザのアカウント情報や時刻情報が含まれる。例えば、ユーザのアカウント情報が会議参加者211のものである場合、通信処理部127は、会議参加者211が参加した会議の会議記録データの取得要求を行う。アカウント情報の入力については、図12を参照して後述する。   First, the communication processing unit 127 of the information processing device 121 transmits a conference record data acquisition request to the server 131 (step S1001). The meeting record data acquisition request includes user account information and time information. For example, when the user account information is that of the conference participant 211, the communication processing unit 127 makes a request for acquisition of conference record data of the conference in which the conference participant 211 has participated. The input of account information will be described later with reference to FIG.

時刻情報は、情報処理装置121が未取得の会議記録情報を取得要求するために使用する。情報処理装置121が最後に取得要求した時刻情報をメモリ124に記憶しておき、その時刻情報を使用し取得要求を行い、以前受信した会議記録データは受信せずに、前回の取得要求を行った時刻より新しい会議記録データのみを取得要求する。この取得要求に対するサーバの処理については、図10(B)を参照して後述する。   The time information is used by the information processing apparatus 121 to request acquisition of unrecorded conference record information. The time information last requested by the information processing apparatus 121 is stored in the memory 124, the acquisition request is made using the time information, and the previous acquisition request is made without receiving the previously received conference record data. Request acquisition of only meeting record data newer than the specified time. The server processing for this acquisition request will be described later with reference to FIG.

次に、通信処理部127が、サーバ131から、取得要求に該当する会議記録データを受信して、HDD125に保存する(ステップS1002)。そして、表示処理部130が、会議記録データを表示する(ステップS1003)。会議記録データの表示画面については、図12を参照して後述する。   Next, the communication processing unit 127 receives the conference record data corresponding to the acquisition request from the server 131 and stores it in the HDD 125 (step S1002). Then, the display processing unit 130 displays the conference record data (step S1003). The display screen of the conference record data will be described later with reference to FIG.

図10(B)は、情報処理装置からの取得要求に応じたサーバが実行する、会議記録データの提供処理を示す。   FIG. 10B shows conference record data provision processing executed by the server in response to an acquisition request from the information processing apparatus.

まず、サーバ131の通信処理部138が、会議記録データの取得要求を情報処理装置121から受信する(ステップS1011)。テーブル処理部136が、取得要求に含まれるアカウント情報や時刻情報を用いて、会議記録管理テーブルから条件に該当する会議記録データを検索する(ステップS1012)。   First, the communication processing unit 138 of the server 131 receives a conference record data acquisition request from the information processing apparatus 121 (step S1011). The table processing unit 136 uses the account information and the time information included in the acquisition request to search for conference record data corresponding to the condition from the conference record management table (step S1012).

次に、テーブル処理部136が、会議記録データの検索結果に基づいて、会議記録管理テーブル501に該当する会議記録データがあったかを判断する(ステップS1013)。   Next, the table processing unit 136 determines whether there is meeting record data corresponding to the meeting record management table 501 based on the search result of the meeting record data (step S1013).

会議記録管理テーブル501に該当する会議記録データがあった場合は、処理がステップS1014に進む。会議記録管理テーブル501に該当する会議記録データがなかった場合は、処理がステップS1015に進む。   If there is meeting record data corresponding to the meeting record management table 501, the process proceeds to step S1014. If there is no meeting record data corresponding to the meeting record management table 501, the process proceeds to step S1015.

ステップS1014において、通信処理部138が、検索により得られた会議記録データを情報処理装置121に送信する。また、ステップS1013において、通信処理部138が、取得要求(図10(A)のS1001)に該当する会議記録データが保存されていないことを情報処理装置121に通知する。   In step S <b> 1014, the communication processing unit 138 transmits the conference record data obtained by the search to the information processing apparatus 121. In step S1013, the communication processing unit 138 notifies the information processing apparatus 121 that the conference record data corresponding to the acquisition request (S1001 in FIG. 10A) is not stored.

図11は、情報処理装置による会議記録データの再生処理の例を説明するフローチャートである。また、図12は、情報処理装置における、会議記録データの再生に関わる画面構成例である。図12(A)に示すように、情報処理装置121における会議記録データの再生には専用アプリケーションを使用する。   FIG. 11 is a flowchart illustrating an example of a process for reproducing conference record data by the information processing apparatus. FIG. 12 is a screen configuration example related to the reproduction of conference record data in the information processing apparatus. As shown in FIG. 12A, a dedicated application is used to reproduce the conference record data in the information processing apparatus 121.

専用アプリケーションがユーザの指示より起動された場合、情報処理装置121は、図12(A)に示す画面をディスプレイ129に表示し、アカウント名とパスワードの入力を受け付ける(ステップS1101)。情報処理装置121は、入力を受け付けたアカウント名とパスワードとを用いて、認証処理を実行する。この認証処理は会議記録データを使用するために必要となる。   When the dedicated application is activated in response to a user instruction, the information processing apparatus 121 displays the screen illustrated in FIG. 12A on the display 129 and accepts input of an account name and a password (step S1101). The information processing apparatus 121 executes an authentication process using the account name and password that have been accepted. This authentication process is necessary to use the conference record data.

次に、情報処理装置121が、認証が成功したかを判断する(ステップS1102)。認証が失敗した場合は、情報処理装置121は以降の表示処理を行わない。認証が成功した場合、再生処理部126が、HDD125に保存されている会議記録データの一覧(リスト)を、表示処理部130を介してディスプレイ129に表示する(ステップS1103)。再生処理部126が、会議記録データに対応付けられている注目情報内の評価値515(図8(B))が高い会議記録データを優先してリストの上位に表示するようにしてもよい。   Next, the information processing apparatus 121 determines whether the authentication is successful (step S1102). If the authentication fails, the information processing apparatus 121 does not perform subsequent display processing. If the authentication is successful, the playback processing unit 126 displays a list of conference recording data stored in the HDD 125 on the display 129 via the display processing unit 130 (step S1103). The reproduction processing unit 126 may preferentially display the conference record data having a high evaluation value 515 (FIG. 8B) in the attention information associated with the conference record data at the top of the list.

図12(B)は、会議記録データの一覧の表示画面を示す。この例では、会議記録データの一覧には、会議場所、参加者名、日時など、会議参加者が参加した会議を一意に識別可能な情報が表示される。   FIG. 12B shows a display screen for a list of conference record data. In this example, the list of conference record data displays information that can uniquely identify the conference in which the conference participant has participated, such as the conference location, the participant name, and the date and time.

図11に戻って、情報処理装置121のユーザは、会議記録データの一覧から再生したい会議記録データを選択する。これにより、情報処理装置121が、当該会議記録データの選択指示を受け付ける(ステップS1104)。   Returning to FIG. 11, the user of the information processing apparatus 121 selects conference record data to be reproduced from the list of conference record data. As a result, the information processing apparatus 121 receives an instruction to select the conference recording data (step S1104).

再生処理部126が、受け付けられた選択指示にしたがって、会議記録データをディスプレイ129に表示する(ステップS1105)。   The reproduction processing unit 126 displays the conference record data on the display 129 in accordance with the accepted selection instruction (step S1105).

図12(C)は、図11のステップS1105において表示される画面を示す。再生処理部126は、表示欄621に会議の属性情報として会議の場所、参加者、時刻などを表示する。また、再生処理部126は、表示欄622に、会議記録データに含まれる動画を表示する。ユーザは、表示欄622にタッチ等することで、当該動画の再生指示を行うことができる。   FIG. 12C shows a screen displayed in step S1105 of FIG. The reproduction processing unit 126 displays the meeting location, participants, time, and the like as attribute information of the meeting in the display field 621. In addition, the reproduction processing unit 126 displays the moving image included in the conference record data in the display field 622. The user can issue a playback instruction for the moving image by touching the display field 622 or the like.

次に、ステップ1106にて、再生処理部126は、図12(C)中の表示欄622に表示された動画の再生指示を受け付けたかを判断する。再生処理部126が動画の再生指示を受け付けた場合は、処理がステップS1107に進む。再生処理部126が動画の再生指示を受け付けていない場合は、処理がステップS1106に戻る。   Next, in step 1106, the reproduction processing unit 126 determines whether or not an instruction to reproduce the moving image displayed in the display field 622 in FIG. When the reproduction processing unit 126 receives a moving image reproduction instruction, the process proceeds to step S1107. If the reproduction processing unit 126 has not received a moving image reproduction instruction, the process returns to step S1106.

ステップ1107において、再生処理部126が、会議記録データに対応付けられた注目情報にしたがって動画を再生する(ステップS1107)。具体的には、再生処理部126は、再生指示を受け付けた動画に対応するタグセットID508,512(図8(A),(B))に紐付けられた注目情報511を取得する。そして、再生処理部126は、取得した注目情報に含まれる注目領域513について時間514に設定された時間分、動画再生する。   In step 1107, the reproduction processing unit 126 reproduces the moving image according to the attention information associated with the conference record data (step S1107). Specifically, the reproduction processing unit 126 acquires attention information 511 associated with tag set IDs 508 and 512 (FIGS. 8A and 8B) corresponding to the moving image for which the reproduction instruction has been received. Then, the reproduction processing unit 126 reproduces the moving image for the time set in the time 514 with respect to the attention area 513 included in the acquired attention information.

本実施例の会議記録システムは、会議を記録する時に各参加者の視認領域を抽出し、複数の視認領域が重なったことを検知し、それが一定時間以上継続した場合に、重なった視認領域及び時間の動画部分に注目情報タグを付与し記録する。これにより、会議後に、会議参加者が注目した会議内容に絞って再生し、会議内容を短時間で振り返ることが可能となる。   The conference recording system of the present embodiment extracts the visual recognition area of each participant when recording the conference, detects that the multiple visual recognition areas overlap, and if the visual recognition area continues for a certain time or more, the overlapping visual recognition area In addition, the attention information tag is assigned to the moving image portion of time and recorded. As a result, after the conference, it is possible to reproduce the conference contents focused on by the conference participants and review the conference contents in a short time.

(実施例2)
実施例2の会議記録システムは、会議記録データに対応する注目情報にオブジェクト情報を付与し、当該オブジェクト情報に応じて動画再生を行う。オブジェクト情報は、注目情報に含まれるオブジェクトの種類を示す種別情報である。実施例2の会議記録システムは、実施例1の会議記録システムとは、会議記録データを記録する時に、オブジェクト情報を付与し記録することと、当該種別情報が示すオブジェクトに応じて再生方法を切り替えることのみが異なる。したがって、実施例1と同様の部分に関しては同一番号を付けて省略し、異なる部分のみを以下に説明する。
(Example 2)
The conference recording system according to the second embodiment adds object information to attention information corresponding to conference recording data, and performs moving image reproduction according to the object information. The object information is type information indicating the type of object included in the attention information. The conference recording system according to the second embodiment is different from the conference recording system according to the first embodiment in that when recording conference recording data, object information is added and recorded, and the playback method is switched according to the object indicated by the type information. Only thing is different. Therefore, the same parts as those in the first embodiment are designated by the same reference numerals and omitted, and only different parts will be described below.

図13は、会議記録装置が実行するオブジェクト抽出処理の例を説明する図である。
この例では、オブジェクト抽出処理は、図4のステップS310とステップS311の間に実行される。本実施例では、抽出対象のオブジェクトは、スライドと、人と、その他とする。スライドは、プロジェクタなどで資料を投影するスライドを指す。
FIG. 13 is a diagram for explaining an example of object extraction processing executed by the conference recording apparatus.
In this example, the object extraction process is executed between step S310 and step S311 in FIG. In this embodiment, the objects to be extracted are a slide, a person, and others. A slide refers to a slide on which data is projected by a projector or the like.

図15は、実施例2における注目情報の構成の一例を示す図である。注目情報911は、タグセットID512乃至評価値515に加え、オブジェクト種類916を有する。オブジェクト種類916は、オブジェクト情報である。   FIG. 15 is a diagram illustrating an example of a configuration of attention information in the second embodiment. The attention information 911 includes an object type 916 in addition to the tag set ID 512 to the evaluation value 515. The object type 916 is object information.

図13に戻って、会議記録装置101の注目情報処理部108は、図4のステップS310の処理において記録した会議記録データに対応付けられている注目情報にスライド識別子があるかを判定する(ステップS1301)。具体的には、注目情報処理部108は、注目情報に含まれる注目領域がスライド識別子を含むかを判定する。スライド識別子は、スライドの範囲(スライド領域)を識別する識別情報である。スライド識別子は、例えば、スライドに埋め込んだマーカ等である。   Returning to FIG. 13, the attention information processing unit 108 of the conference recording apparatus 101 determines whether or not the attention information associated with the conference recording data recorded in the process of step S310 in FIG. S1301). Specifically, the attention information processing unit 108 determines whether the attention area included in the attention information includes a slide identifier. The slide identifier is identification information for identifying a slide range (slide area). The slide identifier is, for example, a marker embedded in the slide.

注目情報にスライド識別子がない場合は、処理がステップS1305に進む。注目情報にスライド識別子がある場合は、処理がステップS1302に進む。そして、注目情報処理部108が、スライド識別子に基づいて、注目情報の元動画であるパノラマ画像230からスライド領域を抽出する(ステップS1302)。   If there is no slide identifier in the attention information, the process proceeds to step S1305. If the attention information includes a slide identifier, the process proceeds to step S1302. Then, the attention information processing unit 108 extracts a slide area from the panoramic image 230 that is the original moving image of the attention information based on the slide identifier (step S1302).

図14(A)は、パノラマ画像からのスライド領域の抽出処理を説明する図である。パノラマ画像230内の太線の枠で囲まれた領域801が、注目情報に含まれる注目領域である。注目情報処理部108は、注目領域801にスライド識別子803が含まれている場合に、スライド識別子803を使用し、パノラマ画像230からスライド領域802を抽出する。   FIG. 14A is a diagram for explaining the extraction process of the slide area from the panoramic image. An area 801 surrounded by a thick line frame in the panoramic image 230 is an attention area included in the attention information. When the attention area 801 includes the slide identifier 803, the attention information processing unit 108 extracts the slide area 802 from the panoramic image 230 using the slide identifier 803.

図13に戻って、注目情報処理部108が、注目情報が有するオブジェクト種類916に“スライド”を記録する(ステップS1303)。続いて、注目情報処理部108が、注目情報に含まれる注目領域513の座標情報を、抽出したスライド領域の座標情報で更新し記録する(ステップS1304)。   Returning to FIG. 13, the attention information processing unit 108 records “slide” in the object type 916 included in the attention information (step S <b> 1303). Subsequently, the attention information processing unit 108 updates and records the coordinate information of the attention area 513 included in the attention information with the coordinate information of the extracted slide area (step S1304).

次に、注目情報処理部108が、注目情報に含まれる時間514を、1フレーム分の時間に更新して記録する(ステップS1305)。これは、注目情報に含まれるオブジェクトがスライドである場合は、注目情報を動画ではなく静止画像として再生できるようにするためである。   Next, the attention information processing unit 108 updates and records the time 514 included in the attention information to a time corresponding to one frame (step S1305). This is because when the object included in the attention information is a slide, the attention information can be reproduced as a still image instead of a moving image.

次に、注目情報処理部108が、注目情報に対して動体検出処理を実行する(ステップS1306)。そして、注目情報処理部108が、動体検出処理の結果に基づいて、注目領域内に人がいるか、つまり注目領域内のオブジェクトが人であるかを判定する(ステップS1307)。注目領域内に人がいない場合は、処理がステップS1312に進む。注目領域内に人がいる場合は、処理がステップS1308に進む。そして、注目情報処理部108が、注目情報に含まれるオブジェクト種類916に“人”を記録する。   Next, the attention information processing unit 108 performs a moving object detection process on the attention information (step S1306). The attention information processing unit 108 determines whether there is a person in the attention area, that is, whether the object in the attention area is a person based on the result of the moving object detection process (step S1307). If there is no person in the attention area, the process proceeds to step S1312. If there is a person in the attention area, the process proceeds to step S1308. The attention information processing unit 108 records “person” in the object type 916 included in the attention information.

図14(B)は、パノラマ画像からの人の検出を説明する図である。注目情報処理部108は、パノラマ画像230内の注目領域804に人がいることを検出すると、オブジェクト種類916に“人”を記録する。   FIG. 14B is a diagram illustrating detection of a person from a panoramic image. When the attention information processing unit 108 detects that a person is in the attention area 804 in the panoramic image 230, the attention information processing unit 108 records “person” in the object type 916.

図13に戻って、注目情報処理部108が、動画音声処理部106に指示して、会議記録データを解析し、注目情報の時間514が含まれる発声区間を抽出する(ステップS1309)。   Returning to FIG. 13, the attention information processing unit 108 instructs the video / audio processing unit 106 to analyze the conference recording data, and extracts a speech section including the time 514 of the attention information (step S 1309).

次に、注目情報処理部108が、発声区間が注目情報の時間514より長いかを判定する(ステップS1310)。発声区間が注目情報の時間514より長い場合は、処理がステップS1311に進む。そして、注目情報処理部108が、注目情報の時間514を発声区間で上書きして記録する(ステップS1311)。これは、注目領域内に人がいる場合は発言中である可能性が高く、発声区間を途中で区切り、内容理解が阻害されることを防ぐためである。ステップS1310の判定処理で、注目情報時間より発声区間が短い場合は、注目情報時間514は更新しない。   Next, the attention information processing unit 108 determines whether the utterance section is longer than the time 514 of the attention information (step S1310). If the utterance section is longer than the time 514 of the attention information, the process proceeds to step S1311. Then, the attention information processing unit 108 overwrites and records the time 514 of the attention information with the utterance section (step S1311). This is because when there is a person in the region of interest, there is a high possibility that the user is speaking, and the utterance section is divided halfway to prevent content understanding from being hindered. If it is determined in step S1310 that the utterance section is shorter than the attention information time, the attention information time 514 is not updated.

ステップS1312において、注目情報処理部108が、ステップS1301の判定処理でスライド識別子が抽出されたかを判定する(ステップS1312)。スライド識別子が抽出された場合は、処理を終了する。スライド識別子が抽出されなかった場合は、処理がステップS1313に進む。そして、注目情報処理部108が、注目情報に含まれる領域513と時間514を変更せず、オブジェクト種類916に”その他”を記録する。   In step S1312, the attention information processing unit 108 determines whether the slide identifier is extracted in the determination process of step S1301 (step S1312). If the slide identifier is extracted, the process ends. If the slide identifier has not been extracted, the process proceeds to step S1313. Then, the attention information processing unit 108 records “others” in the object type 916 without changing the area 513 and the time 514 included in the attention information.

図13乃至図15を参照して説明した処理により、会議記録データに対応付けられている注目情報に何が写っているのかを記録することが可能となる。   The processing described with reference to FIGS. 13 to 15 makes it possible to record what appears in the attention information associated with the conference record data.

図16は、実施例2における会議記録データの再生処理を説明するフローチャートである。情報処理装置121は、会議記録データをサーバ111から取得し、オブジェクト種類916に応じて会議記録データの再生方法を切り替える。まず、情報処理装置121の再生処理部126が、会議記録データを一覧表示する(ステップS1501)。例えば、再生処理部126は、図12(B)に示す画面を表示する。   FIG. 16 is a flowchart for explaining the process of reproducing conference record data in the second embodiment. The information processing apparatus 121 acquires the conference record data from the server 111 and switches the method for reproducing the conference record data according to the object type 916. First, the reproduction processing unit 126 of the information processing apparatus 121 displays a list of conference recording data (step S1501). For example, the reproduction processing unit 126 displays the screen shown in FIG.

次に、再生処理部126が、会議記録データの選択指示を受け付けたかを判断する(ステップS1502)。会議記録データの選択指示を受け付けていない場合は、処理がステップS1502に戻る。会議記録データの選択指示を受け付けた場合は、処理がステップS1503に進む。   Next, it is judged whether the reproduction | regeneration processing part 126 received the selection instruction | indication of meeting recording data (step S1502). If a meeting record data selection instruction has not been received, the process returns to step S1502. If a meeting record data selection instruction has been received, the process advances to step S1503.

次に、再生処理部126が、選択された会議記録データに対応付けられる注目情報のオブジェクト種類916を判断する(ステップS1503)。オブジェクト種類916に“スライド”が指定されている場合は、処理がステップS1504に進む。そして、再生処理部126が、注目情報に含まれる領域情報913に従い、スライド画像を表示(静止画再生)する(ステップS1504)。   Next, the reproduction processing unit 126 determines the object type 916 of attention information associated with the selected conference record data (step S1503). If “slide” is designated as the object type 916, the process advances to step S1504. Then, the reproduction processing unit 126 displays the slide image (still image reproduction) according to the area information 913 included in the attention information (step S1504).

図17は、情報処理装置の画面表示例を示す図である。再生処理部126は、領域1703に、スライド画像を表示する。   FIG. 17 is a diagram illustrating a screen display example of the information processing apparatus. The reproduction processing unit 126 displays a slide image in the area 1703.

図16に戻って、注目情報のオブジェクト種類916に“人”又は“その他”が指定されている場合は、再生処理部126は、注目情報に含まれる領域情報913と時間514に従い、動画を再生する(ステップS1505)。具体的には、再生処理部126は、図17中の領域1704において、時間514に設定されている時間分、動画を再生する。オブジェクト種類が人である場合には、時間514に設定されている時間は、図13のステップS1311の処理による更新後の時間である。したがって、この場合には、再生処理部126は、注目情報の時間として設定されている発生区間の分の時間だけ動画を再生する。   Returning to FIG. 16, when “person” or “other” is designated as the object type 916 of the attention information, the reproduction processing unit 126 reproduces the moving image according to the area information 913 and the time 514 included in the attention information. (Step S1505). Specifically, the reproduction processing unit 126 reproduces the moving image for the time set in the time 514 in the area 1704 in FIG. When the object type is a person, the time set for the time 514 is the time after the update by the process of step S1311 in FIG. Therefore, in this case, the reproduction processing unit 126 reproduces the moving image for the time corresponding to the occurrence section set as the time of the attention information.

本実施例の会議記録システムによれば、会議において注目を集めた領域に対応するオブジェクト種類に応じて適切な再生時間で動画再生を行うことが可能となる。   According to the conference recording system of the present embodiment, it is possible to perform moving image playback in an appropriate playback time according to the object type corresponding to the area that attracted attention in the conference.

(その他の実施例)
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。この場合、そのプログラム、及び該プログラムを記憶した記憶媒体は本発明を構成することになる。
(Other examples)
The present invention can also be realized by executing the following processing. That is, software (program) that realizes the functions of the above-described embodiments is supplied to a system or apparatus via a network or various storage media, and a computer (or CPU, MPU, etc.) of the system or apparatus reads the program. It is a process to be executed. In this case, the program and the storage medium storing the program constitute the present invention.

101 会議記録装置
121 情報処理装置
131 サーバ
101 conference recording device 121 information processing device 131 server

Claims (13)

会議内容を記録する会議記録装置と、前記記録された会議内容を再生する情報処理装置とを備えるシステムであって、
前記会議記録装置は、
会議での映像/音声に関する会議データを取得する取得手段と、
前記取得された会議データに基づいて、会議参加者が注目したシーンに関する注目情報を作成する作成手段と、
前記会議データを前記注目情報と対応付けて記録する記録手段とを備え、
前記情報処理装置は、
前記会議記録装置から前記記録された会議データを取得する取得手段と、
前記取得された会議データを、当該会議データに対応する注目情報にしたがって再生する再生手段とを備える
ことを特徴とする会議記録システム。
A system comprising a conference recording device that records conference content, and an information processing device that reproduces the recorded conference content,
The conference recording device
Acquisition means for acquiring conference data relating to video / audio at the conference;
Creating means for creating attention information about a scene that a conference participant has paid attention to based on the acquired meeting data;
Recording means for recording the conference data in association with the attention information,
The information processing apparatus includes:
Obtaining means for obtaining the recorded conference data from the conference recording device;
A conference recording system comprising: a reproducing unit that reproduces the acquired conference data in accordance with attention information corresponding to the conference data.
前記会議記録装置が備える作成手段は、
前記取得された会議データに含まれる映像から前記会議参加者の視認領域を抽出し、
前記抽出された視認領域が重なる時間が規定時間以上続いたかを判断し、
前記視認領域が重なる時間が規定時間以上続いた場合に、前記視認領域が重なる時間分の前記視認領域に対応する映像に関する情報を前記注目情報として生成する
ことを特徴とする請求項1に記載の会議記録システム。
The creation means provided in the conference recording device includes:
Extracting the viewing area of the conference participant from the video included in the acquired conference data;
Determining whether the extracted viewing area overlaps for a specified time or more,
The information regarding the image | video corresponding to the said visual recognition area for the time for which the said visual recognition area overlaps is produced | generated as said attention information when the time when the said visual recognition area overlaps more than regulation time. Conference recording system.
前記会議記録装置が備える作成手段は、
前記会議データに含まれる映像のフレームにおける前記会議参加者の視認領域が重なる重複領域を取得し、
隣り合うフレーム同士で前記重複領域が重なることが規定フレーム数以上連続するかを判断し、
隣り合うフレーム同士で前記重複領域が重なることが規定フレーム数以上連続する場合に、前記視認領域が重なる時間が規定時間以上続いたと判断する
ことを特徴とする請求項2に記載の会議記録システム。
The creation means provided in the conference recording device includes:
Obtaining an overlapping area where the viewing area of the conference participant overlaps in the video frame included in the conference data;
Determining whether or not the overlapping region overlaps between adjacent frames continues for a predetermined number of frames or more,
3. The conference recording system according to claim 2, wherein when the overlapping area overlaps between adjacent frames for a predetermined number of frames or more, it is determined that the time for which the visual recognition area overlaps continues for a specified time or longer.
前記会議記録装置が備える作成手段は、
前記重複領域が重なることが前記規定フレーム数以上連続する場合に、当該連続するフレームにおける前記視認領域の論理和演算により得られる領域である注目領域の座標情報と、当該連続するフレームの数に対応する時間情報とを、前記注目情報に設定する
ことを特徴とする請求項3に記載の会議記録システム。
The creation means provided in the conference recording device includes:
Corresponds to the coordinate information of the region of interest, which is the region obtained by the logical OR operation of the visual recognition region in the continuous frame, and the number of the continuous frames, when the overlapping regions overlap for the specified number of frames or more. 4. The conference recording system according to claim 3, wherein time information to be set is set as the attention information.
前記情報処理装置が備える再生手段は、前記会議データに対応する注目情報に設定された前記注目領域の座標情報と前記時間情報とに基づいて、当該注目領域を当該時間情報が示す時間分、動画再生する
ことを特徴とする請求項4に記載の会議記録システム。
Based on the coordinate information and the time information of the attention area set in the attention information corresponding to the conference data, the reproduction means included in the information processing apparatus is a moving image corresponding to the time indicated by the time information of the attention area. The conference recording system according to claim 4, wherein the conference recording system is reproduced.
前記情報処理装置が備える再生手段は、前記会議データのリストを画面表示し、
前記リストから選択された会議データに対応する注目情報に設定された注目領域について動画再生する
ことを特徴とする請求項5に記載の会議記録システム。
The reproduction means provided in the information processing apparatus displays the conference data list on the screen,
6. The conference recording system according to claim 5, wherein a moving image is reproduced for a region of interest set in attention information corresponding to conference data selected from the list.
前記会議記録装置が備える作成手段は、さらに、
前記注目情報に設定された前記注目領域からオブジェクトを抽出し、
前記抽出したオブジェクトの種類を示す種別情報を前記注目情報に設定し、
前記情報処理装置が備える前記再生手段は、前記取得された会議データに対応する注目情報に設定されている種別情報が示すオブジェクトの種別に応じて、当該会議データの再生方法を切り換える
ことを特徴とする請求項4乃至6のいずれか1項に記載の会議記録システム。
The creation means provided in the conference recording device further includes:
Extracting an object from the attention area set in the attention information;
Set the type information indicating the type of the extracted object in the attention information,
The reproduction means included in the information processing apparatus switches the reproduction method of the conference data according to the type of the object indicated by the type information set in the attention information corresponding to the acquired conference data. The conference recording system according to any one of claims 4 to 6.
前記会議記録装置が備える作成手段は、
前記注目情報に設定された前記注目領域から抽出したオブジェクトがスライドである場合に、前記注目情報に設定された注目領域の座標情報を前記スライドの領域の座標情報に更新するとともに、前記注目情報に設定された時間情報を1フレーム分の時間情報に更新し、
前記情報処理装置が備える前記再生手段は、前記更新後の時間情報にしたがって、前記スライドを静止画再生する
ことを特徴とする請求項7に記載の会議記録システム。
The creation means provided in the conference recording device includes:
When the object extracted from the attention area set in the attention information is a slide, the coordinate information of the attention area set in the attention information is updated to the coordinate information of the area of the slide, and the attention information is updated. Update the set time information to the time information for one frame,
The conference recording system according to claim 7, wherein the reproduction unit included in the information processing apparatus reproduces the slide as a still image according to the updated time information.
前記会議記録装置が備える作成手段は、
前記注目情報に設定された前記注目領域から抽出したオブジェクトが人物である場合に、前記注目情報に設定された時間情報が含まれる発生区間を前記会議データから抽出し、
前記抽出された発生区間が前記注目情報に設定された時間情報が示す時間より長い場合に、当該注目情報に設定された時間情報を当該発生区間で更新し、
前記情報処理装置が備える前記再生手段は、前記更新後の時間情報が示す時間分、前記注目領域を動画再生する
ことを特徴とする請求項7に記載の会議記録システム。
The creation means provided in the conference recording device includes:
When the object extracted from the attention area set in the attention information is a person, the occurrence section including the time information set in the attention information is extracted from the meeting data,
When the extracted occurrence interval is longer than the time indicated by the time information set in the attention information, the time information set in the attention information is updated in the occurrence interval,
The conference recording system according to claim 7, wherein the reproduction unit included in the information processing apparatus reproduces the attention area as a moving image for a time indicated by the updated time information.
前記会議記録装置が備える作成手段は、前記会議を全方位カメラを用いた撮影により得られた前記会議データを取得する
ことを特徴とする請求項1乃至9のいずれか1項に記載の会議記録システム。
10. The conference recording according to claim 1, wherein the creation unit included in the conference recording apparatus acquires the conference data obtained by photographing the conference using an omnidirectional camera. system.
会議での映像/音声に関する会議データを取得する取得手段と、
前記取得された会議データに基づいて、会議参加者が注目した情報を示す注目情報を作成する作成手段と、
前記会議データを前記注目情報と対応付けて記録する記録手段とを備え、
前記記録された会議データは、当該会議データに対応する注目情報にしたがって再生される
ことを特徴とする会議記録装置。
Acquisition means for acquiring conference data relating to video / audio at the conference;
Creating means for creating attention information indicating information noticed by a conference participant based on the acquired meeting data;
Recording means for recording the conference data in association with the attention information,
The recorded conference data is reproduced according to attention information corresponding to the conference data.
会議内容を記録する会議記録装置と、前記記録された会議内容を再生する情報処理装置とを備えるシステムにおける会議記録再生方法であって、
前記会議記録装置が、会議での映像/音声に関する会議データを取得する工程と、
前記会議記録装置が、前記取得された会議データに基づいて、会議参加者が注目した情報を示す注目情報を作成する工程と、
前記会議記録装置が、前記会議データを前記注目情報と対応付けて記録する工程と、
前記情報処理装置が、前記会議記録装置から前記記録された会議データを取得する工程と、
前記情報処理装置が、前記取得された会議データを、当該会議データに対応する注目情報にしたがって再生する工程とを有する
ことを特徴とする会議記録再生方法。
A conference recording / reproducing method in a system comprising a conference recording device for recording conference content and an information processing device for reproducing the recorded conference content,
The conference recording device acquiring conference data relating to video / audio in a conference;
The conference recording device, based on the acquired conference data, creating attention information indicating information focused on by the conference participants;
The conference recording device recording the conference data in association with the attention information;
The information processing device acquiring the recorded conference data from the conference recording device;
The information processing apparatus includes a step of reproducing the acquired conference data according to attention information corresponding to the conference data.
請求項12に記載の会議記録再生方法をコンピュータに実行させる
ことを特徴とするコンピュータプログラム。
A computer program for causing a computer to execute the conference recording / reproducing method according to claim 12.
JP2013081869A 2013-04-10 2013-04-10 Conference recording system, conference recording device, conference recording-reproduction method, and computer program Pending JP2014204411A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013081869A JP2014204411A (en) 2013-04-10 2013-04-10 Conference recording system, conference recording device, conference recording-reproduction method, and computer program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013081869A JP2014204411A (en) 2013-04-10 2013-04-10 Conference recording system, conference recording device, conference recording-reproduction method, and computer program

Publications (1)

Publication Number Publication Date
JP2014204411A true JP2014204411A (en) 2014-10-27

Family

ID=52354461

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013081869A Pending JP2014204411A (en) 2013-04-10 2013-04-10 Conference recording system, conference recording device, conference recording-reproduction method, and computer program

Country Status (1)

Country Link
JP (1) JP2014204411A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017108356A (en) * 2015-12-11 2017-06-15 株式会社リコー Image management system, image management method and program
CN108959365A (en) * 2018-05-21 2018-12-07 广州视源电子科技股份有限公司 Minutes querying method, device, mobile terminal and storage medium
US10536668B2 (en) 2017-09-25 2020-01-14 Ricoh Company, Ltd. Communication terminal, image communication system, display control method, and non-transitory computer-readable medium
KR20200043894A (en) 2018-10-18 2020-04-28 벨페이스 가부시키가이샤 Review system for online communication, method, and computer program

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017108356A (en) * 2015-12-11 2017-06-15 株式会社リコー Image management system, image management method and program
US10536668B2 (en) 2017-09-25 2020-01-14 Ricoh Company, Ltd. Communication terminal, image communication system, display control method, and non-transitory computer-readable medium
CN108959365A (en) * 2018-05-21 2018-12-07 广州视源电子科技股份有限公司 Minutes querying method, device, mobile terminal and storage medium
CN108959365B (en) * 2018-05-21 2022-09-20 广州视源电子科技股份有限公司 Conference record query method and device, mobile terminal and storage medium
KR20200043894A (en) 2018-10-18 2020-04-28 벨페이스 가부시키가이샤 Review system for online communication, method, and computer program
US11348587B2 (en) 2018-10-18 2022-05-31 Bellface, Inc. Review system for online communication, method, and computer program

Similar Documents

Publication Publication Date Title
CN108900902B (en) Method, device, terminal equipment and storage medium for determining video background music
US20180160194A1 (en) Methods, systems, and media for enhancing two-dimensional video content items with spherical video content
CN112291627A (en) Video editing method and device, mobile terminal and storage medium
JP6128123B2 (en) Information processing apparatus, information processing method, and program
JP2007281680A (en) Image processor and image display method
KR20160098949A (en) Apparatus and method for generating a video, and computer program for executing the method
JP2009123196A (en) Image retrieval device
JP2014204411A (en) Conference recording system, conference recording device, conference recording-reproduction method, and computer program
JP2009033351A (en) Recording and reproducing device and method
JP2005094713A (en) Data display system, data display method, program and recording medium
JPWO2011021289A1 (en) Moving image processing apparatus, thumbnail image generation program, and thumbnail image generation method
JP6214762B2 (en) Image search system, search screen display method
EP2942949A1 (en) System for providing complex-dimensional content service using complex 2d-3d content file, method for providing said service, and complex-dimensional content file therefor
JP2016063477A (en) Conference system, information processing method and program
JP2010147509A (en) Video processor and video distribution system
US9538119B2 (en) Method of capturing moving picture and apparatus for reproducing moving picture
JP2017147697A (en) Information processing device, information processing method, and program
JP2012253559A (en) Recording/reproducing system and control method therefor
JP2006101076A (en) Method and device for moving picture editing and program
KR102066857B1 (en) object image tracking streaming system and method using the same
JP2017126856A (en) Information processing apparatus
JP2008090526A (en) Conference information storage device, system, conference information display device, and program
JP2020136821A (en) Information processing device and control method thereof, and program
JP7150590B2 (en) Electronics
JP7118379B1 (en) VIDEO EDITING DEVICE, VIDEO EDITING METHOD, AND COMPUTER PROGRAM