JP2024008632A - Information processing system, display method, program, and recording information creation system - Google Patents

Information processing system, display method, program, and recording information creation system Download PDF

Info

Publication number
JP2024008632A
JP2024008632A JP2022110652A JP2022110652A JP2024008632A JP 2024008632 A JP2024008632 A JP 2024008632A JP 2022110652 A JP2022110652 A JP 2022110652A JP 2022110652 A JP2022110652 A JP 2022110652A JP 2024008632 A JP2024008632 A JP 2024008632A
Authority
JP
Japan
Prior art keywords
information
importance
processing system
voice
information processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022110652A
Other languages
Japanese (ja)
Inventor
航太 長岡
Kota NAGAOKA
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2022110652A priority Critical patent/JP2024008632A/en
Publication of JP2024008632A publication Critical patent/JP2024008632A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Television Signal Processing For Recording (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Management Or Editing Of Information On Record Carriers (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide importance information regarding recorded information recorded at meetings, etc.
SOLUTION: An information processing system according to the present invention that provides information recorded by a device capable of recording audio and video to a terminal device includes an importance determining portion that determines importance information regarding recorded information for each time shorter than a recording time of the recorded information on the basis of at least one of recorded information including the voice or handwritten data associated with the recorded information, and a display information providing portion that provides the terminal device with information for displaying the importance information according to a recording time of the recorded information.
SELECTED DRAWING: Figure 1
COPYRIGHT: (C)2024,JPO&INPIT

Description

本発明は、情報処理システム、表示方法、プログラム、及び記録情報作成システムに関する。 The present invention relates to an information processing system, a display method, a program, and a recorded information creation system.

会議の議事録の作成を支援する技術として、会議中の参加者の発言を記録したり、会議中の映像を録画したりする技術が知られている。参加者等は再生ソフトを操作して発言や映像を再生できる。 2. Description of the Related Art As a technology for supporting the creation of minutes of a meeting, there is a known technology for recording the statements of participants during the meeting and the video recording of the meeting. Participants can playback comments and videos by operating playback software.

発言と映像をひも付けて表示する技術が知られている(例えば、特許文献1参照。)。特許文献1には、各ストロークの入力順若しくは入力時刻と、各ストロークの入力期間中に音声収録手段により収録された各音声を表す各音声情報とを互いに対応づけておき、ストロークと音声情報の対応を取りながら、ストロークを表示させると共に、音声情報に基づく各音声を発音させる技術が開示されている。 2. Description of the Related Art A technique is known in which a message and a video are linked and displayed (see, for example, Patent Document 1). Patent Document 1 discloses that the input order or input time of each stroke is associated with each audio information representing each audio recorded by the audio recording means during the input period of each stroke, and the stroke and audio information are A technique has been disclosed for displaying strokes and emitting each sound based on audio information while taking correspondence.

しかしながら、従来の技術では、例えば録画した映像や音声のどの部分が重要かわかりづらいという問題があった。すなわち、会議など長時間におよぶ時系列情報を閲覧者が閲覧する際に、どの時間の情報を閲覧すべきなのかといった提案がないと、閲覧者が全体を閲覧する必要が生じ、効率が悪い。 However, the conventional technology has a problem in that it is difficult to determine which parts of recorded video and audio are important, for example. In other words, when a viewer views time-series information that spans a long period of time, such as a meeting, if there is no suggestion as to which period of information to view, the viewer will have to view the entire page, which is inefficient. .

本発明は、上記課題に鑑み、会議などで記録した記録情報について重要度情報を提供することを目的とする。 In view of the above-mentioned problems, the present invention aims to provide importance information regarding recorded information recorded at a meeting or the like.

上記課題に鑑み、本発明は、音声及び映像の記録が可能なデバイスが記録した情報を端末装置に提供する情報処理システムであって、少なくとも前記音声を含む記録情報、又は、前記記録情報に対応付けられている手書きデータの少なくとも一方に基づいて、前記記録情報の録画時間より短い時間ごとに、前記記録情報に関する重要度情報を決定する重要度決定部と、前記重要度情報を前記記録情報の記録時間に沿って表示するための情報を前記端末装置に提供する表示情報提供部と、を有する。 In view of the above problems, the present invention provides an information processing system that provides information recorded by a device capable of recording audio and video to a terminal device, the system being compatible with at least the recorded information including the audio or the recorded information. an importance determining unit that determines importance information regarding the recorded information at intervals shorter than a recording time of the recorded information based on at least one of the attached handwritten data; and a display information providing unit that provides the terminal device with information to be displayed along the recording time.

会議などで記録した記録情報について重要度情報を提供することができる。 Importance information can be provided for recorded information recorded at meetings and the like.

ヒートマップにより表された活発度を示す図である。It is a figure which shows the activity level expressed by the heat map. 遠隔会議中に実行されたアプリの画面を周囲のパノラマ画像と共に保存する記録情報の作成の概略を説明する図である。FIG. 2 is a diagram illustrating the outline of creating recording information that saves the screen of an application executed during a remote conference together with a surrounding panoramic image. 記録情報作成システムの構成例を示す図である。It is a diagram showing an example of the configuration of a recorded information creation system. 情報処理システム及び端末装置のハードウェア構成例を示す図である。1 is a diagram illustrating an example of a hardware configuration of an information processing system and a terminal device. ミーティングデバイスのハードウェア構成例を示す図である。FIG. 2 is a diagram illustrating an example of a hardware configuration of a meeting device. ミーティングデバイスの撮像範囲を説明する図である。FIG. 3 is a diagram illustrating an imaging range of a meeting device. パノラマ画像と話者画像の切り出しを説明する図である。FIG. 3 is a diagram illustrating cutting out of a panoramic image and a speaker image. 電子黒板の一例のハードウェア構成図である。FIG. 2 is a hardware configuration diagram of an example of an electronic whiteboard. 記録情報作成システムにおける端末装置、ミーティングデバイス、及び、情報処理システムの機能をブロックに分けて説明する機能ブロック図の一例である。1 is an example of a functional block diagram illustrating functions of a terminal device, a meeting device, and an information processing system in the recorded information creation system divided into blocks. 情報記憶部が記憶している動画記録情報の一例を示す図である。It is a figure which shows an example of the moving image recording information which the information storage part memorize|stores. コミュニケーション管理部が管理する会議情報の一例を示す図である。FIG. 3 is a diagram illustrating an example of conference information managed by a communication management section. 対応付け情報記憶部に記憶された、会議IDと機器識別情報とが対応付けられた対応付け情報の一例を示す図である。FIG. 3 is a diagram showing an example of association information in which a conference ID and device identification information are associated with each other, which is stored in an association information storage unit. 記録情報記憶部に記憶されている記録情報とオブジェクト情報の一例を示す図である。FIG. 3 is a diagram showing an example of recorded information and object information stored in a recorded information storage unit. 記録情報の一部であるテキストデータの構造を説明する図である。FIG. 2 is a diagram illustrating the structure of text data that is part of recorded information. 結合画像動画と共に保存される話者切り替わりデータの一例を示す図である。FIG. 7 is a diagram illustrating an example of speaker switching data that is saved together with a combined image video. 電子黒板の機能をブロックに分けて説明する機能ブロック図の一例である。1 is an example of a functional block diagram illustrating functions of an electronic whiteboard divided into blocks. 機器情報記憶部に記憶されている機器識別情報等の一例を示す図である。FIG. 3 is a diagram illustrating an example of device identification information etc. stored in a device information storage unit. オブジェクト情報記憶部に保存されているオブジェクト情報を説明する図である。FIG. 3 is a diagram illustrating object information stored in an object information storage unit. 手書きデータを構成するストロークデータの構造を説明する図である。FIG. 2 is a diagram illustrating the structure of stroke data that constitutes handwritten data. 情報記録アプリがパノラマ画像、話者画像及びアプリの画面を録画する手順を示すシーケンス図の一例である。FIG. 2 is an example of a sequence diagram showing a procedure for an information recording application to record a panoramic image, a speaker image, and an application screen; FIG. 閲覧者が情報記録アプリを操作して結合画像動画を表示する手順を示すシーケンス図の一例である。It is an example of a sequence diagram showing a procedure in which a viewer operates an information recording application to display a combined image video. 情報記録アプリが表示する、結合画像動画表示画面の一例を示す図である。FIG. 3 is a diagram showing an example of a combined image moving image display screen displayed by the information recording application. 重要度決定部が活発度を決定する手順を示すフローチャート図の一例である。FIG. 7 is an example of a flowchart illustrating a procedure in which the importance determining unit determines the degree of activity; FIG. 活発度を輝度で表したヒートマップの一例を示す図である。It is a figure which shows an example of the heat map which expresses the activity degree by brightness|luminance. 活発度を色のグラデーションで表したヒートマップの一例を示す図である。It is a figure which shows an example of the heat map which expresses the degree of activity by color gradation. 複数の活発度でそれぞれ表された複数のヒートマップの一例を示す図である。It is a figure showing an example of a plurality of heat maps each expressed by a plurality of degrees of activity. キーワードの出現頻度を活発度とするヒートマップの一例を示す図である。FIG. 3 is a diagram showing an example of a heat map in which the frequency of appearance of keywords is used as the degree of activity. 活発度決定要素ごとに表示されたヒートマップの一例を示す図である。FIG. 3 is a diagram showing an example of a heat map displayed for each activity determining factor. 拡大されたヒートマップの一例を示す図である。FIG. 3 is a diagram showing an example of an enlarged heat map. 参加者の活躍度を活発度とするヒートマップの一例を示す図である。It is a figure which shows an example of the heat map which uses the activity level of a participant as an activity level. 色を用いずに活発度が大きい時間帯を表示する活発度の表示方法を説明する図である。FIG. 3 is a diagram illustrating a method of displaying activity levels that displays time periods with high activity levels without using colors.

以下、本発明を実施するための形態の一例として、記録情報作成システムと記録情報作成システムが行う表示方法について説明する。 Hereinafter, as an example of a mode for implementing the present invention, a recorded information creation system and a display method performed by the recorded information creation system will be described.

<記録情報の表示の概略>
本実施形態の記録情報作成システムは、会議中に記録された映像(後述する結合画像動画)、音声、及びオブジェクト情報(電子黒板に入力された情報)から、会議の活発度を時間帯ごとに計算する。活発度としては、
・ストロークの筆記の頻度
・発言回数
・話者数
・話者の切り替わり頻度
・キーワードの出現頻度(発言又は手書き)
等の活発度決定要素を利用することができる。記録情報作成システムは、活発度を時系列に表示することで、会議の記録情報のどの部分を閲覧者が閲覧すべきなのかわかりやすくなる。
<Outline of display of recorded information>
The recorded information creation system of this embodiment calculates the level of activity of a meeting for each time period from video (combined image video to be described later), audio, and object information (information input to the electronic blackboard) recorded during the meeting. calculate. As for the activity level,
- Frequency of written strokes - Number of utterances - Number of speakers - Frequency of switching speakers - Frequency of keyword appearance (spoken or handwritten)
It is possible to use activity determining factors such as: By displaying the degree of activity in chronological order, the record information creation system makes it easier for viewers to understand which part of the meeting record information they should view.

図1は、ヒートマップにより表された活発度を示す図である。再生画面の下側のタイムインジケータ241dに沿って、ヒートマップ246が表示されている。図1のヒートマップ246は、上記の5つの活発度決定要素による活発度が統合された活発度を示す。タイムインジケータ241dは、音楽や動画再生ソフトなどに備わる機能のひとつで、音楽や動画の再生箇所を表示する棒状の表示部品である。ヒートマップ246は、活発度の大小が色の濃さや輝度で視覚的に表現されており、どの時間に会議が盛り上がっていたかを可視化できる。 FIG. 1 is a diagram showing the degree of activity represented by a heat map. A heat map 246 is displayed along the time indicator 241d at the bottom of the playback screen. The heat map 246 in FIG. 1 shows the degree of activity in which the degrees of activity based on the five activity determining factors described above are integrated. The time indicator 241d is one of the functions provided in music or video playback software, and is a bar-shaped display component that displays the playback location of music or video. The heat map 246 visually expresses the level of activity using color density and brightness, making it possible to visualize at what time the meeting was most exciting.

閲覧者は、ヒートマップ246を確認して、記録情報から閲覧すべき又はしたい部分をより速く発見できるようになる。 By checking the heat map 246, the viewer can more quickly find the part of the recorded information that he or she should or wants to view.

<用語について>
ヒートマップとは一連の数値を色や濃淡として表現した可視化グラフの一種である。
<About terms>
A heat map is a type of visualization graph that expresses a series of numerical values as colors and shades.

会議とは、会合して評議することをいう。会議は、コンベンション、集会、集まり、ミーティング、評議、発表会、プレゼンテーション、コンファレンス、談合、会談、合議、話合い、セミナー等と呼ばれてもよい。 A meeting means to meet and discuss matters. A conference may also be called a convention, gathering, gathering, meeting, council, recital, presentation, conference, collusion, meeting, discussion, discussion, seminar, etc.

重要度情報とは、記録情報のうちどの時間の情報を閲覧すべきなのかを示す情報である。閲覧すべきか否かは閲覧者や閲覧者の状況によって異なってよく、重要度情報は重要であるという可能性があればよい。例えば、重要とは、議論が活発であること、大事な会話が行われること、又は、特定の参加者が発言すること、などがある。本実施形態では、重要度情報を活発度という用語で説明する。 Importance information is information that indicates which time of recorded information should be viewed. Whether or not the content should be viewed may vary depending on the viewer and the viewer's situation, and the importance information only needs to be that there is a possibility that the content is important. For example, what is important may mean that a discussion is active, that an important conversation is held, or that a particular participant makes a statement. In this embodiment, the importance level information will be explained using the term "activity level".

記録情報とは、例えば会議中に記録された音声を含む。記録情報に映像が含まれていてもよい。音声はテキストデータに変換されていてもよいし、変換されていなくてもよい。 The recorded information includes, for example, audio recorded during the meeting. The recorded information may include video. The audio may or may not be converted to text data.

記録時間は、記録情報が記録された時間(総時間)である。タイムインジケータ241dはこの記録時間を示す。したがって、ヒートマップ246は記録時間に沿って表示される。 The recording time is the time (total time) during which the recording information was recorded. A time indicator 241d indicates this recording time. Therefore, the heat map 246 is displayed along the recording time.

ユーザーがディスプレイに入力手段を押しつけてから連続的に移動させた後、ディスプレイから離すという一連の操作をストロークという。ストロークは、ディスプレイに接触することなく、ユーザーの動きを追跡することを含む。この場合、電子黒板は、例えばマウスやポインティングデバイスを使用して、ユーザーのジェスチャー、ユーザーの手又は足によるボタンの押下、又は他の方法で、ストロークを開始させてもよい。更に、ユーザーは、同じ又は異なるジェスチャー、ボタンを離す、又はマウスやポインティングデバイスを使用して、ストロークを終了させてもよい。 A series of operations in which the user presses an input device against the display, continuously moves it, and then releases it from the display is called a stroke. Stroking involves tracking the user's movements without touching the display. In this case, the electronic whiteboard may initiate a stroke by a user's gesture, by pressing a button with the user's hand or foot, or in other ways, for example using a mouse or pointing device. Additionally, the user may terminate the stroke using the same or a different gesture, releasing a button, or using a mouse or pointing device.

ストロークデータとは、入力手段により入力される座標の軌跡に基づいてディスプレイに表示される情報である。ストロークデータは適宜、補間されてよい。手書きデータとは、1つ以上のストロークデータを有するデータである。手書き入力とは、ユーザーによって、手書きデータが入力されることを示している。手書き入力は、タッチインターフェース、ペンやスタイラスなどの触覚オブジェクト、又はユーザーの体を使って実行されてもよい。また、手書き入力は、ジェスチャーベースの入力、手の動きの追跡入力、又はユーザーによる他のタッチフリー入力など、他のタイプの入力を介して実行されてもよい。本発明の実施形態では、手書き入力及び手書き入力データに言及するが、他の形態の手書き入力が利用されてもよい。 Stroke data is information displayed on a display based on a trajectory of coordinates input by an input means. Stroke data may be interpolated as appropriate. Handwritten data is data that includes one or more stroke data. Handwritten input indicates that handwritten data is input by the user. Handwriting input may be performed using a touch interface, a tactile object such as a pen or stylus, or the user's body. Handwriting input may also be performed via other types of input, such as gesture-based input, hand movement tracking input, or other touch-free input by the user. Although embodiments of the invention refer to handwritten input and handwritten input data, other forms of handwritten input may be utilized.

ストロークデータに基づいてディスプレイに表示される表示物をオブジェクトという。オブジェクトとは対象という意味であるが、本実施形態では表示対象などの意味である。ストロークデータが手書き認識して変換されたオブジェクトには、テキストの他、「済」などの決まった文字やマークとして表示されるスタンプ、円や星などの図形、直線等も含まれてよい。テキストとは主に1つ以上の文字を含む文字列(文字コード)であり、数字、記号なども含む。テキストを文字列という場合がある。 An object displayed on a display based on stroke data is called an object. The term "object" means a target, and in this embodiment, it means a display target. Objects converted by handwriting recognition of stroke data may include, in addition to text, fixed characters such as "done", stamps displayed as marks, figures such as circles and stars, straight lines, and the like. Text is a character string (character code) that mainly includes one or more characters, and also includes numbers, symbols, etc. Text is sometimes called a string.

<遠隔会議における議事録の作成方法の一例>
図2を参照して、パノラマ画像とアプリの画面を用いた議事録の作成方法の概略を説明する。図2は、遠隔会議中に実行されたアプリの画面を周囲のパノラマ画像と共に保存する記録情報の作成の概略を説明する図である。図2に示すように、図示する自拠点102にいるユーザーが遠隔会議サービスシステム90を利用して、他の拠点101と遠隔会議を行っている。
<An example of how to create minutes for a remote meeting>
With reference to FIG. 2, an outline of a method for creating minutes using a panoramic image and an application screen will be described. FIG. 2 is a diagram illustrating the outline of creation of recording information that saves the screen of an application executed during a remote conference together with a surrounding panoramic image. As shown in FIG. 2, a user at the illustrated base 102 is holding a remote conference with another base 101 using the remote conference service system 90.

本実施形態の記録情報作成システム100は、マイクとスピーカを備えたミーティングデバイス60が撮像した水平パノラマ画像(以下、パノラマ画像という)と、端末装置10が実行するアプリケーション(以下、アプリという)が作成する画面と、を用いて、記録情報(議事録)を作成する。音声については、記録情報作成システム100は、遠隔会議アプリ42が受信する音声と、ミーティングデバイス60が取得する音声とを合成して、記録情報に含める。以下、概略を説明する。 The recorded information creation system 100 of this embodiment is created by a horizontal panoramic image (hereinafter referred to as a panoramic image) captured by a meeting device 60 equipped with a microphone and a speaker, and an application executed by a terminal device 10 (hereinafter referred to as an application). Create recorded information (minutes) using the screen and . Regarding audio, the recorded information creation system 100 synthesizes the audio received by the remote conference application 42 and the audio acquired by the meeting device 60, and includes the synthesized audio in the recorded information. The outline will be explained below.

(1) 端末装置10では、後述する情報記録アプリ41と遠隔会議アプリ42とが動作している。この他、資料表示用のアプリなども動作していてよい。情報記録アプリ41は、端末装置10が出力する音声(遠隔会議アプリ42が他拠点から受信した音声を含む。)をミーティングデバイス60(第二の機器、機器の一例)に送信する。ミーティングデバイス60は、自身が取得している音声と、遠隔会議アプリ42の音声とをミキシング(合成)する。 (1) In the terminal device 10, an information recording application 41 and a remote conference application 42, which will be described later, are operating. In addition, an application for displaying materials may also be running. The information recording application 41 transmits the audio output by the terminal device 10 (including the audio received by the remote conference application 42 from another base) to the meeting device 60 (a second device, an example of a device). The meeting device 60 mixes (synthesizes) the audio that it has acquired and the audio of the remote conference application 42.

(2) ミーティングデバイス60はマイクを備え、音声を取得した方向に基づき、パノラマ画像から話者を切り出す処理を行い、話者画像を作成する。ミーティングデバイス60は、パノラマ画像と話者画像の両方を端末装置10に送信する。 (2) The meeting device 60 is equipped with a microphone, and creates a speaker image by cutting out the speaker from the panoramic image based on the direction in which the voice was acquired. The meeting device 60 transmits both the panoramic image and the speaker image to the terminal device 10.

(3) 端末装置10で動作する情報記録アプリ41は、パノラマ画像203と話者画像204を表示できる。情報記録アプリ41は、ユーザーが選択した任意のアプリ画面(例えば遠隔会議アプリ42の画面103)と、パノラマ画像203と話者画像204と、を結合する。例えば、左側にパノラマ画像203と話者画像204、右側に遠隔会議アプリ42の画面103が配置されるように、パノラマ画像203、話者画像204、アプリの画面103を結合する(以下、結合画像105という)。(3)の処理は繰り返し実行されるので、結合画像105は動画となる(以下、結合画像動画という)。また、情報記録アプリ41は、結合画像動画に合成された音声を結合して音声付きの動画を作成する。 (3) The information recording application 41 running on the terminal device 10 can display a panoramic image 203 and a speaker image 204. The information recording application 41 combines any application screen selected by the user (for example, the screen 103 of the remote conference application 42), the panoramic image 203, and the speaker image 204. For example, the panoramic image 203, the speaker image 204, and the app screen 103 are combined so that the panoramic image 203 and the speaker image 204 are placed on the left side, and the screen 103 of the remote conference app 42 is placed on the right side (hereinafter, the combined image 105). Since the process (3) is repeatedly executed, the combined image 105 becomes a moving image (hereinafter referred to as a combined image moving image). Furthermore, the information recording application 41 combines the synthesized audio with the combined image video to create a video with audio.

なお、本実施形態では、パノラマ画像203、話者画像204、アプリの画面103を結合する例を説明するが、情報記録アプリ41がこれらを別々に保存し、再生時に画面に配置してもよい。 Note that in this embodiment, an example will be described in which the panoramic image 203, the speaker image 204, and the application screen 103 are combined, but the information recording application 41 may store these separately and arrange them on the screen during playback. .

(4) 情報記録アプリ41は、編集作業(ユーザーによる不要箇所のカット)を受け付け、結合画像動画を完成させる。結合画像動画は記録情報の一部を構成する。 (4) The information recording application 41 accepts editing work (cutting of unnecessary parts by the user) and completes the combined image video. The combined image video constitutes part of the recorded information.

(5) 情報記録アプリ41は、作成した結合画像動画(音声付き)をストレージサービスシステム70に送信し保存しておく。 (5) The information recording application 41 transmits the created combined image video (with audio) to the storage service system 70 and stores it.

(6) また、情報記録アプリ41は、結合画像動画から音声のみを抽出しておき(結合前の音声を取っておいてもよい)、抽出した音声を、情報処理システム50に送信する。情報処理システム50は音声をテキストデータに変換する音声認識サービスシステム80に送信し、音声をテキスト化する。テキストデータには、録画開始から何分後に話したか、というデータも含まれる。 (6) Further, the information recording application 41 extracts only the audio from the combined image video (the audio before combining may be saved), and transmits the extracted audio to the information processing system 50. The information processing system 50 transmits the speech to a speech recognition service system 80 that converts the speech into text data, and converts the speech into text. The text data also includes data on how many minutes after the start of recording, the person spoke.

なお、リアルタイムのテキスト化の場合、ミーティングデバイス60が情報処理システム50に直接音声を送信する。情報処理システム50は音声認識により得られたテキストデータをリアルタイムに情報記録アプリ41に送信する。 Note that in the case of real-time text conversion, the meeting device 60 directly transmits audio to the information processing system 50. The information processing system 50 transmits text data obtained through voice recognition to the information recording application 41 in real time.

(7) 情報処理システム50は、結合画像動画を格納したストレージサービスシステム70に、テキストデータを追加で格納する。テキストデータは記録情報の一部を構成する。 (7) The information processing system 50 additionally stores text data in the storage service system 70 that stores the combined image video. Text data forms part of the recorded information.

なお、情報処理システム50は、ユーザーに対し利用したサービスに応じた課金処理を実行できる。例えば、課金はテキストデータ量、結合画像動画のファイルサイズ、処理時間などに基づいて算出される。 Note that the information processing system 50 can perform billing processing on the user according to the service used. For example, charges are calculated based on the amount of text data, the file size of the combined image video, processing time, and the like.

このように、結合画像動画には、ユーザーを含む周囲のパノラマ画像や話者画像が表示され、更に、遠隔会議アプリ42など、遠隔会議中に表示されたアプリの画面が表示される。遠隔会議の参加者や参加者でない者が、結合画像動画を議事録として閲覧した場合、遠隔会議中の様子が臨場感と共に再現される。 In this way, the combined image video displays a panoramic image of the surroundings including the user and an image of the speaker, and further displays the screen of an application displayed during the remote conference, such as the remote conference application 42. When a participant or a non-participant in a remote conference views the combined image video as minutes, the situation during the remote conference is reproduced with a sense of realism.

<システム構成例>
続いて、図3を参照して、記録情報作成システム100のシステム構成を説明する。図3は、記録情報作成システム100の構成例を示す。図3では、遠隔会議を行う複数の拠点のうち1つの拠点(自拠点102)を示し、自拠点102における端末装置10がネットワークを介して情報処理システム50と、ストレージサービスシステム70と、遠隔会議サービスシステム90と、通信する。自拠点102には更に、ミーティングデバイス60と電子黒板2が配置され、端末装置10はこのミーティングデバイス60とUSBケーブル等を介して通信可能に接続されている。なお、ミーティングデバイス60、電子黒板2及び情報処理システム50が機器管理システムとして動作する。
<System configuration example>
Next, with reference to FIG. 3, the system configuration of the recorded information creation system 100 will be described. FIG. 3 shows an example of the configuration of the recorded information creation system 100. FIG. 3 shows one base (self-base 102) among a plurality of bases where a remote conference is held, and the terminal device 10 at the own base 102 connects to the information processing system 50, the storage service system 70, and the remote conference via the network. Communicate with service system 90. Further, a meeting device 60 and an electronic blackboard 2 are arranged at the own base 102, and the terminal device 10 is communicably connected to the meeting device 60 via a USB cable or the like. Note that the meeting device 60, electronic whiteboard 2, and information processing system 50 operate as a device management system.

端末装置10では、少なくとも情報記録アプリ41と遠隔会議アプリ42とが動作する。遠隔会議アプリ42は、他の拠点101の端末装置10とネットワーク上の遠隔会議サービスシステム90を介して通信することができ、各拠点のユーザー同士が遠隔地から会議できるようになっている。情報記録アプリ41は、遠隔会議アプリ42が実施する遠隔会議における記録情報を、情報処理システム50及びミーティングデバイス60の機能を使って作成する。 In the terminal device 10, at least an information recording application 41 and a remote conference application 42 operate. The remote conference application 42 can communicate with the terminal devices 10 of other bases 101 via the remote conference service system 90 on the network, allowing users at each base to have a conference with each other from a remote location. The information recording application 41 uses the functions of the information processing system 50 and the meeting device 60 to create recorded information in the remote conference conducted by the remote conference application 42 .

なお、本実施形態では、遠隔会議中の記録情報を作成する例を説明するが、会議は、遠隔の拠点と通信する会議でなくてもよい。つまり、会議は1拠点内の参加者のみが参加する会議でもよい。この場合、ミーティングデバイス60が撮像する画像と集音した音声がそれぞれ合成なしに保存される他、情報記録アプリ41の処理に変更はない。 Note that although this embodiment describes an example of creating recorded information during a remote conference, the conference does not have to be a conference in which communication is performed with a remote base. In other words, the conference may be a conference in which only participants within one location participate. In this case, the image captured by the meeting device 60 and the collected audio are each saved without being combined, and there is no change in the processing of the information recording application 41.

端末装置10には通常の画角のカメラが内蔵されており(外付けでもよい)、端末装置10を操作するユーザー107を含む正面の画像を撮像している。通常の画角とは、パノラマ画像でない画像であるが、本実施形態では、主に全天球画像のように曲面でない平面画像である。したがって、ユーザーは、情報記録アプリ41を意識することなく、遠隔会議アプリ42を使用した従来の遠隔会議が可能である。情報記録アプリ41やミーティングデバイス60は、端末装置10の処理負荷増を除けば遠隔会議アプリ42に影響を与えない。なお、遠隔会議アプリ42はミーティングデバイス60が撮像するパノラマ画像や話者画像を遠隔会議サービスシステム90に送信することも可能である。 The terminal device 10 has a built-in camera with a normal angle of view (it may be attached externally), and captures an image of the front including the user 107 operating the terminal device 10. A normal angle of view is an image that is not a panoramic image, but in this embodiment, it is mainly a planar image that is not a curved surface, such as a spherical image. Therefore, the user can have a conventional remote conference using the remote conference application 42 without being aware of the information recording application 41. The information recording application 41 and the meeting device 60 do not affect the remote conference application 42 except for an increase in the processing load on the terminal device 10. Note that the remote conference application 42 can also transmit a panoramic image and speaker images captured by the meeting device 60 to the remote conference service system 90.

情報記録アプリ41はミーティングデバイス60と通信して記録情報を作成する。情報記録アプリ41はまた、ミーティングデバイス60が取得した音声と遠隔会議アプリ42が他の拠点から受信した音声との合成等を行う。この合成はミーティングデバイス60が行う場合がある。ミーティングデバイス60は、パノラマ画像の撮像装置、マイク、及び、スピーカを備えたミーティング用のデバイスである。端末装置10が有するカメラは正面の限られた範囲しか撮像できないが、ミーティングデバイス60はミーティングデバイス60を囲む全周囲(必ずしも全周囲でなくてもよい)を撮像できる。ミーティングデバイス60は図3に示す複数の参加者106を常に画角に収めることができる。 The information recording application 41 communicates with the meeting device 60 to create recorded information. The information recording application 41 also performs synthesis of the audio acquired by the meeting device 60 and the audio received from another base by the remote conference application 42. This synthesis may be performed by the meeting device 60. The meeting device 60 is a meeting device that includes a panoramic image capturing device, a microphone, and a speaker. Although the camera included in the terminal device 10 can only image a limited area in front, the meeting device 60 can image the entire surrounding area (not necessarily the entire area) surrounding the meeting device 60. The meeting device 60 can always keep the plurality of participants 106 shown in FIG. 3 within the viewing angle.

この他、ミーティングデバイス60は、パノラマ画像からの話者画像の切り出し等を行う。なお、ミーティングデバイス60は、机の上に限らず自拠点102のどこに配置されてもよい。ミーティングデバイス60は全天球画像を撮像できるので、例えば天井に配置されてもよい。 In addition, the meeting device 60 performs operations such as cutting out a speaker image from a panoramic image. Note that the meeting device 60 may be placed anywhere in the home base 102, not only on the desk. Since the meeting device 60 can capture a spherical image, it may be placed on the ceiling, for example.

情報記録アプリ41は、端末装置10で実行中のアプリの一覧表示、上記した記録情報のための画像合成(結合画像動画の作成)、結合画像動画の再生、編集の受け付け等を行う。また、情報記録アプリ41は、実施された又はこれから実施される予定の遠隔会議のリスト表示、等を行う。遠隔会議のリストは、記録情報に関する情報に使用され、ユーザーが遠隔会議と記録情報とを結びつけることができる。 The information recording application 41 displays a list of applications being executed on the terminal device 10, synthesizes images for the above recorded information (creates a combined image video), plays the combined image video, accepts editing, and the like. The information recording application 41 also displays a list of remote conferences that have been held or are scheduled to be held in the future. The list of teleconferences is used for information about recorded information and allows users to associate teleconferences with recorded information.

遠隔会議アプリ42は、他の拠点101との通信接続、他の拠点101との画像及び音声の送受信、画像の表示や音声の出力等を行う。 The remote conference application 42 performs communication connections with other bases 101, transmission and reception of images and audio with other bases 101, display of images, output of audio, and the like.

なお、情報記録アプリ41及び遠隔会議アプリ42はWebアプリでもネイティブアプリでもよい。Webアプリとは、Webサーバー上のプログラムとWebブラウザ上のプログラムが協働して処理を行うアプリであり、端末装置10へのインストールが不要なアプリである。ネイティブアプリとは、端末装置10にインストールして利用されるアプリである。本実施形態では、両者ともネイティブアプリであるとして説明する。 Note that the information recording application 41 and the remote conference application 42 may be web applications or native applications. A web application is an application in which a program on a web server and a program on a web browser cooperate to perform processing, and does not require installation on the terminal device 10. A native application is an application installed and used on the terminal device 10. In this embodiment, the explanation will be given assuming that both are native applications.

端末装置10は、例えば、PC(Personal Computer)、スマートフォン、タブレット端末等、通信機能を備えた汎用的な情報処理装置でよい。端末装置10は、この他、電子黒板2、ゲーム機、PDA(Personal Digital Assistant)、ウェアラブルPC、カーナビ、産業機械、医療機器、ネットワーク家電等でもよい。端末装置10は情報記録アプリ41と遠隔会議アプリ42が動作する装置であればよい。 The terminal device 10 may be a general-purpose information processing device with a communication function, such as a PC (Personal Computer), a smartphone, or a tablet terminal. In addition, the terminal device 10 may be an electronic whiteboard 2, a game machine, a PDA (Personal Digital Assistant), a wearable PC, a car navigation system, an industrial machine, a medical device, a network home appliance, or the like. The terminal device 10 may be any device on which the information recording application 41 and the remote conference application 42 operate.

電子黒板2は、ペンや指等の入力手段でタッチパネルに手書きされたデータをディスプレイに表示する。電子黒板2は、有線又は無線で端末装置10等と通信することができ、端末装置10が表示する画面を取り込んでディスプレイに表示することができる。電子黒板2は、手書きデータをテキストデータに変換したり、他の拠点の電子黒板2とディスプレイに表示される情報を共有したりすることができる。電子黒板2は、タッチパネルを有さない単なる白板にプロジェクタが映像を投影する形態のものでもよい。また、電子黒板2は、タッチパネルを備えたタブレット端末、ノートPC、PDA、ゲーム機等でもよい。 The electronic blackboard 2 displays data handwritten on a touch panel using an input means such as a pen or a finger on a display. The electronic whiteboard 2 can communicate with the terminal device 10 or the like by wire or wirelessly, and can capture the screen displayed by the terminal device 10 and display it on the display. The electronic blackboard 2 can convert handwritten data into text data, and can share information displayed on a display with electronic blackboards 2 at other locations. The electronic whiteboard 2 may be of a form in which a projector projects an image onto a simple white board without a touch panel. Furthermore, the electronic whiteboard 2 may be a tablet terminal equipped with a touch panel, a notebook PC, a PDA, a game console, or the like.

電子黒板2は、情報処理システム50と通信することができる。電子黒板2は、例えば、電源オンされた後、情報処理システム50にポーリングするなどして、情報処理システム50から情報を受信できる。 The electronic whiteboard 2 can communicate with the information processing system 50. The electronic blackboard 2 can receive information from the information processing system 50 by, for example, polling the information processing system 50 after being powered on.

情報処理システム50は、ネットワーク上に配置された一台以上の情報処理装置である。情報処理システム50は、情報記録アプリ41と協働して処理を行う1つ以上のサーバーアプリと、基盤サービスを有している。このサーバーアプリは、遠隔会議のリストの管理、遠隔会議で記録された記録情報の管理、各種設定やストレージパスの管理等を行う。基盤サービスは、ユーザー認証や契約、課金処理等を行う。 The information processing system 50 is one or more information processing devices arranged on a network. The information processing system 50 includes one or more server applications that perform processing in cooperation with the information recording application 41, and infrastructure services. This server app manages the list of remote conferences, the recorded information recorded in remote conferences, and manages various settings and storage paths. Basic services perform user authentication, contracts, billing processing, etc.

なお、情報処理システム50の機能の全て又は一部は、クラウド環境に存在してもよいし、オンプレミス環境に存在してもよい。情報処理システム50は複数台のサーバー装置により構成されてもよいし、一台の情報処理装置により構成されてもよい。例えば、サーバーアプリと基盤サービスが別々の情報処理装置より提供されてよいし、更にサーバーアプリ内の機能ごとに情報処理装置が存在してもよい。情報処理システム50と次述するストレージサービスシステム70、音声認識サービスシステム80が一体でもよい。 Note that all or part of the functions of the information processing system 50 may exist in a cloud environment or may exist in an on-premises environment. The information processing system 50 may be configured with a plurality of server devices, or may be configured with one information processing device. For example, the server application and the infrastructure service may be provided by separate information processing devices, or there may be an information processing device for each function within the server application. The information processing system 50, a storage service system 70, and a voice recognition service system 80, which will be described below, may be integrated.

ストレージサービスシステム70は、ネットワーク上の記憶手段であり、ファイル等の保存を受け付けるストレージサービスを提供する。ストレージサービスシステム70としてはOne Drive(登録商標)、Google Workspace(登録商標)、DropBox(登録商標)等が知られている。ストレージサービスシステム70は、オンプレミスのNAS(Network Attached Storage)等でもよい。 The storage service system 70 is a storage device on a network, and provides a storage service that accepts storage of files and the like. As the storage service system 70, One Drive (registered trademark), Google Workspace (registered trademark), DropBox (registered trademark), etc. are known. The storage service system 70 may be an on-premises NAS (Network Attached Storage) or the like.

音声認識サービスシステム80は、音声データに音声認識を行いテキストデータに変換するサービスを提供する。音声認識サービスシステム80は、汎用的な商用サービスでもよいし、情報処理システム50の機能の一部でもよい。 The speech recognition service system 80 provides a service that performs speech recognition on speech data and converts it into text data. The speech recognition service system 80 may be a general-purpose commercial service or may be part of the functions of the information processing system 50.

<ハードウェア構成例>
図4を参照して、本実施形態に係る情報処理システム50及び端末装置10のハードウェア構成について説明する。
<Hardware configuration example>
With reference to FIG. 4, the hardware configurations of the information processing system 50 and the terminal device 10 according to this embodiment will be described.

<<情報処理システム及び端末装置>>
図4は、本実施形態に係る情報処理システム50及び端末装置10の一例のハードウェア構成を示す図である。図4に示されているように、情報処理システム50及び端末装置10はコンピュータによって構築されており、CPU501、ROM502、RAM503、HD(Hard Disk)504、HDD(Hard Disk Drive)コントローラ505、ディスプレイ506、外部機器接続I/F(Interface)508、ネットワークI/F509、バスライン510、キーボード511、ポインティングデバイス512、光学ドライブ514、メディアI/F516を備えている。
<<Information processing system and terminal device>>
FIG. 4 is a diagram showing an example of the hardware configuration of the information processing system 50 and the terminal device 10 according to the present embodiment. As shown in FIG. 4, the information processing system 50 and the terminal device 10 are constructed by a computer, including a CPU 501, ROM 502, RAM 503, HD (Hard Disk) 504, HDD (Hard Disk Drive) controller 505, and display 506. , an external device connection I/F (Interface) 508, a network I/F 509, a bus line 510, a keyboard 511, a pointing device 512, an optical drive 514, and a media I/F 516.

これらのうち、CPU501は、情報処理システム50及び端末装置10全体の動作を制御する。ROM502は、IPL等のCPU501の駆動に用いられるプログラムを記憶する。RAM503は、CPU501のワークエリアとして使用される。HD504は、プログラム等の各種データを記憶する。HDDコントローラ505は、CPU501の制御にしたがってHD504に対する各種データの読み出し又は書き込みを制御する。ディスプレイ506は、カーソル、メニュー、ウィンドウ、文字、又は画像などの各種情報を表示する。外部機器接続I/F508は、各種の外部機器を接続するためのインターフェースである。この場合の外部機器は、例えば、USB(Universal Serial Bus)メモリやプリンタ等である。ネットワークI/F509は、ネットワークを利用してデータ通信をするためのインターフェースである。バスライン510は、図4に示されているCPU501等の各構成要素を電気的に接続するためのアドレスバスやデータバス等である。 Among these, the CPU 501 controls the entire operation of the information processing system 50 and the terminal device 10 . The ROM 502 stores programs used to drive the CPU 501 such as IPL. RAM 503 is used as a work area for CPU 501. The HD 504 stores various data such as programs. The HDD controller 505 controls reading and writing of various data to the HD 504 under the control of the CPU 501. The display 506 displays various information such as a cursor, menu, window, characters, or images. External device connection I/F 508 is an interface for connecting various external devices. The external device in this case is, for example, a USB (Universal Serial Bus) memory, a printer, or the like. The network I/F 509 is an interface for data communication using a network. The bus line 510 is an address bus, a data bus, etc. for electrically connecting each component such as the CPU 501 shown in FIG. 4.

また、キーボード511は、文字、数値、又は各種指示などの入力に使用される複数のキーを備えた入力手段の一種である。ポインティングデバイス512は、各種指示の選択や実行、処理対象の選択、カーソルの移動などを行う入力手段の一種である。光学ドライブ514は、着脱可能な記録媒体の一例としての光記憶媒体513に対する各種データの読み出し又は書き込みを制御する。なお、光記憶媒体513は、CD,DVD、Blu-ray(登録商標)等でよい。メディアI/F516は、フラッシュメモリ等の記録メディア515に対するデータの読み出し又は書き込み(記憶)を制御する。 Further, the keyboard 511 is a type of input means that includes a plurality of keys used for inputting characters, numbers, various instructions, and the like. The pointing device 512 is a type of input means for selecting and executing various instructions, selecting a processing target, moving a cursor, and the like. The optical drive 514 controls reading and writing of various data to and from an optical storage medium 513, which is an example of a removable recording medium. Note that the optical storage medium 513 may be a CD, DVD, Blu-ray (registered trademark), or the like. The media I/F 516 controls reading or writing (storage) of data to a recording medium 515 such as a flash memory.

<<ミーティングデバイス>>
図5を用いて、ミーティングデバイス60のハードウェア構成を説明する。図5は、360°の動画を撮像可能なミーティングデバイス60のハードウェア構成図の一例である。以下では、ミーティングデバイス60は撮像素子を使用した、デバイスの周囲360°の動画を所定の高さで撮像する装置とするが、撮像素子は1つでも2つ以上のいくつでもよい。また、必ずしも専用装置である必要はなくPCやデジタルカメラ、スマートフォン等に後付けの360°動画の撮像ユニットを取り付けることで、実質的に同じ機能を有するようにしてもよい。
<<Meeting device>>
The hardware configuration of the meeting device 60 will be explained using FIG. 5. FIG. 5 is an example of a hardware configuration diagram of a meeting device 60 capable of capturing 360° moving images. In the following, the meeting device 60 is assumed to be a device that uses an image sensor to capture a 360° moving image around the device at a predetermined height, but the number of image sensors may be one, two or more. Further, it does not necessarily have to be a dedicated device, and a 360° video imaging unit may be attached to a PC, digital camera, smartphone, etc. afterward to have substantially the same functions.

図5に示されているように、ミーティングデバイス60は、撮像ユニット601、画像処理ユニット604、撮像制御ユニット605、マイク608、音処理ユニット609、CPU(Central Processing Unit)611、ROM(Read Only Memory)612、SRAM(Static Random Access Memory)613、DRAM(Dynamic Random Access Memory)614、操作部615、外部機器接続I/F616、通信部617、アンテナ617a、音声センサー618、及びMicro USB用の凹状の端子621によって構成されている。 As shown in FIG. 5, the meeting device 60 includes an imaging unit 601, an image processing unit 604, an imaging control unit 605, a microphone 608, a sound processing unit 609, a CPU (Central Processing Unit) 611, and a ROM (Read Only Memory). ) 612, SRAM (Static Random Access Memory) 613, DRAM (Dynamic Random Access Memory) 614, operation unit 615, external device connection I/F 616, communication unit 617, antenna 617a, audio sensor 618, and concave shape for Micro USB. It is configured by a terminal 621.

このうち、撮像ユニット601は、半球画像を結像するための360°の画角を有する広角レンズ(いわゆる魚眼レンズ)602と、各広角レンズに対応させて設けられている撮像素子603(イメージセンサー)を備えている。撮像素子603は、魚眼レンズ602による光学像を電気信号の画像データに変換して出力するCMOS(Complementary Metal Oxide Semiconductor)センサーやCCD(Charge Coupled Device)センサーなどの画像センサー、この画像センサーの水平又は垂直同期信号や画素クロックなどを生成するタイミング生成回路、この撮像素子の動作に必要な種々のコマンドやパラメータなどが設定されるレジスタ群などを有している。 Among these, the imaging unit 601 includes a wide-angle lens (so-called fisheye lens) 602 having a 360° angle of view for forming a hemispherical image, and an imaging element 603 (image sensor) provided corresponding to each wide-angle lens. It is equipped with The image sensor 603 is an image sensor such as a CMOS (Complementary Metal Oxide Semiconductor) sensor or a CCD (Charge Coupled Device) sensor that converts an optical image formed by the fisheye lens 602 into electrical signal image data and outputs the image data. It includes a timing generation circuit that generates synchronization signals and pixel clocks, and a group of registers in which various commands and parameters necessary for the operation of this image sensor are set.

撮像ユニット601の撮像素子603(イメージセンサー)は、画像処理ユニット604とパラレルI/Fバスで接続されている。一方、撮像ユニット601の撮像素子603は、撮像制御ユニット605とは、シリアルI/Fバス(I2Cバス等)で接続されている。画像処理ユニット604、撮像制御ユニット605及び音処理ユニット609は、バス610を介してCPU611と接続される。更に、バス610には、ROM612、SRAM613、DRAM614、操作部615、外部機器接続I/F616、通信部617、及び音声センサー618なども接続される。 An image sensor 603 (image sensor) of the imaging unit 601 is connected to an image processing unit 604 via a parallel I/F bus. On the other hand, the imaging element 603 of the imaging unit 601 is connected to the imaging control unit 605 via a serial I/F bus (such as an I2C bus). The image processing unit 604, the imaging control unit 605, and the sound processing unit 609 are connected to the CPU 611 via a bus 610. Furthermore, a ROM 612, an SRAM 613, a DRAM 614, an operation section 615, an external device connection I/F 616, a communication section 617, an audio sensor 618, and the like are also connected to the bus 610.

画像処理ユニット604は、撮像素子603から出力される画像データをパラレルI/Fバスを通して取り込み、画像データに対して所定の処理を施して、魚眼映像からパノラマ画像や話者画像のデータを作成する。更に、画像処理ユニット604は、パノラマ画像と話者画像等を合成処理して、1つの動画を出力する。 The image processing unit 604 takes in the image data output from the image sensor 603 through the parallel I/F bus, performs predetermined processing on the image data, and creates panoramic image and speaker image data from the fisheye video. do. Further, the image processing unit 604 synthesizes the panoramic image, the speaker image, etc., and outputs one moving image.

撮像制御ユニット605は、一般に撮像制御ユニット605をマスタデバイス、撮像素子603をスレーブデバイスとして、I2Cバスを利用して、撮像素子603のレジスタ群にコマンド等を設定する。必要なコマンド等は、CPU611から受け取る。また、撮像制御ユニット605は、同じくI2Cバスを利用して、撮像素子603のレジスタ群のステータスデータ等を取り込み、CPU611に送る。 Generally, the imaging control unit 605 sets commands and the like in a register group of the imaging device 603 using the I2C bus, with the imaging control unit 605 as a master device and the imaging device 603 as a slave device. Necessary commands and the like are received from the CPU 611. The imaging control unit 605 also uses the I2C bus to take in status data and the like of the register group of the imaging device 603 and sends it to the CPU 611.

また、撮像制御ユニット605は、操作部615の撮像開始ボタンが押下されたタイミングあるいはPCから撮像開始指示を受信したタイミングで、撮像素子603に画像データの出力を指示する。ミーティングデバイス60によっては、ディスプレイ(例えば、PCやスマートフォンのディスプレイ)によるプレビュー表示機能や動画表示に対応する機能を持つ場合もある。この場合は、撮像素子603からの画像データの出力は、所定のフレームレート(フレーム/分)によって連続して行われる。 Further, the imaging control unit 605 instructs the imaging device 603 to output image data at the timing when the imaging start button on the operation unit 615 is pressed or at the timing when an imaging start instruction is received from the PC. Depending on the meeting device 60, it may have a preview display function or a function that supports video display on a display (for example, a display of a PC or a smartphone). In this case, image data is continuously output from the image sensor 603 at a predetermined frame rate (frames/minute).

また、撮像制御ユニット605は、後述するように、CPU611と協働して撮像素子603の画像データの出力タイミングの同期をとる同期制御手段としても機能する。なお、本実施形態では、ミーティングデバイス60にはディスプレイが設けられていないが、表示部を設けてもよい。 The imaging control unit 605 also functions as a synchronization control unit that synchronizes the output timing of image data from the imaging device 603 in cooperation with the CPU 611, as will be described later. Note that in this embodiment, the meeting device 60 is not provided with a display, but may be provided with a display section.

マイク608は、音を音(信号)データに変換する。音処理ユニット609は、マイク608a、マイク608b、マイク608cから出力される音声データをI/Fバスを通して取り込み、これらの音声データをミキシングして所定の処理を施す。音処理ユニット609はまた、マイク608a、マイク608b、マイク608cから入力される音声レベル(音量)から音源(発話者)の方向を判断する。 Microphone 608 converts sound into sound (signal) data. The sound processing unit 609 takes in audio data output from the microphones 608a, 608b, and 608c through the I/F bus, mixes these audio data, and performs predetermined processing. The sound processing unit 609 also determines the direction of the sound source (speaker) from the sound level (volume) input from the microphones 608a, 608b, and 608c.

CPU611は、ミーティングデバイス60の全体の動作を制御すると共に必要な処理を実行する。ROM612は、ミーティングデバイス60を動作させるための種々のプログラムを記憶している。SRAM613及びDRAM614はワークメモリであり、CPU611で実行するプログラムや処理途中のデータ等を記憶する。特にDRAM614は、画像処理ユニット604での処理途中の画像データや処理済みの正距円筒射影画像のデータを記憶する。 The CPU 611 controls the overall operation of the meeting device 60 and executes necessary processing. ROM 612 stores various programs for operating meeting device 60. The SRAM 613 and DRAM 614 are work memories that store programs executed by the CPU 611, data being processed, and the like. In particular, the DRAM 614 stores image data that is currently being processed by the image processing unit 604 and data of processed equirectangular projection images.

操作部615は、撮像開始ボタン615aなどの操作ボタンの総称である。ユーザーは操作部615を操作することで、撮像や録画を開始する他、電源ON/OFFの実行、通信接続の実行、種々の撮像モードや撮像条件などの設定を入力する。 The operation unit 615 is a general term for operation buttons such as the imaging start button 615a. By operating the operation unit 615, the user not only starts imaging and recording, but also turns the power ON/OFF, establishes a communication connection, and inputs settings such as various imaging modes and imaging conditions.

外部機器接続I/F616は、各種の外部機器を接続するためのインターフェースである。この場合の外部機器は、例えば、PC等である。DRAM614に記憶された動画データや画像データは、この外部機器接続I/F616を介して外部端末に送信されたり、外付けのメディアに記録されたりする。 The external device connection I/F 616 is an interface for connecting various external devices. The external device in this case is, for example, a PC. The video data and image data stored in the DRAM 614 are transmitted to an external terminal via this external device connection I/F 616 or recorded on external media.

通信部617は、ミーティングデバイス60に設けられたアンテナ617aを介して、Wi-Fi(登録商標)等の無線通信技術によって、インターネット経由でクラウドサーバと通信し、記憶した動画データや画像データをクラウドサーバに送信してもよい。また、通信部617は、BLE(Bluetooth Low Energy。登録商標)やNFC等の近距離無線通信技術を用いて付近のデバイスと通信可能でもよい。 The communication unit 617 communicates with a cloud server via the Internet using wireless communication technology such as Wi-Fi (registered trademark) via an antenna 617a provided in the meeting device 60, and transfers the stored video data and image data to the cloud. It may also be sent to the server. Further, the communication unit 617 may be able to communicate with nearby devices using short-range wireless communication technology such as BLE (Bluetooth Low Energy.registered trademark) and NFC.

音声センサー618は、ミーティングデバイス60の周辺(水平面)の360°においてどの方向から音声が大きい音で入力されたかを特定するために、360°の音声情報を取得するセンサーである。音処理ユニット609は入力した360°の音声パラメータに基づき、最も強い方向を特定して360°における音声入力方向を出力する。 The audio sensor 618 is a sensor that acquires 360° audio information in order to identify from which direction a loud audio is input in 360° around the meeting device 60 (horizontal plane). The sound processing unit 609 identifies the strongest direction based on the input 360° audio parameters and outputs the 360° audio input direction.

なお、他のセンサー(方位・加速度センサーやGPS等)が方位・位置・角度・加速度等を算出し、画像補正や位置情報付加に用いてもよい。 Note that other sensors (azimuth/acceleration sensor, GPS, etc.) may calculate the azimuth, position, angle, acceleration, etc., and may be used for image correction or addition of location information.

また画像処理ユニット604は、パノラマ画像の作成を次の方法で行う。CPU611は、球面映像を入力するイメージセンサーから入力されたRAWデータをBayer変換(RGB補完処理)等の所定のカメラ映像処理を行って魚眼映像(曲面の映像)を作成する。更に作成した魚眼映像(曲面の映像)に対してDeWarp処理(歪み補正処理)を行い、ミーティングデバイス60の周辺の360°が写ったパノラマ画像(平面の映像)を作成する。 Further, the image processing unit 604 creates a panoramic image using the following method. The CPU 611 performs predetermined camera image processing such as Bayer conversion (RGB complementation processing) on RAW data input from an image sensor that inputs spherical images to create a fisheye image (a curved image). Furthermore, DeWarp processing (distortion correction processing) is performed on the created fisheye video (curved surface video) to create a panoramic image (flat video) showing 360° of the surroundings of the meeting device 60.

CPU611は話者画像の作成を次の方法で行う。CPU611は周辺の360°が写ったパノラマ画像(平面の映像)から、話者を切り出した話者画像を作成する。CPU611は、音声センサー618及び音処理ユニット609を用いて出力した360°から特定した音声入力方向を、話者の方向として、上記パノラマ画像から話者画像を切り出す。このとき音声入力方向から人の画像を切り出す方法は、360°から特定した音声方向を中心に30°を切り取って、その中で顔検出を実施して切り出す。CPU611は、更に切り出した話者画像のうち、直近で発言のあった特定人数分(3名等)の話者画像を特定する。 The CPU 611 creates a speaker image using the following method. The CPU 611 creates a speaker image by cutting out the speaker from a panoramic image (flat image) showing 360° of the surrounding area. The CPU 611 cuts out a speaker image from the panoramic image, using the audio input direction specified from the 360° output using the audio sensor 618 and the sound processing unit 609 as the speaker's direction. At this time, the method of cutting out a human image from the audio input direction is to cut out a 30° area centered on the specified audio direction from 360°, perform face detection within that area, and then cut out the image. Among the cut out speaker images, the CPU 611 further identifies speaker images for a specific number of people (such as 3 speakers) who have recently spoken.

パノラマ画像と、1以上の話者画像は個別に情報記録アプリ41に送信されてもよいし、ミーティングデバイス60がこれらから1枚の画像を作成して、情報記録アプリ41に送信してもよい。本実施形態では、パノラマ画像と1以上の話者画像は個別にミーティングデバイス60から情報記録アプリ41に送信されるものとする。 The panoramic image and one or more speaker images may be sent individually to the information recording application 41, or the meeting device 60 may create one image from these and send it to the information recording application 41. . In this embodiment, it is assumed that the panoramic image and one or more speaker images are individually transmitted from the meeting device 60 to the information recording application 41.

図6は、ミーティングデバイス60の撮像範囲を説明する図である。図6(a)に示すように、ミーティングデバイス60は水平方向に360°の範囲を撮像する。図6(b)に示すように、ミーティングデバイス60は、ミーティングデバイス60の高さに水平な方向を0°とし、上下に所定の角度を撮像範囲とする。 FIG. 6 is a diagram illustrating the imaging range of the meeting device 60. As shown in FIG. 6(a), the meeting device 60 captures an image in a 360° range in the horizontal direction. As shown in FIG. 6(b), the meeting device 60 has an imaging range of 0° in a direction horizontal to the height of the meeting device 60, and a predetermined angle above and below.

図7は、パノラマ画像と話者画像の切り出しを説明する図である。図7に示すように、ミーティングデバイス60が撮像する画像は球体の一部110をなすため、三次元の形状を有している。ミーティングデバイス60は、図6(b)で示したように、上下の所定角度と左右の所定角度ごとに画角を区切って透視投影変換を行う。透視投影変換を水平方向360°の全体で隙間なく行うことで、所定数の平面画像が得られるので、所定数の平面画像を左右に連結することでパノラマ画像111が得られる。また、ミーティングデバイス60はパノラマ画像から音声方向を中心に所定の範囲で顔検出を実施して、顔の中心から左右に15°(全体で30°)を切り出すことで、話者画像112を作成する。 FIG. 7 is a diagram illustrating cutting out of a panoramic image and a speaker image. As shown in FIG. 7, the image captured by the meeting device 60 forms part of a sphere 110 and therefore has a three-dimensional shape. As shown in FIG. 6B, the meeting device 60 performs perspective projection transformation by dividing the angle of view into vertical predetermined angles and left and right predetermined angles. A predetermined number of planar images can be obtained by performing perspective projection transformation over the entire 360 degrees in the horizontal direction without any gaps, so a panoramic image 111 can be obtained by connecting the predetermined number of planar images from side to side. Furthermore, the meeting device 60 creates a speaker image 112 by performing face detection from the panoramic image in a predetermined range centered on the audio direction and cutting out 15° left and right (30° in total) from the center of the face. do.

<<電子黒板>>
図8は、電子黒板2のハードウェア構成図である。図8に示されているように、電子黒板2は、CPU(Central Processing Unit)401、ROM(Read Only Memory)402、RAM(Random Access Memory)403、SSD(Solid State Drive)404、ネットワークI/F405、及び、外部機器接続I/F(Interface)406を備えている。
<<Electronic blackboard>>
FIG. 8 is a hardware configuration diagram of the electronic whiteboard 2. As shown in FIG. As shown in FIG. 8, the electronic whiteboard 2 includes a CPU (Central Processing Unit) 401, a ROM (Read Only Memory) 402, a RAM (Random Access Memory) 403, an SSD (Solid State Drive) 404, a network I/ F405 and an external device connection I/F (Interface) 406.

これらのうち、CPU401は、電子黒板2全体の動作を制御する。ROM402は、IPL(Initial Program Loader)等のOSの起動に用いられるプログラムを記憶する。RAM403は、CPU401のワークエリアとして使用される。SSD404は、電子黒板2用のプログラム等の各種データを記憶する。ネットワークI/F405は、通信ネットワークとの通信を制御する。外部機器接続I/F406は、各種の外部機器を接続するためのインターフェースである。この場合の外部機器は、例えば、USB(Universal Serial Bus)メモリ430、外付け機器(マイク440、スピーカ450、カメラ460)である。 Among these, the CPU 401 controls the entire operation of the electronic whiteboard 2 . The ROM 402 stores programs used for starting the OS, such as IPL (Initial Program Loader). RAM 403 is used as a work area for CPU 401. The SSD 404 stores various data such as programs for the electronic whiteboard 2. Network I/F 405 controls communication with a communication network. External device connection I/F 406 is an interface for connecting various external devices. The external devices in this case are, for example, a USB (Universal Serial Bus) memory 430 and external devices (microphone 440, speaker 450, camera 460).

また、電子黒板2は、キャプチャデバイス411、GPU412、ディスプレイコントローラ413、接触センサー414、センサコントローラ415、電子ペンコントローラ416、近距離通信回路419、及び近距離通信回路419のアンテナ419a、電源スイッチ422及び選択スイッチ類423を備えている。 The electronic whiteboard 2 also includes a capture device 411, a GPU 412, a display controller 413, a contact sensor 414, a sensor controller 415, an electronic pen controller 416, a short-range communication circuit 419, an antenna 419a of the short-range communication circuit 419, a power switch 422, and Selection switches 423 are provided.

これらのうち、キャプチャデバイス411は、外付けのPC470のディスプレイの表示情報を静止画又は動画として表示させる。GPU(Graphics Processing Unit)412は、グラフィクスを専門に扱う半導体チップである。ディスプレイコントローラ413は、GPU412からの出力画像をディスプレイ480等へ出力するために画面表示の制御及び管理を行う。接触センサー414は、ディスプレイ480上に電子ペン490やユーザーの手H等が接触したことを検知する。センサコントローラ415は、接触センサー414の処理を制御する。接触センサー414は、赤外線遮断方式による座標の入力及び座標の検出を行う。この座標の入力及び座標の検出する方法は、ディスプレイ480の上側両端部に設置された2つ受発光装置が、ディスプレイ480に平行して複数の赤外線を放射し、ディスプレイ480の周囲に設けられた反射部材によって反射されて、受光素子が放射した光の光路と同一の光路上を戻って来る光を受光する方法である。接触センサー414である受発光装置は、物体によって赤外線が遮断された位置(受光素子上の位置)をセンサコントローラ415に出力し、センサコントローラ415が、これらの2つの位置情報から物体の接触位置である座標位置を特定する。電子ペンコントローラ416は、電子ペン490とBluetooth通信することで、ディスプレイ480へのペン先のタッチやペン尻のタッチの有無を判断する。近距離通信回路419は、NFC(Near Field Communication)やBluetooth(登録商標)等の通信回路である。電源スイッチ422は、電子黒板2の電源のON/OFFを切り換えるためのスイッチである。選択スイッチ類423は、例えば、ディスプレイ480の表示の明暗や色合い等を調整するためのスイッチ群である。 Among these, the capture device 411 displays display information on the display of the external PC 470 as a still image or a moving image. A GPU (Graphics Processing Unit) 412 is a semiconductor chip that specializes in graphics. The display controller 413 controls and manages screen display in order to output the output image from the GPU 412 to the display 480 or the like. The contact sensor 414 detects contact of the electronic pen 490, the user's hand H, etc. with the display 480. Sensor controller 415 controls processing of contact sensor 414. The contact sensor 414 performs coordinate input and coordinate detection using an infrared blocking method. This method of inputting and detecting coordinates is such that two light receiving and emitting devices installed at both ends of the upper side of the display 480 emit a plurality of infrared rays in parallel to the display 480. This is a method of receiving light that is reflected by a reflecting member and returns along the same optical path as the light emitted by the light receiving element. The light receiving and emitting device, which is the contact sensor 414, outputs the position where the infrared rays are blocked by the object (the position on the light receiving element) to the sensor controller 415, and the sensor controller 415 determines the contact position of the object from these two positional information. Identify a certain coordinate position. The electronic pen controller 416 communicates with the electronic pen 490 via Bluetooth to determine whether or not the display 480 has been touched with the tip of the pen or the butt of the pen. The near field communication circuit 419 is a communication circuit such as NFC (Near Field Communication) or Bluetooth (registered trademark). The power switch 422 is a switch for switching the power of the electronic blackboard 2 ON/OFF. The selection switches 423 are, for example, a group of switches for adjusting the brightness, shade, etc. of the display on the display 480.

更に、電子黒板2は、バスライン410を備えている。バスライン410は、図8に示されているCPU401等の各構成要素を電気的に接続するためのアドレスバスやデータバス等である。 Further, the electronic whiteboard 2 includes a bus line 410. The bus line 410 is an address bus, a data bus, etc. for electrically connecting each component such as the CPU 401 shown in FIG. 8.

なお、接触センサー414は、赤外線遮断方式に限らず、静電容量の変化を検知することにより接触位置を特定する静電容量方式のタッチパネルでもよい。接触センサー414は、対向する2つの抵抗膜の電圧変化によって接触位置を特定する抵抗膜方式のタッチパネルでもよい。接触センサー414は、接触物体が表示部に接触することによって生じる電磁誘導を検知して接触位置を特定する電磁誘導方式のタッチパネルでもよい。この他、接触センサー414は種々の検出手段を用いてもよい。また、電子ペンコントローラ416が、電子ペン490のペン先及びペン尻だけでなく、電子ペン490のユーザーが握る部分や、その他の電子ペンの部分のタッチの有無を判断するようにしてもよい。 Note that the contact sensor 414 is not limited to an infrared shielding type touch panel, and may be a capacitive type touch panel that specifies a touch position by detecting a change in capacitance. The contact sensor 414 may be a resistive touch panel that specifies the contact position based on voltage changes between two resistive films facing each other. The contact sensor 414 may be an electromagnetic induction type touch panel that detects electromagnetic induction generated when a touch object contacts the display unit and specifies the contact position. In addition, the contact sensor 414 may use various detection means. Furthermore, the electronic pen controller 416 may determine whether or not a portion of the electronic pen 490 that the user grasps or other portions of the electronic pen is touched, in addition to the pen tip and pen tail of the electronic pen 490.

<機能について>
次に、図9を参照して、記録情報作成システム100が有する機能構成について説明する。図9は、記録情報作成システム100における端末装置10、ミーティングデバイス60、及び、情報処理システム50の機能をブロックに分けて説明する機能ブロック図の一例である。
<About functions>
Next, with reference to FIG. 9, the functional configuration of the recorded information creation system 100 will be described. FIG. 9 is an example of a functional block diagram illustrating functions of the terminal device 10, meeting device 60, and information processing system 50 in the recorded information creation system 100 divided into blocks.

<<端末装置>>
端末装置10で動作する情報記録アプリ41は、通信部11、操作受付部12、表示制御部13、アプリ画面取得部14、音声取得部15、デバイス通信部16、録画制御部17、音声データ処理部18、録画再生部19、アップロード部20、編集処理部21、及び、コード解析部22、を有している。端末装置10が有するこれら各部は、図4に示されている各構成要素のいずれかが、HD504からRAM503に展開された情報記録アプリ41に従ったCPU501からの命令によって動作することで実現される機能、又は機能する手段である。また、端末装置10は、図4に示されているHD504等によって構築される記憶部1000を有している。記憶部1000には情報記憶部1001が構築されている。
<<Terminal device>>
The information recording application 41 that operates on the terminal device 10 includes a communication section 11, an operation reception section 12, a display control section 13, an application screen acquisition section 14, an audio acquisition section 15, a device communication section 16, a recording control section 17, and an audio data processing section. 18, a recording/playback section 19, an upload section 20, an editing section 21, and a code analysis section 22. Each of these units included in the terminal device 10 is realized by one of the components shown in FIG. 4 operating in response to an instruction from the CPU 501 according to the information recording application 41 expanded from the HD 504 to the RAM 503. It is a function or a means of functioning. Furthermore, the terminal device 10 has a storage unit 1000 constructed by the HD 504 shown in FIG. 4 and the like. An information storage unit 1001 is constructed in the storage unit 1000 .

通信部11は、ネットワークを介して情報処理システム50と各種の情報を通信する。通信部11は、例えば、遠隔会議のリストを情報処理システム50から受信したり、音声データの認識要求を情報処理システム50に送信したりする。 The communication unit 11 communicates various information with the information processing system 50 via the network. The communication unit 11 receives, for example, a list of remote conferences from the information processing system 50, and transmits a voice data recognition request to the information processing system 50.

表示制御部13は情報記録アプリ41に設定されている画面遷移にしたがって情報記録アプリ41においてユーザーインターフェースとなる各種の画面を表示する。操作受付部12は、情報記録アプリ41に対する各種の操作を受け付ける。 The display control unit 13 displays various screens serving as a user interface in the information recording application 41 according to screen transitions set in the information recording application 41. The operation accepting unit 12 accepts various operations on the information recording application 41.

アプリ画面取得部14は、デスクトップ画面、又は、ユーザーが選択したアプリの画面をOS(Operating System)等から取得する。ユーザーが選択したアプリが遠隔会議アプリ42の場合、遠隔会議アプリ42が生成する画面(各拠点の画像、資料の画像等)が得られる。 The application screen acquisition unit 14 acquires a desktop screen or a screen of an application selected by the user from an OS (Operating System) or the like. If the application selected by the user is the remote conference application 42, a screen (images of each base, images of materials, etc.) generated by the remote conference application 42 is obtained.

音声取得部15は、遠隔会議アプリ42が遠隔会議において受信した音声データを遠隔会議アプリ42から取得する。なお、音声取得部15が取得する音声は、端末装置10が集音する音声は含まれず、遠隔会議において受信された音声データのみである点に注意されたい。ミーティングデバイス60が別に、音声を集音しているためである。 The audio acquisition unit 15 acquires audio data received by the remote conference application 42 in a remote conference from the remote conference application 42. Note that the audio acquired by the audio acquisition unit 15 does not include the audio collected by the terminal device 10, but only the audio data received in the remote conference. This is because the meeting device 60 collects the audio separately.

デバイス通信部16は、USBケーブルなどを利用してミーティングデバイス60と通信する。デバイス通信部16は、無線LANやBluetooth(登録商標)等でミーティングデバイス60と通信してよい。デバイス通信部16は、パノラマ画像と話者画像をミーティングデバイス60から受信し、音声取得部15が取得した音声データをミーティングデバイス60に送信する。デバイス通信部16は、ミーティングデバイス60で合成された音声データを受信する。 The device communication unit 16 communicates with the meeting device 60 using a USB cable or the like. The device communication unit 16 may communicate with the meeting device 60 via wireless LAN, Bluetooth (registered trademark), or the like. The device communication unit 16 receives the panoramic image and the speaker image from the meeting device 60, and transmits the audio data acquired by the audio acquisition unit 15 to the meeting device 60. The device communication unit 16 receives audio data synthesized by the meeting device 60.

録画制御部17は、デバイス通信部16が受信したパノラマ画像と話者画像、及び、アプリ画面取得部14が取得したアプリの画面を結合し、結合画像を作成する。また、録画制御部17は繰り返し作成する結合画像を時系列に接続して結合画像動画を作成し、ミーティングデバイス60で合成された音声データを結合画像動画に結合して音声付きの結合画像動画を作成する。 The recording control unit 17 combines the panoramic image and speaker image received by the device communication unit 16 and the application screen acquired by the application screen acquisition unit 14 to create a combined image. Furthermore, the recording control unit 17 connects the repeatedly created combined images in chronological order to create a combined image video, and combines the audio data synthesized by the meeting device 60 with the combined image video to create a combined image video with audio. create.

音声データ処理部18は、録画制御部17が抽出する結合画像動画に結合された音声データ、又は、ミーティングデバイス60から受信した合成後の音声データの、テキストデータへの変換を情報処理システム50に要求する。 The audio data processing unit 18 causes the information processing system 50 to convert the audio data combined into the combined image video extracted by the recording control unit 17 or the synthesized audio data received from the meeting device 60 into text data. request.

録画再生部19は、結合画像動画の再生を行う。結合画像動画は、録画中は端末装置10に保存され、その後、情報処理システム50にアップロードされる。 The recording and playback unit 19 plays back the combined image video. The combined image video is stored in the terminal device 10 during recording, and then uploaded to the information processing system 50.

アップロード部20は、遠隔会議が終了すると、結合画像動画を情報処理システム50に送信する。 When the remote conference ends, the upload unit 20 transmits the combined image video to the information processing system 50.

編集処理部21は、ユーザーの操作に応じて、結合画像動画の編集(一部の削除、つなぎ合わせ等)を実行する。 The editing processing unit 21 executes editing (partial deletion, splicing, etc.) of the combined image video according to the user's operation.

コード解析部22は、パノラマ画像に含まれる二次元コードを検出すると共に、二次元コードを解析して機器識別情報を取得する。 The code analysis unit 22 detects a two-dimensional code included in the panoramic image, and also analyzes the two-dimensional code to obtain device identification information.

図10は、情報記憶部1001が記憶している動画記録情報を示す。動画記録情報は、会議ID、録画ID、更新日時、タイトル、アップロード、保存先等の各項目を有している。ユーザーが情報処理システム50にログインすると、情報記録アプリ41は情報処理システム50の会議情報記憶部5001から会議情報をダウンロードする。会議情報に含まれる会議IDなどが動画記録情報に反映される。図10の動画記録情報は、あるユーザーが操作する端末装置10が保持するものである。 FIG. 10 shows moving image recording information stored in the information storage unit 1001. The video recording information includes items such as a conference ID, recording ID, update date and time, title, upload, and storage location. When the user logs in to the information processing system 50, the information recording application 41 downloads conference information from the conference information storage unit 5001 of the information processing system 50. The conference ID and the like included in the conference information are reflected in the video recording information. The video recording information in FIG. 10 is held by the terminal device 10 operated by a certain user.

・会議IDは、開催された遠隔会議を識別する識別情報である。会議IDは、会議管理システム9に遠隔会議の予定が登録された際に採番されるか、又は、情報記録アプリ41からの要求で情報処理システム50が採番する。 - The conference ID is identification information that identifies the remote conference that was held. The conference ID is assigned when a remote conference schedule is registered in the conference management system 9, or assigned by the information processing system 50 in response to a request from the information recording application 41.

・録画IDは、遠隔会議において録画された結合画像動画を識別する識別情報である。録画IDはミーティングデバイス60が採番するが、情報記録アプリ41や情報処理システム50が採番してもよい。同じ会議IDに異なる録画IDが付与されるのは、遠隔会議の途中で録画が終了したが、何らかの理由で再開した場合を示す。 -Recording ID is identification information that identifies a combined image video recorded in a remote conference. The recording ID is numbered by the meeting device 60, but may also be numbered by the information recording application 41 or the information processing system 50. Different recording IDs are assigned to the same conference ID when recording ends during the remote conference but is restarted for some reason.

・更新日時は、結合画像動画が更新された(録画が終了した)日時である。結合画像動画が編集された場合、編集された日時である。 - The update date and time is the date and time when the combined image video was updated (recording ended). If the combined image video was edited, this is the date and time of editing.

・タイトルは、会議の会議名である。会議管理システム9への会議の登録時に設定されてもよいし、ユーザーが任意に設定してもよい。 ・The title is the name of the conference. It may be set at the time of registering the conference to the conference management system 9, or may be set arbitrarily by the user.

・アップロードは、結合画像動画が情報処理システム50にアップロードされたか否かを示す。 - Upload indicates whether the combined image video has been uploaded to the information processing system 50.

・保存先は、ストレージサービスシステム70において、結合画像動画、テキストデータ、及び、オブジェクト情報が保存されている場所(URLやファイルパス)を示す。したがって、ユーザーはアップロードされた結合画像動画を任意に閲覧できる。なお、結合画像動画とテキストデータは、例えばURLに続いて別々のファイル名で保存される。 - The save destination indicates the location (URL or file path) where the combined image video, text data, and object information are saved in the storage service system 70. Therefore, the user can view the uploaded combined image video at will. Note that the combined image video and text data are saved with separate file names following the URL, for example.

<<ミーティングデバイス>>
図9に戻って説明する。ミーティングデバイス60は、端末通信部61、パノラマ画像作成部62、話者画像作成部63、集音部64、音声合成部65、及び、話者変更検出部66を有している。ミーティングデバイス60が有するこれら各部は、図5に示されている各構成要素のいずれかが、ROM612からDRAM614に展開されたプログラムに従ったCPU611からの命令によって動作することで実現される機能、又は機能する手段である。
<<Meeting device>>
This will be explained by returning to FIG. 9. The meeting device 60 includes a terminal communication section 61 , a panoramic image creation section 62 , a speaker image creation section 63 , a sound collection section 64 , a voice synthesis section 65 , and a speaker change detection section 66 . Each of these parts of the meeting device 60 has a function that is realized when any of the components shown in FIG. It is a means of functioning.

端末通信部61は、USBケーブルなどを利用して端末装置10と通信する。端末通信部61は、有線ケーブルで接続されるだけでなく、無線LANやBluetooth(登録商標)等で端末装置10と通信可能であればよい。 The terminal communication unit 61 communicates with the terminal device 10 using a USB cable or the like. The terminal communication unit 61 need only be able to communicate with the terminal device 10 not only by a wired cable but also by wireless LAN, Bluetooth (registered trademark), or the like.

パノラマ画像作成部62はパノラマ画像を作成する。話者画像作成部63は話者画像を作成する。これらの作成方法は図6、図7にて説明した。 The panoramic image creation unit 62 creates a panoramic image. The speaker image creation unit 63 creates a speaker image. The method for creating these has been explained with reference to FIGS. 6 and 7.

集音部64は、ミーティングデバイス60が有するマイクが取得する音声を音声データ(デジタル)に変換する。これにより、端末装置10側の拠点でユーザーや参加者が発言した内容が集音される。 The sound collection unit 64 converts the audio acquired by the microphone of the meeting device 60 into audio data (digital). As a result, the contents uttered by the users and participants are collected at the base on the terminal device 10 side.

音声合成部65は、端末装置10から送信された音声と集音部64が集音した音声を合成する。これにより、他の拠点101で発言された音声と、自拠点102の発言がまとめられる。 The voice synthesis section 65 synthesizes the voice transmitted from the terminal device 10 and the voice collected by the sound collection section 64. As a result, the voices uttered at other bases 101 and the utterances from the own base 102 are combined.

話者変更検出部66は、時刻に対応付けて話者が切り変わったことを記録する。話者変更検出部66は、マイク集音方向が変化した場合、又は、話者画像として切り取られるパノラマ画像の方向が変化した場合、時刻に対応付けて話者が変更されたことを記録する。話者変更検出部66は、声紋登録、顔認識などで話者の識別を行ったり、電子ペン490に対応付けられたユーザーIDなどで筆記者を識別したりする。したがって、話者が誰であるかまでは特定されている。 The speaker change detection unit 66 records that the speaker has changed in association with the time. The speaker change detection unit 66 records that the speaker has been changed in association with the time when the microphone sound collection direction changes or the direction of a panoramic image cut out as a speaker image changes. The speaker change detection unit 66 identifies the speaker by voiceprint registration, face recognition, etc., or identifies the scribe by the user ID associated with the electronic pen 490. Therefore, even the identity of the speaker is specified.

<<情報処理システム>>
情報処理システム50は、通信部51、認証部52、表示情報提供部53、コミュニケーション管理部54、機器管理部55、テキスト変換部56、重要度決定部57を有する。情報処理システム50が有するこれら各部は、図4に示されている各構成要素のいずれかが、HD504からRAM503に展開されたプログラムに従ったCPU501からの命令によって動作することで実現される機能、又は機能する手段である。また、情報処理システム50は、図4に示されているHD504等によって構築される記憶部5000を有している。記憶部5000には、会議情報記憶部5001、録画情報記憶部5002、対応付け情報記憶部5003、が構築される。
<<Information processing system>>
The information processing system 50 includes a communication section 51 , an authentication section 52 , a display information providing section 53 , a communication management section 54 , a device management section 55 , a text conversion section 56 , and an importance determining section 57 . Each of these units included in the information processing system 50 has a function that is realized when any of the components shown in FIG. or a means of functioning. The information processing system 50 also includes a storage unit 5000 constructed from the HD 504 shown in FIG. 4 and the like. The storage unit 5000 includes a conference information storage unit 5001, a recording information storage unit 5002, and an association information storage unit 5003.

通信部51は、端末装置10と各種の情報を送受信する。通信部51は、例えば、遠隔会議のリストを端末装置10に送信したり、音声データの認識要求を端末装置10から受信したりする。 The communication unit 51 transmits and receives various information to and from the terminal device 10 . For example, the communication unit 51 transmits a list of remote conferences to the terminal device 10 or receives a voice data recognition request from the terminal device 10.

認証部52は、端末装置10を操作するユーザーを認証する。認証部52は、例えば、通信部51によって受信された認証要求に含まれている認証情報(ユーザーID及びパスワード)が予め保持する認証情報と一致するか否かにより、ユーザーを認証する。なお、認証情報は、ICカードのカード番号、顔や指紋などの生体認証情報等でもよい。また、認証部52は、外部の認証システムやOAUTHなどの認証方法で認証してもよい。 The authentication unit 52 authenticates the user who operates the terminal device 10. The authentication unit 52 authenticates the user, for example, depending on whether the authentication information (user ID and password) included in the authentication request received by the communication unit 51 matches authentication information held in advance. Note that the authentication information may be a card number of an IC card, biometric information such as a face or a fingerprint, or the like. Further, the authentication unit 52 may perform authentication using an external authentication system or an authentication method such as OAUTH.

表示情報提供部53は、情報記録アプリ41が表示する情報を提供する。画面の構成は情報記録アプリ41が有しているので、表示情報提供部53は、ヒートマップや活発度などをXML等で端末装置10に提供する。端末装置10がWebアプリを実行する場合、表示情報提供部53は、Webアプリが表示する画面情報の生成を行う。画面情報は、HTML、XML、CSS(Cascade Style Sheet)、及びJavaScript(登録商標)等により作成される。 The display information providing unit 53 provides information displayed by the information recording application 41. Since the screen configuration is owned by the information recording application 41, the display information providing unit 53 provides the heat map, activity level, etc. to the terminal device 10 in XML or the like. When the terminal device 10 executes a web application, the display information providing unit 53 generates screen information displayed by the web application. The screen information is created using HTML, XML, CSS (Cascade Style Sheet), JavaScript (registered trademark), and the like.

コミュニケーション管理部54は、各ユーザーのアカウント又は情報処理システム50に付与されたシステム用のアカウントで、遠隔会議に関する情報を会議管理システム9から取得する。コミュニケーション管理部54は、予約された会議の会議情報を会議IDと対応付けて会議情報記憶部5001に記憶させる。また、コミュニケーション管理部54は、テナントに所属するユーザーに閲覧権限がある会議情報を取得する。会議には会議IDが設定されているので、会議IDにより遠隔会議と記録情報が対応付けられる。 The communication management unit 54 acquires information regarding the remote conference from the conference management system 9 using each user's account or a system account assigned to the information processing system 50 . The communication management unit 54 stores the conference information of the reserved conference in the conference information storage unit 5001 in association with the conference ID. Further, the communication management unit 54 acquires conference information that users belonging to the tenant have viewing authority. Since a conference ID is set for a conference, a remote conference and recorded information are associated with each other by the conference ID.

機器管理部55は、会議で使用される電子黒板2とミーティングデバイス60の機器識別情報を受信した場合、それらを対応付けて対応付け情報記憶部5003に保存する。したがって、会議IDと電子黒板2の機器識別情報とミーティングデバイス60の機器識別情報が対応付けられる。会議IDには結合画像動画も対応付けられるので、電子黒板2で入力された手書きデータと結合画像動画も対応付けられる。また、機器管理部55は、録画が終了されると(会議が終了すると)、対応付け情報記憶部5003から対応付けを削除する。 When the device management section 55 receives the device identification information of the electronic whiteboard 2 and the meeting device 60 used in the conference, the device management section 55 associates them and stores them in the association information storage section 5003. Therefore, the conference ID, the device identification information of the electronic whiteboard 2, and the device identification information of the meeting device 60 are associated. Since the combined image video is also associated with the conference ID, the handwritten data input on the electronic blackboard 2 and the combined image video are also associated. Further, the device management section 55 deletes the association from the association information storage section 5003 when the recording is finished (when the meeting is finished).

テキスト変換部56は、端末装置10からテキストデータへの変換を要求された音声データを外部の音声認識サービスシステム80を利用してテキストデータに変換する。テキスト変換部56自身が変換してもよい。 The text conversion unit 56 converts voice data requested to be converted into text data from the terminal device 10 into text data using an external voice recognition service system 80 . The text conversion unit 56 itself may perform the conversion.

重要度決定部57は、記録情報又はオブジェクト情報に含まれる以下のような活発度決定要素を使用して活発度を決定する。
・一定時間(無音状態を検出するための一定時間とは異なる)ごとのストロークの書き込み回数
・一定時間ごとの発言回数
・一定時間ごとの話者数
・一定時間ごとのキーワード出現(筆記+発言)回数
図11は、コミュニケーション管理部54が管理する、会議情報記憶部5001に記憶された会議情報の一例である。コミュニケーション管理部54は上記のアカウントを使ってテナントに所属する当該ユーザーが閲覧権限のある遠隔会議のリストを取得できる。本実施形態では、遠隔会議を例にしているが、遠隔会議のリストには1つの会議室だけで開催される会議も含まれている。
The importance level determining unit 57 determines the level of activity using the following level of activity determining elements included in the record information or object information.
・Number of strokes written in a certain period of time (different from the certain period of time for detecting silence) ・Number of utterances in a certain period of time ・Number of speakers in a certain period of time ・Keyword appearance in a certain period of time (writing + speaking) Number of Times FIG. 11 is an example of conference information stored in the conference information storage unit 5001 managed by the communication management unit 54. The communication management unit 54 can use the above account to obtain a list of remote conferences that the user belonging to the tenant is authorized to view. In this embodiment, a remote conference is taken as an example, but the list of remote conferences also includes conferences held in only one conference room.

会議情報は会議IDで管理され、参加者、タイトル(会議名)、開始日時、終了日時、場所などと対応付けられている。これらは会議情報の一例であり、会議情報は、他にも情報を含みうる。 Conference information is managed using a conference ID, and is associated with participants, title (meeting name), start date and time, end date and time, location, and the like. These are examples of conference information, and conference information may include other information.

・参加者の項目は、会議の参加者である。 - The participant item is the participant of the meeting.

・タイトルの項目は、会議名や会議の議題など、会議の内容を表す。 - The title item represents the content of the meeting, such as the meeting name and meeting agenda.

・開始日時の項目は、会議が開始される予定の日時である。 - The start date and time item is the date and time when the meeting is scheduled to start.

・終了日時の項目は、会議が終了する予定の日時である。 - The end date and time item is the date and time when the meeting is scheduled to end.

・場所の項目は、会議の開催場所であり、例えば会議室や、支社名、建屋などである。 - The location item is the location where the meeting will be held, such as a conference room, branch name, building, etc.

・電子黒板情報の項目は、会議で使用された電子黒板2の識別情報である。 - The electronic blackboard information item is identification information of the electronic blackboard 2 used in the meeting.

・ミーティングデバイスの項目は、会議で使用されたミーティングデバイス60の識別情報である。 - The item of meeting device is identification information of the meeting device 60 used in the meeting.

・閲覧権限の項目は、会議の開催者が予め会議情報を登録する際又は開催後に閲覧権限をもつユーザーとして登録したユーザーIDである。例えば、会議ごとに、参加者のみ、参加者+任意のユーザー名、又は、任意のユーザー名などが会議情報に登録される。 - The item of viewing authority is a user ID registered by the conference organizer as a user with viewing authority when registering conference information in advance or after the conference is held. For example, for each conference, only participants, participants + arbitrary user names, or arbitrary user names are registered in the conference information.

図10,図11に示すように、会議IDにより会議で録画された結合画像動画が特定される。 As shown in FIGS. 10 and 11, the combined image video recorded at the conference is specified by the conference ID.

録画情報記憶部5002に記憶されている録画情報は図10と同様でよい。ただし、情報処理システム50では、テナントに所属する全てのユーザーが録画した結合画像動画のリストを有する。 The recording information stored in the recording information storage unit 5002 may be the same as that shown in FIG. However, the information processing system 50 has a list of combined image videos recorded by all users belonging to the tenant.

図12は、対応付け情報記憶部5003に記憶された、会議IDに対し、電子黒板2の機器識別情報とミーティングデバイス60の機器識別情報が対応付けられた対応付け情報を示す。情報記録アプリ41が機器識別情報を情報処理システム50に送信してから、録画を終了するまでこの対応付け情報が保持される。 FIG. 12 shows association information stored in the association information storage unit 5003 in which the device identification information of the electronic blackboard 2 and the device identification information of the meeting device 60 are associated with the conference ID. This association information is held after the information recording application 41 transmits the device identification information to the information processing system 50 until the recording ends.

<<ストレージサービスシステム>>
ストレージサービスシステム70は記録情報及びオブジェクト情報を記憶するサービスシステムであればよい。記録情報記憶部7001には、記録情報(結合画像動画、テキストデータ)及びオブジェクト情報が保存されている。
<<Storage service system>>
The storage service system 70 may be any service system that stores record information and object information. Recorded information storage unit 7001 stores recorded information (combined image moving image, text data) and object information.

図13は、記録情報記憶部7001に記憶されている記録情報とオブジェクト情報を示す。図13に示すように、記録情報である結合画像動画とテキストデータ、及び、オブジェクト情報が会議IDに対応付けて保存されている。結合画像動画には合成された音声が含まれており、テキストデータは合成後の音声データが音声認識により変換されたものである。オブジェクト情報は後述する電子黒板2に入力された手書きデータなどのオブジェクトに関する情報である。結合画像動画には、話者切り替わりデータが添付されている。記録情報とオブジェクト情報は会議IDと対応付けられているので、会議情報とも対応付けられている。 FIG. 13 shows recorded information and object information stored in the recorded information storage unit 7001. As shown in FIG. 13, recorded information such as a combined image moving image, text data, and object information are stored in association with a conference ID. The combined image video includes synthesized audio, and the text data is the synthesized audio data converted by speech recognition. The object information is information regarding objects such as handwritten data input to the electronic blackboard 2, which will be described later. Speaker switching data is attached to the combined image video. Since the record information and object information are associated with the conference ID, they are also associated with the conference information.

図14は、記録情報の一部であるテキストデータの構造を説明する図である。図14に示すように、テキストデータには、ID、time、認識結果文字列、音声データ、拠点識別情報、話者IDの項目が対応付けられている。 FIG. 14 is a diagram illustrating the structure of text data that is part of recorded information. As shown in FIG. 14, the following items are associated with the text data: ID, time, recognition result character string, voice data, base identification information, and speaker ID.

・IDは自拠点音声と他拠点音声が所定の規則で分割された場合に採番される識別情報である。所定の規則は、ミーティングデバイス60(及び音声認識サービスシステム80の少なくとも一方)に設定されており、例えば、一定時間の無音状態が継続すると区切る、無音状態がなくても一定時間で強制的に区切る、形態素解析により検出した一文ずつ区切る、などである。 ・ID is identification information that is assigned a number when the local site voice and the other site voice are divided according to a predetermined rule. The predetermined rules are set in the meeting device 60 (and at least one of the voice recognition service system 80), and include, for example, dividing the meeting when silence continues for a certain period of time, or forcibly dividing the meeting after a certain period of time even if there is no silence. , dividing each sentence detected by morphological analysis, etc.

・timeは、録画開始からの継続時間による発言時刻である。記録開始時にいわゆる時刻も保存されるので、textが発言された時刻(絶対的な時刻)も分かる。 -time is the speaking time based on the duration from the start of recording. Since the so-called time is also saved at the start of recording, you can also know the time (absolute time) when the text was uttered.

・認識結果文字列は分割された合成音声が音声認識で変換されたテキストデータの一部である。合成音声は、認識結果文字列の変換元となった音声データである。 ・The recognition result string is part of the text data obtained by converting the divided synthesized speech using speech recognition. The synthesized speech is the speech data that is the source of the conversion of the recognition result character string.

・音声データは、拠点の判断後に自拠点音声と他拠点音声が合成された合成音声(分割済み)である。 - The audio data is a synthesized voice (already divided) in which the own site's voice and the other site's voice are synthesized after the base has been determined.

・拠点識別情報は、自拠点音声の音圧と他拠点音声の音圧に基づいて判断された、音声データが発言された拠点の識別情報である。拠点識別情報は、例えば1が自拠点、2が他拠点を表す。 - The base identification information is the identification information of the base where the voice data was uttered, which is determined based on the sound pressure of the own base's voice and the sound pressure of the other base's voice. In the base identification information, for example, 1 represents the own base and 2 represents the other base.

・話者IDは、認識結果文字列を発言した話者を示すユーザーIDである。ユーザーIDによりどの参加者が発言したかも特定できる。会議中に話者を識別する方法はいくつか知られている。識別する方法は、例えば、予め各社員が声紋を登録しておく方法、ミーティングデバイス60が話者の方向を検出しているので、その方向の参加者を顔認識する方法など、どのような方法でもよい。話者ごとにマイクが用意される会場ではどのマイクが集音したかで話者が特定される。 -Speaker ID is a user ID indicating the speaker who uttered the recognition result character string. It is also possible to identify which participant made a comment based on the user ID. Several methods are known for identifying speakers during a conference. The identification method may be any method, such as a method in which each employee registers a voiceprint in advance, or a method in which the meeting device 60 detects the direction of the speaker and recognizes the faces of participants in that direction. But that's fine. In venues where microphones are provided for each speaker, the speaker is identified by which microphone collects the sound.

図15は、結合画像動画と共に保存される話者切り替わりデータの一例である。この話者切り替わりデータはカメラにより話者が切り替わった時刻を示す。ミーティングデバイス60は、パノラマ画像を撮像しているが、動きがある水平方向の画角を検出し、それと顔検出(人間の顔の存在を検出する画像処理)により参加者が身振り手振りしていることを検出できる。カメラによる話者の切り替わりとは、この身振り手振りしている参加者が変化したことをいう。図15の例では、開始直後の1分間では3回、14分台の1分間では6回、話者が切り替わったことが記録されている。なお、顔認識による個人の識別技術により、話者のユーザーIDが切り替わり時刻に対応付けられていると好適である。身振り手振りを話者の切り替えの指標とすることで、単に発言により話者が切り替わったと判断するよりも、議論が活発な時間帯を特定しやすくなる。 FIG. 15 is an example of speaker switching data that is saved together with the combined image video. This speaker switching data indicates the time when the speaker was switched by the camera. The meeting device 60 is capturing a panoramic image, and detects the horizontal angle of view where there is movement, and uses this and face detection (image processing to detect the presence of a human face) to detect when the participants are gesturing. can be detected. The switching of the speaker by the camera means that the participant who is gesturing has changed. In the example of FIG. 15, it is recorded that the speaker changed three times in the first minute immediately after the start, and six times in the minute around 14 minutes. Note that it is preferable that the user ID of the speaker is associated with the switching time using personal identification technology using face recognition. By using body language as an indicator of speaker switching, it becomes easier to identify times when discussions are active, rather than simply determining that the speaker has switched based on utterances.

<<電子黒板>>
図16は、電子黒板2の機能をブロックに分けて説明する機能ブロック図である。電子黒板2は、接触位置検出部31、描画データ生成部32、データ記録部33、表示制御部34、コード生成部35、通信部36、及び、認証部37を有する。電子黒板2が有する各機能は、図8に示されている各構成要素のいずれかが、SSD404からRAM403上に展開されたプログラムに従ったCPU401からの命令によって動作することで実現される機能又は手段である。
<<Electronic blackboard>>
FIG. 16 is a functional block diagram illustrating the functions of the electronic whiteboard 2 divided into blocks. The electronic blackboard 2 includes a contact position detection section 31 , a drawing data generation section 32 , a data recording section 33 , a display control section 34 , a code generation section 35 , a communication section 36 , and an authentication section 37 . Each function that the electronic whiteboard 2 has is a function that is realized when any of the components shown in FIG. It is a means.

接触位置検出部31は接触センサー414に対し電子ペン490が接触した位置の座標を検出する。描画データ生成部32は電子ペン490のペン先が接触した座標を接触位置検出部31から取得する。描画データ生成部32はこの座標点列を補間することで接続してストロークデータを生成する。 The contact position detection unit 31 detects the coordinates of the position where the electronic pen 490 contacts the contact sensor 414 . The drawing data generation unit 32 acquires the coordinates that the pen tip of the electronic pen 490 has touched from the contact position detection unit 31 . The drawing data generation unit 32 interpolates and connects this coordinate point sequence to generate stroke data.

表示制御部34は手書きデータやユーザーが操作するためのメニューなどをディスプレイに表示する。 The display control unit 34 displays handwritten data, menus for user operations, etc. on the display.

データ記録部33は、電子黒板2に手書きされた手書きデータ、円や三角などの図形、済などのスタンプ、PCの画面、ファイル等をオブジェクト情報記憶部3002に保存する。手書きデータ、図形、及び、PCの画面などの画像、ファイル等はオブジェクトとして扱われる。 The data recording unit 33 stores handwritten data handwritten on the electronic blackboard 2, figures such as circles and triangles, stamps such as “done”, PC screens, files, etc. in the object information storage unit 3002. Handwritten data, graphics, images such as PC screens, files, etc. are treated as objects.

通信部36はWI-FiやLANに接続し、情報処理システム50と通信する。通信部36は、オブジェクト情報を情報処理システム50に送信したり、情報処理システム50に記憶されたオブジェクト情報を情報処理システム50から受信してディスプレイ480に表示させたりする。 The communication unit 36 connects to WI-Fi or LAN and communicates with the information processing system 50. The communication unit 36 transmits object information to the information processing system 50, receives object information stored in the information processing system 50 from the information processing system 50, and causes the display 480 to display the object information.

コード生成部35は、機器情報記憶部3001に記憶された電子黒板2の機器識別情報と会議で使用可能な機器であることを示す情報を2次元のパターンに符号化して二次元コードを生成する。また、コード生成部35は電子黒板2の機器識別情報と会議で使用可能な機器であることを示す情報をバーコードに符号化できる。機器識別情報はシリアル番号やUUID(Universally Unique Identifier)などでよい。ユーザーが設定したものでもよい。 The code generation unit 35 encodes the device identification information of the electronic whiteboard 2 stored in the device information storage unit 3001 and information indicating that the device is usable in a conference into a two-dimensional pattern to generate a two-dimensional code. . Further, the code generation unit 35 can encode the device identification information of the electronic whiteboard 2 and information indicating that the device is usable in a conference into a barcode. The device identification information may be a serial number, a UUID (Universally Unique Identifier), or the like. It may be set by the user.

認証部37は、電子黒板2のユーザーを認証する。認証方法は認証部52と同様でよい。また、認証部37は認証部52に認証を依頼してもよい。 The authentication unit 37 authenticates the user of the electronic whiteboard 2. The authentication method may be the same as that of the authentication section 52. Further, the authentication unit 37 may request the authentication unit 52 to perform authentication.

また、電子黒板2は、図8に示されているSSD404等によって構築される記憶部3000を有している。記憶部3000には機器情報記憶部3001とオブジェクト情報記憶部3002が構築されている。 Furthermore, the electronic whiteboard 2 has a storage unit 3000 constructed by the SSD 404 shown in FIG. 8 or the like. The storage unit 3000 includes a device information storage unit 3001 and an object information storage unit 3002.

図17は、機器情報記憶部3001に記憶されている機器識別情報等を示す。
・機器識別情報は、電子黒板2の識別情報である。
・IPアドレスは、他の装置がネットワークを介して電子黒板2と接続するためのIPアドレスである。
・パスワードは電子黒板2に他の装置が接続する際の認証に使用される。
FIG. 17 shows device identification information and the like stored in the device information storage unit 3001.
- The device identification information is identification information of the electronic whiteboard 2.
- The IP address is an IP address for other devices to connect to the electronic whiteboard 2 via the network.
- The password is used for authentication when another device connects to the electronic whiteboard 2.

図18は、オブジェクト情報記憶部3002に保存されているオブジェクト情報を説明する図である。オブジェクト情報は、電子黒板2が表示するオブジェクトを管理する情報である。オブジェクト情報は情報処理システム50に送信され議事録として使用される。遠隔会議の開催時に他の拠点に電子黒板2が配置されている場合、オブジェクト情報が共有される。 FIG. 18 is a diagram illustrating object information stored in the object information storage unit 3002. The object information is information for managing objects displayed on the electronic whiteboard 2. The object information is transmitted to the information processing system 50 and used as minutes. If the electronic blackboard 2 is placed at another base when a remote conference is held, object information is shared.

・会議IDの項目は、情報処理システム50から通知された会議の識別情報が設定される。 - In the item of conference ID, the identification information of the conference notified from the information processing system 50 is set.

・オブジェクトIDの項目は、オブジェクトを識別する識別情報が設定される。 - In the object ID field, identification information for identifying the object is set.

・種別の項目は、オブジェクトの種類が設定され、文字列、手書きデータ、文字、図形、画像、等がある。文字列は、手書きデータが手書き認識された1つ以上の文字(実体は文字コード)である。文字列をテキストデータという場合もある。手書きデータは1つ以上のストロークデータ(座標点列)である。手書きデータは、ストロークのペンアップから次のストロークのペンダウンまでの時間が、閾値以上となることで分割される。図形は、三角や四角などの幾何学的な形状である。画像は、PCやインターネットなどから取り込まれたJpeg、Png、TI/FFなどの画像データである。いずれのオブジェクトも、データ本体がオブジェクトIDに対応付けられて保存されている。 - In the type item, the type of object is set, and includes character strings, handwritten data, characters, figures, images, etc. The character string is one or more characters (the substance is a character code) obtained by handwriting recognition of handwritten data. Character strings are sometimes referred to as text data. Handwritten data is one or more stroke data (coordinate point sequence). Handwritten data is divided when the time from pen-up of a stroke to pen-down of the next stroke exceeds a threshold value. The figure is a geometric shape such as a triangle or a square. The image is image data such as Jpeg, Png, TI/FF, etc. imported from a PC or the Internet. For each object, the data body is stored in association with the object ID.

・電子黒板2の1画面をページと称する。ページの項目はそのページ番号である。 - One screen of the electronic blackboard 2 is called a page. The page item is the page number.

・座標の項目は、電子黒板2の所定の原点を基準とするオブジェクトの位置が設定される。オブジェクトの位置は例えばオブジェクトの外接矩形の左上頂点である。座標は例えば、ディスプレイの画素単位で表される。 - In the coordinate item, the position of the object with respect to a predetermined origin of the electronic whiteboard 2 is set. The position of the object is, for example, the upper left vertex of the circumscribed rectangle of the object. For example, the coordinates are expressed in display pixel units.

・サイズの項目は、オブジェクトの外接矩形の幅と高さが設定される。 ・For the size item, the width and height of the circumscribed rectangle of the object are set.

・筆記者IDの項目は、オブジェクトを入力したユーザーのユーザーIDである。ユーザーは電子黒板2の使用を開始する前に電子黒板2にログインする。ログインによりユーザーIDが特定される。例えば、同時には一人のユーザーのみが電子黒板2に入力する場合、最後にログインしたユーザーのユーザーIDがオブジェクトに対応付けられる。同時に複数のユーザーが電子黒板2に入力する場合、電子ペンとユーザーIDが対応付けられるとよい。例えばユーザーがログインした順番に、電子ペンのIDとユーザーIDとが対応付けられ、ユーザーが入力に使用した電子ペンにより、オブジェクトを入力したユーザーIDが特定される。筆記者IDの項目に複数のユーザーIDが登録されているのは、1つの手書きデータが複数のストロークを有し、それぞれを異なるユーザーが手書きしたためである。なお、本実施形態では、筆記者IDは、情報処理システム50側で付与されるが、説明の便宜上、図18に図示した。筆記者IDを電子黒板2が付与してもよい。 - The scribe ID item is the user ID of the user who input the object. The user logs into the electronic blackboard 2 before starting to use the electronic blackboard 2. A user ID is identified by logging in. For example, when only one user inputs information to the electronic whiteboard 2 at the same time, the user ID of the user who logged in last is associated with the object. When a plurality of users input information to the electronic whiteboard 2 at the same time, it is preferable that the electronic pens and user IDs be associated with each other. For example, the ID of the electronic pen and the user ID are associated with each other in the order in which the user logs in, and the user ID that inputs the object is identified by the electronic pen that the user used for input. The reason why a plurality of user IDs are registered in the scribe ID field is because one piece of handwritten data has a plurality of strokes, each of which was handwritten by a different user. Note that in this embodiment, the scribe ID is assigned on the information processing system 50 side, but is illustrated in FIG. 18 for convenience of explanation. The electronic blackboard 2 may provide the scribe ID.

・タイムスタンプの項目は、オブジェクトの入力が開始された時刻(時間情報の一例)が設定される。タイムスタンプはオブジェクトの入力が終了した時刻でもよい。 - In the time stamp item, the time when inputting the object started (an example of time information) is set. The timestamp may be the time when inputting the object ended.

図19は、手書きデータを構成するストロークデータの構造を説明する図である。図19(a)は、各ページに含まれるストロークを含むページデータを示す概念図である。ページデータは、ディスプレイ480に表示される1ページ分のストローク配列データである。ページデータは、図19(a)に示されているように、任意の1ページを識別するためのページデータID、このページの表示を開始した時刻を示す開始時刻、ストロークやジェスチャー等によるページの内容の書き換えが行われなくなった時刻を示す終了時刻、及び、電子ペン490やユーザーの手Hによるストロークによって生じたストローク配列データを識別するためのストローク配列データID、が関連付けて記憶されている。 FIG. 19 is a diagram illustrating the structure of stroke data that constitutes handwritten data. FIG. 19(a) is a conceptual diagram showing page data including strokes included in each page. The page data is stroke array data for one page displayed on the display 480. As shown in FIG. 19(a), the page data includes a page data ID for identifying any one page, a start time indicating the time when this page started to be displayed, and a page information such as a stroke or gesture. An end time indicating the time when the content is no longer rewritten, and a stroke array data ID for identifying stroke array data generated by strokes by the electronic pen 490 or the user's hand H are stored in association with each other.

このようなページデータにより、例えば、ユーザーが電子ペン490によってアルファベット「S」を描く場合は一筆書きとなるため、ストロークデータIDが1つで一文字のアルファベット[S]が示される。ところが、ユーザーが電子ペン490によってアルファベット「T」を描く場合、二筆書きとなるため、ストロークデータIDが2つで一文字のアルファベット「T」が示されることになる。 With such page data, for example, when the user draws the alphabet "S" with the electronic pen 490, it is written in one stroke, so one stroke data ID indicates one letter of the alphabet [S]. However, when the user draws the alphabet "T" with the electronic pen 490, it is written in two strokes, so one letter of the alphabet "T" is indicated by two stroke data IDs.

ストローク配列データは、図19(b)に示されているように詳細な情報を示している。図19(b)は、ストローク配列データを示す概念図である。1つのストローク配列データは、複数のストロークデータによって表される。そして、1つのストロークデータは、手書きデータと紐付けるためのオブジェクトID、ストロークデータを識別するためのストロークデータID、1つのストロークの書き始めの時刻を示す開始時刻、1つのストロークの書き終わりの時刻を示す終了時刻、ストロークの色、ストロークの幅、ストロークの通過点の配列を識別するための座標配列データID、及び、ストロークを筆記した筆記者のユーザーIDを示している。 The stroke array data shows detailed information as shown in FIG. 19(b). FIG. 19(b) is a conceptual diagram showing stroke array data. One stroke array data is represented by a plurality of stroke data. One piece of stroke data includes an object ID for associating with handwritten data, a stroke data ID for identifying stroke data, a start time indicating the time at which one stroke starts, and a time at which one stroke ends. , the color of the stroke, the width of the stroke, the coordinate array data ID for identifying the arrangement of passing points of the stroke, and the user ID of the scribe who wrote the stroke.

この座標配列データは、図19(c)に示されているように詳細な情報を示している。図19(c)は、座標配列データを示す概念図である。図19(c)に示されているように、座標配列データは、ディスプレイ480上の1点(X座標値、Y座標値)、この1点を通過したときのストロークの開始時刻からの差分の時刻(ms)、及び、この1点における電子ペン490の筆圧の各情報を示している。即ち、図19(c)に示されている1点の集まりが、図19(b)に示されている1つの座標配列データで示されている。例えば、ユーザーが電子ペン490によってアルファベット「S」を描く場合、一筆書きとなるが、「S」を描き終えるまでに、複数の通過点を通過するため、座標配列データは、これら複数の通過点の情報を示している。 This coordinate array data shows detailed information as shown in FIG. 19(c). FIG. 19(c) is a conceptual diagram showing coordinate array data. As shown in FIG. 19(c), the coordinate array data includes one point (X coordinate value, Y coordinate value) on the display 480, and the difference from the stroke start time when passing this one point. The time (ms) and information on the writing pressure of the electronic pen 490 at this one point are shown. That is, the collection of one point shown in FIG. 19(c) is represented by one coordinate array data shown in FIG. 19(b). For example, when a user draws the alphabet "S" with the electronic pen 490, it is a single stroke, but the user passes through multiple passing points before finishing drawing "S", so the coordinate array data is information is shown.

<処理又は動作>
続いて、以上の構成に基づいて、記録情報作成システム100が行う動作及び処理について説明する。
<Processing or operation>
Next, the operation and processing performed by the recorded information creation system 100 will be explained based on the above configuration.

<<結合画像動画の保存>>
図20を参照し、結合画像動画の保存処理について説明する。図20は、情報記録アプリ41がパノラマ画像、話者画像及びアプリの画面を録画する手順を示すシーケンス図の一例である。図20では、リアルタイムに音声が認識される場合を説明するが、音声認識は一定時間ごとや会議終了後にまとめて行われてもよい。
<<Save combined image video>>
With reference to FIG. 20, a process for saving a combined image moving image will be described. FIG. 20 is an example of a sequence diagram showing a procedure in which the information recording application 41 records a panoramic image, a speaker image, and an application screen. Although FIG. 20 describes a case where speech is recognized in real time, speech recognition may be performed at regular intervals or all at once after the end of a meeting.

S21:ユーザーは遠隔会議アプリ42を操作して遠隔会議を開始する。ここでは、自拠点102と他の拠点101の遠隔会議アプリ42が遠隔会議を開始したものとする。自拠点102の遠隔会議アプリ42は、端末装置10が有するカメラが撮像する画像、マイクが集音する音声を他の拠点101の遠隔会議アプリ42に送信する。他の拠点101の遠隔会議アプリ42は、受信した画像をディスプレイに表示し、受信した音声をスピーカから出力する。同様に、他の拠点101の遠隔会議アプリ42は、端末装置10が有するカメラが撮像する画像、マイクが集音する音声を自拠点102の遠隔会議アプリ42に送信する。自拠点102の遠隔会議アプリ42は、受信した画像をディスプレイに表示し、受信した音声をスピーカから出力する。各遠隔会議アプリ42はこれを繰り返して、遠隔会議を実現する。 S21: The user operates the remote conference application 42 to start a remote conference. Here, it is assumed that the remote conference application 42 of the local base 102 and the other base 101 have started a remote conference. The remote conference application 42 of the own base 102 transmits the image captured by the camera of the terminal device 10 and the sound collected by the microphone to the remote conference application 42 of the other base 101. The remote conference application 42 of the other base 101 displays the received image on the display and outputs the received audio from the speaker. Similarly, the remote conference application 42 of the other base 101 transmits the image captured by the camera of the terminal device 10 and the audio collected by the microphone to the remote conference application 42 of the own base 102 . The remote conference application 42 of the own base 102 displays the received image on the display and outputs the received audio from the speaker. Each remote conference application 42 repeats this process to realize a remote conference.

S22:ユーザーは記録する項目(遠隔会議アプリ42のアプリ画面を録画するか、音声を記録するかなど)などの録画設定を行う。情報記録アプリ41の操作受付部12が設定を受け付ける。 S22: The user makes recording settings such as recording items (whether to record the application screen of the remote conference application 42, audio, etc.). The operation reception unit 12 of the information recording application 41 accepts the settings.

ユーザーは遠隔会議を事前に予約済みの場合、遠隔会議のリストを表示し、結合画像動画を対応付ける遠隔会議を選択できる。ユーザーは情報処理システム50にログイン済みなので、情報処理システム50はログインしたユーザーが閲覧権限のある遠隔会議を特定する。情報処理システム50は特定した遠隔会議のリストを端末装置10に送信するので、ユーザーは開催中又はこれから開催される遠隔会議を選択する。これにより、会議ID等、遠隔会議に関する情報が決定される。 If the user has reserved a remote conference in advance, the user can display a list of remote conferences and select the remote conference to which the combined image video will be associated. Since the user has already logged into the information processing system 50, the information processing system 50 identifies remote conferences that the logged-in user has viewing authority. The information processing system 50 transmits the list of identified remote conferences to the terminal device 10, so the user selects a remote conference that is currently being held or will be held in the future. As a result, information regarding the remote conference, such as the conference ID, is determined.

また、ユーザーは遠隔会議を事前に予約していなくても、結合画像動画を作成する際に会議を作成できる。以下では、情報記録アプリ41が、結合画像動画を作成する際に会議を作成し、会議IDを情報処理システム50から取得する場合を説明する。 In addition, users can create a conference when creating a combined image video even if they have not reserved a remote conference in advance. In the following, a case will be described in which the information recording application 41 creates a conference when creating a combined image video and acquires the conference ID from the information processing system 50.

S23:ユーザーは録画開始を情報記録アプリ41に指示する。情報記録アプリ41の操作受付部12が指示を受け付ける。表示制御部13は録画中画面を表示する。 S23: The user instructs the information recording application 41 to start recording. The operation reception unit 12 of the information recording application 41 receives the instruction. The display control unit 13 displays a recording screen.

S24:遠隔会議が選択されていないので(会議IDが決まってないため)、情報記録アプリ41の通信部11が、遠隔会議作成要求を情報処理システム50に送信する。 S24: Since the remote conference has not been selected (because the conference ID has not been determined), the communication unit 11 of the information recording application 41 transmits a remote conference creation request to the information processing system 50.

S25:情報処理システム50の通信部51は遠隔会議作成要求を受信し、コミュニケーション管理部54が、会議管理システム9が採番した重複しない会議IDを取得し、通信部51が会議IDを情報記録アプリ41に送信する。 S25: The communication unit 51 of the information processing system 50 receives the remote conference creation request, the communication management unit 54 obtains a unique conference ID numbered by the conference management system 9, and the communication unit 51 records the conference ID as information. Send to application 41.

S26:また、コミュニケーション管理部54は、通信部51を介して、結合画像動画の保存先(ストレージサービスシステム70のURL)を情報記録アプリ41に送信する。 S26: Furthermore, the communication management unit 54 transmits the storage destination of the combined image video (URL of the storage service system 70) to the information recording application 41 via the communication unit 51.

S27:情報記録アプリ41の通信部11が会議IDと録画ファイルの保存先を受信することで、録画制御部17が録画の準備が整ったと判断し、録画を開始する。 S27: When the communication unit 11 of the information recording application 41 receives the conference ID and the storage location of the recorded file, the recording control unit 17 determines that preparations for recording are complete and starts recording.

S28:情報記録アプリ41のアプリ画面取得部14は、ユーザーが選択したアプリの画面をアプリに対し要求する(アプリ画面取得部14は、より詳細にはOSを介して、アプリの画面を取得する)。図20では、ユーザーが選択したアプリを遠隔会議アプリ42とする。 S28: The application screen acquisition unit 14 of the information recording application 41 requests the application to display the screen of the application selected by the user (more specifically, the application screen acquisition unit 14 acquires the screen of the application via the OS). ). In FIG. 20, the application selected by the user is the remote conference application 42.

S29:情報記録アプリ41の録画制御部17は、デバイス通信部16を介して、ミーティングデバイス60に録画開始を通知する。ミーティングデバイス60はパノラマ画像と話者画像を情報記録アプリ41に送信している。 S29: The recording control unit 17 of the information recording application 41 notifies the meeting device 60 via the device communication unit 16 of the start of recording. The meeting device 60 transmits the panoramic image and the speaker image to the information recording application 41.

S30:ミーティングデバイス60の端末通信部61が録画開始を受信すると、重複しない録画IDを採番し、録画IDを情報記録アプリ41に返す。なお、録画IDは情報記録アプリ41が採番してもよいし、情報処理システム50から取得してもよい。 S30: When the terminal communication unit 61 of the meeting device 60 receives the start of recording, it assigns a unique recording ID number and returns the recording ID to the information recording application 41. Note that the recording ID may be assigned by the information recording application 41 or may be acquired from the information processing system 50.

S31:遠隔会議サービスシステム90は繰り返し、他拠点から送信された音声データ及び画像データを遠隔会議アプリに送信する。 S31: The remote conference service system 90 repeatedly transmits audio data and image data transmitted from other bases to the remote conference application.

S32:情報記録アプリ41の音声取得部15は端末装置10が出力する音声データ(遠隔会議アプリ42が受信した音声データ)を取得する。 S32: The audio acquisition unit 15 of the information recording application 41 acquires the audio data output by the terminal device 10 (the audio data received by the remote conference application 42).

S33:デバイス通信部16が、音声取得部15が取得した音声データと合成要求をミーティングデバイス60に送信する。 S33: The device communication unit 16 transmits the audio data acquired by the audio acquisition unit 15 and the synthesis request to the meeting device 60.

S34:ミーティングデバイス60の端末通信部61は音声データと合成要求を受信する。集音部64は常に周囲の音声を集音している。ミーティングデバイス60は端末通信部61が受信した他拠点音声と、集音部64が集音した自拠点音声を所定の規則で分割し、それぞれの音圧に基づいて拠点を判断する。 S34: The terminal communication unit 61 of the meeting device 60 receives the audio data and the synthesis request. The sound collection unit 64 always collects surrounding sounds. The meeting device 60 divides the sound of other bases received by the terminal communication unit 61 and the sound of the own base collected by the sound collection unit 64 according to a predetermined rule, and determines the base based on the sound pressure of each.

S35:次に、音声合成部65が、集音部64が集音した自拠点音声(周囲の音声データ)と、端末通信部61が受信した他拠点音声を合成する。したがって、合成音声は分割された状態で生成される。例えば、音声合成部65は、自拠点音声と他拠点音声を足し合わせる。ミーティングデバイス60の周辺の鮮明な音声が記録されるので、特にミーティングデバイス60周辺(会議室側)の音声のテキスト化精度が向上する。 S35: Next, the voice synthesis unit 65 synthesizes the local site voice (surrounding voice data) collected by the sound collection unit 64 and the other site voice received by the terminal communication unit 61. Therefore, synthesized speech is generated in a divided state. For example, the speech synthesis unit 65 adds the own site's voice and the other site's voice. Since the clear audio around the meeting device 60 is recorded, the accuracy of converting the audio around the meeting device 60 (on the conference room side) into text is particularly improved.

この音声の合成は、端末装置10でも可能である。しかし、録画機能が端末装置10に、音声処理がミーティングデバイス60に分散して配置されることで、端末装置10とミーティングデバイス60の負荷を低減できる。録画機能がミーティングデバイス60に、音声処理が端末装置10に分散して配置されてもよい。 This voice synthesis is also possible in the terminal device 10. However, by distributing the recording function to the terminal device 10 and distributing the audio processing to the meeting device 60, the load on the terminal device 10 and the meeting device 60 can be reduced. The recording function may be distributed to the meeting device 60, and the audio processing may be distributed to the terminal device 10.

S36:ミーティングデバイス60の端末通信部61は、音声認識要求(分割済みの合成音声)と拠点識別情報を情報処理システム50に送信する。 S36: The terminal communication unit 61 of the meeting device 60 transmits the voice recognition request (segmented synthesized voice) and base identification information to the information processing system 50.

S37:情報処理システム50の通信部51は、音声認識要求(分割済みの合成音声)と拠点識別情報を受信し、テキスト変換部56が音声認識要求(分割済みの合成音声)を音声認識サービスシステムに送信し、認識結果文字列を取得する。 S37: The communication unit 51 of the information processing system 50 receives the voice recognition request (divided synthesized voice) and the base identification information, and the text conversion unit 56 converts the voice recognition request (divided synthesized voice) into the voice recognition service system. and get the recognition result string.

S38:情報処理システム50は、認識結果文字列、音声データ、及び、拠点識別情報を情報記録アプリ41に返す。情報処理システム50が情報記録アプリ41にこれらを返すため、ミーティングデバイス60はステップS36で自機の識別情報を添付しておく。また、情報記録アプリ41は予め、端末装置10のIPアドレスと、ミーティングデバイス60から取得した識別情報を、情報処理システム50に設定しておく。こうすることで、情報処理システム50がミーティングデバイス60の識別情報に基づいて端末装置10を特定できる。 S38: The information processing system 50 returns the recognition result character string, audio data, and base identification information to the information recording application 41. Since the information processing system 50 returns these to the information recording application 41, the meeting device 60 attaches its own identification information in step S36. Further, the information recording application 41 sets the IP address of the terminal device 10 and the identification information acquired from the meeting device 60 in the information processing system 50 in advance. By doing so, the information processing system 50 can specify the terminal device 10 based on the identification information of the meeting device 60.

S39:情報処理システム50の通信部51は、認識結果文字列、音声データ、拠点識別情報を結合画像動画と同じ保存先に保存する。なお、これらには会議IDが添付される。 S39: The communication unit 51 of the information processing system 50 stores the recognition result character string, audio data, and base identification information in the same storage location as the combined image video. Note that a conference ID is attached to these.

S40:また、ミーティングデバイス60のパノラマ画像作成部62はパノラマ画像を作成し、話者画像作成部63は話者画像を作成する。話者変更検出部66は、パノラマ画像に基づいて話者の切り替わりを検出し、記録しておく。 S40: Also, the panoramic image creation unit 62 of the meeting device 60 creates a panoramic image, and the speaker image creation unit 63 creates a speaker image. The speaker change detection unit 66 detects a change in speaker based on the panoramic image and records it.

S41:情報記録アプリ41のデバイス通信部16は、パノラマ画像と話者画像を繰り返しミーティングデバイス60から取得する。また、デバイス通信部16は、合成後の音声データを繰り返しミーティングデバイス60に要求して取得する。これらの取得は、デバイス通信部16がミーティングデバイス60に要求することで行われてもよい。あるいは、ミーティングデバイス60が自動的にパノラマ画像と話者画像を送信してもよい。音声データの合成要求を受け取ったミーティングデバイス60が自動的に合成後の音声データを情報記録アプリ41に送信してもよい。 S41: The device communication unit 16 of the information recording application 41 repeatedly acquires panoramic images and speaker images from the meeting device 60. Further, the device communication unit 16 repeatedly requests the meeting device 60 to obtain the synthesized audio data. These acquisitions may be performed by the device communication unit 16 requesting the meeting device 60. Alternatively, the meeting device 60 may automatically transmit the panoramic image and the speaker image. The meeting device 60 that has received the audio data synthesis request may automatically transmit the synthesized audio data to the information recording application 41.

S42:情報記録アプリ41の表示制御部13はアプリの画面、パノラマ画像、話者画像を並べて表示する。また、情報記録アプリ41の録画制御部17は、遠隔会議アプリ42から取得したアプリの画面と、パノラマ画像と、話者画像を結合して結合画像動画として保存する。すなわち、録画制御部17は、繰り返し受信されるアプリの画面と、パノラマ画像と、話者画像を結合して結合画像を作成し、結合画像動画を構成するフレームに結合画像を指定することで結合画像動画を作成する。また、録画制御部17はミーティングデバイス60から受信した音声データを保存しておく。 S42: The display control unit 13 of the information recording application 41 displays the application screen, panoramic image, and speaker image side by side. Further, the recording control unit 17 of the information recording application 41 combines the application screen, panoramic image, and speaker image acquired from the remote conference application 42 and saves the combined image as a moving image. That is, the recording control unit 17 creates a combined image by combining the repeatedly received application screen, panoramic image, and speaker image, and performs the combination by specifying the combined image in the frames that constitute the combined image video. Create an image video. Additionally, the recording control unit 17 stores audio data received from the meeting device 60.

情報記録アプリ41は以上のステップS32~S42を繰り返す。 The information recording application 41 repeats the above steps S32 to S42.

S43:遠隔会議が終わり、録画の必要がなくなると、ユーザーが録画終了を情報記録アプリ41に指示する。情報記録アプリ41の操作受付部12が指示を受け付ける。 S43: When the remote conference ends and recording is no longer necessary, the user instructs the information recording application 41 to end recording. The operation reception unit 12 of the information recording application 41 receives the instruction.

S44:情報記録アプリ41のデバイス通信部16は、ミーティングデバイス60に録画終了を通知する。ミーティングデバイス60は、引き続きパノラマ画像と話者画像の作成や音声の合成を継続する。ただし、ミーティングデバイス60は録画中かどうかで解像度やfpsを変えるなど処理の不可を変更してもよい。 S44: The device communication unit 16 of the information recording application 41 notifies the meeting device 60 of the end of recording. The meeting device 60 continues to create panoramic images and speaker images and to synthesize audio. However, the meeting device 60 may change whether processing is prohibited, such as by changing the resolution or fps, depending on whether recording is in progress.

S45:情報記録アプリ41の録画制御部17は、結合画像動画に音声データを結合して音声付きの結合画像動画を作成する。パノラマ画像、話者画像及びアプリの画面が一切保存されない場合は、音声データは独立していてよい。 S45: The recording control unit 17 of the information recording application 41 combines audio data with the combined image video to create a combined image video with audio. If the panoramic image, speaker image, and application screen are not saved at all, the audio data may be independent.

S46:情報記録アプリ41のアップロード部20は、通信部11を介して、結合画像動画の保存先に結合画像動画を保存する。録画情報記憶部5002において結合画像動画は会議ID及び録画IDと対応付けられている。結合画像動画にはアップロード済みが記録される。 S46: The upload unit 20 of the information recording application 41 stores the combined image video in the combined image video storage destination via the communication unit 11. In the recording information storage unit 5002, the combined image video is associated with a conference ID and a recording ID. Uploaded is recorded in the combined image video.

なお、ステップS32~S42の処理は、図20に示すとおりの順番でなくてもよく、音声データの合成と結合画像動画の保存が前後してもよい。 Note that the processing in steps S32 to S42 does not have to be performed in the order shown in FIG. 20, and the synthesis of audio data and the storage of the combined image video may be performed before or after the other.

S47:ユーザーが会議終了を電子黒板2に入力する。ユーザーが端末装置10に会議終了を入力し、端末装置10から電子黒板2に会議終了が送信されてもよい。この場合、会議終了は情報処理システム50を経由して電子黒板2に送信されてよい。 S47: The user inputs the end of the meeting into the electronic blackboard 2. The user may input the end of the meeting into the terminal device 10, and the end of the meeting may be transmitted from the terminal device 10 to the electronic blackboard 2. In this case, the end of the meeting may be sent to the electronic blackboard 2 via the information processing system 50.

S48:電子黒板2の通信部36は、会議IDを指定して、会議中に表示した(例えば手書きされた)オブジェクト情報及び話者切り替わりデータを情報処理システム50に送信する。通信部36は電子黒板2の機器識別情報を情報処理システム50に送信してもよい。この場合、対応付け情報により会議IDが特定される。 S48: The communication unit 36 of the electronic whiteboard 2 specifies the conference ID and transmits object information (eg, handwritten) displayed during the conference and speaker switching data to the information processing system 50. The communication unit 36 may transmit the device identification information of the electronic whiteboard 2 to the information processing system 50. In this case, the conference ID is specified by the association information.

S49:情報処理システム50の通信部51はオブジェクト情報と話者切り替わりデータを受信すると、ストローク同士の時間的な間隔が閾値以上となる度に、手書きデータを分割する。なお、この分割は電子黒板2で行っておいてもよい。情報処理システム50の通信部51は、会議IDに基づいて結合画像動画等と同じ保存先にオブジェクト情報と話者切り替わりデータを保存する。 S49: Upon receiving the object information and speaker switching data, the communication unit 51 of the information processing system 50 divides the handwritten data every time the time interval between strokes becomes equal to or greater than a threshold. Note that this division may be performed using the electronic whiteboard 2. The communication unit 51 of the information processing system 50 saves the object information and speaker switching data in the same storage destination as the combined image video and the like based on the conference ID.

保存先はユーザー(本実施形態では、閲覧者)に通知されているので、ユーザーはメールなどで保存先を知らせることで結合画像動画を参加者と共有できる。結合画像動画、音声データ、テキストデータ、オブジェクト情報を作成する装置がそれぞれ異なっても、1つの格納場所に集めて格納でき、後でユーザー等が容易に閲覧できる。 Since the storage location is notified to the user (in this embodiment, the viewer), the user can share the combined image video with participants by notifying the storage location via e-mail or the like. Even if the combined image video, audio data, text data, and object information are created by different devices, they can be collected and stored in one storage location, and can be easily viewed by a user or the like later.

<結合画像動画の表示処理>
図21は、閲覧者が情報記録アプリを操作して結合画像動画を表示する手順を示すシーケンス図である。結合画像動画はWebアプリにより表示されてもよい。
<Display processing of combined image video>
FIG. 21 is a sequence diagram showing a procedure in which a viewer operates an information recording application to display a combined image video. The combined image video may be displayed by a web application.

S51:閲覧者は図11のような会議情報を情報記録アプリに表示させ、結合画像動画を閲覧したい会議を選択する。また、閲覧者は活発度を決定するために任意のキーワードを入力できる。端末装置10の操作受付部12がこれらを受け付ける。 S51: The viewer displays conference information as shown in FIG. 11 on the information recording application, and selects the conference for which the combined image video is to be viewed. Additionally, the viewer can input any keyword to determine the activity level. The operation reception unit 12 of the terminal device 10 receives these.

S52:これにより、通信部11が会議IDを指定して結合画像動画を情報処理システム50に要求する。 S52: Thereby, the communication unit 11 specifies the conference ID and requests the information processing system 50 for a combined image video.

S53:情報処理システム50の通信部51は結合画像動画の要求を受信し、会議IDで特定される結合画像動画をストレージサービスシステム70から取得する。 S53: The communication unit 51 of the information processing system 50 receives the request for a combined image video, and acquires the combined image video specified by the conference ID from the storage service system 70.

S54:また、通信部51は結合画像動画に添付されている話者切り替わりデータをストレージサービスシステム70から取得する。 S54: The communication unit 51 also obtains speaker switching data attached to the combined image video from the storage service system 70.

S55:また、通信部51はテキストデータをストレージサービスシステム70から取得する。テキストデータには認識結果文字列ごとに話者が含まれている。 S55: Also, the communication unit 51 obtains text data from the storage service system 70. The text data includes a speaker for each recognition result character string.

S56:また、通信部51は、オブジェクト情報をストレージサービスシステム70から取得する。オブジェクト情報にはストロークデータや手書きデータから文字認識された文字列も含まれる。 S56: The communication unit 51 also obtains object information from the storage service system 70. Object information also includes character strings that are recognized from stroke data and handwritten data.

S57:次に、表示情報提供部53は、後述する結合画像動画表示画面240を生成し、後述するように一定時間ごとの活発度を視覚的なヒートマップで表してタイムインジケータ241dに沿って配置する。なお、ヒートマップの作成は端末装置10が行ってもよい。この場合、情報処理システム50は一定時間ごとの活発度を端末装置10に送信する。 S57: Next, the display information providing unit 53 generates a combined image video display screen 240, which will be described later, and displays the degree of activity at fixed time intervals as a visual heat map, and arranges it along the time indicator 241d. do. Note that the heat map may be created by the terminal device 10. In this case, the information processing system 50 transmits the degree of activity to the terminal device 10 at regular intervals.

S58:また、重要度決定部57が活発度を決定する。ここでは複数の活発度決定要素全てに基づく活発度、すなわち、重要度決定部57が複数の活発度決定要素に基づく活発度が統合された活発度を決定する。詳細を図23にて説明する。 S58: Also, the importance level determining unit 57 determines the level of activity. Here, the degree of activity based on all of the plurality of activity level determining factors, that is, the importance determining unit 57 determines the degree of activity in which the degrees of activity based on the plurality of activity level determining factors are integrated. Details will be explained with reference to FIG.

S59:情報処理システム50の通信部51は、結合画像動画表示画面240の画面情報を端末装置10に送信する。 S59: The communication unit 51 of the information processing system 50 transmits the screen information of the combined image moving image display screen 240 to the terminal device 10.

S60:端末装置10の通信部11は、結合画像動画表示画面240の画面情報を受信し、表示制御部13が、結合画像動画表示画面240を表示する。 S60: The communication unit 11 of the terminal device 10 receives the screen information of the combined image video display screen 240, and the display control unit 13 displays the combined image video display screen 240.

S61:閲覧者は、活発度を決定するための活発度決定要素を指定できる。ここで閲覧者が発言頻度のみを指定したとする。操作受付部12が操作を受け付ける。 S61: The viewer can specify an activity determining element for determining the activity level. Here, it is assumed that the viewer specifies only the frequency of utterances. The operation reception unit 12 accepts the operation.

S62:これにより、通信部11が活発度決定要素を発言頻度とする活発度を情報処理システム50に要求する。 S62: Thereby, the communication unit 11 requests the information processing system 50 to determine the degree of activity with the frequency of remark as the factor determining the degree of activity.

S63:情報処理システム50の通信部51は発言頻度を活発度決定要素とする旨を受信し、重要度決定部57が発言頻度のみを用いて活発度を決定する。表示情報提供部53は、この活発度を用いて、一定時間ごとの活発度を色や輝度に対応付けてヒートマップを作成する。 S63: The communication unit 51 of the information processing system 50 receives the message that the frequency of comments is to be used as an activity determining factor, and the importance determining unit 57 determines the degree of activity using only the frequency of comments. The display information providing unit 53 uses this activity level to create a heat map by associating the activity level at fixed time intervals with color and brightness.

S64:情報処理システム50の通信部51は、発言頻度に基づく活発度で作成されたヒートマップを端末装置10に送信する。 S64: The communication unit 51 of the information processing system 50 transmits to the terminal device 10 a heat map created based on the activity level based on the frequency of speech.

S65:端末装置10の通信部11は、ヒートマップを表示するための情報を受信し、表示制御部13が、タイムインジケータ241dに沿ってヒートマップを表示する。 S65: The communication unit 11 of the terminal device 10 receives information for displaying the heat map, and the display control unit 13 displays the heat map along the time indicator 241d.

S66:次に、閲覧者は、活発度を決定するための活発度決定要素として任意のキーワードを指定した。操作受付部12がキーワードを受け付ける。 S66: Next, the viewer specified an arbitrary keyword as an activity level determining element for determining the activity level. The operation reception unit 12 receives keywords.

S67:これにより、通信部11が活発度決定要素を任意のキーワードとする旨を情報処理システム50に要求する。 S67: Thereby, the communication unit 11 requests the information processing system 50 to set the activity level determining element as an arbitrary keyword.

S68:情報処理システム50の通信部51はキーワードを活発度決定要素とする旨を受信し、重要度決定部57がキーワード用いて活発度を決定する。表示情報提供部53は、この活発度を用いて、一定時間ごとの活発度を表すヒートマップを作成する。 S68: The communication unit 51 of the information processing system 50 receives the notification that the keyword is to be used as an activity level determining element, and the importance level determination unit 57 determines the activity level using the keyword. The display information providing unit 53 uses this activity level to create a heat map representing the activity level at regular intervals.

S69:情報処理システム50の通信部51は、キーワードに基づく活発度で作成されたヒートマップを端末装置10に送信する。 S69: The communication unit 51 of the information processing system 50 transmits the heat map created with the activity level based on the keyword to the terminal device 10.

S70:端末装置10の通信部11は、ヒートマップを受信し、表示制御部13が、タイムインジケータ241dに沿ってヒートマップを表示する。 S70: The communication unit 11 of the terminal device 10 receives the heat map, and the display control unit 13 displays the heat map along the time indicator 241d.

<結合画像動画の表示>
図22は、情報記録アプリ41が表示する、結合画像動画表示画面240の一例である。なお、結合画像動画表示画面240は会議の終了後に表示される画面であるが、会議中の画面もほぼ同じである。結合画像動画表示画面240は、会議書誌情報欄221、画像表示欄241、文字起こしボタン242、1つ以上のテキスト表示欄243、自動スクロールボタン244、検索ボタン245を有する。
<Display of combined image video>
FIG. 22 is an example of a combined image moving image display screen 240 displayed by the information recording application 41. Note that although the combined image video display screen 240 is a screen that is displayed after the meeting ends, the screen during the meeting is almost the same. The combined image video display screen 240 has a conference bibliographic information field 221, an image display field 241, a transcription button 242, one or more text display fields 243, an automatic scroll button 244, and a search button 245.

・会議書誌情報欄221は、会議情報の少なくとも一部が表示される欄である。図22では、会議名、会議が開催される時間、場所が表示されている。 - The conference bibliographic information column 221 is a column in which at least part of conference information is displayed. In FIG. 22, the name of the conference, the time and place where the conference will be held are displayed.

・画像表示欄241は、表示ボタン241a、巻き戻しボタン241b、早送りボタン241c、タイムインジケータ241d、表示速度ボタン241e、音量ボタン241f等を有する。画像表示欄241は、結合画像動画を表示する。図22では、画像表示欄241の結合画像動画は、左側にパノラマ画像と話者画像が配置され、右側に遠隔会議アプリ42の画面が表示されている。遠隔会議アプリ42の画面は、遠隔会議中に、拠点の画像になったり資料の画像になったりする。したがって、閲覧者は各種のボタンを操作して所望の場面の画面を閲覧できる。 - The image display field 241 has a display button 241a, a rewind button 241b, a fast forward button 241c, a time indicator 241d, a display speed button 241e, a volume button 241f, etc. The image display column 241 displays a combined image moving image. In FIG. 22, in the combined image video in the image display field 241, a panoramic image and a speaker image are arranged on the left side, and a screen of the remote conference application 42 is displayed on the right side. The screen of the remote conference application 42 becomes an image of the base or an image of materials during the remote conference. Therefore, the viewer can view a desired scene on the screen by operating various buttons.

・画像表示欄241に表示中の結合画像動画の音声データがテキストデータに変換済みの場合、テキスト表示欄243に、発言内容が文字で表示される。テキスト表示欄243には、合成された音声データが音声認識により変換されたテキストデータが表示される。 - If the audio data of the combined image video currently being displayed in the image display field 241 has been converted to text data, the text display field 243 displays the content of the statement in text. The text display field 243 displays text data obtained by converting synthesized speech data through speech recognition.

・文字起こしボタン242は、テキスト表示欄243に表示されるテキストデータを結合画像動画の表示時刻に対応して表示させるか否かを閲覧者が切り替えるボタンである。 - The transcription button 242 is a button that allows the viewer to switch whether or not to display the text data displayed in the text display field 243 in accordance with the display time of the combined image video.

・自動スクロールボタン244は、表示時刻に関係なく、自動でテキストデータをスクロールさせるか否かを閲覧者が切り替えるボタンである。 - The automatic scroll button 244 is a button that allows the viewer to switch whether or not to automatically scroll the text data regardless of the display time.

・検索ボタン245は、閲覧者がキーワードを指定してテキストデータを検索するためのボタンである。 - The search button 245 is a button for the viewer to search for text data by specifying a keyword.

・ヒートマップ246は、会議の活発度を視覚的に表す。詳細は後述する。 - The heat map 246 visually represents the activity level of the meeting. Details will be described later.

<<活発度の決定方法>>
次に、図23を参照して、活発度の決定方法を説明する。図23は、重要度決定部57が活発度を決定する手順を示すフローチャート図である。重要度決定部57は、閲覧者が結合画像動画の再生を情報処理システム50に要求した場合に決定されてもよいし、記録情報の保存時に実行されてもよい。一度、決定された活発度は記録情報に対応付けて保存されていてもよい。
<<How to determine activity level>>
Next, a method for determining the degree of activity will be explained with reference to FIG. 23. FIG. 23 is a flowchart showing the procedure by which the importance determining unit 57 determines the degree of activity. The importance determination unit 57 may be determined when the viewer requests the information processing system 50 to reproduce the combined image video, or may be executed when the recorded information is saved. Once determined, the degree of activity may be stored in association with recorded information.

重要度決定部57は、次の活発度決定要素を取得する(S101)。 The importance determining unit 57 obtains the next activity determining element (S101).

・一定時間ごとのストロークの書き込み頻度A
一定時間ごとのストロークの書き込み頻度は、図19に示したストロークデータが、一定時間ごとに何個、書き込まれたかである。なお、一定時間ごとのストロークの書き込み頻度は、一定時間ごとの手書きデータの数でもよい。一定時間は、例えば1分などであるが、適宜好適な時間が決定されるものとする。
・Frequency A of writing strokes at regular intervals
The writing frequency of strokes per fixed time is how many pieces of stroke data shown in FIG. 19 are written per fixed time. Note that the frequency of writing strokes for each certain period of time may be the number of handwritten data for each certain period of time. The certain period of time is, for example, one minute, but a suitable period of time is determined as appropriate.

・一定時間ごとの発言回数B
一定時間ごと発言回数は、音声認識されたテキストデータが一定時間ごとに含む単語数である。したがって、重要度決定部57がテキストデータを形態素解析して品詞付きの単語に分解する。一定時間ごとの発言回数は、文字数でもよい。
・Number of statements per fixed time B
The number of utterances per certain period of time is the number of words that speech-recognized text data includes at each certain period of time. Therefore, the importance determining unit 57 morphologically analyzes the text data and breaks it down into words with parts of speech. The number of utterances per certain period of time may be the number of characters.

・一定時間ごとの話者数C
一定時間ごとの話者数は、一定時間ごとの話者の数(異なり数)である。テキストデータには話者が対応付けられているので、重要度決定部57は、一定時間に出現した話者を重複しないようにカウントする。
・Number of speakers per fixed time C
The number of speakers per fixed time is the number of speakers (different number) per fixed time. Since speakers are associated with the text data, the importance determining unit 57 counts speakers who appear in a certain period of time so as not to overlap.

・一定時間ごとの話者の切り替わり頻度D
一定時間ごとの話者の切り替わり頻度は、話者の切り替わりの回数である。一定時間ごとの話者の切り替わり頻度は、話者切り替わりデータ(パノラマ画像における参加者の動きの検出)に記録されたものと、テキストデータに対応付けられた話者により検出されるものがある。また、重要度決定部57は、この両方の少なくとも一方で話者が切り替わったと判断してもよい。
・Frequency of speaker switching at regular intervals D
The speaker switching frequency at fixed time intervals is the number of times the speaker switches. The frequency of speaker switching at regular time intervals can be recorded in speaker switching data (detection of participant movement in a panoramic image) or detected by speakers associated with text data. Further, the importance determining unit 57 may determine that the speaker has changed in at least one of the two.

・一定時間ごとのキーワードの出現頻度E,F(発言又は手書き)
一定時間ごとのキーワードの出現頻度は、閲覧者が指定したキーワードがテキストデータ(音声データ)又は文字列(手書きデータが文字認識されたもの)に含まれる数である。例えば、「電子黒板」「プロジェクタ」など、閲覧者が活発に議論されている話題を指定することで、記録情報のどの時間帯を見ればよいか推測するために入力される。
・Keyword appearance frequency E, F (spoken or handwritten) at regular intervals
The appearance frequency of a keyword at a certain time interval is the number of times a keyword specified by a viewer is included in text data (audio data) or a character string (handwritten data that is character-recognized). For example, by specifying a topic that is being actively discussed by the viewer, such as "electronic blackboard" or "projector," the user can input the information in order to guess which time period of the recorded information should be viewed.

次に、重要度決定部57は、以下を決定する(S102)。
・一定時間ごとのストロークの書き込み頻度Aのうち、会議中の最大値Amax
・一定時間ごとの発言回数Bのうち、会議中の最大値Bmax
・一定時間ごとの話者数Cのうち、会議中の最大値Cmax
・一定時間ごとの話者の切り替わり頻度Dのうち、会議中の最大値Dmax
・一定時間ごとのキーワードの出現頻度E,Fのうち、会議中の最大値Emax、Fmax
次に、重要度決定部57は、活発度を一定時間ごとに下式で算出する(S103)。
活発度 = (A/Amax + B/Bmax + C/Cmax + D/Dmax+E/Emax+F/Fmax)/6
したがって、活発度は0以上1未満である。この活発度は6つの活発度決定要素に基づく活発度を統合した活発度であるが、個別の活発度決定要素の活発度は以下のようになる。
・ストロークの書き込み頻度Aに基づく活発度=A/Amax
・発言回数Bに基づく活発度=B/Bmax
・話者数Cに基づく活発度=C/Cmax
・話者の切り替わり頻度Dに基づく活発度=D/Dmax
・キーワードの出現頻度E,Fに基づく活発度=E/Emax、F/Fmax、
重要度決定部57は複数の活発度決定要素のうち、任意の2つ以上を組み合わせて統合した活発度を決定することもできる。
Next, the importance determining unit 57 determines the following (S102).
・The maximum value Amax during the meeting of the stroke writing frequency A for each fixed period of time
・The maximum value Bmax during the meeting among the number of speeches B per certain period of time
・Out of the number of speakers C per fixed time, the maximum value Cmax during the conference
・The maximum value Dmax during the conference among the frequency D of changing speakers at regular intervals
・Among keyword appearance frequencies E and F at regular intervals, maximum values Emax and Fmax during the meeting
Next, the importance determining unit 57 calculates the activity level at regular intervals using the following formula (S103).
Activity level = (A/Amax + B/Bmax + C/Cmax + D/Dmax+E/Emax+F/Fmax)/6
Therefore, the activity level is 0 or more and less than 1. This level of activity is an integrated level of activity based on six activity level determining factors, and the level of activity of each individual activity level determining element is as follows.
・Activity level based on stroke writing frequency A = A/Amax
・Activity level based on number of comments B = B/Bmax
・Activity level based on number of speakers C = C/Cmax
・Activity level based on speaker switching frequency D = D/Dmax
・Activity level based on keyword appearance frequency E, F = E/Emax, F/Fmax,
The importance level determining unit 57 can also determine the integrated level of activity by combining any two or more of the plurality of activity level determining elements.

また、重要度決定部57は、活発度決定要素に重みを付与してもよい。活発度に例えば、一定時間ごとのストロークの書き込み頻度Aを強く反映させたい場合、重要度決定部57は、Aを2倍するなど、係数をかける。こうすることで、情報処理システム50は、一定時間ごとのストロークの書き込み頻度Aが多い時間帯が強調されやすいヒートマップを作成できる。
活発度 = (2A/Amax + B/Bmax + C/Cmax + D/Dmax+E/Emax+F/Fmax)/7
手書きデータと発言はそもそもの総量(単語数)が異なるが、重みづけをすることで双方の影響を平均化したり一方をより重視したりといった制御ができる。
Further, the importance determining unit 57 may assign weights to the activity determining factors. For example, if it is desired to strongly reflect the writing frequency A of strokes at regular time intervals in the activity level, the importance determining unit 57 multiplies A by a coefficient, such as doubling it. By doing so, the information processing system 50 can create a heat map in which time periods in which the writing frequency A of strokes for each fixed period of time is high are likely to be emphasized.
Activity level = (2A/Amax + B/Bmax + C/Cmax + D/Dmax+E/Emax+F/Fmax)/7
Although the total amount (number of words) of handwritten data and utterances is originally different, by weighting it, it is possible to control the effects of both by averaging out or giving more importance to one.

以上で、一定時間ごとの活発度が決定されたので、表示情報提供部53が活発度を色や輝度に割り当てることで、ヒートマップを作成できる。この方法では、会議によらず各会議のうち一番活発と評価される部分が最高輝度で表現される。 As described above, since the degree of activity for each fixed period of time has been determined, the display information providing unit 53 can create a heat map by assigning the degree of activity to color and brightness. In this method, the part of each meeting that is evaluated to be the most active is expressed with the highest brightness, regardless of the meeting.

また、一定時間は、会議の時間(結合画像動画の録画時間)により変更されてよい。ヒートマップ246の長さには制約があるためである。例えば、重要度決定部57は、一定時間を結合画像動画の録画時間の数100~10000分の1などにする。想定されるディスプレイの解像度(DPI:Dots Per Inch)にもよるが、ヒートマップ246は数100~10000程度に分割できる長さ(ヒートマップ246の長さ方向の画素数)を有している。よって、一定時間を結合画像動画の録画時間に応じて決定することで、一定時間ごとの色や輝度をヒートマップ246に反映できる。一定時間が長くなったことにより、より短い時間ごとの活発度が失われることについては、後述するヒートマップ246の拡大により対応できる。 Furthermore, the certain period of time may be changed depending on the time of the meeting (the recording time of the combined image video). This is because there is a restriction on the length of the heat map 246. For example, the importance determining unit 57 sets the certain time to 1/100 to 1/10,000 of the recording time of the combined image video. Depending on the assumed display resolution (DPI: Dots Per Inch), the heat map 246 has a length (the number of pixels in the length direction of the heat map 246) that can be divided into approximately several hundred to 10,000 pieces. Therefore, by determining the predetermined time according to the recording time of the combined image video, the color and brightness for each predetermined time can be reflected in the heat map 246. The loss of the activity level for each shorter time period due to a longer certain period of time can be dealt with by expanding the heat map 246, which will be described later.

また、個別の活発度決定要素で活発度が決定される場合、一定時間は、ストロークの書き込み頻度A、発言回数B、話者数C、話者の切り替わり頻度D、キーワードの出現頻度E,Fにより異なってもよい。例えば、絶対数が多い発言回数Bの一定時間を短く、絶対数が少ないキーワードの出現頻度E,Fは長めにしてよい。 In addition, when the activity level is determined by individual activity level determining factors, for a certain period of time, the frequency of writing strokes A, the number of utterances B, the number of speakers C, the frequency of speaker switching D, the frequency of appearance of keywords E, F It may differ depending on the For example, the fixed time period for the number of utterances B, which has a large absolute number, may be shortened, and the appearance frequencies E and F of keywords, which have a small absolute number, may be made longer.

<タイムインジケータの表示例>
次に、図24~図31を参照し、ヒートマップの表示例を説明する。まず、図24は、1つの色に対し活発度を輝度で表したヒートマップ246を示す。この場合、閲覧者が1つの色を決めてもよいし、予め色が決まっていてもよい。図24では輝度の高低で活発度が表現される。なお、同じ色のまま、輝度を変えるためには、表示情報提供部53がHSV色空間を使用することが好適である。HSVとは、色を「色相(Hue)」「彩度(Saturation)」「明度(Value・Brightness)」の3要素で表現する方式である。したがって、表示情報提供部53は、色相を同じまま明度を変更すればよい。なお、端末装置10のディスプレイはRGBで表示されるので、HSVで表された色はRGBに変換される。
<Example of time indicator display>
Next, display examples of heat maps will be described with reference to FIGS. 24 to 31. First, FIG. 24 shows a heat map 246 that expresses the degree of activity in terms of brightness for one color. In this case, the viewer may decide on one color, or the colors may be decided in advance. In FIG. 24, the level of activity is expressed by the level of brightness. Note that in order to change the brightness while keeping the same color, it is preferable that the display information providing unit 53 uses the HSV color space. HSV is a method of expressing color using three elements: "hue", "saturation", and "value/brightness". Therefore, the display information providing unit 53 may change the brightness while keeping the hue the same. Note that since the display of the terminal device 10 is displayed in RGB, colors expressed in HSV are converted to RGB.

このようにして一定時間ごとの色と輝度が決まるので、表示情報提供部53は、ヒートマップ246の長さを結合画像動画の長さで割り、一定時間が対応するタイムインジケータ241d上の長さを算出する。 Since the color and brightness for each fixed time are determined in this way, the display information providing unit 53 divides the length of the heat map 246 by the length of the combined image video, and calculates the length on the time indicator 241d to which the fixed time corresponds. Calculate.

ヒートマップの長さ(画素数)÷結合画像動画の長さ(min)=単位時間あたりヒートマップの長さ(画素数/min) ……(1)
一定時間が対応するヒートマップ上の長さ(画素数)=「単位時間あたりヒートマップの長さ(画素数/min)」*一定時間(画素数)……(2)
表示情報提供部53は、一定時間が対応するヒートマップ246の長さごとに、活発度から求めた色と輝度を配置することでヒートマップ246を作成する。また、ヒートマップ246には一定時間ごとに活発度(数値としての活発度)が対応付けられる。
Length of heat map (number of pixels) ÷ Length of combined image video (min) = Length of heat map per unit time (number of pixels/min) ...(1)
Length on the heat map corresponding to a certain time (number of pixels) = "Length of heat map per unit time (number of pixels/min)" * Fixed time (number of pixels)... (2)
The display information providing unit 53 creates the heat map 246 by arranging the color and brightness determined from the activity level for each length of the heat map 246 corresponding to a certain period of time. Furthermore, the heat map 246 is associated with the degree of activity (the degree of activity as a numerical value) at regular time intervals.

このようにしてタイムインジケータ241dに沿って配置されたヒートマップ246は、結合画像動画の記録時間うち、どの時間帯が盛り上がっていたか、すなわち、活発に議論が行われていたかを色や輝度で表す情報となる。 The heat map 246 arranged along the time indicator 241d in this way shows in color and brightness which time period of the recorded time of the combined image video was lively, that is, whether active discussion was taking place. It becomes information.

閲覧者がマウスなどのポインティングデバイス301でヒートマップ246の上をマウスオーバーすることで、端末装置10の表示制御部13が活発度をポップアップ表示してもよい。図24では「0.8」という活発度が表示されている。マウスのクリックにより、タイムインジケータ241dの進行状況バーのポインタ303がクリック位置に移動するので、閲覧者は指定の活発度に対応する時刻の結合画像動画を端末装置10に再生させることができる。 When the viewer hovers over the heat map 246 with the pointing device 301 such as a mouse, the display control unit 13 of the terminal device 10 may display the activity level in a pop-up manner. In FIG. 24, an activity level of "0.8" is displayed. By clicking the mouse, the pointer 303 of the progress bar of the time indicator 241d moves to the clicked position, so that the viewer can cause the terminal device 10 to reproduce the combined image video at the time corresponding to the specified activity level.

ヒートマップ246の右側には活発度ボタン302が表示されている。閲覧者が活発度ボタン302を押下すると、活発度が閾値以上の時刻にポインタ303が移動する。上記のように、ヒートマップ246上の位置に活発度が対応付けられているので、表示情報提供部53は、対応付けられている活発度と閾値を順番に比較し、活発度ボタン302の押下ごとに閾値以上の活発度が対応付けられている位置にポインタ303を表示するための画面情報を作成する。ヒートマップ246だけでは正確な活発度を閲覧者が読み取りにくいが、活発度ボタン302により、端末装置10は活発度が閾値以上の時刻における結合画像動画を再生できる。 An activity level button 302 is displayed on the right side of the heat map 246. When the viewer presses the activity level button 302, the pointer 303 moves to the time when the activity level is greater than or equal to the threshold value. As described above, since the degree of activity is associated with the position on the heat map 246, the display information providing unit 53 sequentially compares the degree of activity associated with the threshold and presses the degree of activity button 302. Screen information for displaying a pointer 303 at a position associated with an activity level equal to or higher than a threshold value is created for each case. Although it is difficult for the viewer to accurately read the degree of activity using the heat map 246 alone, the degree of activity button 302 allows the terminal device 10 to reproduce the combined image video at the time when the degree of activity is equal to or higher than the threshold value.

また、表示情報提供部53は、ヒートマップ246において高活発度(活発度が閾値以上)の部分について、出現頻度が高い単語を提供するとよい。すなわち、表示情報提供部53は、ヒートマップ246上の位置に対応付けられた活発度が閾値以上の場合、該部分に対応する時刻の前後のテキストデータ又は文字列から出現頻度が大きい単語を取得する。出現頻度が大きいとは、出現数が上位N個の単語でよい。出現数は1個でもよい。 Furthermore, the display information providing unit 53 preferably provides words that appear frequently in the portions of the heat map 246 that have a high degree of activity (the degree of activity is equal to or higher than a threshold value). That is, when the degree of activity associated with a position on the heat map 246 is greater than or equal to the threshold, the display information providing unit 53 acquires words with a high frequency of appearance from the text data or character strings before and after the time corresponding to the part. do. A word with a high frequency of appearance may be a word with a top N number of appearances. The number of occurrences may be one.

閲覧者がポインティングデバイス301でヒートマップ246をマウスオーバーすると、ポインティングデバイス301がマウスオーバーした部分に対応付けられている単語がポップアップ表示される。図24では「営業成績」という単語が表示されてる。こうすることで、活発度が高い部分でどのような議題について活発に議論されたのかが推定できるようになる。 When the viewer mouses over the heat map 246 with the pointing device 301, a pop-up display of the word associated with the portion that the pointing device 301 mouses over is displayed. In Figure 24, the word "sales results" is displayed. By doing this, it becomes possible to estimate what kinds of topics were actively discussed in areas with high activity.

次に、図25を参照してグラデーションにより活発度の高低が表されたヒートマップ246を説明する。図25は、活発度を複数の色のグラデーションで表したヒートマップ246を示す。例えば、活発度が「高」を赤、「低」を青とした場合、表示情報提供部53は、活発度が「1」を赤(255,0,0)に割り当て、活発度が「0」を青(0,0,255)に割り当てる。活発度がα(αは0以上1以下)の場合、以下で色が決定される。
R=α*255
G=0
B=(1-α)*255
これにより、ヒートマップ246は、赤と青が混ざった色となり、活発度が大きいほど赤みが強く、小さいほど青みが強い色となる。
Next, with reference to FIG. 25, a heat map 246 in which the level of activity level is expressed by gradation will be described. FIG. 25 shows a heat map 246 that expresses the degree of activity using a plurality of color gradations. For example, if the activity level is "high" and "low" is blue, the display information providing unit 53 assigns the activity level of "1" to red (255, 0, 0), and the activity level of "0" to the red (255, 0, 0). ” is assigned to blue (0, 0, 255). When the activity level is α (α is 0 or more and 1 or less), the color is determined as follows.
R=α*255
G=0
B=(1-α)*255
As a result, the heat map 246 has a color that is a mixture of red and blue, and the higher the activity level, the stronger the reddish color, and the lower the activity level, the stronger the bluish color.

なお、赤や青は一例であり、閲覧者が任意に設定できてもよいし、表示情報提供部53に予め決定されていてもよい。 Note that red and blue are just examples, and may be set arbitrarily by the viewer or may be determined in advance by the display information providing unit 53.

また、図26に示すように、端末装置10は異なる活発度決定要素で決定された活発度をそれぞれ別のヒートマップ246で表示してもよい。図26は、異なる活発度決定要素で決定された活発度をそれぞれ表すヒートマップ246を示す。図26では、ストロークデータの書き込み頻度Aに基づく活発度と話者の切り替わり頻度Dによる活発度がそれぞれヒートマップ246で示されている。なお、表示情報提供部53は、2つの活発度をそれぞれ別の色で表現してもよいし、同じ色で表現してもよい。閲覧者が色をカスタマイズしてもよいし、表示情報提供部53が活発度決定要素ごとにそれぞれ色を変更してもよい。 Further, as shown in FIG. 26, the terminal device 10 may display the activity levels determined by different activity level determining factors in separate heat maps 246. FIG. 26 shows a heat map 246 representing the activity determined by different activity determining factors. In FIG. 26, the degree of activity based on the writing frequency A of stroke data and the degree of activity based on the speaker switching frequency D are shown in a heat map 246, respectively. Note that the display information providing unit 53 may express the two degrees of activity in different colors, or may express them in the same color. The viewer may customize the color, or the display information providing unit 53 may change the color for each activity level determining element.

図27は、キーワードの出現頻度を活発度とするヒートマップを示す。閲覧者が特定のキーワードを指定した場合はそのキーワードの出現頻度に基づいて活発度が決定される。キーワードは、テキストデータ、及び、手書きデータから変換された文字列から検索される。なお、キーワードの指定には、テキストボックス305が使用されてもよいし、事前にテキストデータ又は文字列から抽出された頻出単語をリスト化したプルダウンメニューから、閲覧者が選択してもよい。図27では、指定されたキーワードと共に、キーワードが多く発言された時間帯の色が濃いヒートマップ246が表示されている。 FIG. 27 shows a heat map in which the frequency of appearance of keywords is used as the degree of activity. When a viewer specifies a specific keyword, the degree of activity is determined based on the frequency of appearance of that keyword. Keywords are searched from text data and character strings converted from handwritten data. Note that the text box 305 may be used to specify the keyword, or the viewer may select from a pull-down menu that lists frequently occurring words extracted in advance from text data or character strings. In FIG. 27, a heat map 246 is displayed together with the specified keyword, in which the color of the time period in which the keyword is uttered the most is darker.

キーワードの出現頻度を活発度とするヒートマップ246により、複数の議題がある会議において、特定の議題がいつ議論されていたかを閲覧者が推定できるようになる。 The heat map 246, which uses the frequency of appearance of keywords as the degree of activity, allows the viewer to estimate when a specific topic was being discussed in a meeting with multiple topics.

図28は、活発度決定要素ごとに表示されたヒートマップ246を示す。図28に示すように、表示情報提供部53は、閲覧者が操作することで、又は、自動的に、全ての活発度決定要素に基づく活発度が統合されたヒートマップ246a、ストロークの書き込み頻度Aに基づくヒートマップ246b、発言回数Bに基づくヒートマップ246c、話者数Cに基づくヒートマップ246d、話者の切り替わり頻度Dに基づくヒートマップ246e、キーワードの出現頻度E,Fに基づくヒートマップ246f、246gを別々に作成できる。また、キーワードの出現頻度E,Fに基づくヒートマップ246f、246gについては、端末装置10は、音声認識されたテキストデータ及び手書き認識された文字列のそれぞれがキーワードを含む頻度でヒートマップ246f、246gを表示できる。ヒートマップ246を構成する色は、それぞれが異なっていてもよいし、同じでもよい。閲覧者が色を指定できてもよい。 FIG. 28 shows a heat map 246 displayed for each activity determining factor. As shown in FIG. 28, the display information providing unit 53, by the viewer's operation or automatically, displays a heat map 246a in which the activity level based on all the activity level determination factors is integrated, and the stroke writing frequency. Heat map 246b based on A, heat map 246c based on number of utterances B, heat map 246d based on number of speakers C, heat map 246e based on speaker switching frequency D, heat map 246f based on keyword appearance frequencies E and F. , 246g can be created separately. Further, regarding the heat maps 246f and 246g based on the keyword appearance frequencies E and F, the terminal device 10 displays the heat maps 246f and 246g based on the frequency with which the voice-recognized text data and handwritten-recognized character strings each include the keyword. can be displayed. The colors forming the heat map 246 may be different or the same. The viewer may be able to specify the color.

どの活発度決定要素により有用な議論が行われている時間帯を特定できるかは会議によって異なる可能性がある。図28のように活発度決定要素ごとにヒートマップ246を表示することで、各会議の進め方に即した活発度を閲覧者が任意に選択することができる。 Which activity determining factors are used to identify times during which useful discussions are occurring may vary from meeting to meeting. By displaying the heat map 246 for each activity determining factor as shown in FIG. 28, the viewer can arbitrarily select the activity level that suits the way each meeting is to proceed.

また、結合画像動画の長さはそれぞれ異なるが、ヒートマップ246の長さは一定である。このため、結合画像動画が長いと、閲覧者がヒートマップ246から詳細な活発度を読み取れない場合がある。そこで、閲覧者がポインティングデバイス301をヒートマップ246上でマウスオーバーした場合に、端末装置10がヒートマップ246を拡大して表示するとよい。例えば、表示情報提供部53は、ポインティングデバイス301の位置が対応するヒートマップ246上の時刻の前後の合計10分程度に関し、ヒートマップ246作成時の一定時間より短い時間ごとの活発度のヒートマップを作成する。このヒートマップを拡大されたヒートマップ247と称する。 Furthermore, although the lengths of the combined image videos differ, the length of the heat map 246 is constant. Therefore, if the combined image video is long, the viewer may not be able to read the detailed activity level from the heat map 246. Therefore, when the viewer mouses over the heat map 246 with the pointing device 301, the terminal device 10 may enlarge and display the heat map 246. For example, the display information providing unit 53 displays a heat map of the activity level for each time period shorter than the fixed time period when the heat map 246 is created, for a total of about 10 minutes before and after the time on the heat map 246 to which the position of the pointing device 301 corresponds. Create. This heat map is referred to as an enlarged heat map 247.

図29は、拡大されたヒートマップ247の一例を示す。この場合、表示情報提供部53は、ヒートマップ246の全体と拡大されたヒートマップ247で一定時間を変えて、ヒートマップ246を作成する。例えば、ヒートマップ246の場合、表示情報提供部53は、1分ごとに活発度を決定し、拡大されたヒートマップ247の場合、10~30秒ごとに活発度を決定する。こうすることで、閲覧者がより短い時間ごとの活発度を確認できる。 FIG. 29 shows an example of an enlarged heat map 247. In this case, the display information providing unit 53 creates the heat map 246 by changing the fixed time period between the entire heat map 246 and the enlarged heat map 247. For example, in the case of the heat map 246, the display information providing unit 53 determines the degree of activity every minute, and in the case of the enlarged heat map 247, the degree of activity is determined every 10 to 30 seconds. By doing this, viewers can check the activity level in a shorter period of time.

また、図30に示すように、表示情報提供部53は、会議の参加者ごとの活発度をヒートマップ246で表すことができる。図30は、参加者の活躍度を活発度とするヒートマップ246の一例である。会議によっては、発表者や議題が時間帯で切り替わる場合があり、閲覧者が所定の発表者や議題のみを閲覧したい場合がある。このような場合、閲覧者は、会議の参加者を指定して活発度をヒートマップ246で表示させる。テキストデータには話者が対応付けられ、オブジェクト情報には筆記者が対応付けられているので、閲覧者が指定した参加者が発言又は手書きしたテキストデータや手書きデータは容易に特定される。 Further, as shown in FIG. 30, the display information providing unit 53 can represent the activity level of each participant in the conference using a heat map 246. FIG. 30 is an example of a heat map 246 in which the degree of activity of the participants is defined as the degree of activity. Depending on the conference, presenters and topics may change depending on the time period, and viewers may want to view only predetermined presenters and topics. In such a case, the viewer specifies the participants in the conference and has the degree of activity displayed in the heat map 246. Since the text data is associated with a speaker and the object information is associated with a scribe, the text data and handwritten data uttered or handwritten by the participant specified by the viewer can be easily identified.

なお、表示情報提供部53は、予め会議情報から会議の参加者を取得し、プルダウンメニュー248などで表示できるようにする。参加者が指定されると、重要度決定部57は、参加者のユーザーIDでテキストデータ及びオブジェクト情報を検索し、一定時間ごとに、この参加者によるストロークの書き込み頻度A、及び発言回数B(この参加者が発言したテキストデータが含む単語数)を算出する。したがって、指定された参加者が活躍した時間帯が強調されたヒートマップ246が作成される。これにより、各参加者の会議参加度を推定することができる。 Note that the display information providing unit 53 obtains the conference participants from the conference information in advance, and allows them to be displayed using the pull-down menu 248 or the like. When a participant is designated, the importance determining unit 57 searches text data and object information using the participant's user ID, and calculates the stroke writing frequency A and the number of utterances B (by this participant) at regular intervals. The number of words included in the text data uttered by this participant is calculated. Therefore, a heat map 246 is created in which the time period in which the designated participant was active is emphasized. This makes it possible to estimate each participant's degree of participation in the conference.

図31は、色を用いずに活発度が大きい時間帯を表示する活発度の表示方法を説明する図である。図31では、ヒートマップの代わりにタイムインジケータ241dに沿って、活発度バー249が表示されている。活発度バー249は、活発度が閾値以上の時間帯を強調する。図31では、活発度が閾値以上の時間帯が矩形250a~250dで示されている。閲覧者は、活発度の大小は不明だが、ヒートマップ246よりも、議論が活発な時間帯を特定しやすい。 FIG. 31 is a diagram illustrating a method of displaying activity levels that displays time periods with high activity levels without using colors. In FIG. 31, an activity bar 249 is displayed along the time indicator 241d instead of the heat map. The activity level bar 249 emphasizes time periods in which the activity level is greater than or equal to the threshold value. In FIG. 31, time periods in which the degree of activity is equal to or greater than the threshold are indicated by rectangles 250a to 250d. Although the viewer does not know the degree of activity, it is easier to identify times when discussions are active than from the heat map 246.

また、この矩形250a~250dは、活発度に応じた形状、色の違い、又はマーク(大、中、小など)等で活発度がどの程度かを示してもよい。 Further, the rectangles 250a to 250d may have different shapes or colors depending on the degree of activity, or marks (large, medium, small, etc.) to indicate the degree of activity.

<主な効果>
以上説明したように、本実施形態の記録情報作成システム100は、時系列に沿って活発度を表すヒートマップを提供するので、閲覧者は、結合画像動画から閲覧すべき又はしたい部分をより速く発見できるようになる。
<Main effects>
As explained above, the recorded information creation system 100 of the present embodiment provides a heat map representing the degree of activity in time series, so that the viewer can quickly identify the parts that should or should be viewed from the combined image video. become discoverable.

<その他の適用例>
以上、本発明を実施するための最良の形態について実施例を用いて説明したが、本発明はこうした実施例に何等限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々の変形及び置換を加えることができる。
<Other application examples>
Although the best mode for carrying out the present invention has been described above using examples, the present invention is not limited to these examples in any way, and various modifications can be made without departing from the gist of the present invention. and substitutions can be added.

例えば、重要度決定部57は、映像を用いて活発度を決定してもよい。この場合、重要度決定部57は、一定時間ごとのパノラマ画像の変化の大きさを活発度に変換する。更に、重要度決定部57は、例えば口の動きのみを活発度に変換してもよい。 For example, the importance level determining unit 57 may determine the level of activity using video. In this case, the importance determining unit 57 converts the magnitude of change in the panoramic image at regular time intervals into the degree of activity. Further, the importance determining unit 57 may convert only the mouth movement into the degree of activity, for example.

また、ヒートマップ246の代わりに、活発度が閾値以上の時刻の結合画像動画のスクリーンショットが表示されてもよい。スクリーンショットには、この時刻に発言されたテキストデータが添付されるとよい。閲覧者はスクリーンショットを見て会議の状況を把握し、閲覧すべきか否か判断できる。あるいは、閲覧者がヒートマップ246上をポインティングデバイス301でマウスオーバーすると、活発度が閾値以上の場合にポインティングデバイス301の位置に対応する時刻のスクリーンショットがポップアップ表示されてもよい。
また、ヒートマップ246は結合画像動画の下方に配置されずに、上方に配置されてもよい。ヒートマップ246は、結合画像動画と同じ幅で表示されなくてもよい。ヒートマップ246は、結合画像動画とは全く別の場所に配置されてもよい。ヒートマップ246は結合画像動画の下方に配置される以外に、結合画像動画の右側又は左側に、垂直方向に配置されてもよい。この場合、上側が会議開始時、下側が会議終了時に対応する。
Moreover, instead of the heat map 246, a screenshot of a combined image video at a time when the degree of activity is equal to or higher than a threshold value may be displayed. Text data uttered at this time may be attached to the screenshot. Viewers can view the screenshots to understand the status of the meeting and decide whether or not to view it. Alternatively, when the viewer hovers over the heat map 246 with the pointing device 301, a screenshot at the time corresponding to the position of the pointing device 301 may be displayed as a pop-up if the degree of activity is equal to or higher than a threshold value.
Further, the heat map 246 may not be placed below the combined image video, but may be placed above. Heatmap 246 does not have to be displayed with the same width as the combined image video. The heat map 246 may be located entirely separate from the combined image video. In addition to being placed below the combined image video, the heat map 246 may be placed vertically on the right or left side of the combined image video. In this case, the upper side corresponds to the start of the conference, and the lower side corresponds to the end of the conference.

また、端末装置10とミーティングデバイス60が一体でもよい。端末装置10にミーティングデバイス60が外付けされてもよい。また、ミーティングデバイス60は、全天球カメラとマイクとスピーカがケーブルで接続されたものでもよい。 Further, the terminal device 10 and the meeting device 60 may be integrated. The meeting device 60 may be externally attached to the terminal device 10. Further, the meeting device 60 may include a spherical camera, a microphone, and a speaker connected by a cable.

また、他の拠点101においてもミーティングデバイス60が配置されてよい。他の拠点101は別途、ミーティングデバイス60を使用して結合画像動画とテキストデータを作成する。また、1つの拠点に複数のミーティングデバイス60が配置されてもよい。この場合、ミーティングデバイス60ごとに複数の記録情報が作成される。 Further, the meeting device 60 may be arranged at other bases 101 as well. The other bases 101 use the meeting device 60 to create a combined image video and text data. Further, a plurality of meeting devices 60 may be arranged at one base. In this case, a plurality of pieces of recorded information are created for each meeting device 60.

また、本実施形態で使用した、結合画像動画における、パノラマ画像203,話者画像204、及び、アプリの画面の配置は一例に過ぎない。パノラマ画像203が下で話者画像204が上でもよいし、ユーザーが配置を変更したり、再生時にはパノラマ画像203と話者画像204の表示と非表示を個別に切り替えたりしてもよい。 Further, the arrangement of the panoramic image 203, the speaker image 204, and the application screen in the combined image video used in this embodiment is only an example. The panoramic image 203 may be on the bottom and the speaker image 204 on the top, or the user may change the arrangement or individually switch between displaying and non-displaying the panoramic image 203 and the speaker image 204 during playback.

また、図9などの構成例は、端末装置10、ミーティングデバイス60、及び、情報処理システム50による処理の理解を容易にするために、主な機能に応じて分割したものである。処理単位の分割の仕方や名称によって本願発明が制限されることはない。端末装置10、ミーティングデバイス60、及び、情報処理システム50の処理は、処理内容に応じて更に多くの処理単位に分割することもできる。また、1つの処理単位が更に多くの処理を含むように分割することもできる。 Furthermore, the configuration example shown in FIG. 9 and the like is divided according to main functions in order to facilitate understanding of the processing by the terminal device 10, the meeting device 60, and the information processing system 50. The present invention is not limited by the method of dividing the processing units or the names thereof. The processing of the terminal device 10, the meeting device 60, and the information processing system 50 can also be divided into more processing units depending on the processing content. Furthermore, one processing unit can be divided to include more processing.

また、実施例に記載された装置群は、本明細書に開示された実施形態を実施するための複数のコンピューティング環境のうちの1つを示すものにすぎない。ある実施形態では、情報処理システム50は、サーバクラスタといった複数のコンピューティングデバイスを含む。複数のコンピューティングデバイスは、ネットワークや共有メモリなどを含む任意のタイプの通信リンクを介して互いに通信するように構成されており、本明細書に開示された処理を実施する。 Additionally, the devices described in the Examples are merely illustrative of one of multiple computing environments for implementing the embodiments disclosed herein. In some embodiments, information handling system 50 includes multiple computing devices, such as a server cluster. The plurality of computing devices are configured to communicate with each other via any type of communication link, including a network, shared memory, etc., to perform the processes disclosed herein.

更に、情報処理システム50は、開示された処理ステップ、例えば図20,図21を様々な組み合わせで共有するように構成できる。例えば、所定のユニットによって実行されるプロセスは、情報処理システム50が有する複数の情報処理装置によって実行され得る。また、情報処理システム50は、1つのサーバー装置にまとめられていても良いし、複数の装置に分けられていても良い。 Further, the information processing system 50 can be configured to share the disclosed processing steps, for example, FIGS. 20 and 21 in various combinations. For example, a process executed by a predetermined unit may be executed by a plurality of information processing devices included in the information processing system 50. Further, the information processing system 50 may be integrated into one server device, or may be divided into multiple devices.

上記で説明した実施形態の各機能は、一又は複数の処理回路によって実現することが可能である。ここで、本明細書における「処理回路」は、電子回路により実装されるプロセッサのようにソフトウェアによって各機能を実行するようプログラミングされたプロセッサや、上記で説明した各機能を実行するよう設計されたASIC(Application Specific Integrated Circuit)、DSP(Digital Signal Processor)、FPGA(Field Programmable Gate Array)、及び、従来の回路モジュール等のデバイスを含む。
<請求項に関する付記>
[請求項1]
音声及び映像の記録が可能なデバイスが記録した情報を端末装置に提供する情報処理システムであって、
少なくとも前記音声を含む記録情報、又は、前記記録情報に対応付けられている手書きデータの少なくとも一方に基づいて、前記記録情報の録画時間より短い時間ごとに、前記記録情報に関する重要度情報を決定する重要度決定部と、
前記重要度情報を前記記録情報の記録時間に沿って表示するための情報を前記端末装置に提供する表示情報提供部と、
を有する情報処理システム。
[請求項2]
前記重要度決定部は、
前記手書きデータを構成するストロークデータの書き込み頻度に基づいて、前記重要度情報を録画時間より短い時間に区切って決定することを特徴とする請求項1に記載の情報処理システム。
[請求項3]
前記重要度決定部は、
前記音声の発言回数に基づいて、前記重要度情報を録画時間より短い時間に区切って決定することを特徴とする請求項1又は2に記載の情報処理システム。
[請求項4]
前記重要度決定部は、
前記音声の話者数に基づいて、前記重要度情報を録画時間より短い時間に区切って決定することを特徴とする請求項1~3のいずれか1項に記載の情報処理システム。
[請求項5]
前記重要度決定部は、
前記音声の話者の切り替わり頻度に基づいて、前記重要度情報を録画時間より短い時間に区切って決定することを特徴とする請求項1~4のいずれか1項に記載の情報処理システム。
[請求項6]
前記重要度決定部は、
前記手書きデータが文字認識された文字列に含まれるキーワードの出現頻度、及び、前記音声が音声認識されたテキストデータに含まれるキーワードの出現頻度、の少なくとも一方に基づいて、前記重要度情報を録画時間より短い時間に区切って決定することを特徴とする請求項1~5のいずれか1項に記載の情報処理システム。
[請求項7]
前記重要度決定部は、
前記手書きデータを構成するストロークデータの書き込み頻度、前記音声の発言回数、前記音声の話者数、前記音声の話者の切り替わり頻度、前記手書きデータが文字認識された文字列に含まれるキーワードの出現頻度、及び、前記音声が音声認識されたテキストデータに含まれるキーワードの出現頻度、の少なくとも2つ以上を統合して、前記重要度情報を録画時間より短い時間に区切って決定することを特徴とする請求項1に記載の情報処理システム。
[請求項8]
前記重要度決定部は、前記手書きデータを構成するストロークデータの書き込み頻度、前記音声の発言回数、前記音声の話者数、前記音声の話者の切り替わり頻度、前記手書きデータが文字認識された文字列に含まれるキーワードの出現頻度、及び、前記音声が音声認識されたテキストデータに含まれるキーワードの出現頻度、のそれぞれに基づく前記重要度情報を録画時間より短い時間に区切って決定し、
前記表示情報提供部は、前記手書きデータを構成するストロークデータの書き込み頻度、前記音声の発言回数、前記音声の話者数、前記音声の話者の切り替わり頻度、前記手書きデータが文字認識された文字列に含まれるキーワードの出現頻度、及び、前記音声が音声認識されたテキストデータに含まれるキーワードの出現頻度、のそれぞれに基づく前記重要度情報を個別に表示するための情報を提供することを特徴とする請求項7に記載の情報処理システム。
[請求項9]
前記重要度決定部は、前記手書きデータを構成するストロークデータの書き込み頻度、前記音声の発言回数、前記音声の話者数、前記音声の話者の切り替わり頻度、前記手書きデータが文字認識された文字列に含まれるキーワードの出現頻度、及び、前記音声が音声認識されたテキストデータに含まれるキーワードの出現頻度、の1つ以上に重みを付与して統合された前記重要度情報を録画時間より短い時間に区切って決定することを特徴とする請求項7に記載の情報処理システム。
[請求項10]
前記キーワードは前記端末装置において閲覧者が指定したものであることを特徴とする請求項7~9のいずれか1項に記載の情報処理システム。
[請求項11]
前記キーワードは、前記手書きデータが文字認識された文字列、又は、前記音声が音声認識されたテキストデータ、に含まれる単語から、前記端末装置において閲覧者が選択したものであることを特徴とする請求項10に記載の情報処理システム。
[請求項12]
前記表示情報提供部は、前記記録時間に沿って表示される前記重要度情報に、時間帯ごとの出現頻度が閾値以上の単語を対応付けて提供し、閲覧者の操作に応じて前記単語を表示するための情報を提供することを特徴とする請求項1~11のいずれか1項に記載の情報処理システム。
[請求項13]
前記表示情報提供部は、前記記録時間に沿って表示される前記重要度情報に、前記重要度情報の数値を対応付けておき、閲覧者の操作に応じて閾値以上の前記数値を表示するための情報を提供することを特徴とする請求項1~12のいずれか1項に記載の情報処理システム。
[請求項14]
前記手書きデータ及び前記音声には会議の参加者の識別情報が対応付けられており、
前記重要度決定部は、前記参加者に対応付けられた前記手書きデータが含むストロークデータの書き込み頻度、又は、前記参加者に対応付けられた前記音声の発言回数、の少なくとも一方に基づいて、前記重要度情報を会議より短い時間に区切って決定することを特徴とする請求項1~13のいずれか1項に記載の情報処理システム。
[請求項15]
前記音声の話者の切り替わり頻度は、前記デバイスが検出した音声の方向、又は、前記デバイスが撮像した映像において検出された話者の方向、の少なくとも一方に基づいて決定されることを特徴とする請求項5に記載の情報処理システム。
[請求項16]
前記表示情報提供部は、前記重要度情報の大きさを複数の色のグラデーションで表示するための情報を前記端末装置に提供することを特徴とする請求項1~15のいずれか1項に記載の情報処理システム。
[請求項17]
前記表示情報提供部は、任意の色に対し、前記重要度情報の大きさを輝度の高低で表示するための情報を前記端末装置に提供することを特徴とする請求項1~15のいずれか1項に記載の情報処理システム。
Each function of the embodiments described above can be realized by one or more processing circuits. Here, the "processing circuit" in this specification refers to a processor programmed to perform each function by software, such as a processor implemented by an electronic circuit, or a processor designed to perform each function described above. It includes devices such as ASIC (Application Specific Integrated Circuit), DSP (Digital Signal Processor), FPGA (Field Programmable Gate Array), and conventional circuit modules.
<Additional notes regarding claims>
[Claim 1]
An information processing system that provides information recorded by a device capable of recording audio and video to a terminal device,
Based on at least one of recorded information including the audio or handwritten data associated with the recorded information, importance information regarding the recorded information is determined for each time shorter than a recording time of the recorded information. An importance determining section,
a display information providing unit that provides the terminal device with information for displaying the importance information along the recording time of the recorded information;
An information processing system with
[Claim 2]
The importance determining unit is
2. The information processing system according to claim 1, wherein the importance information is determined by dividing it into periods shorter than a recording time based on the writing frequency of stroke data constituting the handwritten data.
[Claim 3]
The importance determining unit is
3. The information processing system according to claim 1, wherein the importance information is determined by dividing it into periods shorter than a recording time based on the number of times the voice is uttered.
[Claim 4]
The importance determining unit is
The information processing system according to any one of claims 1 to 3, wherein the importance information is determined by dividing it into periods shorter than a recording time based on the number of speakers of the audio.
[Claim 5]
The importance determining unit is
The information processing system according to any one of claims 1 to 4, wherein the importance information is determined by dividing it into periods shorter than a recording time based on a frequency of switching speakers of the audio.
[Claim 6]
The importance determining unit is
Recording the importance information based on at least one of the frequency of appearance of a keyword included in a character string obtained by character recognition of the handwritten data, and the frequency of appearance of a keyword included in text data obtained by voice recognition of the voice. The information processing system according to any one of claims 1 to 5, characterized in that the information processing system is determined by dividing it into periods shorter than a certain period of time.
[Claim 7]
The importance determining unit is
The writing frequency of stroke data constituting the handwritten data, the number of times the voice is uttered, the number of speakers of the voice, the frequency of switching speakers of the voice, and the appearance of keywords included in the character string from which the handwritten data is recognized. The importance information is determined by integrating at least two of the frequency and the frequency of appearance of the keyword included in the text data in which the voice is voice-recognized, and dividing the importance information into periods shorter than the recording time. The information processing system according to claim 1.
[Claim 8]
The importance determining unit is configured to determine the writing frequency of stroke data constituting the handwritten data, the number of times the voice is uttered, the number of speakers of the voice, the frequency of switching speakers of the voice, and the characters in which the handwritten data is recognized. determining the importance information based on the frequency of occurrence of keywords included in the column and the frequency of occurrence of keywords included in the text data in which the voice has been voice-recognized, divided into periods shorter than the recording time;
The display information providing unit includes a writing frequency of stroke data constituting the handwritten data, a number of times the voice is uttered, a number of speakers of the voice, a frequency of switching speakers of the voice, and a character whose character is recognized in the handwritten data. The present invention is characterized by providing information for individually displaying the importance information based on the appearance frequency of the keyword included in the column and the appearance frequency of the keyword included in the text data in which the speech is voice-recognized. The information processing system according to claim 7.
[Claim 9]
The importance determining unit is configured to determine the writing frequency of stroke data constituting the handwritten data, the number of times the voice is uttered, the number of speakers of the voice, the frequency of switching speakers of the voice, and the characters in which the handwritten data is recognized. The importance information, which is integrated by giving weight to one or more of the appearance frequency of the keyword included in the column and the appearance frequency of the keyword included in the text data in which the voice is voice-recognized, is shorter than the recording time. 8. The information processing system according to claim 7, wherein the information processing system is determined in units of time.
[Claim 10]
10. The information processing system according to claim 7, wherein the keyword is specified by a viewer on the terminal device.
[Claim 11]
The keyword is selected by the viewer on the terminal device from among the words included in the character string obtained by character recognition of the handwritten data or the text data obtained by voice recognition of the voice. The information processing system according to claim 10.
[Claim 12]
The display information providing unit provides the importance information displayed along the recording time with words whose frequency of appearance for each time period is equal to or higher than a threshold value, and displays the words according to the viewer's operation. The information processing system according to any one of claims 1 to 11, characterized in that the information processing system provides information for display.
[Claim 13]
The display information providing unit associates a numerical value of the importance level information with the importance level information that is displayed along the recording time, and displays the numerical value that is equal to or higher than a threshold value in response to an operation by a viewer. The information processing system according to any one of claims 1 to 12, characterized in that the information processing system provides information on.
[Claim 14]
Identification information of conference participants is associated with the handwritten data and the voice,
The importance determining unit determines the importance level based on at least one of the writing frequency of stroke data included in the handwritten data associated with the participant, or the number of times the voice is uttered associated with the participant. 14. The information processing system according to claim 1, wherein the importance information is determined by dividing it into periods shorter than a meeting.
[Claim 15]
The frequency at which the speaker of the audio changes is determined based on at least one of the direction of the audio detected by the device or the direction of the speaker detected in the video imaged by the device. The information processing system according to claim 5.
[Claim 16]
16. The display information providing unit provides the terminal device with information for displaying the size of the importance information in a gradation of a plurality of colors. information processing system.
[Claim 17]
16. The display information providing unit provides the terminal device with information for displaying the magnitude of the importance information in terms of brightness for any color. The information processing system according to item 1.

10 端末装置
50 情報処理システム
60 ミーティングデバイス
70 ストレージサービスシステム
100 記録情報作成システム
10 Terminal device 50 Information processing system 60 Meeting device 70 Storage service system 100 Recorded information creation system

特開平8-320940号公報Japanese Patent Application Publication No. 8-320940

Claims (20)

音声及び映像の記録が可能なデバイスが記録した情報を端末装置に提供する情報処理システムであって、
少なくとも前記音声を含む記録情報、又は、前記記録情報に対応付けられている手書きデータの少なくとも一方に基づいて、前記記録情報の録画時間より短い時間ごとに、前記記録情報に関する重要度情報を決定する重要度決定部と、
前記重要度情報を前記記録情報の記録時間に沿って表示するための情報を前記端末装置に提供する表示情報提供部と、
を有する情報処理システム。
An information processing system that provides information recorded by a device capable of recording audio and video to a terminal device,
Based on at least one of recorded information including the audio or handwritten data associated with the recorded information, importance information regarding the recorded information is determined for each time shorter than a recording time of the recorded information. An importance determining section,
a display information providing unit that provides the terminal device with information for displaying the importance information along the recording time of the recorded information;
An information processing system with
前記重要度決定部は、
前記手書きデータを構成するストロークデータの書き込み頻度に基づいて、前記重要度情報を録画時間より短い時間に区切って決定することを特徴とする請求項1に記載の情報処理システム。
The importance determining unit is
2. The information processing system according to claim 1, wherein the importance information is determined by dividing it into periods shorter than a recording time based on the writing frequency of stroke data constituting the handwritten data.
前記重要度決定部は、
前記音声の発言回数に基づいて、前記重要度情報を録画時間より短い時間に区切って決定することを特徴とする請求項1又は2に記載の情報処理システム。
The importance determining unit is
3. The information processing system according to claim 1, wherein the importance information is determined by dividing it into periods shorter than a recording time based on the number of times the voice is uttered.
前記重要度決定部は、
前記音声の話者数に基づいて、前記重要度情報を録画時間より短い時間に区切って決定することを特徴とする請求項1に記載の情報処理システム。
The importance determining unit is
2. The information processing system according to claim 1, wherein the importance information is determined by dividing it into periods shorter than a recording time based on the number of speakers of the audio.
前記重要度決定部は、
前記音声の話者の切り替わり頻度に基づいて、前記重要度情報を録画時間より短い時間に区切って決定することを特徴とする請求項1に記載の情報処理システム。
The importance determining unit is
2. The information processing system according to claim 1, wherein the importance information is divided into periods shorter than a recording time and determined based on a frequency of switching between speakers of the audio.
前記重要度決定部は、
前記手書きデータが文字認識された文字列に含まれるキーワードの出現頻度、及び、前記音声が音声認識されたテキストデータに含まれるキーワードの出現頻度、の少なくとも一方に基づいて、前記重要度情報を録画時間より短い時間に区切って決定することを特徴とする請求項1に記載の情報処理システム。
The importance determining unit is
Recording the importance information based on at least one of the frequency of appearance of a keyword included in a character string obtained by character recognition of the handwritten data, and the frequency of appearance of a keyword included in text data obtained by voice recognition of the voice. 2. The information processing system according to claim 1, wherein the information processing system is determined by dividing it into periods shorter than time.
前記重要度決定部は、
前記手書きデータを構成するストロークデータの書き込み頻度、前記音声の発言回数、前記音声の話者数、前記音声の話者の切り替わり頻度、前記手書きデータが文字認識された文字列に含まれるキーワードの出現頻度、及び、前記音声が音声認識されたテキストデータに含まれるキーワードの出現頻度、の少なくとも2つ以上を統合して、前記重要度情報を録画時間より短い時間に区切って決定することを特徴とする請求項1に記載の情報処理システム。
The importance determining unit is
The writing frequency of stroke data constituting the handwritten data, the number of times the voice is uttered, the number of speakers of the voice, the frequency of switching speakers of the voice, and the appearance of keywords included in the character string from which the handwritten data is recognized. The importance information is determined by integrating at least two of the frequency and the frequency of appearance of the keyword included in the text data in which the voice is voice-recognized, and dividing the importance information into periods shorter than the recording time. The information processing system according to claim 1.
前記重要度決定部は、前記手書きデータを構成するストロークデータの書き込み頻度、前記音声の発言回数、前記音声の話者数、前記音声の話者の切り替わり頻度、前記手書きデータが文字認識された文字列に含まれるキーワードの出現頻度、及び、前記音声が音声認識されたテキストデータに含まれるキーワードの出現頻度、のそれぞれに基づく前記重要度情報を録画時間より短い時間に区切って決定し、
前記表示情報提供部は、前記手書きデータを構成するストロークデータの書き込み頻度、前記音声の発言回数、前記音声の話者数、前記音声の話者の切り替わり頻度、前記手書きデータが文字認識された文字列に含まれるキーワードの出現頻度、及び、前記音声が音声認識されたテキストデータに含まれるキーワードの出現頻度、のそれぞれに基づく前記重要度情報を個別に表示するための情報を提供することを特徴とする請求項7に記載の情報処理システム。
The importance determining unit is configured to determine the writing frequency of stroke data constituting the handwritten data, the number of times the voice is uttered, the number of speakers of the voice, the frequency of switching speakers of the voice, and the characters in which the handwritten data is recognized. determining the importance information based on the frequency of occurrence of keywords included in the column and the frequency of occurrence of keywords included in the text data in which the voice has been voice-recognized, divided into periods shorter than the recording time;
The display information providing unit includes a writing frequency of stroke data constituting the handwritten data, a number of times the voice is uttered, a number of speakers of the voice, a frequency of switching speakers of the voice, and a character whose character is recognized in the handwritten data. The present invention is characterized by providing information for individually displaying the importance information based on the appearance frequency of the keyword included in the column and the appearance frequency of the keyword included in the text data in which the speech is voice-recognized. The information processing system according to claim 7.
前記重要度決定部は、前記手書きデータを構成するストロークデータの書き込み頻度、前記音声の発言回数、前記音声の話者数、前記音声の話者の切り替わり頻度、前記手書きデータが文字認識された文字列に含まれるキーワードの出現頻度、及び、前記音声が音声認識されたテキストデータに含まれるキーワードの出現頻度、の1つ以上に重みを付与して統合された前記重要度情報を録画時間より短い時間に区切って決定することを特徴とする請求項7に記載の情報処理システム。 The importance determining unit is configured to determine the writing frequency of stroke data constituting the handwritten data, the number of times the voice is uttered, the number of speakers of the voice, the frequency of switching speakers of the voice, and the characters of the handwritten data that are recognized as characters. The importance information, which is integrated by giving weight to one or more of the appearance frequency of the keyword included in the column and the appearance frequency of the keyword included in the text data in which the voice is voice-recognized, is shorter than the recording time. 8. The information processing system according to claim 7, wherein the information processing system is determined in units of time. 前記キーワードは前記端末装置において閲覧者が指定したものであることを特徴とする請求項7~9のいずれか1項に記載の情報処理システム。 10. The information processing system according to claim 7, wherein the keyword is specified by a viewer on the terminal device. 前記キーワードは、前記手書きデータが文字認識された文字列、又は、前記音声が音声認識されたテキストデータ、に含まれる単語から、前記端末装置において閲覧者が選択したものであることを特徴とする請求項10に記載の情報処理システム。 The keyword is selected by the viewer on the terminal device from among the words included in the character string obtained by character recognition of the handwritten data or the text data obtained by voice recognition of the voice. The information processing system according to claim 10. 前記表示情報提供部は、前記記録時間に沿って表示される前記重要度情報に、時間帯ごとの出現頻度が閾値以上の単語を対応付けて提供し、閲覧者の操作に応じて前記単語を表示するための情報を提供することを特徴とする請求項1に記載の情報処理システム。 The display information providing unit provides the importance information displayed along the recording time with words whose frequency of appearance for each time period is equal to or higher than a threshold value, and displays the words according to the viewer's operation. The information processing system according to claim 1, wherein the information processing system provides information for display. 前記表示情報提供部は、前記記録時間に沿って表示される前記重要度情報に、前記重要度情報の数値を対応付けておき、閲覧者の操作に応じて閾値以上の前記数値を表示するための情報を提供することを特徴とする請求項1に記載の情報処理システム。 The display information providing unit associates a numerical value of the importance information with the importance information that is displayed along the recording time, and displays the numerical value that is equal to or higher than a threshold value in response to an operation by a viewer. 2. The information processing system according to claim 1, wherein the information processing system provides information on the following information. 前記手書きデータ及び前記音声には会議の参加者の識別情報が対応付けられており、
前記重要度決定部は、前記参加者に対応付けられた前記手書きデータが含むストロークデータの書き込み頻度、又は、前記参加者に対応付けられた前記音声の発言回数、の少なくとも一方に基づいて、前記重要度情報を会議より短い時間に区切って決定することを特徴とする請求項1に記載の情報処理システム。
Identification information of conference participants is associated with the handwritten data and the voice,
The importance determining unit determines the importance level based on at least one of the writing frequency of stroke data included in the handwritten data associated with the participant, or the number of times the voice is uttered associated with the participant. 2. The information processing system according to claim 1, wherein the importance information is determined by dividing it into periods shorter than a meeting.
前記音声の話者の切り替わり頻度は、前記デバイスが検出した音声の方向、又は、前記デバイスが撮像した映像において検出された話者の方向、の少なくとも一方に基づいて決定されることを特徴とする請求項5に記載の情報処理システム。 The frequency of switching the speaker of the audio is determined based on at least one of the direction of the audio detected by the device or the direction of the speaker detected in the video imaged by the device. The information processing system according to claim 5. 前記表示情報提供部は、前記重要度情報の大きさを複数の色のグラデーションで表示するための情報を前記端末装置に提供することを特徴とする請求項1に記載の情報処理システム。 2. The information processing system according to claim 1, wherein the display information providing unit provides the terminal device with information for displaying the size of the importance information in a gradation of a plurality of colors. 前記表示情報提供部は、任意の色に対し、前記重要度情報の大きさを輝度の高低で表示するための情報を前記端末装置に提供することを特徴とする請求項1に記載の情報処理システム。 The information processing according to claim 1, wherein the display information providing unit provides the terminal device with information for displaying the magnitude of the importance information in terms of brightness for any color. system. 音声及び映像の記録が可能なデバイスが記録した情報を端末装置に提供する情報処理システムが行う表示方法であって、
少なくとも前記音声を含む記録情報、又は、前記記録情報に対応付けられている手書きデータの少なくとも一方に基づいて、前記記録情報の録画時間より短い時間ごとに、前記記録情報に関する重要度情報を決定するステップと、
前記重要度情報を前記記録情報の記録時間に沿って表示するための情報を前記端末装置に提供するステップと、
を有する表示方法。
A display method performed by an information processing system that provides information recorded by a device capable of recording audio and video to a terminal device, the method comprising:
Based on at least one of recorded information including the audio or handwritten data associated with the recorded information, importance information regarding the recorded information is determined for each time shorter than a recording time of the recorded information. step and
providing the terminal device with information for displaying the importance information along the recording time of the recorded information;
A display method having
音声及び映像の記録が可能なデバイスが記録した情報を端末装置に提供する情報処理システムを、
少なくとも前記音声を含む記録情報、又は、前記記録情報に対応付けられている手書きデータの少なくとも一方に基づいて、前記記録情報の録画時間より短い時間ごとに、前記記録情報に関する重要度情報を決定する重要度決定部と、
前記重要度情報を前記記録情報の記録時間に沿って表示するための情報を前記端末装置に提供する表示情報提供部、
として機能させるためのプログラム。
An information processing system that provides information recorded by a device capable of recording audio and video to a terminal device.
Based on at least one of recorded information including the audio or handwritten data associated with the recorded information, importance information regarding the recorded information is determined for each time shorter than a recording time of the recorded information. An importance determining section,
a display information providing unit that provides the terminal device with information for displaying the importance information along the recording time of the recorded information;
A program to function as
音声及び映像の記録が可能なデバイスが記録した情報を端末装置に提供する情報処理システムと、前記端末装置とを有する記録情報作成システムであって、
少なくとも前記音声を含む記録情報、又は、前記記録情報に対応付けられている手書きデータの少なくとも一方に基づいて、前記記録情報の録画時間より短い時間ごとに、前記記録情報に関する重要度情報を決定する重要度決定部と、
前記重要度情報を前記記録情報の記録時間に沿って表示するための情報を作成する表示情報提供部と、
前記重要度情報を前記記録情報の記録時間に沿って表示する表示制御部と、
を有する記録情報作成システム。
An information processing system that provides information recorded by a device capable of recording audio and video to a terminal device, and a recorded information creation system comprising the terminal device,
Based on at least one of recorded information including the audio or handwritten data associated with the recorded information, importance information regarding the recorded information is determined for each time shorter than a recording time of the recorded information. An importance determining section,
a display information providing unit that creates information for displaying the importance information along the recording time of the recorded information;
a display control unit that displays the importance information along the recording time of the recorded information;
A record information creation system with
JP2022110652A 2022-07-08 2022-07-08 Information processing system, display method, program, and recording information creation system Pending JP2024008632A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022110652A JP2024008632A (en) 2022-07-08 2022-07-08 Information processing system, display method, program, and recording information creation system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022110652A JP2024008632A (en) 2022-07-08 2022-07-08 Information processing system, display method, program, and recording information creation system

Publications (1)

Publication Number Publication Date
JP2024008632A true JP2024008632A (en) 2024-01-19

Family

ID=89544189

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022110652A Pending JP2024008632A (en) 2022-07-08 2022-07-08 Information processing system, display method, program, and recording information creation system

Country Status (1)

Country Link
JP (1) JP2024008632A (en)

Similar Documents

Publication Publication Date Title
JP5898378B2 (en) Information processing apparatus and application execution method
JP6888854B1 (en) Remote work support system and remote work support method
US20230292011A1 (en) Information processing system, image-capturing device, and display method
US20230308762A1 (en) Display terminal, information processing system, communication system, displaying method, information processing method, communication method, and recording medium
JP5278912B2 (en) COMMUNICATION DEVICE, COMMUNICATION METHOD, AND PROGRAM
US20230043683A1 (en) Determining a change in position of displayed digital content in subsequent frames via graphics processing circuitry
US20220350650A1 (en) Integrating overlaid digital content into displayed data via processing circuitry using a computing memory and an operating system memory
JP2024008632A (en) Information processing system, display method, program, and recording information creation system
JP2024006703A (en) Information processing system, retrieval method, and program
JP2024025003A (en) Record information creation system, information processing system, and program
US20230297313A1 (en) Device management system, information processing method, information processing server, and non-transitory recording medium
JP2024014716A (en) Program, information processing system, record information creation system, and display method
US20240031653A1 (en) Information processing server, record creation system, display control method, and non-transitory recording medium
JP2024029642A (en) Information processing device, display method, program
US20230280961A1 (en) Device management system, information processing system, information processing device, device management method, and non-transitory recording medium
JP2020037155A (en) Gesture control device and gesture control program
US20230262200A1 (en) Display system, display method, and non-transitory recording medium
US11966658B2 (en) System and method for displaying image, image-capturing device, and recording medium
US20230289126A1 (en) System, method for adjusting audio volume, and apparatus
US20230308622A1 (en) Display terminal, displaying method, and recording medium
US20230334792A1 (en) Interactive reality computing experience using optical lenticular multi-perspective simulation
JP2023120142A (en) Recorded information display system, program, and recorded information display method
US20230269481A1 (en) Information processing system, communication system, and image transmission method
US20230334791A1 (en) Interactive reality computing experience using multi-layer projections to create an illusion of depth
JP2023111906A (en) Recording information creation system, method for creating recording information, and program