JP2020150519A - Attention degree calculating device, attention degree calculating method and attention degree calculating program - Google Patents
Attention degree calculating device, attention degree calculating method and attention degree calculating program Download PDFInfo
- Publication number
- JP2020150519A JP2020150519A JP2019049036A JP2019049036A JP2020150519A JP 2020150519 A JP2020150519 A JP 2020150519A JP 2019049036 A JP2019049036 A JP 2019049036A JP 2019049036 A JP2019049036 A JP 2019049036A JP 2020150519 A JP2020150519 A JP 2020150519A
- Authority
- JP
- Japan
- Prior art keywords
- data
- guest
- attention
- exhibition
- visual field
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims description 24
- 238000004364 calculation method Methods 0.000 claims abstract description 95
- 230000000007 visual effect Effects 0.000 claims description 94
- 239000000284 extract Substances 0.000 claims description 12
- 230000006870 function Effects 0.000 claims description 12
- 230000004044 response Effects 0.000 claims description 3
- 230000006399 behavior Effects 0.000 description 97
- 238000013500 data storage Methods 0.000 description 37
- 230000015654 memory Effects 0.000 description 30
- 238000005192 partition Methods 0.000 description 24
- 238000004891 communication Methods 0.000 description 16
- 238000012545 processing Methods 0.000 description 10
- 230000008569 process Effects 0.000 description 9
- 230000005540 biological transmission Effects 0.000 description 7
- 210000003128 head Anatomy 0.000 description 7
- 238000013459 approach Methods 0.000 description 3
- 238000010586 diagram Methods 0.000 description 3
- 210000001508 eye Anatomy 0.000 description 3
- 230000033001 locomotion Effects 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 230000002776 aggregation Effects 0.000 description 2
- 238000004220 aggregation Methods 0.000 description 2
- 208000003443 Unconsciousness Diseases 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 210000005252 bulbus oculi Anatomy 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 230000008602 contraction Effects 0.000 description 1
- 230000001747 exhibiting effect Effects 0.000 description 1
- 208000013057 hereditary mucoepithelial dysplasia Diseases 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 229930014626 natural product Natural products 0.000 description 1
- 210000001747 pupil Anatomy 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
Landscapes
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
Description
本発明は、映像視聴者の注目度を算出する技術に関する。 The present invention relates to a technique for calculating the degree of attention of a video viewer.
従来、ユーザを中心に360度周囲を視聴可能な全天球映像のライブストリーミングが可能なカメラが知られている。全天球映像のライブストリーミングは、例えばいわゆるテレイジグジスタンスなどの様々な分野での活用が期待されている。 Conventionally, a camera capable of live streaming of spherical images capable of viewing 360-degree surroundings mainly by a user has been known. Live streaming of spherical images is expected to be used in various fields such as so-called terrain jigging stance.
従来、複数のユーザがAR(Augmented Reality)体験を共有可能な機能が知られている。特許文献1には複数のユーザがMR(Mixed Reality)映像を共有して共同作業を行うことのできるシステムについて開示されている。 Conventionally, a function that allows a plurality of users to share an AR (Augmented Reality) experience has been known. Patent Document 1 discloses a system in which a plurality of users can share MR (Mixed Reality) images and perform collaborative work.
また、特許文献2には、HMD(Head Mounted Display)の現実空間における位置および向きから、当該HMDを装着しているユーザの視線および視線の先にある当該ユーザの着目点を特定することが開示されている。 Further, Patent Document 2 discloses that the line of sight of the user wearing the HMD and the point of interest of the user at the tip of the line of sight are specified from the position and orientation of the HMD (Head Mounted Display) in the real space. Has been done.
さらに、特許文献3には、提示された画像間の注目度を被験者の瞳の収縮などに基づいて計測すること、この注目度をニューラルネット等の微視的なモデル情報として学習させ、このモデル情報に基づいて、所定の属性の閲覧者用のマーケティング用コンテンツを作成することが記載されている。 Further, in Patent Document 3, the degree of attention between the presented images is measured based on the contraction of the pupil of the subject, and the degree of attention is learned as microscopic model information such as a neural network, and this model It describes creating marketing content for viewers with certain attributes based on the information.
本発明は、ホストによって撮影された映像を共有するゲストの注目度を算出することを目的とする。 An object of the present invention is to calculate the degree of attention of a guest who shares a video taken by a host.
本発明の第1の態様に係る注目度算出装置は、取得部と、特定部と、算出部とを含む。取得部は、ホストが展示会を撮影した映像データを共有するゲストの端末において取得された入力に基づくゲストの視聴行動データを取得する。特定部は、視聴行動データに基づいて、展示会における複数の展示対象のうちゲストの注目した対象を特定する。算出部は、ゲストの注目した対象として特定された展示対象の注目度が相対的に増加するように複数の展示対象の注目度を算出する。 The attention degree calculation device according to the first aspect of the present invention includes an acquisition unit, a specific unit, and a calculation unit. The acquisition unit acquires guest viewing behavior data based on the input acquired at the guest terminal that shares the video data of the exhibition taken by the host. Based on the viewing behavior data, the specific unit identifies the object of interest of the guest among the plurality of exhibition objects at the exhibition. The calculation unit calculates the attention levels of a plurality of exhibition objects so that the attention levels of the exhibition objects specified as the objects of interest of the guests are relatively increased.
第1の態様に係る注目度算出装置は、展示会に仮想的に参加するゲストからの展示対象への注目度を算出するので、展示会の実際の参加者へのアンケートなどとは異なるアプローチで、展示対象への興味・関心に関わるデータを収集することができる。 Since the attention level calculation device according to the first aspect calculates the attention level of the exhibition target from the guests who virtually participate in the exhibition, the approach is different from the questionnaire to the actual participants of the exhibition. , You can collect data related to your interest in the exhibition target.
第1の態様に係る注目度算出装置において、映像データは、パノラマ映像を表してよい。視聴行動データは、映像データの第1の再生時刻におけるゲストの視野方向を示す視野方向データと、第1の再生時刻を示す再生時刻データとを含んでよい。特定部は、映像データから再生時刻データおよび視野方向データに基づいて第1の再生時刻におけるゲストの視野画像を抽出し、視野画像の被写体から第1の再生時刻にゲストが注目した対象を特定してよい。この注目度算出装置によれば、再生時刻に関連付けられた視野方向データを利用して当該再生時刻におけるゲストの視野画像を抽出し、この視野画像の被写体からゲストが注目した対象を特定することができる。なお、一般的に、視野方向データはキャプチャ画像などの画像データよりも小容量であるから、この注目度算出装置によれば、注目度の算出に関わるメモリの使用量、およびデータ通信量を節約できる可能性がある。 In the attention degree calculation device according to the first aspect, the video data may represent a panoramic video. The viewing behavior data may include visual field direction data indicating the visual field direction of the guest at the first reproduction time of the video data, and reproduction time data indicating the first reproduction time. The specific unit extracts the visual field image of the guest at the first playback time from the video data based on the playback time data and the visual field direction data, and identifies the target that the guest paid attention to at the first playback time from the subject of the visual field image. You can. According to this attention degree calculation device, it is possible to extract the visual field image of the guest at the playback time by using the visual field direction data associated with the playback time, and identify the target that the guest has paid attention to from the subject of the visual field image. it can. In general, the field-of-view direction data has a smaller capacity than image data such as a captured image. Therefore, according to this attention level calculation device, the amount of memory used and the amount of data communication related to the calculation of the degree of attention can be saved. There is a possibility that it can be done.
第1の態様に係る注目度算出装置において、映像データは、パノラマ映像を表してよい。視聴行動データは、ゲストの端末が映像データをキャプチャした時に対応する映像データの第1の再生時刻を示す再生時刻データと、第1の再生時刻におけるゲストの視野方向を示す視野方向データとを含んでよい。特定部は、映像データから再生時刻データおよび視野方向データに基づいて第1の再生時刻におけるゲストの視野画像を抽出し、視野画像の被写体から第1の再生時刻にゲストが注目した対象を特定してよい。この注目度算出装置によれば、ゲストがキャプチャ操作を行った時の再生時刻に関連付けられた視野方向データを利用して当該再生時刻における当該ゲストの視野画像を抽出し、この視野画像の被写体から当該ゲストが注目した対象を特定することができる。ゲストがキャプチャ操作を行った時の当該ゲストの視野画像には当該ゲストが注目した対象が含まれる可能性が高いと推定できるので、この注目度算出装置によれば、信頼性の高い注目度を算出することができる。なお、一般的に、視野方向データはキャプチャ画像などの画像データよりも小容量であるから、この注目度算出装置によれば、注目度の算出に関わるメモリの使用量、およびデータ通信量を節約できる可能性がある。 In the attention degree calculation device according to the first aspect, the video data may represent a panoramic video. The viewing behavior data includes playback time data indicating the first playback time of the corresponding video data when the guest terminal captures the video data, and viewing direction data indicating the viewing direction of the guest at the first playback time. It's fine. The specific unit extracts the visual field image of the guest at the first playback time from the video data based on the playback time data and the visual field direction data, and identifies the target that the guest paid attention to at the first playback time from the subject of the visual field image. You can. According to this attention calculation device, the visual field image of the guest at the playback time is extracted by using the visual field direction data associated with the playback time when the guest performs the capture operation, and the visual field image of the guest is extracted from the subject of the visual field image. It is possible to identify the target that the guest has paid attention to. Since it can be estimated that the visual field image of the guest when the guest performs the capture operation is likely to include the object that the guest paid attention to, according to this attention level calculation device, a highly reliable attention level can be obtained. Can be calculated. In general, the field-of-view direction data has a smaller capacity than image data such as a captured image. Therefore, according to this attention level calculation device, the amount of memory used and the amount of data communication related to the calculation of the degree of attention can be saved. There is a possibility that it can be done.
第1の態様に係る注目度算出装置において、視聴行動データは、ゲストの端末によってキャプチャ操作に応じて生成された映像データのキャプチャ画像と、キャプチャ操作がなされた時に対応する映像データの第1の再生時刻を示す再生時刻データとを含んでよい。特定部は、キャプチャ画像の被写体から第1の再生時刻にゲストが注目した対象を特定してよい。この注目度算出装置によれば、ゲストによるキャプチャ画像の被写体から当該ゲストが注目した対象を特定することができる。かかるキャプチャ画像にはゲストが注目した対象が含まれる可能性が高いと推定できるので、この注目度算出装置によれば、信頼性の高い注目度を算出することができる。 In the attention degree calculation device according to the first aspect, the viewing behavior data is the captured image of the video data generated by the guest terminal in response to the capture operation, and the first of the video data corresponding to the capture operation when the capture operation is performed. It may include playback time data indicating the playback time. The specific unit may specify the target that the guest paid attention to at the first reproduction time from the subject of the captured image. According to this attention degree calculation device, it is possible to identify the target that the guest has paid attention to from the subject of the captured image by the guest. Since it can be estimated that such a captured image is likely to include an object that the guest has paid attention to, the attention degree calculation device can calculate a highly reliable attention degree.
第1の態様に係る注目度算出装置において、視聴行動データは、映像データの第1の再生時刻においてゲストの端末において映像データの表す映像に重畳して表示されたGUI(Graphical User Interface)部品のうちゲストによって選択された第1のGUI部品を示すGUI選択データと、第1の再生時刻を示す再生時刻データとを含んでよい。特定部は、映像データから少なくとも再生時刻データに基づいてゲストの視野画像を抽出し、視野画像の被写体からGUI選択データに基づいて第1の再生時刻においてゲストの注目した対象を特定してよい。この注目度算出装置によれば、ゲストの視野画像を少なくとも再生時刻データに基づいて抽出し、この視野画像の被写体からゲストが注目した対象をGUI選択データに基づいて特定することができる。GUI選択データは、ゲストが能動的に選択したGUI部品を示しており、選択されたGUI部品から視野画像に含まれる展示対象の一部または全部について、ゲストが本当に興味・関心を抱いているのか、それとも早く別の展示対象を見たいと考えているのか、を推定することができる。すなわち、このように、GUI選択データを考慮してゲストが注目した対象を特定することで、信頼性の高い注目度を算出することができる。 In the attention degree calculation device according to the first aspect, the viewing behavior data is a GUI (Graphical User Interface) component displayed superimposed on the video represented by the video data on the guest terminal at the first playback time of the video data. Among them, GUI selection data indicating the first GUI component selected by the guest and reproduction time data indicating the first reproduction time may be included. The specific unit may extract the visual field image of the guest from the video data based on at least the reproduction time data, and specify the target of the guest's attention at the first reproduction time based on the GUI selection data from the subject of the visual field image. According to this attention degree calculation device, the visual field image of the guest can be extracted based on at least the reproduction time data, and the target that the guest pays attention to from the subject of the visual field image can be specified based on the GUI selection data. The GUI selection data shows the GUI parts actively selected by the guest, and is the guest really interested in some or all of the exhibition objects included in the visual field image from the selected GUI parts? Or you can estimate whether you want to see another exhibit sooner. That is, in this way, by specifying the target that the guest has paid attention to in consideration of the GUI selection data, it is possible to calculate the degree of attention with high reliability.
第1の態様に係る注目度算出装置において、視聴行動データは、映像データの第1の再生時刻におけるゲストの視野方向を示す視野方向データと、第1の再生時刻を示す再生時刻データとを含んでよい。特定部は、第1の再生時刻におけるホストの位置と映像データの基準アングルとを示す基準位置姿勢データおよび視野方向データに基づいて第1の再生時刻におけるゲストの視野範囲を決定し、決定した視野範囲と複数の展示対象の各々を展示対象の位置に関連付けるマップデータとに基づいて第1の再生時刻においてゲストの注目した対象を特定してよい。 In the attention degree calculation device according to the first aspect, the viewing behavior data includes the visual field direction data indicating the visual field direction of the guest at the first reproduction time of the video data and the reproduction time data indicating the first reproduction time. It's fine. The specific unit determines the visual field range of the guest at the first playback time based on the reference position / orientation data and the visual field direction data indicating the position of the host at the first playback time and the reference angle of the video data, and determines the visual field. The object of interest of the guest at the first playback time may be specified based on the range and the map data that associates each of the plurality of exhibition objects with the position of the exhibition object.
この注目度算出装置によれば、再生時刻に関連付けられた視野方向データと、同じ再生時刻に関連付けられた基準位置姿勢データとを利用して当該再生時刻におけるゲストの視野範囲を決定し、この視野範囲とマップデータとに基づいてゲストが注目した対象を特定することができる。なお、一般的に、基準位置姿勢データおよびマップデータは映像データよりも小容量であるから、この注目度算出装置によれば、注目度の算出に関わるメモリの使用量を節約できる可能性がある。 According to this attention degree calculation device, the visual field direction data associated with the reproduction time and the reference position / orientation data associated with the same reproduction time are used to determine the visual field range of the guest at the reproduction time, and this visual field. It is possible to identify the target that the guest has focused on based on the range and the map data. In general, the reference position / orientation data and the map data have a smaller capacity than the video data, so that the attention level calculation device may save the memory usage related to the attention level calculation. ..
第1の態様に係る注目度算出装置において、映像データは、パノラマ映像を表してよい。視聴行動データは、ゲストの端末が映像データをキャプチャした時に対応する映像データの第1の再生時刻を示す再生時刻データと、第1の再生時刻におけるゲストの視野方向を示す視野方向データとを含んでよい。特定部は、第1の再生時刻におけるホストの位置と映像データの基準アングルとを示す基準位置姿勢データおよび視野方向データに基づいて第1の再生時刻におけるゲストの視野範囲を決定し、決定した視野範囲と複数の展示対象の各々を展示対象の位置に関連付けるマップデータとに基づいて第1の再生時刻においてゲストの注目した対象を特定してよい。 In the attention degree calculation device according to the first aspect, the video data may represent a panoramic video. The viewing behavior data includes playback time data indicating the first playback time of the corresponding video data when the guest terminal captures the video data, and viewing direction data indicating the viewing direction of the guest at the first playback time. It's fine. The specific unit determines the visual field range of the guest at the first playback time based on the reference position / orientation data and the visual field direction data indicating the position of the host at the first playback time and the reference angle of the video data, and determines the visual field. The object of interest of the guest at the first playback time may be specified based on the range and the map data that associates each of the plurality of exhibition objects with the position of the exhibition object.
この注目度算出装置によれば、ゲストがキャプチャ操作を行った時の再生時刻に関連付けられた視野方向データと、同じ再生時刻に関連付けられた基準位置姿勢データとを利用して当該再生時刻におけるゲストの視野範囲を決定し、この視野範囲とマップデータとに基づいてゲストが注目した対象を特定することができる。ゲストがキャプチャ操作を行った時の当該ゲストの視野範囲には当該ゲストが注目した対象が含まれる可能性が高いと推定できるので、この注目度算出装置によれば、信頼性の高い注目度を算出することができる。なお、一般的に、基準位置姿勢データおよびマップデータは映像データよりも小容量であるから、この注目度算出装置によれば、注目度の算出に関わるメモリの使用量を節約できる可能性がある。 According to this attention calculation device, the guest at the playback time is performed by using the visual field direction data associated with the playback time when the guest performs the capture operation and the reference position / orientation data associated with the same playback time. It is possible to determine the field of view of the guest and identify the target that the guest has focused on based on this field of view and the map data. Since it can be estimated that the visual field range of the guest when the guest performs the capture operation is likely to include the object that the guest has paid attention to, according to this attention level calculation device, a highly reliable attention level can be obtained. Can be calculated. In general, the reference position / orientation data and the map data have a smaller capacity than the video data, so that the attention level calculation device may save the memory usage related to the attention level calculation. ..
第1の態様に係る注目度算出装置において、算出部は、ゲストの注目した対象として特定された展示対象の注目度がゲストによる展示対象への注目の持続時間の長さに応じて増加するように複数の展示対象の注目度を算出してよい。この注目度算出装置によれば、ゲストが展示対象を注視する時間が長いほど当該展示対象の注目度が増加するので、僅かな時間ゲストの目に留まったに過ぎない展示対象と、ゲストの目を長時間奪った展示対象とを正当に区別して注目度を算出することができる。 In the attention level calculation device according to the first aspect, the calculation unit increases the attention level of the exhibition object specified as the guest's attention target according to the length of the duration of the guest's attention to the exhibition target. You may calculate the degree of attention of multiple exhibition objects. According to this attention calculation device, the longer the guest gazes at the exhibition object, the more attention the exhibition object has, so that the exhibition object and the guest's eyes are only noticed by the guest for a short time. It is possible to calculate the degree of attention by properly distinguishing it from the exhibition target that has stolen for a long time.
本発明の第2の態様に係る注目度算出方法は、コンピュータが、ホストが展示会を撮影した映像データを共有するゲストの端末において取得された入力に基づくゲストの視聴行動データを取得することと、コンピュータが、視聴行動データに基づいて、展示会における複数の展示対象のうちゲストの注目した対象を特定することと、コンピュータが、ゲストの注目した対象として特定された展示対象の注目度が相対的に増加するように複数の展示対象の注目度を算出することとを具備する。 The method of calculating the degree of attention according to the second aspect of the present invention is that the computer acquires the guest viewing behavior data based on the input acquired at the guest terminal sharing the video data of the exhibition taken by the host. , The computer identifies the guest's attention among multiple exhibition objects at the exhibition based on the viewing behavior data, and the computer identifies the guest's attention as the guest's attention. It includes calculating the degree of attention of a plurality of exhibition objects so as to increase the number of objects.
この注目度算出方法は、展示会に仮想的に参加するゲストからの展示対象への注目度を算出するので、展示会の実際の参加者へのアンケートなどとは異なるアプローチで、展示対象への興味・関心に関わるデータを収集することができる。 Since this attention level calculation method calculates the attention level of the exhibition target from the guests who virtually participate in the exhibition, the approach to the exhibition target is different from the questionnaire to the actual participants of the exhibition. It is possible to collect data related to interests.
本発明の第3の態様に係る注目度算出プログラムは、コンピュータを、ホストが展示会を撮影した映像データを共有するゲストの端末において取得された入力に基づくゲストの視聴行動データを取得する手段、視聴行動データに基づいて、展示会における複数の展示対象のうちゲストの注目した対象を特定する手段、ゲストの注目した対象として特定された展示対象の注目度が相対的に増加するように複数の展示対象の注目度を算出する手段として機能させる。 The attention degree calculation program according to the third aspect of the present invention is a means for acquiring guest viewing behavior data based on the input acquired by the host at the guest terminal sharing the video data of the exhibition taken by the host. Based on the viewing behavior data, a means for identifying a guest's attention target among a plurality of exhibition targets in an exhibition, and a plurality of exhibition objects so that the attention level of the exhibition target specified as the guest's attention target increases relatively. It functions as a means to calculate the degree of attention of the exhibition target.
この注目度算出プログラムは、展示会に仮想的に参加するゲストからの展示対象への注目度を算出するので、展示会の実際の参加者へのアンケートなどとは異なるアプローチで、展示対象への興味・関心に関わるデータを収集することができる。 Since this attention level calculation program calculates the attention level of the exhibition target from the guests who virtually participate in the exhibition, the approach to the exhibition target is different from the questionnaire to the actual participants of the exhibition. It is possible to collect data related to interests.
本発明によれば、ホストによって撮影された映像を共有するゲストの注目度を算出することができる。 According to the present invention, it is possible to calculate the degree of attention of a guest who shares a video shot by a host.
以下、図面を参照しながら実施形態の説明を述べる。なお、以降、説明済みの要素と同一または類似の要素には同一または類似の符号を付し、重複する説明については基本的に省略する。例えば、複数の同一または類似の要素が存在する場合に、各要素を区別せずに説明するために共通の符号を用いることがあるし、各要素を区別して説明するために当該共通の符号に加えて枝番号を用いることもある。 Hereinafter, embodiments will be described with reference to the drawings. Hereinafter, elements that are the same as or similar to the elements described will be designated by the same or similar reference numerals, and duplicate explanations will be basically omitted. For example, when a plurality of the same or similar elements exist, a common code may be used to explain each element without distinction, and the common code may be used to explain each element separately. In addition, the branch number may be used.
(実施形態)
実施形態に係る注目度算出サーバは、ゲストの端末(以降、ゲスト端末と称する)が、ホストの端末(以降、ホスト端末と称する)によって撮影、投稿された映像データを映像配信サーバを介して共有する映像共有システムに組み込むことができる。図1に、実施形態に係る注目度算出サーバ40を含む映像共有システムを例示する。
(Embodiment)
In the attention degree calculation server according to the embodiment, the guest terminal (hereinafter referred to as the guest terminal) shares the video data shot and posted by the host terminal (hereinafter referred to as the host terminal) via the video distribution server. Can be incorporated into a video sharing system. FIG. 1 illustrates a video sharing system including the attention level calculation server 40 according to the embodiment.
図1の映像共有システムは、ホスト端末10と、映像配信サーバ20と、ゲスト端末30−1,30−2,・・・と、注目度算出サーバ40とを含む。図1の映像配信サーバ20は、ホスト端末10、ゲスト端末30、および注目度算出サーバ40の一部または全部と、例えばインターネットなどのネットワーク経由で接続されており、互いにデータを送受信し得る。また、注目度算出サーバ40は、ホスト端末10,映像配信サーバ20、およびゲスト端末30の一部または全部とネットワーク経由で接続されており、互いにデータを送受信し得る。 The video sharing system of FIG. 1 includes a host terminal 10, a video distribution server 20, guest terminals 30-1, 30-2, ..., And a attention calculation server 40. The video distribution server 20 of FIG. 1 is connected to a part or all of the host terminal 10, the guest terminal 30, and the attention calculation server 40 via a network such as the Internet, and can transmit and receive data to and from each other. Further, the attention degree calculation server 40 is connected to a part or all of the host terminal 10, the video distribution server 20, and the guest terminal 30 via a network, and can transmit and receive data to and from each other.
ホスト端末10、映像配信サーバ20およびゲスト端末30は、以下に説明するように、映像共有サービスを授受するための基本的な機能を有する。なお、以降の説明では、図1の映像共有システムがライブ映像を共有すること、すなわちライブストリーミング、を仮定するが、ライブ映像に限らずホストが予め作成した映像を共有する場合にも後述する注目度の算出は可能である。故に、実施形態は、ライブ映像に限らず映像一般に適用が可能である。また、映像は、ホストによる展示会の撮影を前提とする。すなわち、ゲストは、ホストが展示会を撮影した映像データを共有することになる。ここで、展示会とは、典型的には業界向け見本市であるが、これに限らず、人工物(例えば、製品、作品、建造物、(仮想)オブジェクト、など)、天然物(風景、人間を含む生物、気象)、人物による歌唱、ダンス、演奏、スポーツ、などの実演、またはこれらの組み合わせなどの展示対象を鑑賞可能な場を広く意味し得る。具体的には、展示会として、コンサート、演劇、スポーツ大会、などが含まれ得る。 The host terminal 10, the video distribution server 20, and the guest terminal 30 have basic functions for exchanging and receiving video sharing services, as described below. In the following description, it is assumed that the video sharing system of FIG. 1 shares live video, that is, live streaming, but attention will be described later not only when sharing live video but also when sharing video created in advance by the host. It is possible to calculate the degree. Therefore, the embodiment can be applied not only to live video but also to video in general. In addition, the video is premised on the shooting of the exhibition by the host. That is, the guest will share the video data of the host shooting the exhibition. Here, an exhibition is typically a trade fair for the industry, but is not limited to artificial objects (for example, products, works, buildings, (virtual) objects, etc.) and natural products (landscapes, humans). It can mean a place where you can appreciate the exhibits such as singing, dancing, playing, sports, etc., or a combination of these. Specifically, the exhibition may include concerts, plays, sports competitions, and the like.
ホスト端末10は、逐次、例えば当該ホスト端末10に接続されたカメラ/マイクロフォンによって生成されたライブ映像/音声データをエンコードし、エンコード済み(映像またはマルチメディア)データを映像配信サーバ20へ送信(アップロード)する。ここで、カメラは、全天球もしくは半天球の360度カメラまたはその他のパノラマカメラであってもよいし、通常の単眼カメラであってもよい。 The host terminal 10 sequentially encodes live video / audio data generated by, for example, a camera / microphone connected to the host terminal 10, and transmits (uploads) the encoded (video or multimedia) data to the video distribution server 20. ). Here, the camera may be a 360-degree spherical or hemispherical 360-degree camera or other panoramic camera, or may be a normal monocular camera.
ホスト端末10は、コンピュータなどの電子デバイス、例えば、モバイル端末(例えば、スマートフォン、タブレット、ラップトップ、など)、PC(Personal Computer)、などであってもよいし、通信機能を有するVR(Virtual Reality)/AR/MR端末、例えばHMDであってもよいが、これらに限られない。なお、ホスト端末10としてHMDのような頭部装着型のデバイスを使用する場合には、単眼型または透過型のデバイスを採用することで、ホストの視界をある程度確保することができる。 The host terminal 10 may be an electronic device such as a computer, for example, a mobile terminal (for example, a smartphone, a tablet, a laptop, etc.), a PC (Personal Computer), or the like, or a VR (Virtual Reality) having a communication function. ) / AR / MR terminals, such as HMDs, but are not limited to these. When a head-mounted device such as an HMD is used as the host terminal 10, the field of view of the host can be secured to some extent by adopting a monocular or transmissive device.
映像配信サーバ20は、ホスト端末10からエンコード済みデータを受信し、これに対して、例えば、再エンコード、などの加工を必要に応じて行う。映像配信サーバ20は、(加工後の)エンコード済みデータをゲスト端末30へ配信する。 The video distribution server 20 receives the encoded data from the host terminal 10, and performs processing such as re-encoding on the encoded data as necessary. The video distribution server 20 distributes the (processed) encoded data to the guest terminal 30.
ゲスト端末30は、映像配信サーバ20からエンコード済みデータを受信し、これをデコードし、ライブ映像(音声を含み得る)を再生する。なお、360度映像を含むパノラマ映像を再生する場合に、ゲスト端末30は、例えば、ゲストの頭部および/または視線の方向、または当該ゲスト端末30の方向を検出し、これに基づいて再生する映像の視点を切り替えてもよい。同様に、パノラマ映像を再生する場合に、ゲスト端末30は、例えば、ゲストによる視点切り替えのための操作、例えば、フリック、ストローク、タッチ、タップ、スワイプ、ドラグ、クリック、などを検出し、これに基づいて再生する映像の視点を切り替えてもよい。 The guest terminal 30 receives the encoded data from the video distribution server 20, decodes the encoded data, and reproduces the live video (which may include audio). When reproducing a panoramic image including a 360-degree image, the guest terminal 30 detects, for example, the direction of the guest's head and / or the line of sight, or the direction of the guest terminal 30, and reproduces the image based on this. You may switch the viewpoint of the image. Similarly, when playing back a panoramic image, the guest terminal 30 detects, for example, an operation for switching the viewpoint by the guest, for example, flick, stroke, touch, tap, swipe, drag, click, etc. You may switch the viewpoint of the image to be reproduced based on.
ゲスト端末30は、典型的には、没入感に優れたHMDなどのVR/AR/MR端末などの表示デバイスと、この制御装置、例えば、モバイル端末、PC、ゲーム機、などの組み合わせであってよい。なお、表示デバイスおよびその制御装置は、分離型である必要はなく一体化されていてもよい。 The guest terminal 30 is typically a combination of a display device such as a VR / AR / MR terminal such as an HMD having an excellent immersive feeling and this control device, for example, a mobile terminal, a PC, a game machine, or the like. Good. The display device and its control device do not have to be separate types and may be integrated.
ゲストは、遠隔地に居るホストによって撮影され、ゲスト端末30によって再生される映像を通じて、あたかも展示会に参加しているかのような体験をすることができる。そして、実施形態に係る注目度算出サーバ40は、映像再生時にゲスト端末30において取得された入力に基づくゲストの視聴行動データを収集し、この視聴行動データに基づいて、展示会における複数の展示対象のうちゲストの注目した対象を特定する。さらに、注目度算出サーバ40は、このゲストの注目した対象に基づいて、これらの展示対象の注目度を算出する。 The guest can experience as if he / she is participating in the exhibition through the image taken by the host in a remote place and reproduced by the guest terminal 30. Then, the attention degree calculation server 40 according to the embodiment collects guest viewing behavior data based on the input acquired by the guest terminal 30 at the time of video reproduction, and based on this viewing behavior data, a plurality of exhibition targets at the exhibition. Identify the target of the guest's attention. Further, the attention level calculation server 40 calculates the attention level of these exhibition objects based on the objects of interest of the guest.
このように注目度算出サーバ40は、展示会に仮想的に参加するゲストからの注目度を算出するので、展示会の実際の参加者へのアンケートなどとは異なるアプローチで、展示対象への興味・関心に関わるデータを収集することができる。なお、この注目度は、従来のアンケートの分析結果などと組み合わせて、またはこれに代えて、様々な利活用が期待できる。例えば、注目度は、展示会に出展する企業などの出展主体または展示会の主催者などへフィードバック情報を提供する、ゲストまたは他の(潜在)需要者へのマーケティングを支援する、ゲストが最も撮影を望んでいるであろう展示対象(撮影対象)の撮影をホストに要求する、などのために利活用され得る。一例として、複数の人物による歌唱などを鑑賞するコンサートにおいて、ゲストの注目度に基づいてこれらの人物のランキングを作成したり、ゲスト個人が興味・関心を強く惹かれた人物を当該ゲストの注目度に基づいて特定したりすることもできる。また、かかる注目度の利活用の一例として、ゲスト個人が興味・関心を強く惹かれた人物からのメッセージを当該ゲストへ送付することもあり得る。 In this way, the attention level calculation server 40 calculates the attention level from the guests who virtually participate in the exhibition, so that the interest in the exhibition target is different from the questionnaire to the actual participants of the exhibition.・ You can collect data related to your interests. It should be noted that this degree of attention can be expected to be used in various ways in combination with or in place of the analysis results of conventional questionnaires. For example, attention is most photographed by guests, providing feedback information to exhibitors such as companies exhibiting at exhibitions or exhibition organizers, supporting marketing to guests or other (potential) consumers, etc. It can be used for requesting the host to shoot the exhibition target (shooting target) that would be desired. As an example, in a concert where multiple people watch singing, a ranking of these people is created based on the degree of attention of the guest, and a person who is strongly interested by the individual guest is the degree of attention of the guest. It can also be specified based on. In addition, as an example of utilizing such attention, a message from a person who is strongly interested by an individual guest may be sent to the guest.
なお、図1において示される各装置の数は、例示に過ぎない。例えば、ゲスト端末30の数は、時々刻々と変化するので、0となることがあり得るし、数百、数千となることもあり得る。また、図1の映像共有システムは、複数のライブ映像を並列的に配信することができるので、ホスト端末10の数も2以上となり得る。 The number of each device shown in FIG. 1 is merely an example. For example, the number of guest terminals 30 changes from moment to moment, so that it may be 0, or it may be hundreds or thousands. Further, since the video sharing system of FIG. 1 can deliver a plurality of live videos in parallel, the number of host terminals 10 can be two or more.
以下、ゲスト端末30の構成について詳しく説明する。ゲスト端末30は、図2に例示されるように、通信I/F 100と、プロセッサ110と、メモリ120と、出力装置130と、入力装置140とを含む。 Hereinafter, the configuration of the guest terminal 30 will be described in detail. As illustrated in FIG. 2, the guest terminal 30 includes a communication I / F 100, a processor 110, a memory 120, an output device 130, and an input device 140.
通信I/F 100は、ネットワーク経由で、外部装置、例えば、映像配信サーバ20、注目度算出サーバ40、などと通信をするためのモジュールであって、例えば、送受信のための信号処理回路、アンテナ、LAN(Local Area Network)端子などを含み得る。通信I/Fは、例えば移動通信などの広域通信用のモジュール、無線/有線LAN用のモジュール、Bluetooth(登録商標)用のモジュール、などであり得る。 The communication I / F 100 is a module for communicating with an external device such as a video distribution server 20, a attention calculation server 40, etc. via a network, and is, for example, a signal processing circuit for transmission / reception, an antenna. , LAN (Local Area Network) terminal and the like may be included. The communication I / F can be, for example, a module for wide area communication such as mobile communication, a module for wireless / wired LAN, a module for Bluetooth (registered trademark), and the like.
プロセッサ110は、典型的にはCPU(Central Processing Unit)および/またはGPU(Graphics Processing Unit)であるが、マイコン、FPGA(Field Programmable Gate Array)、DSP(Digital Signal Processor)、またはその他の汎用または専用のプロセッサなどであってもよい。プロセッサ110は、例えば、入出力制御、通信制御、画像/音声処理、後述する視聴行動データの生成、などを行う。 The processor 110 is typically a CPU (Central Processing Unit) and / or a GPU (Graphics Processing Unit), but is a microcomputer, FPGA (Field Programmable Gate Array), DSP (Digital Signal Processor), or other general-purpose processor. It may be a processor of. The processor 110 performs, for example, input / output control, communication control, image / audio processing, and generation of viewing behavior data described later.
メモリ120は、プロセッサ110が各処理を実現するために当該プロセッサ110によって実行されるプログラムおよび当該プロセッサ110によって使用されるデータ、例えば、入力データ、映像データ、視聴行動データ、などを一時的に格納する。メモリ120は、かかるプログラム/データが展開されるワークエリアを有するRAM(Random Access Memory)を含み得る。 The memory 120 temporarily stores a program executed by the processor 110 for the processor 110 to realize each process and data used by the processor 110, for example, input data, video data, viewing behavior data, and the like. To do. The memory 120 may include a RAM (Random Access Memory) having a work area in which such programs / data are deployed.
出力装置130は、例えば、プロセッサによって再生された映像を出力する表示デバイス、プロセッサによって再生された音声を出力するスピーカ、などを含み得る。出力装置130は、HMDの要素の一部または全部であってもよい。 The output device 130 may include, for example, a display device that outputs video reproduced by the processor, a speaker that outputs audio reproduced by the processor, and the like. The output device 130 may be a part or all of the elements of the HMD.
入力装置140は、例えば、センサ、タッチスクリーン、マイクロフォン、キーボード、マウス、などの一部または全部を含み得る。 The input device 140 may include, for example, some or all of a sensor, touch screen, microphone, keyboard, mouse, and the like.
ここで、センサは、例えば、加速度センサ、ジャイロスコープ、磁気センサ、などの動きセンサを含み得る。動きセンサによって検出されたセンサデータは、ゲストの頭部および/またはゲスト端末30の方向(例えば3軸の傾き)の推定に利用することができる。具体的には、パノラマ映像の再生時には、このセンサデータに基づいて、ゲストの頭部および/またはゲスト端末30の3次元的な回転角であるYaw角、Roll角、およびPitch角が推定され、これに応じてゲスト端末30に表示される映像の視点が制御され得る。 Here, the sensor may include motion sensors such as accelerometers, gyroscopes, magnetic sensors, and the like. The sensor data detected by the motion sensor can be used to estimate the direction (for example, the inclination of three axes) of the guest's head and / or the guest terminal 30. Specifically, at the time of reproducing the panoramic image, the Yaw angle, the Roll angle, and the Pitch angle, which are the three-dimensional rotation angles of the guest head and / or the guest terminal 30, are estimated based on the sensor data. The viewpoint of the image displayed on the guest terminal 30 can be controlled accordingly.
また、センサは、いわゆるアイトラッキングデバイスを含み得る。アイトラッキングデバイスは、ゲストの眼球の動きを捉え、ゲストの視線方向を表す入力データを生成する。かかる入力データもまた、ゲスト端末30に表示される映像の視点の制御に利用され得る。 The sensor may also include a so-called eye tracking device. The eye tracking device captures the movement of the guest's eyeball and generates input data indicating the direction of the guest's line of sight. Such input data can also be used to control the viewpoint of the image displayed on the guest terminal 30.
プロセッサ110は、メモリ120に保存されたプログラムを実行することで、図2の受信データ取得部111、デコーダ112、映像出力部113、入力データ取得部114、視聴行動データ生成部115、および視聴行動報告部116として機能し得る。また、メモリ120は、図2の映像データ記憶部121、視聴行動データ記憶部122、および入力データ記憶部123を含み得る。 By executing the program stored in the memory 120, the processor 110 executes the received data acquisition unit 111, the decoder 112, the video output unit 113, the input data acquisition unit 114, the viewing behavior data generation unit 115, and the viewing behavior in FIG. It can function as a reporting unit 116. Further, the memory 120 may include the video data storage unit 121 of FIG. 2, the viewing behavior data storage unit 122, and the input data storage unit 123.
通信I/F 100は、外部装置から種々のデータをネットワーク経由で受信する受信部101と、外部装置へ種々のデータをネットワーク経由で送信する送信部102とを含む。受信部101は、映像配信サーバ20から前述のエンコード済みデータを受信し、これを受信データ取得部111へ送る。また、送信部102は、視聴行動報告部116から視聴行動データを受け取り、これを注目度算出サーバ40へ送信する。 The communication I / F 100 includes a receiving unit 101 that receives various data from an external device via a network, and a transmitting unit 102 that transmits various data to the external device via the network. The receiving unit 101 receives the above-mentioned encoded data from the video distribution server 20 and sends it to the receiving data acquisition unit 111. Further, the transmission unit 102 receives the viewing behavior data from the viewing behavior reporting unit 116 and transmits the viewing behavior data to the attention degree calculation server 40.
受信データ取得部111は、受信部101から受信データを取得し、これをメモリ120に書き込む。一例として、受信データ取得部111は、受信部101からエンコード済みデータを取得し、これを映像データ記憶部121に書き込む。 The reception data acquisition unit 111 acquires reception data from the reception unit 101 and writes it in the memory 120. As an example, the reception data acquisition unit 111 acquires encoded data from the reception unit 101 and writes it in the video data storage unit 121.
映像データ記憶部121は、受信データ取得部111によって取得されたエンコード済みデータを保存する。このエンコード済みデータは、少なくともエンコード済み映像データを含み、さらにエンコード済み音声データを含み得る。映像データ記憶部121に保存されたエンコード済み映像データは、プロセッサ110の種々の機能部、例えばデコーダ112によって読み出され得る。 The video data storage unit 121 stores the encoded data acquired by the reception data acquisition unit 111. This encoded data includes at least encoded video data, and may further include encoded audio data. The encoded video data stored in the video data storage unit 121 can be read by various functional units of the processor 110, for example, the decoder 112.
デコーダ112は、映像データ記憶部121からエンコード済み映像データを映像データ記憶部121から読み出す。デコーダ112は、エンコード済み映像データを適切なコーデックに従ってデコードして映像データを再生する。なお、デコーダ112は、ビデオデコーダに加えて音声デコーダを含んでいてもよい。デコーダ112は、再生した映像データを映像出力部113へ送る。また、デコーダ112は、図2においてプロセッサ110の機能の一部であるかのように描かれているが、専用の回路であってもよい。 The decoder 112 reads the encoded video data from the video data storage unit 121 from the video data storage unit 121. The decoder 112 decodes the encoded video data according to an appropriate codec and reproduces the video data. The decoder 112 may include an audio decoder in addition to the video decoder. The decoder 112 sends the reproduced video data to the video output unit 113. Further, although the decoder 112 is drawn as if it is a part of the function of the processor 110 in FIG. 2, it may be a dedicated circuit.
映像出力部113は、デコーダ112から映像データを適時に、すなわち当該映像データに対応する出力タイミングの到来前に、受け取り、これを出力装置130へ送る。なお、映像出力部113は、映像データに限らず音声データの出力を制御してもよい。 The video output unit 113 receives the video data from the decoder 112 in a timely manner, that is, before the arrival of the output timing corresponding to the video data, and sends the video data to the output device 130. The video output unit 113 may control the output of audio data as well as video data.
映像データがパノラマ映像を表す場合には、映像出力部113は、再生する映像の視点を制御してもよい。例えば、映像出力部113は、入力データ記憶部123に保存されているゲストの頭部および/または視線の方向、またはゲスト端末30の姿勢を表す入力データ、および/またはゲストによる視点切り替えのための操作を表す入力データに基づいて、再生する映像の視点を決定し得る。そして、映像出力部113は、決定した視点に応じた映像データを、デコーダ112からの映像データに基づいて生成し、これを出力装置130へ送ってもよい。 When the video data represents a panoramic video, the video output unit 113 may control the viewpoint of the video to be reproduced. For example, the video output unit 113 is for input data representing the direction of the guest's head and / or line of sight stored in the input data storage unit 123, or the posture of the guest terminal 30, and / or for the guest to switch the viewpoint. The viewpoint of the image to be reproduced can be determined based on the input data representing the operation. Then, the video output unit 113 may generate video data according to the determined viewpoint based on the video data from the decoder 112, and send this to the output device 130.
また、映像出力部113は、映像データに必要に応じてGUI(Graphical User Interface)部品、および/または後述されるパーティションを明示するための表示(例えば、パーティションの境界線および/またはパーティションのラベル)を付加してから出力装置130へ送ってもよい。 In addition, the video output unit 113 displays GUI (Graphical User Interface) components and / or partitions to be described later (for example, partition boundaries and / or partition labels) as necessary for the video data. May be added and then sent to the output device 130.
出力装置130は、映像出力部113から映像データを受け取り、これを表示する。なお、出力装置130は、映像データの表示に加えて、音声データを出力してもよい。 The output device 130 receives video data from the video output unit 113 and displays the video data. The output device 130 may output audio data in addition to displaying video data.
入力装置140は、ゲスト端末30における入力に基づいて入力データを発生し、これを入力データ取得部114へ送る。ここで、入力データは、例えば、ゲストの頭部および/または視線の方向、またはゲスト端末30の方向を表すデータ、ゲストによるゲスト端末30の表示映像に対する操作(例えば、キャプチャ操作、視点切り替えのための操作、映像に重畳されたGUI部品を選択する操作、映像のパーティションを選択する操作)を表すデータ、などの一部または全部と、かかるデータの生成時に対応する映像データの再生時刻を示す再生時刻データとを含み得る。 The input device 140 generates input data based on the input in the guest terminal 30, and sends the input data to the input data acquisition unit 114. Here, the input data is, for example, data representing the direction of the guest's head and / or the line of sight, or the direction of the guest terminal 30, and the guest's operation on the display image of the guest terminal 30 (for example, for capture operation and viewpoint switching). Operation, operation to select GUI parts superimposed on the video, data representing the video partition), etc., and playback showing the playback time of the corresponding video data when such data is generated. It may include time data.
なお、ゲスト端末30は、オプションとしてキャプチャ機能を実装し得る。ゲスト端末30がキャプチャ機能を実装する場合には、プロセッサ110が、例えばキャプチャ操作を表す入力データに応じて、出力装置130に含まれる表示デバイスに表示されている映像をキャプチャしてキャプチャ画像を生成するキャプチャ部(図示しない)として機能し得る。 The guest terminal 30 may optionally implement a capture function. When the guest terminal 30 implements the capture function, the processor 110 captures the image displayed on the display device included in the output device 130 and generates the captured image according to the input data representing the capture operation, for example. Can function as a capture unit (not shown).
入力データ取得部114は、入力装置140から種々の入力データを受け取り、これを入力データ記憶部123に書き込む。 The input data acquisition unit 114 receives various input data from the input device 140 and writes them in the input data storage unit 123.
入力データ記憶部123は、入力データ取得部114によって取得された入力データを保存する。入力データ記憶部123に保存された入力データは、プロセッサ110の種々の機能部、例えば、視聴行動データ生成部115によって読み出される。 The input data storage unit 123 stores the input data acquired by the input data acquisition unit 114. The input data stored in the input data storage unit 123 is read out by various functional units of the processor 110, for example, the viewing behavior data generation unit 115.
視聴行動データ生成部115は、入力データ記憶部123から入力データを読み出し、これに基づいてゲストの映像視聴時の意識的なまたは無意識の行動を表す視聴行動データを生成する。視聴行動データ生成部115は、生成した視聴行動データを視聴行動データ記憶部122に書き込む。 The viewing behavior data generation unit 115 reads the input data from the input data storage unit 123, and based on this, generates viewing behavior data representing the conscious or unconscious behavior of the guest when viewing the video. The viewing behavior data generation unit 115 writes the generated viewing behavior data in the viewing behavior data storage unit 122.
具体的には、映像データがパノラマ映像、すなわち視点の切り替えが可能な映像である場合に、視聴行動データ生成部115は、ある時点におけるゲストの視野方向を表す視野方向データと、当該時点に対応する映像データの再生時刻を示す再生時刻データとを含む視聴行動データを生成してもよい。ここで、ある時点とは、例えば予め定められたタイミングであってもよいし、例えばゲストがキャプチャ操作などの所定の入力を行ったタイミングであってもよい。 Specifically, when the video data is a panoramic video, that is, a video whose viewpoint can be switched, the viewing behavior data generation unit 115 corresponds to the visual field direction data representing the visual field direction of the guest at a certain time point and the time point. The viewing behavior data including the reproduction time data indicating the reproduction time of the video data to be performed may be generated. Here, the certain time point may be, for example, a predetermined timing, or may be, for example, a timing when the guest performs a predetermined input such as a capture operation.
視聴行動データ生成部115は、例えば入力データに含まれ得る、ゲストの頭部および/または視線の方向、またはゲスト端末30の方向を表すデータに基づいて視野方向データを生成し得る。一例として、視聴行動データ生成部115は、ゲストの視野を図4に例示されるように、ホストの視野を基準として正面方向(F)、右方向(R)、左方向(L)および後方(B)の4つの視野領域に分割し、ゲストの頭部および/または視線の方向、またはゲスト端末30の方向がいずれの視野領域に該当するかを判定し、判定した視野領域を表すインデックスを視野方向データとして生成してもよい。なお、図4は例示に過ぎず、ゲストの視野は3以下の視野領域に分割されてもよいし、5以上の視野領域に分割されてもよい。また、視野領域は、映像の視点切り替えの単位と一致していてもよいししなくてもよい。 The viewing behavior data generation unit 115 can generate viewing direction data based on data representing the direction of the guest's head and / or the line of sight, or the direction of the guest terminal 30, which can be included in the input data, for example. As an example, the viewing behavior data generation unit 115 views the guest's field of view in the front direction (F), the right direction (R), the left direction (L), and the rear direction (L) with respect to the host's field of view, as illustrated in FIG. It is divided into four visual field regions of B), it is determined which visual field region the direction of the guest's head and / or the line of sight, or the direction of the guest terminal 30 corresponds to, and the index representing the determined visual field region is the visual field. It may be generated as direction data. Note that FIG. 4 is merely an example, and the guest's visual field may be divided into a visual field region of 3 or less, or may be divided into a visual field region of 5 or more. Further, the visual field region may or may not coincide with the unit for switching the viewpoint of the image.
後述するように、これら視野方向データおよび再生時刻データと、映像データとを組み合わせれば、再生時刻データの示す再生時刻におけるゲストの視野画像をある程度再現することができる。この視野画像には、ゲストの注目した対象が含まれている可能性がある。例えば図5に例示される視野画像は、被写体として、ブース301、展示物301−1,301−2,301−3,ブース302、および展示物302−1を含んでいるが、ゲストがこれらの一部または全部に興味・関心がある可能性がある。 As will be described later, by combining the visual field direction data and the reproduction time data with the video data, the visual field image of the guest at the reproduction time indicated by the reproduction time data can be reproduced to some extent. This field image may contain the guest's attention. For example, the field image illustrated in FIG. 5 includes booth 301, exhibits 301-1, 301-2, 301-3, booth 302, and exhibit 302-1 as subjects, but the guest is one of these. You may be interested in some or all of them.
また、映像データがパノラマ映像、または通常の映像、すなわち視点切り替えが不可能な映像、である場合に、視聴行動データ生成部115は、ゲストによるキャプチャ操作に応じて生成されたキャプチャ画像と、このキャプチャ操作のなされた時に対応する映像データの再生時刻を示す再生時刻データとを含む視聴行動データを生成してもよい。キャプチャ画像は、データ容量が視野方向データに比べて大きい反面、キャプチャ操作がなされた時のゲストの視野画像そのものであるので、視野画像を再現する処理が不要であるうえにかかる処理に起因する視野の誤差も生じないという利点がある。また、ゲストが能動的にキャプチャ操作を行って保存したキャプチャ画像には、当該ゲストの注目した対象が含まれている可能性が高いと推定できる。 Further, when the video data is a panoramic video or a normal video, that is, a video whose viewpoint cannot be switched, the viewing behavior data generation unit 115 includes the captured image generated in response to the capture operation by the guest and the captured image. Viewing behavior data including playback time data indicating the playback time of the corresponding video data when the capture operation is performed may be generated. Although the captured image has a larger data capacity than the visual field direction data, it is the visual field image itself of the guest when the capture operation is performed, so that the process of reproducing the visual field image is unnecessary and the visual field caused by such processing. There is an advantage that the error does not occur. In addition, it can be estimated that the captured image saved by the guest actively performing the capture operation is likely to include the object of interest of the guest.
なお、映像は、例えば図6に示されるように、複数のパーティションに区切って表示されてもよい。図6の例では、映像は3つのパーティションL(左)、C(中央)、およびR(右)に区切られている。ゲストがいずれかのパーティションを選択する操作を行ったとすると、そのパーティションには、当該ゲストの注目した対象が含まれている可能性が高いと推定できる。例えば、図6の例では、ゲストがパーティションLを選択すれば当該ゲストは展示物301−1および/またはブース301に興味・関心があると推定できるし、ゲストがパーティションCを選択すれば当該ゲストは展示物301−2,展示物301−2および/またはブース301に興味・関心があると推定できるし、ゲストがパーティションRを選択すれば当該ゲストは展示物302−1および/またはブース302に興味・関心があると推定できる。ただし、図6は例示に過ぎず、映像は2以下のパーティションに区切られてもよいし、4以上のパーティションに区切られてもよい。また、例えば、物体認識技術などを利用して、物体毎に対応するパーティションが定められてもよい。 The video may be divided into a plurality of partitions and displayed, for example, as shown in FIG. In the example of FIG. 6, the image is divided into three partitions L (left), C (center), and R (right). If the guest performs an operation to select one of the partitions, it is highly probable that the partition contains the object of interest of the guest. For example, in the example of FIG. 6, if the guest selects partition L, it can be estimated that the guest is interested in the exhibit 301-1 and / or booth 301, and if the guest selects partition C, the guest can be estimated to be interested. Can be presumed to be interested in exhibit 301-2, exhibit 301-2 and / or booth 301, and if the guest selects partition R, the guest will be in exhibit 302-1 and / or booth 302. It can be estimated that you are interested. However, FIG. 6 is merely an example, and the video may be divided into 2 or less partitions or 4 or more partitions. Further, for example, a partition corresponding to each object may be determined by using an object recognition technique or the like.
そこで、視聴行動データ生成部115は、ゲストによるパーティションの選択がなされた時の視野方向データおよび/またはキャプチャ画像と、選択されたパーティションを示すパーティション選択データと、パーティションの選択がなされた時に対応する映像データの再生時刻を示す再生時刻データとを含む視聴行動データを生成してもよい。 Therefore, the viewing behavior data generation unit 115 corresponds to the viewing direction data and / or the captured image when the partition is selected by the guest, the partition selection data indicating the selected partition, and when the partition is selected. Viewing behavior data including playback time data indicating the playback time of the video data may be generated.
さらに、映像には、例えば図7に示されるように、GUI部品が重畳して表示され得る。図7のGUI部品401を選択したゲストは、現在表示されている映像の被写体であるブース301、および展示物301−1,301−2,301−3の少なくとも一部に興味・関心があると推定できる。他方、図7のGUI部品402を選択したゲストは、現在表示されている映像の被写体であるブース301、および展示物301−1,301−2,301−3の少なくとも一部に興味・関心がないか、他のブースおよび/または展示物に興味・関心があると推定できる。 Further, GUI components may be superimposed and displayed on the video, for example, as shown in FIG. The guest who selected the GUI component 401 in FIG. 7 is interested in at least a part of the booth 301, which is the subject of the currently displayed image, and the exhibits 301-1, 301-2, and 301-3. Can be estimated. On the other hand, the guest who selected the GUI component 402 in FIG. 7 is interested in at least a part of the booth 301, which is the subject of the image currently displayed, and the exhibits 301-1, 301-2, and 301-3. It can be presumed that there is no or that you are interested in other booths and / or exhibits.
そこで、視聴行動データ生成部115は、映像に重畳して表示されたGUI部品のうちゲストに選択されたものを示すGUI選択データと、かかる選択のなされた時に対応する映像データの再生時刻を示す再生時刻データとを含む視聴行動データを生成してもよい。なお、映像データがパノラマ映像である場合には、ゲストの視野画像を再現可能とするために、視聴行動データ生成部115は、GUI部品が選択された時の視野方向データおよび/またはキャプチャ画像を視聴行動データに含める必要がある。 Therefore, the viewing behavior data generation unit 115 indicates the GUI selection data indicating which of the GUI parts displayed superimposed on the video is selected by the guest, and the playback time of the corresponding video data when such selection is made. Viewing behavior data including playback time data may be generated. When the video data is a panoramic image, the viewing behavior data generation unit 115 selects the visual field direction data and / or the captured image when the GUI component is selected so that the visual field image of the guest can be reproduced. Must be included in viewing behavior data.
視聴行動データ記憶部122は、視聴行動データ生成部115によって生成された視聴行動データを保存する。視聴行動データ記憶部122に保存された視聴行動データは、プロセッサ110の種々の機能部、例えば、視聴行動報告部116によって読み出される。 The viewing behavior data storage unit 122 stores the viewing behavior data generated by the viewing behavior data generation unit 115. The viewing behavior data stored in the viewing behavior data storage unit 122 is read out by various functional units of the processor 110, for example, the viewing behavior reporting unit 116.
視聴行動報告部116は、視聴行動データ記憶部122から視聴行動データを読み出し、これを注目度算出サーバ40に報告する。具体的には、視聴行動報告部116は、視聴行動データを送信部102へ送り、送信部102はこの視聴行動データをネットワーク経由で注目度算出サーバ40へ送信する。 The viewing behavior reporting unit 116 reads the viewing behavior data from the viewing behavior data storage unit 122 and reports this to the attention level calculation server 40. Specifically, the viewing behavior reporting unit 116 sends the viewing behavior data to the transmitting unit 102, and the transmitting unit 102 transmits the viewing behavior data to the attention degree calculation server 40 via the network.
次に、注目度算出サーバ40の構成について詳しく説明する。注目度算出サーバ40は、図3に例示されるように、通信I/F 200と、プロセッサ210と、メモリ220とを含む。 Next, the configuration of the attention degree calculation server 40 will be described in detail. The attention calculation server 40 includes a communication I / F 200, a processor 210, and a memory 220, as illustrated in FIG.
通信I/F 200は、ネットワーク経由で、外部装置、例えば、ホスト端末10、映像配信サーバ20、ゲスト端末30、などと通信をするためのモジュールであって、例えば、送受信のための信号処理回路、光コネクタなどを含み得る。通信I/F 200は、例え光通信モジュール、などであり得る。 The communication I / F 200 is a module for communicating with an external device such as a host terminal 10, a video distribution server 20, a guest terminal 30, etc. via a network, and is, for example, a signal processing circuit for transmission / reception. , Optical connectors, etc. may be included. The communication I / F 200 can be, for example, an optical communication module.
プロセッサ210は、汎用または専用のプロセッサなどであってもよい。プロセッサ210は、例えば、入出力制御、通信制御、後述される注目対象の特定および注目度の算出、などを行う。 The processor 210 may be a general-purpose or dedicated processor or the like. The processor 210 performs, for example, input / output control, communication control, identification of an object of interest and calculation of the degree of attention, which will be described later.
メモリ220は、プロセッサ210が各処理を実現するために当該プロセッサ210によって実行されるプログラムおよび当該プロセッサ210によって使用されるデータ、例えば、視聴行動データ、注目対象データ、注目度、などを一時的に格納する。さらに、メモリ220は、視聴行動データに関連付けられるゲストの視野画像を再現するために、映像データを格納し、および/または後述される基準位置姿勢データおよびマップデータを格納し得る。メモリ220は、かかるプログラム/データが展開されるワークエリアを有するRAMを含み得る。 The memory 220 temporarily stores a program executed by the processor 210 and data used by the processor 210 for the processor 210 to realize each process, such as viewing behavior data, attention target data, attention level, and the like. Store. Further, the memory 220 may store video data and / or store reference position / orientation data and map data, which will be described later, in order to reproduce the visual field image of the guest associated with the viewing behavior data. The memory 220 may include a RAM having a work area in which such programs / data are deployed.
プロセッサ210は、メモリ220に保存されたプログラムを実行することで、図3の受信データ取得部211、注目対象特定部212、注目度算出部213、および注目度報告部214として機能し得る。また、メモリ220は、図3の視聴行動データ記憶部221、注目度記憶部222および注目対象データ記憶部223を含み得る。 The processor 210 can function as the received data acquisition unit 211, the attention target identification unit 212, the attention degree calculation unit 213, and the attention degree reporting unit 214 of FIG. 3 by executing the program stored in the memory 220. Further, the memory 220 may include the viewing behavior data storage unit 221, the attention level storage unit 222, and the attention target data storage unit 223 in FIG.
通信I/F 200は、外部装置から種々のデータをネットワーク経由で受信する受信部201と、外部装置へ種々のデータをネットワーク経由で送信する送信部202とを含む。受信部201は、ゲスト端末30から視聴行動データを受信し、これを受信データ取得部211へ送る。受信部201は、ホスト端末10および/または映像配信サーバ20から(エンコード済み)映像データおよび/または基準位置姿勢データを受信し、これを受信データ取得部211へ送り得る。ここで、基準位置姿勢データは、所与の時刻におけるホストの位置と映像データの基準アングルとを示す。また、送信部202は、注目度報告部214から注目度を受け取り、これを例えば図示されない注目度利活用サーバへ送信する。 The communication I / F 200 includes a receiving unit 201 that receives various data from an external device via a network, and a transmitting unit 202 that transmits various data to the external device via the network. The reception unit 201 receives the viewing behavior data from the guest terminal 30 and sends it to the reception data acquisition unit 211. The reception unit 201 may receive (encoded) video data and / or reference position / orientation data from the host terminal 10 and / or the video distribution server 20 and send the data to the reception data acquisition unit 211. Here, the reference position / orientation data indicates the position of the host at a given time and the reference angle of the video data. Further, the transmission unit 202 receives the attention level from the attention level reporting unit 214 and transmits this to, for example, an attention level utilization server (not shown).
ここで、注目度利活用サーバは、注目度算出サーバ40から注目度をネットワーク経由で受信し、これを利活用する。具体的には、注目度利活用サーバは、注目度に基づいて作成したフィードバック情報を展示会の出展主体または展示会の主催者などへ提供したり、ゲストまたは他の(潜在)需要者へのマーケティングを注目度に基づいて支援したり、撮影対象を注目度に基づいて決定して当該撮影対象の撮影をホストに要求したりする。 Here, the attention level utilization server receives the attention level from the attention level calculation server 40 via the network and utilizes it. Specifically, the attention level utilization server provides feedback information created based on the attention level to the exhibitor of the exhibition or the organizer of the exhibition, or to guests or other (potential) consumers. It supports marketing based on the degree of attention, determines the shooting target based on the degree of attention, and requests the host to shoot the shooting target.
受信データ取得部211は、受信部201から受信データを取得し、これをメモリ220に書き込む。一例として、受信データ取得部211は、受信部201から視聴行動データを取得し、これを視聴行動データ記憶部221に書き込む。また、受信データ取得部211は、受信部201から(エンコード済み)映像データおよび/または基準位置姿勢データを取得し、これをメモリ120に書き込み得る。 The reception data acquisition unit 211 acquires the reception data from the reception unit 201 and writes it in the memory 220. As an example, the reception data acquisition unit 211 acquires the viewing behavior data from the receiving unit 201 and writes it in the viewing behavior data storage unit 221. Further, the reception data acquisition unit 211 can acquire (encoded) video data and / or reference position / orientation data from the reception unit 201 and write them to the memory 120.
視聴行動データ記憶部221は、受信データ取得部211によって取得された視聴行動データを保存する。視聴行動データ記憶部221に保存された視聴行動データは、プロセッサ210の種々の機能部、例えば注目対象特定部212によって読み出され得る。 The viewing behavior data storage unit 221 stores the viewing behavior data acquired by the received data acquisition unit 211. The viewing behavior data stored in the viewing behavior data storage unit 221 can be read out by various functional units of the processor 210, for example, the attention target identification unit 212.
なお、視聴行動データは、ホストおよびゲストの区別なく集積されてもよいし、ホストまたはゲストを区別して集積されてもよい。すなわち、あるホスト端末10によって発信される映像の視聴時に生成された視聴行動データと、別のホスト端末10によって発信される映像の視聴時に視聴行動データとは区別されてもよい。この場合に、視聴行動データは、どのホスト端末10をソースとする映像の視聴時に当該視聴行動データが生成されたかを表すホスト識別子を含み得る。また、あるゲストのゲスト端末30により生成された視聴行動データと、別のゲストのゲスト端末30により生成された視聴行動データとは区別されてもよい。この場合に、視聴行動データは、どのゲスト端末30により当該視聴行動データが生成されたかを表すゲスト識別子を含み得る。 The viewing behavior data may be collected without distinguishing between the host and the guest, or may be collected by distinguishing between the host and the guest. That is, the viewing behavior data generated when viewing the video transmitted by one host terminal 10 may be distinguished from the viewing behavior data generated when viewing the video transmitted by another host terminal 10. In this case, the viewing behavior data may include a host identifier indicating which host terminal 10 is the source of the video and the viewing behavior data was generated at the time of viewing. Further, the viewing behavior data generated by the guest terminal 30 of a certain guest may be distinguished from the viewing behavior data generated by the guest terminal 30 of another guest. In this case, the viewing behavior data may include a guest identifier indicating which guest terminal 30 generated the viewing behavior data.
注目対象特定部212は、視聴行動データ記憶部221から視聴行動データを読み出し、メモリ220から展示会における複数の展示対象の参照データを読み出す。ここで、参照データは、例えば、展示対象の外観(展示対象および/またはその属する出展主体のロゴおよび/または商標、展示対象としての人物の顔、などの部分的な外観を含み得る)、展示対象に付与されたコード(例えば、一次元コード、二次元コード、など)、展示対象に関連付けられるテキスト(例えば、名称、愛称、識別番号、説明文など)、展示対象の位置、などを示し得る。なお、複数の展示対象の位置を示す参照データは、マップデータと呼ぶこともできる。注目対象特定部212は、視聴行動データおよび参照データに基づいて、当該視聴行動データに含まれる再生時刻データの示す映像データの再生時刻において、ゲストが注目した対象を特定する。そして、注目対象特定部212は、例えば、この再生時刻データと、特定した対象を識別する展示対象識別子とを含む注目対象データを生成し、これを注目対象データ記憶部223に書き込む。 The attention target identification unit 212 reads the viewing behavior data from the viewing behavior data storage unit 221 and reads the reference data of a plurality of exhibition targets in the exhibition from the memory 220. Here, the reference data may include, for example, the appearance of the exhibition object (which may include a partial appearance such as the logo and / or trademark of the exhibition object and / or the exhibitor to which the exhibition object belongs, the face of a person as the exhibition object, and the like). It can indicate the code given to the object (eg, one-dimensional code, two-dimensional code, etc.), the text associated with the exhibit (eg, name, nickname, identification number, description, etc.), the location of the exhibit, etc. .. Reference data indicating the positions of a plurality of exhibition objects can also be called map data. The attention target identification unit 212 identifies the target that the guest has paid attention to at the playback time of the video data indicated by the playback time data included in the viewing behavior data based on the viewing behavior data and the reference data. Then, the attention target identification unit 212 generates, for example, the attention target data including the reproduction time data and the exhibition target identifier that identifies the specified target, and writes this in the attention target data storage unit 223.
なお、視聴行動データが前述のホスト識別子および/またはゲスト識別子を含む場合には、注目対象データもまたこれを含んでもよい。また、ホスト識別子および/またはゲスト識別子は、それぞれ1つまたは複数の属性、例えば、性別、年代、嗜好、スキル、などを識別する属性識別子に変換されてもよい。なお、ホスト識別子および/またはゲスト識別子から属性識別子への変換ルールは、例えば図1の映像共有システムのユーザ情報を管理するサーバによって作成され、注目度算出サーバ40がこれを取得してもよい。例えば、あるゲスト識別子が「男性」、「30代」、「アーリーアダプター」、「専門家」などの属性を識別する属性識別子に変換され、注目対象データに含められてもよい。 When the viewing behavior data includes the above-mentioned host identifier and / or guest identifier, the attention target data may also include this. Further, the host identifier and / or the guest identifier may be converted into an attribute identifier that identifies one or more attributes, for example, gender, age, preference, skill, and the like. The conversion rule from the host identifier and / or the guest identifier to the attribute identifier may be created by, for example, the server that manages the user information of the video sharing system of FIG. 1, and the attention degree calculation server 40 may acquire this. For example, a guest identifier may be converted into an attribute identifier that identifies attributes such as "male", "30's", "early adapter", and "expert" and included in the data of interest.
具体的には、注目対象特定部212は、以下に列挙するように様々な技法により、ゲストが注目した対象を特定することができる。 Specifically, the attention target identification unit 212 can specify the target that the guest has paid attention to by various techniques as listed below.
(1)視聴行動データが前述の視野方向データおよび再生時刻データを含み、メモリ220には(パノラマ映像を表す)映像データが保存されているとする。この場合に、注目対象特定部212は、再生時刻データおよび視野方向データに基づいて、映像データから当該再生時刻データの示す再生時刻におけるゲストの視野画像を抽出する。例えば、注目対象特定部212は、映像データのうち再生時刻データの示す再生時刻に対応する1枚のパノラマ画像を抽出し、さらにこのパノラマ画像から視野方向データの示す視野方向に対応する1視点分の画像をゲストの視野画像として抽出し得る。 (1) It is assumed that the viewing behavior data includes the above-mentioned visual field direction data and playback time data, and the video data (representing a panoramic image) is stored in the memory 220. In this case, the attention target identification unit 212 extracts the visual field image of the guest at the reproduction time indicated by the reproduction time data from the video data based on the reproduction time data and the visual field direction data. For example, the attention target identification unit 212 extracts one panoramic image corresponding to the reproduction time indicated by the reproduction time data from the video data, and further extracts one viewpoint corresponding to the visual field direction indicated by the visual field direction data from this panoramic image. Image can be extracted as a guest field image.
そして、注目対象特定部212は、この視野画像の被写体から、再生時刻データの示す再生時刻においてゲストが注目した対象を特定する。具体的には、注目対象特定部212は、被写体の外観を参照データに含まれる複数の展示対象の外観と比較したり、被写体に含まれるテキスト領域またはコード領域を抽出し、抽出した領域を参照データに含まれる複数の展示対象に関連付けられるテキストまたは展示対象に付与されたコードと比較したりすることで、視野画像に含まれる被写体が複数の展示対象のいずれかに該当するか否かを判定できる。 Then, the attention target identification unit 212 identifies the target that the guest has paid attention to at the reproduction time indicated by the reproduction time data from the subject of the visual field image. Specifically, the attention target identification unit 212 compares the appearance of the subject with the appearance of a plurality of exhibition objects included in the reference data, extracts the text area or the code area included in the subject, and refers to the extracted area. Determine whether the subject included in the field image corresponds to any of the multiple exhibition objects by comparing it with the text associated with multiple exhibition objects included in the data or the code assigned to the exhibition object. it can.
(2)視聴行動データが前述のキャプチャ画像および再生時刻データを含んでいるとする。この場合に、注目対象特定部212は、このキャプチャ画像の被写体から、再生時刻データの示す再生時刻においてゲストが注目した対象を特定する。具体的には、注目対象特定部212は、上記(1)と同様の技法により、キャプチャ画像に含まれる被写体が複数の展示対象のいずれかに該当するか否かを判定できる。 (2) It is assumed that the viewing behavior data includes the above-mentioned captured image and playback time data. In this case, the attention target identification unit 212 identifies the target that the guest has paid attention to at the reproduction time indicated by the reproduction time data from the subject of the captured image. Specifically, the attention target identification unit 212 can determine whether or not the subject included in the captured image corresponds to any of a plurality of exhibition targets by the same technique as in (1) above.
(3)視聴行動データが前述のGUI選択データおよび再生時刻データを含んでいるとする。なお、視聴行動データがキャプチャ画像をさらに含んでいる場合、またはメモリ220に(通常の映像を表す)映像データが保存されている場合には、注目対象特定部212は、このキャプチャ画像、または映像データのうち再生時刻データの示す再生時刻に対応する1枚の画像、をゲストの視野画像として扱うことができる。他方、視聴行動データが視野方向データをさらに含んでいて、かつメモリ220に(パノラマ映像を表す)映像データが保存されている場合には、注目対象特定部212は、上記(1)と同様の技法により、ゲストの視野画像を抽出できる。 (3) It is assumed that the viewing behavior data includes the above-mentioned GUI selection data and playback time data. If the viewing behavior data further includes a captured image, or if the video data (representing a normal video) is stored in the memory 220, the attention target identification unit 212 may use the captured image or video. Of the data, one image corresponding to the reproduction time indicated by the reproduction time data can be treated as a guest field image. On the other hand, when the viewing behavior data further includes the visual field direction data and the video data (representing the panoramic image) is stored in the memory 220, the attention target identification unit 212 is the same as the above (1). The technique allows the guest's visual field image to be extracted.
そして、注目対象特定部212は、この視野画像の被写体から上記(1)と同様の技法により複数の展示対象のいずれかに該当するものを抽出し、抽出した展示対象をさらにGUI選択データに基づいて絞り込むことで、再生時刻データの示す再生時刻においてゲストが注目した対象を特定する。例えば、GUI選択データが「右の展示物」のようなGUI部品が選択されたことを示す場合には、注目対象特定部212は、視野画像において右側に位置する展示物をゲストが注目した対象として特定し得る。また、GUI選択データが例えば図7のGUI部品401が選択されたことを示す場合には、注目対象特定部212は、視野画像に含まれる展示対象をゲストが注目した対象として特定し得る。他方、GUI選択データが例えば図7のGUI部品402が選択されたことを示す場合には、注目対象特定部212は、視野画像に含まれる展示対象をゲストが注目した対象から除外し得る。 Then, the attention target identification unit 212 extracts the subject corresponding to any of the plurality of exhibition objects from the subject of the field image by the same technique as in (1) above, and further extracts the extracted exhibition object based on the GUI selection data. By narrowing down, the target that the guest paid attention to at the playback time indicated by the playback time data is specified. For example, when the GUI selection data indicates that a GUI component such as "exhibit on the right" has been selected, the target identification unit 212 pays attention to the exhibit located on the right side in the visual field image. Can be specified as. Further, when the GUI selection data indicates that, for example, the GUI component 401 of FIG. 7 has been selected, the attention target identification unit 212 can specify the exhibition target included in the visual field image as the target that the guest has paid attention to. On the other hand, when the GUI selection data indicates that, for example, the GUI component 402 of FIG. 7 has been selected, the attention target identification unit 212 may exclude the exhibition target included in the visual field image from the target paid by the guest.
(4)視聴行動データが前述のパーティション選択データおよび再生時刻データを含んでいるとする。なお、視聴行動データがキャプチャ画像をさらに含んでいる場合、またはメモリ220に(通常の映像を表す)映像データが保存されている場合には、注目対象特定部212は、このキャプチャ画像、または映像データのうち再生時刻データの示す再生時刻に対応する1枚の画像、をゲストの視野画像として扱うことができる。他方、視聴行動データが視野方向データをさらに含んでいて、かつメモリ220に(パノラマ映像を表す)映像データが保存されている場合には、注目対象特定部212は、上記(1)と同様の技法により、ゲストの視野画像を抽出できる。 (4) It is assumed that the viewing behavior data includes the partition selection data and the playback time data described above. If the viewing behavior data further includes a captured image, or if the video data (representing a normal video) is stored in the memory 220, the attention target identification unit 212 may use the captured image or video. Of the data, one image corresponding to the reproduction time indicated by the reproduction time data can be treated as a guest field image. On the other hand, when the viewing behavior data further includes the visual field direction data and the video data (representing the panoramic image) is stored in the memory 220, the attention target identification unit 212 is the same as the above (1). The technique allows the guest's visual field image to be extracted.
そして、注目対象特定部212は、この視野画像をパーティション選択データに基づいてさらに絞り込む。例えば、パーティション選択データが例えば図6のパーティションLが選択されたことを示す場合には、注目対象特定部212は、視野画像からこのパーティションLに該当する部分をトリミングし得る。そして、注目対象特定部212は、上記(1)と同様の技法により、この絞り込み後の視野画像に含まれる被写体が複数の展示対象のいずれかに該当するか否かを判定できる。 Then, the attention target identification unit 212 further narrows down this field of view image based on the partition selection data. For example, when the partition selection data indicates that the partition L of FIG. 6 is selected, for example, the attention target identification unit 212 may trim the portion corresponding to the partition L from the visual field image. Then, the attention target identification unit 212 can determine whether or not the subject included in the narrowed-down visual field image corresponds to any of the plurality of exhibition targets by the same technique as in (1) above.
(5)視聴行動データが前述の視野方向データおよび再生時刻データを含み、メモリ220にはマップデータおよび基準位置姿勢データが保存されているとする。注目対象特定部212は、再生時刻データ、基準位置姿勢データに基づいて、再生時刻データの示す再生時刻におけるホストの位置と映像データの基準アングルとを決定する。さらに、注目対象特定部212は、決定した映像データの基準アングルを、視野方向データの示す視野方向に応じて回転させて、再生時刻データの示す再生時刻におけるゲストの視野範囲を推定する。マップデータは、展示会における複数の展示対象をその位置に関連付ける。そして、注目対象特定部212は、推定したゲストの視野範囲内に展示されている展示対象を、再生時刻データの示す再生時刻においてゲストが注目した対象として特定する。具体的には、図8に例示されるように、注目対象特定部212は、ホストの位置501を中心にゲストの視野範囲502を推定し、この視野範囲502の内に展示されているブースA01、および/または当該ブースA01内の展示物を、ゲストが注目した対象として特定し得る。 (5) It is assumed that the viewing behavior data includes the above-mentioned visual field direction data and reproduction time data, and the map data and the reference position / orientation data are stored in the memory 220. The attention target identification unit 212 determines the position of the host at the reproduction time indicated by the reproduction time data and the reference angle of the video data based on the reproduction time data and the reference position / orientation data. Further, the attention target identification unit 212 rotates the determined reference angle of the video data according to the visual field direction indicated by the visual field direction data, and estimates the visual field range of the guest at the reproduction time indicated by the reproduction time data. Map data associates multiple exhibits in an exhibition with their location. Then, the attention target identification unit 212 identifies the exhibition target displayed within the estimated guest's visual field range as the target that the guest has paid attention to at the reproduction time indicated by the reproduction time data. Specifically, as illustrated in FIG. 8, the attention target identification unit 212 estimates the guest field of view 502 centered on the host position 501, and the booth A01 exhibited in this field of view 502. , And / or the exhibits in the booth A01 can be identified as objects of interest to the guest.
上記(5)の技法によれば、上記(1),(3)〜(4)のようなメモリ220に大容量の映像データを保存する必要のある技法に比べて、メモリ220の使用量を節約できる可能性がある。加えて、上記(5)の技法によれば、同じ展示会に参加する他のホストの映像に関わる注目度の算出時にも同じマップデータを利用することで、メモリ220の使用量をさらに節約できる。或いは、上記(1),(3)〜(4)の技法において、注目度算出サーバ40が、ホスト端末10または映像配信サーバ20に映像データのうち再生時刻データの示す再生時刻に対応する画像を要求するようにしてもよい。 According to the technique of (5) above, the amount of memory 220 used is reduced as compared with the technique of storing a large amount of video data in the memory 220 as described in (1), (3) to (4) above. There is a possibility of saving. In addition, according to the technique (5) above, the amount of memory 220 used can be further saved by using the same map data when calculating the degree of attention related to the images of other hosts participating in the same exhibition. .. Alternatively, in the techniques (1), (3) to (4) above, the attention level calculation server 40 sends an image corresponding to the playback time indicated by the playback time data among the video data to the host terminal 10 or the video distribution server 20. You may request it.
注目対象データ記憶部223は、注目対象特定部212によって生成された注目対象データを保存する。注目対象データ記憶部223に保存された注目対象データは、プロセッサ210の種々の機能部、例えば注目度算出部213によって読み出される。なお、注目対象データは、例えば、再生時刻、ゲスト識別子、ホスト識別子、および/または属性識別子をキーとして含んでいてもよく、所望のキーにマッチするものを選択的に読み出し可能であってもよい。 The attention target data storage unit 223 stores the attention target data generated by the attention target identification unit 212. The attention target data stored in the attention target data storage unit 223 is read out by various functional units of the processor 210, for example, the attention degree calculation unit 213. Note that the data of interest may include, for example, a playback time, a guest identifier, a host identifier, and / or an attribute identifier as a key, and data that matches a desired key may be selectively readable. ..
注目度算出部213は、注目対象データ記憶部223から注目対象データを読み出し、これに基づいて複数の展示対象の注目度を算出する。そして、注目度算出部213は、算出した注目度を注目度記憶部222に書き込む。 The attention level calculation unit 213 reads the attention target data from the attention target data storage unit 223, and calculates the attention levels of a plurality of exhibition targets based on the read data. Then, the attention degree calculation unit 213 writes the calculated attention degree to the attention degree storage unit 222.
注目度算出部213は、注目対象データの示す対象の注目度が相対的に増加するように複数の展示対象の注目度を算出し得る。具体的には、注目度算出部213は、あるゲストについて得られた注目対象データの示す対象の注目度が、当該ゲストによる当該対象への注目の持続時間の長さに応じて増加するように複数の展示対象の注目度を算出してもよい。例えば、注目度算出部213は、複数の再生時刻に亘って、展示対象毎に、注目対象データにおける当該展示対象の出現数を集計し、この集計結果に基づいて当該展示対象の注目度を算出する。また、注目度算出部213は、あるゲストについて得られた一連の注目対象データの示すある対象への注目の持続時間が閾値未満である場合に、当該一連の注目対象データを破棄してもよい。換言すれば、注目度算出部213は、あるゲストについて得られた一連の注目対象データの示すある対象への注目の持続時間が閾値を超える場合に、当該一連の注目対象データに基づいて注目度を算出してもよい。 The attention level calculation unit 213 can calculate the attention level of a plurality of exhibition objects so that the attention level of the object indicated by the attention target data is relatively increased. Specifically, the attention level calculation unit 213 increases the attention level of the target indicated by the attention target data obtained for a certain guest according to the length of the duration of the attention of the guest to the target. The degree of attention of a plurality of exhibition objects may be calculated. For example, the attention level calculation unit 213 aggregates the number of appearances of the exhibition object in the attention target data for each exhibition object over a plurality of playback times, and calculates the attention level of the exhibition object based on the aggregation result. To do. Further, the attention level calculation unit 213 may discard the series of attention target data when the duration of attention to a certain target indicated by the series of attention target data obtained for a certain guest is less than the threshold value. .. In other words, the attention level calculation unit 213 determines the attention level based on the series of attention target data when the duration of attention to a certain target indicated by the series of attention target data obtained for a guest exceeds the threshold value. May be calculated.
注目度算出部213は、ゲスト別/属性別に注目度を算出してもよい。すなわち、注目度算出部213は、あるゲスト識別子/属性識別子を含む注目対象データを注目対象データ記憶部223から読み出し、展示対象毎に、読み出した注目対象データにおける当該展示対象の出現数を複数の再生時刻に亘って集計し、この集計結果に基づいて当該ゲスト識別子の示すゲスト/属性識別子の示す属性値を持つゲストの当該展示対象の注目度を算出してもよい。 The attention level calculation unit 213 may calculate the attention level for each guest / attribute. That is, the attention level calculation unit 213 reads the attention target data including a certain guest identifier / attribute identifier from the attention target data storage unit 223, and for each exhibition target, a plurality of appearance numbers of the exhibition target in the read attention target data are displayed. The data may be aggregated over the playback time, and the degree of attention of the exhibit target of the guest having the attribute value indicated by the guest / attribute identifier indicated by the guest identifier may be calculated based on the aggregation result.
また、注目度算出部213は、ホスト別に注目度を算出してもよい。すなわち、注目度算出部213は、あるホスト識別子を含む注目対象データを注目対象データ記憶部223から読み出し、展示対象毎に、読み出した注目対象データにおける当該展示対象の出現数を複数の再生時刻に亘って集計し、この集計結果に基づいて当該ホスト識別子の示すホストによる撮影映像を視聴するゲストの当該展示対象の注目度を算出してもよい。 Further, the attention level calculation unit 213 may calculate the attention level for each host. That is, the attention level calculation unit 213 reads the attention target data including a certain host identifier from the attention target data storage unit 223, and sets the number of appearances of the exhibition target in the read attention target data at a plurality of reproduction times for each exhibition target. It is possible to calculate the degree of attention of the exhibition target of the guest who views the video shot by the host indicated by the host identifier based on the total result.
さらに、注目度算出部213は、展示会における総合的な注目度を算出してもよい。すなわち、注目度算出部213は、全ての注目対象データを注目対象データ記憶部223から読み出し、展示対象毎に、読み出した注目対象データにおける当該展示対象の出現数を複数の再生時刻に亘って集計し、この集計結果に基づいて当該展示会に仮想的に参加する全ゲストの当該展示対象の注目度を算出してもよい。 Further, the attention level calculation unit 213 may calculate the overall attention level at the exhibition. That is, the attention level calculation unit 213 reads out all the attention target data from the attention target data storage unit 223, and totals the number of appearances of the exhibition target in the read attention target data for each exhibition target over a plurality of reproduction times. Then, based on the aggregated result, the degree of attention of the exhibition target of all the guests who virtually participate in the exhibition may be calculated.
注目度記憶部222は、注目度算出部213によって算出された注目度を保存する。注目度記憶部222に保存された注目度は、プロセッサ210の種々の機能部、例えば注目度報告部214によって読み出される。なお、注目度は、例えば、所望の再生時刻、ゲスト識別子、ホスト識別子、および/または属性識別子をキーとして含んでいてもよく、所望のキーにマッチするものを選択的に読み出し可能であってもよい。 The attention level storage unit 222 stores the attention level calculated by the attention level calculation unit 213. The attention level stored in the attention level storage unit 222 is read out by various functional units of the processor 210, for example, the attention level reporting unit 214. Note that the degree of attention may include, for example, a desired playback time, guest identifier, host identifier, and / or attribute identifier as a key, and even if one that matches the desired key can be selectively read out. Good.
注目度報告部214は、注目度記憶部222から注目度を読み出し、これを例えば図示されない注目度利活用サーバに報告する。具体的には、注目度報告部214は、注目度を送信部202へ送り、送信部202はこの注目度をネットワーク経由で注目度利活用サーバへ送信する。 The attention level reporting unit 214 reads the attention level from the attention level storage unit 222 and reports this to, for example, an attention level utilization server (not shown). Specifically, the attention level reporting unit 214 sends the attention level to the transmission unit 202, and the transmission unit 202 transmits this attention level to the attention level utilization server via the network.
以下、図9を用いて、注目度算出サーバ40の動作例を説明する。図9の動作はステップS601から開始する。
ステップS601において、受信部201は、ゲスト端末30から視聴行動データを受信するのを待ち受ける。受信部201が、視聴行動データを受信すると処理はステップS602へ進む。他方、受信部201が視聴行動データを受信する前に、注目度の算出タイミングが到来すると処理はステップS606へと進む(ステップS605)。
Hereinafter, an operation example of the attention degree calculation server 40 will be described with reference to FIG. The operation of FIG. 9 starts from step S601.
In step S601, the receiving unit 201 waits for the viewing behavior data to be received from the guest terminal 30. When the receiving unit 201 receives the viewing behavior data, the process proceeds to step S602. On the other hand, if the attention level calculation timing arrives before the receiving unit 201 receives the viewing behavior data, the process proceeds to step S606 (step S605).
ここで、注目度の算出タイミングは任意に定められ得る。例えば展示会の開催中にリアルタイムに注目度を算出する場合には、例えば、1分おき、10分おき、1時間おき、などで注目度の算出タイミングが定められてもよい。或いは、例えば展示会の半日分、または1日分の日程の終了後、または展示会の全日程の終了後に、注目度の算出タイミングが定められてもよい。 Here, the timing of calculating the degree of attention can be arbitrarily determined. For example, when the attention level is calculated in real time during the exhibition, the attention level calculation timing may be determined, for example, every 1 minute, every 10 minutes, every 1 hour, and so on. Alternatively, for example, the timing of calculating the degree of attention may be determined after the end of the half-day or one-day schedule of the exhibition, or after the end of the entire schedule of the exhibition.
ステップS602において、受信データ取得部211は、受信部201によって受信された視聴行動データを取得し、これを視聴行動データ記憶部221に書き込む。次に、注目対象特定部212は、ステップS602において取得された視聴行動データに基づいて、当該視聴行動データに含まれる再生時刻データの示す再生時刻にゲストが注目した対象を特定し、注目対象データを生成する(ステップS603)。 In step S602, the reception data acquisition unit 211 acquires the viewing behavior data received by the receiving unit 201 and writes it in the viewing behavior data storage unit 221. Next, the attention target identification unit 212 identifies the target that the guest paid attention to at the playback time indicated by the playback time data included in the viewing behavior data based on the viewing behavior data acquired in step S602, and the attention target data. Is generated (step S603).
なお、ステップS602およびステップS603は、必ずしも連続的に行われる必要はなく、例えばステップS602が複数回実行される毎に、または所定の周期で、ステップS603が実行されてもよい。この場合に、ステップS602の後に、処理は、ステップS603の代わりに、ステップS601に戻ってもよいし、ステップS605へ進んでもよい。 Note that steps S602 and S603 do not necessarily have to be performed continuously. For example, step S603 may be executed every time step S602 is executed a plurality of times or at a predetermined cycle. In this case, after step S602, the process may return to step S601 or proceed to step S605 instead of step S603.
注目対象特定部212は、ステップS603において生成した注目対象データを注目対象データ記憶部223に書き込み(ステップS604)、処理はステップS605へと進む。なお、ステップS604の後に、処理はステップS605の代わりにステップS601に戻ってもよい。 The attention target identification unit 212 writes the attention target data generated in step S603 to the attention target data storage unit 223 (step S604), and the process proceeds to step S605. After step S604, the process may return to step S601 instead of step S605.
ステップS606において、注目度算出部213は、ステップS604において注目対象データ記憶部223に保存された注目対象データに基づいて、複数の展示対象の注目度を算出し、注目度記憶部222に保存する。 In step S606, the attention level calculation unit 213 calculates the attention level of a plurality of exhibition objects based on the attention target data stored in the attention target data storage unit 223 in step S604, and stores the attention level in the attention level storage unit 222. ..
そして、注目度報告部214は、ステップS606において算出された注目度を、例えば図示されない注目度利活用サーバに報告し(ステップS607)、図9の動作は終了する。 Then, the attention level reporting unit 214 reports the attention level calculated in step S606 to, for example, a attention level utilization server (step S607) (not shown), and the operation of FIG. 9 ends.
なお、ステップS606およびステップS607は、必ずしも連続的に行われる必要はなく、例えばステップS606が複数回実行される毎に、または所定の周期で、ステップS607が実行されてもよい。この場合に、ステップS606の後に、処理は、ステップS607の代わりに、ステップS601に戻ってもよいし、ステップS605に戻ってもよい。 Note that steps S606 and S607 do not necessarily have to be performed continuously. For example, step S607 may be executed every time step S606 is executed a plurality of times or at a predetermined cycle. In this case, after step S606, the process may return to step S601 or step S605 instead of step S607.
以上説明したように、実施形態に係る注目度算出サーバは、ホストが展示会を撮影した映像データを共有するゲストの端末において取得された入力に基づく視聴行動データを取得し、これに基づいて展示会における複数の展示対象のうちゲストの注目した対象を特定する。そして、この注目度算出サーバは、ゲストの注目した対象として特定された展示対象の注目度が相対的に増加するように複数の展示対象の注目度を算出する。故に、この注目度算出サーバは、展示会に仮想的に参加するゲストからの展示対象への注目度を算出するので、展示会の実際の参加者へのアンケートなどとは異なるアプローチで、展示対象への興味・関心に関わるデータを収集することができる。 As described above, the attention level calculation server according to the embodiment acquires the viewing behavior data based on the input acquired at the guest terminal sharing the video data of the exhibition taken by the host, and exhibits based on the input. Identify the target of the guest's attention among the multiple exhibition targets at the meeting. Then, this attention degree calculation server calculates the attention degree of a plurality of exhibition objects so that the attention degree of the exhibition object specified as the attention object of the guest relatively increases. Therefore, since this attention level calculation server calculates the attention level of the exhibition target from the guests who virtually participate in the exhibition, the exhibition target is different from the questionnaire to the actual participants of the exhibition. You can collect data related to your interest in.
(変形例)
実施形態の説明では、注目度算出サーバが注目度を算出することとしたが、ゲスト端末または他のコンピュータなどが注目度を算出してもよい。注目度算出サーバ、ゲスト端末、などの注目度を算出する装置を注目度算出装置と呼ぶことができる。また、注目度の算出と、注目対象の特定とは異なる装置によって行われてもよい。
(Modification example)
In the description of the embodiment, the attention level calculation server calculates the attention level, but the guest terminal or another computer may calculate the attention level. A device that calculates the degree of attention, such as a attention degree calculation server or a guest terminal, can be called an attention degree calculation device. Further, the calculation of the degree of attention may be performed by a device different from the identification of the target of attention.
上述の実施形態は、本発明の概念の理解を助けるための具体例を示しているに過ぎず、本発明の範囲を限定することを意図されていない。実施形態は、本発明の要旨を逸脱しない範囲で、様々な構成要素の付加、削除または転換をすることができる。 The above embodiments are merely specific examples to aid in understanding the concepts of the invention and are not intended to limit the scope of the invention. In the embodiment, various components can be added, deleted or converted without departing from the gist of the present invention.
上述の実施形態では、いくつかの機能部を説明したが、これらは各機能部の実装の一例に過ぎない。例えば、1つの装置に実装されると説明された複数の機能部が複数の別々の装置に亘って実装されることもあり得るし、逆に複数の別々の装置に亘って実装されると説明された機能部が1つの装置に実装されることもあり得る。 In the above-described embodiment, some functional parts have been described, but these are only examples of implementation of each functional part. For example, it is possible that a plurality of functional parts described as being mounted on one device may be mounted on a plurality of separate devices, and conversely, it is described as being mounted on a plurality of separate devices. It is also possible that the functional unit is mounted on one device.
上記各実施形態において説明された種々の機能部は、回路を用いることで実現されてもよい。回路は、特定の機能を実現する専用回路であってもよいし、プロセッサのような汎用回路であってもよい。 The various functional parts described in each of the above embodiments may be realized by using a circuit. The circuit may be a dedicated circuit that realizes a specific function, or may be a general-purpose circuit such as a processor.
上記各実施形態の処理の少なくとも一部は、例えば汎用のコンピュータに搭載されたプロセッサを基本ハードウェアとして用いることでも実現可能である。上記処理を実現するプログラムは、コンピュータで読み取り可能な記録媒体に格納して提供されてもよい。プログラムは、インストール可能な形式のファイルまたは実行可能な形式のファイルとして記録媒体に記憶される。記録媒体としては、磁気ディスク、光ディスク(CD−ROM、CD−R、DVD等)、光磁気ディスク(MO等)、半導体メモリなどである。記録媒体は、プログラムを記憶でき、かつ、コンピュータが読み取り可能であれば、何れであってもよい。また、上記処理を実現するプログラムを、インターネットなどのネットワークに接続されたコンピュータ(サーバ)上に格納し、ネットワーク経由でコンピュータ(クライアント)にダウンロードさせてもよい。 At least a part of the processing of each of the above embodiments can be realized by using, for example, a processor mounted on a general-purpose computer as basic hardware. The program that realizes the above processing may be provided by storing it in a computer-readable recording medium. The program is stored on the recording medium as a file in an installable format or a file in an executable format. Examples of the recording medium include magnetic disks, optical disks (CD-ROM, CD-R, DVD, etc.), magneto-optical disks (MO, etc.), semiconductor memories, and the like. The recording medium may be any medium as long as it can store the program and can be read by a computer. Further, the program that realizes the above processing may be stored on a computer (server) connected to a network such as the Internet and downloaded to the computer (client) via the network.
10・・・ホスト端末
20・・・映像配信サーバ
30,30−1,30−2・・・ゲスト端末
40・・・注目度算出サーバ
100,200・・・通信I/F
101,201・・・受信部
102,202・・・送信部
110,210・・・プロセッサ
111,211・・・受信データ取得部
112・・・デコーダ
113・・・映像出力部
114・・・入力データ取得部
115・・・視聴行動データ生成部
116・・・視聴行動報告部
120,220・・・メモリ
121・・・映像データ記憶部
122,221・・・視聴行動データ記憶部
123・・・入力データ記憶部
130・・・出力装置
140・・・入力装置
212・・・注目対象特定部
213・・・注目度算出部
214・・・注目度報告部
222・・・注目度記憶部
223・・・注目対象データ記憶部
301,302・・・ブース
301−1,301−2,301−3,302−1・・・展示物
401,402・・・GUI部品
501・・・ホストの位置
502・・・ゲストの視野範囲
10 ... Host terminal 20 ... Video distribution server 30, 30-1, 30-2 ... Guest terminal 40 ... Attention calculation server 100, 200 ... Communication I / F
101, 201 ... Reception unit 102, 202 ... Transmission unit 110, 210 ... Processor 111,211 ... Received data acquisition unit 112 ... Decoder 113 ... Video output unit 114 ... Input Data acquisition unit 115 ... Viewing behavior data generation unit 116 ... Viewing behavior reporting unit 120, 220 ... Memory 121 ... Video data storage unit 122, 221 ... Viewing behavior data storage unit 123 ... Input data storage unit 130 ・ ・ ・ Output device 140 ・ ・ ・ Input device 212 ・ ・ ・ Attention target identification unit 213 ・ ・ ・ Attention degree calculation unit 214 ・ ・ ・ Attention degree reporting unit 222 ・ ・ ・ Attention degree storage unit 223 ・・ ・ Data storage unit 301, 302 ・ ・ ・ Booth 301-1, 301-2, 301-3, 302-1 ・ ・ ・ Exhibit 401, 402 ・ ・ ・ GUI parts 501 ・ ・ ・ Host position 502・ ・ ・ Guest viewing range
Claims (10)
前記視聴行動データに基づいて、前記展示会における複数の展示対象のうち前記ゲストの注目した対象を特定する特定部と、
前記ゲストの注目した対象として特定された展示対象の注目度が相対的に増加するように前記複数の展示対象の注目度を算出する算出部と
を具備する、注目度算出装置。 An acquisition unit that acquires the guest's viewing behavior data based on the input acquired at the guest's terminal that shares the video data of the exhibition taken by the host.
Based on the viewing behavior data, a specific unit that identifies the object of interest of the guest among the plurality of exhibition objects at the exhibition, and
An attention level calculation device including a calculation unit for calculating the attention level of the plurality of exhibition objects so that the attention level of the exhibition object specified as the attention target of the guest is relatively increased.
前記視聴行動データは、前記映像データの第1の再生時刻における前記ゲストの視野方向を示す視野方向データと、前記第1の再生時刻を示す再生時刻データとを含み、
前記特定部は、前記映像データから前記再生時刻データおよび前記視野方向データに基づいて前記第1の再生時刻における前記ゲストの視野画像を抽出し、前記視野画像の被写体から前記第1の再生時刻に前記ゲストが注目した対象を特定する、
請求項1に記載の注目度算出装置。 The video data represents a panoramic video.
The viewing behavior data includes visual field direction data indicating the visual field direction of the guest at the first reproduction time of the video data, and reproduction time data indicating the first reproduction time.
The specific unit extracts the visual field image of the guest at the first reproduction time based on the reproduction time data and the visual field direction data from the video data, and sets the subject of the visual field image to the first reproduction time. Identify the target that the guest paid attention to,
The attention degree calculation device according to claim 1.
前記視聴行動データは、前記ゲストの端末が前記映像データをキャプチャした時に対応する前記映像データの第1の再生時刻を示す再生時刻データと、前記第1の再生時刻における前記ゲストの視野方向を示す視野方向データとを含み、
前記特定部は、前記映像データから前記再生時刻データおよび前記視野方向データに基づいて前記第1の再生時刻における前記ゲストの視野画像を抽出し、前記視野画像の被写体から前記第1の再生時刻に前記ゲストが注目した対象を特定する、
請求項1に記載の注目度算出装置。 The video data represents a panoramic video.
The viewing behavior data indicates the reproduction time data indicating the first reproduction time of the video data corresponding to the time when the guest terminal captures the image data, and the viewing direction of the guest at the first reproduction time. Including visual field data
The specific unit extracts the visual field image of the guest at the first reproduction time based on the reproduction time data and the visual field direction data from the video data, and sets the subject of the visual field image to the first reproduction time. Identify the target that the guest paid attention to,
The attention degree calculation device according to claim 1.
前記特定部は、前記キャプチャ画像の被写体から前記第1の再生時刻に前記ゲストが注目した対象を特定する、
請求項1に記載の注目度算出装置。 The viewing behavior data is a reproduction time data indicating a captured image of the video data generated by the guest terminal in response to the capture operation and a first reproduction time of the video data corresponding to the capture operation when the capture operation is performed. Including and
The specific unit identifies an object that the guest has paid attention to at the first reproduction time from the subject of the captured image.
The attention degree calculation device according to claim 1.
前記特定部は、前記映像データから少なくとも前記再生時刻データに基づいて前記第1の再生時刻における前記ゲストの視野画像を抽出し、前記視野画像の被写体から前記GUI選択データに基づいて前記第1の再生時刻において前記ゲストの注目した対象を特定する、
請求項1に記載の注目度算出装置。 The viewing behavior data is a first GUI component selected by the guest among GUI (Graphical User Interface) components displayed superimposed on the image represented by the video data at the first reproduction time of the video data. The GUI selection data shown and the playback time data indicating the first playback time are included.
The specific unit extracts the visual field image of the guest at the first reproduction time from the video data based on at least the reproduction time data, and the first one based on the GUI selection data from the subject of the visual field image. Identify the target of interest of the guest at the playback time,
The attention degree calculation device according to claim 1.
前記視聴行動データは、前記映像データの第1の再生時刻における前記ゲストの視野方向を示す視野方向データと、前記第1の再生時刻を示す再生時刻データとを含み、
前記特定部は、前記第1の再生時刻における前記ホストの位置と前記映像データの基準アングルとを示す基準位置姿勢データおよび前記視野方向データに基づいて前記第1の再生時刻における前記ゲストの視野範囲を決定し、決定した前記視野範囲と前記複数の展示対象の各々を当該展示対象の位置に関連付けるマップデータとに基づいて前記第1の再生時刻において前記ゲストの注目した対象を特定する、
請求項1に記載の注目度算出装置。 The video data represents a panoramic video.
The viewing behavior data includes visual field direction data indicating the visual field direction of the guest at the first reproduction time of the video data and reproduction time data indicating the first reproduction time.
The specific unit has a visual field range of the guest at the first reproduction time based on the reference position / orientation data indicating the position of the host at the first reproduction time and the reference angle of the video data and the visual field direction data. Is determined, and the object of interest of the guest at the first reproduction time is specified based on the determined visual field range and the map data that associates each of the plurality of exhibition objects with the position of the exhibition object.
The attention degree calculation device according to claim 1.
前記視聴行動データは、前記ゲストの端末が前記映像データをキャプチャした時に対応する前記映像データの第1の再生時刻を示す再生時刻データと、前記第1の再生時刻における前記ゲストの視野方向を示す視野方向データとを含み、
前記特定部は、前記第1の再生時刻における前記ホストの位置と前記映像データの基準アングルとを示す基準位置姿勢データおよび前記視野方向データに基づいて前記第1の再生時刻における前記ゲストの視野範囲を決定し、決定した前記視野範囲と前記複数の展示対象の各々を当該展示対象の位置に関連付けるマップデータとに基づいて前記第1の再生時刻において前記ゲストの注目した対象を特定する、
請求項1に記載の注目度算出装置。 The video data represents a panoramic video.
The viewing behavior data indicates playback time data indicating a first playback time of the video data corresponding to when the guest terminal captures the video data, and the viewing direction of the guest at the first playback time. Including visual field data
The specific unit has a visual field range of the guest at the first reproduction time based on the reference position / orientation data indicating the position of the host at the first reproduction time and the reference angle of the video data and the visual field direction data. Is determined, and the object of interest of the guest at the first reproduction time is specified based on the determined visual field range and the map data that associates each of the plurality of exhibition objects with the position of the exhibition object.
The attention degree calculation device according to claim 1.
コンピュータが、前記視聴行動データに基づいて、前記展示会における複数の展示対象のうち前記ゲストの注目した対象を特定することと、
コンピュータが、前記ゲストの注目した対象として特定された展示対象の注目度が相対的に増加するように前記複数の展示対象の注目度を算出することと
を具備する、注目度算出方法。 The computer acquires the viewing behavior data of the guest based on the input acquired at the terminal of the guest sharing the video data of the exhibition taken by the host.
Based on the viewing behavior data, the computer identifies the object of interest of the guest among the plurality of exhibition objects at the exhibition.
A method of calculating attention, which comprises calculating the attention of the plurality of exhibition objects so that the computer relatively increases the attention of the exhibition objects specified as the objects of interest of the guest.
ホストが展示会を撮影した映像データを共有するゲストの端末において取得された入力に基づく前記ゲストの視聴行動データを取得する手段、
前記視聴行動データに基づいて、前記展示会における複数の展示対象のうち前記ゲストの注目した対象を特定する手段、
前記ゲストの注目した対象として特定された展示対象の注目度が相対的に増加するように前記複数の展示対象の注目度を算出する手段
として機能させる、注目度算出プログラム。 Computer,
A means for acquiring the guest's viewing behavior data based on the input acquired at the guest's terminal that shares the video data of the exhibition taken by the host.
A means for identifying an object of interest of the guest among a plurality of exhibition objects at the exhibition based on the viewing behavior data.
An attention level calculation program that functions as a means for calculating the attention levels of a plurality of exhibition objects so that the attention levels of the exhibition objects specified as the attention objects of the guests are relatively increased.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019049036A JP7202935B2 (en) | 2019-03-15 | 2019-03-15 | Attention level calculation device, attention level calculation method, and attention level calculation program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019049036A JP7202935B2 (en) | 2019-03-15 | 2019-03-15 | Attention level calculation device, attention level calculation method, and attention level calculation program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020150519A true JP2020150519A (en) | 2020-09-17 |
JP7202935B2 JP7202935B2 (en) | 2023-01-12 |
Family
ID=72429990
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019049036A Active JP7202935B2 (en) | 2019-03-15 | 2019-03-15 | Attention level calculation device, attention level calculation method, and attention level calculation program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7202935B2 (en) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113506132A (en) * | 2021-07-06 | 2021-10-15 | 树蛙信息科技(南京)有限公司 | Method and device for determining offline attention degree |
CN114173206A (en) * | 2021-12-10 | 2022-03-11 | 陕西师范大学 | Low-complexity viewpoint prediction method fusing user interest and behavior characteristics |
CN114511229A (en) * | 2022-02-14 | 2022-05-17 | 河南汇银丰投资管理有限公司 | Exhibition information watching system and method in virtual reality environment |
CN116704012A (en) * | 2023-06-13 | 2023-09-05 | 北京万物镜像数据服务有限公司 | Method, device and equipment for determining spatial heat of target element |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001325346A (en) * | 2000-05-16 | 2001-11-22 | Kogeisha Co Ltd | Web exhibition and computer for holding it |
JP2009294735A (en) * | 2008-06-03 | 2009-12-17 | Nobunori Sano | Interest survey device |
JP2016167699A (en) * | 2015-03-09 | 2016-09-15 | 日本電信電話株式会社 | Video distribution method, video distribution device and video distribution program |
JP2017091210A (en) * | 2015-11-10 | 2017-05-25 | 富士通株式会社 | Sight line retention degree calculation system, sight line retention degree calculation method, and sight line retention degree calculation program |
-
2019
- 2019-03-15 JP JP2019049036A patent/JP7202935B2/en active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001325346A (en) * | 2000-05-16 | 2001-11-22 | Kogeisha Co Ltd | Web exhibition and computer for holding it |
JP2009294735A (en) * | 2008-06-03 | 2009-12-17 | Nobunori Sano | Interest survey device |
JP2016167699A (en) * | 2015-03-09 | 2016-09-15 | 日本電信電話株式会社 | Video distribution method, video distribution device and video distribution program |
JP2017091210A (en) * | 2015-11-10 | 2017-05-25 | 富士通株式会社 | Sight line retention degree calculation system, sight line retention degree calculation method, and sight line retention degree calculation program |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113506132A (en) * | 2021-07-06 | 2021-10-15 | 树蛙信息科技(南京)有限公司 | Method and device for determining offline attention degree |
CN114173206A (en) * | 2021-12-10 | 2022-03-11 | 陕西师范大学 | Low-complexity viewpoint prediction method fusing user interest and behavior characteristics |
CN114173206B (en) * | 2021-12-10 | 2023-06-06 | 陕西师范大学 | Low-complexity viewpoint prediction method integrating user interests and behavior characteristics |
CN114511229A (en) * | 2022-02-14 | 2022-05-17 | 河南汇银丰投资管理有限公司 | Exhibition information watching system and method in virtual reality environment |
CN116704012A (en) * | 2023-06-13 | 2023-09-05 | 北京万物镜像数据服务有限公司 | Method, device and equipment for determining spatial heat of target element |
CN116704012B (en) * | 2023-06-13 | 2023-12-22 | 北京万物镜像数据服务有限公司 | Method, device and equipment for determining spatial heat of target element |
Also Published As
Publication number | Publication date |
---|---|
JP7202935B2 (en) | 2023-01-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112423855B (en) | Scaled VR participation and viewing in electronic competition | |
US10691202B2 (en) | Virtual reality system including social graph | |
JP7202935B2 (en) | Attention level calculation device, attention level calculation method, and attention level calculation program | |
US20200134911A1 (en) | Methods and Systems for Performing 3D Simulation Based on a 2D Video Image | |
US20180364803A1 (en) | Methods and Systems for Integrating Virtual Content into an Immersive Virtual Reality World Based on Real-World Scenery | |
CN107633441A (en) | Commodity in track identification video image and the method and apparatus for showing merchandise news | |
CN109416931A (en) | Device and method for eye tracking | |
US10701426B1 (en) | Virtual reality system including social graph | |
WO2016014233A1 (en) | Real-time immersive mediated reality experiences | |
JPWO2016009865A1 (en) | Information processing apparatus and method, display control apparatus and method, playback apparatus and method, program, and information processing system | |
CN112581627A (en) | System and apparatus for user-controlled virtual camera for volumetric video | |
JP7200935B2 (en) | Image processing device and method, file generation device and method, and program | |
CN101563698A (en) | Personalizing a video | |
WO2018135334A1 (en) | Information processing device and information processing method, and computer program | |
CN117425870A (en) | Dynamic mixed reality content in virtual reality | |
US20240256711A1 (en) | User Scene With Privacy Preserving Component Replacements | |
KR102432158B1 (en) | System for providing sports event supporting platform service | |
US20230139723A1 (en) | Head tracking for video communications in a virtual environment | |
JP6609078B1 (en) | Content distribution system, content distribution method, and content distribution program | |
JP6559375B1 (en) | Content distribution system, content distribution method, and content distribution program | |
CN107683604A (en) | Generating means | |
JP7210340B2 (en) | Attention Level Utilization Apparatus, Attention Level Utilization Method, and Attention Level Utilization Program | |
JP7344084B2 (en) | Content distribution system, content distribution method, and content distribution program | |
JP7522265B2 (en) | Information processing device and information processing method | |
Caporusso et al. | Analysis of the Relationship Between Content and Interaction in the Usability Design of 360 o Videos |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210628 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20220131 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220523 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220607 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220802 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20221206 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20221226 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7202935 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |