JP6718169B2 - Information presentation system, information presentation device and program - Google Patents

Information presentation system, information presentation device and program Download PDF

Info

Publication number
JP6718169B2
JP6718169B2 JP2016135020A JP2016135020A JP6718169B2 JP 6718169 B2 JP6718169 B2 JP 6718169B2 JP 2016135020 A JP2016135020 A JP 2016135020A JP 2016135020 A JP2016135020 A JP 2016135020A JP 6718169 B2 JP6718169 B2 JP 6718169B2
Authority
JP
Japan
Prior art keywords
avatar
user
information
information presentation
display area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016135020A
Other languages
Japanese (ja)
Other versions
JP2017021799A (en
Inventor
祐一 坂内
祐一 坂内
友祐 若月
友祐 若月
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ikutoku Gakuen School Corp
Original Assignee
Ikutoku Gakuen School Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ikutoku Gakuen School Corp filed Critical Ikutoku Gakuen School Corp
Publication of JP2017021799A publication Critical patent/JP2017021799A/en
Application granted granted Critical
Publication of JP6718169B2 publication Critical patent/JP6718169B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Description

本発明は、情報提示システムに関し、より詳細には、アバタを用いた情報提示システムに関する。 The present invention relates to an information presentation system, and more particularly, to an information presentation system using an avatar.

近年、インターネットを介して配信される動画を視聴するユーザからコメントを受付け、そのコメントを動画にオーバーレイ表示するサービスが提供されている(例えば、特許文献1)。 In recent years, there has been provided a service in which a comment is received from a user who views a video distributed via the Internet, and the comment is overlaid on the video (for example, Patent Document 1).

このサービスでは、ユーザが動画の再生中に入力したコメントをそのコメント付与時間(動画の再生開始時を起点とした相対時間)とともに蓄積しておき、動画の再生時に、その動画を過去に視聴したユーザのコメントをそのコメント付与時間に従って順次表示することによって、他のユーザとあたかも一緒にその動画を視聴しているかのような一体感を演出する。 In this service, the comment input by the user during the playback of the video is stored together with the commenting time (relative time from the start of the playback of the video), and when the video was played, the video was viewed in the past. By sequentially displaying the comments of the user according to the comment giving time, it is possible to create a sense of unity with other users as if they were watching the video together.

一方、人間のコミュニケーションの65%を非言語行動が担っているにも関わらず、インターネット上のコミュニケーションのほとんどが文字情報に依存している現状に着目し、非特許文献1は、Kinect(登録商標)を用いて動画を視聴するユーザの骨格情報を取得し、その骨格情報に基づいて生成した棒状のアバタを動画にオーバーレイ表示するシステムを開示する。 On the other hand, the non-patent document 1 describes Kinect (registered trademark), focusing on the current situation that most of the communication on the Internet depends on character information, although 65% of human communication is performed by non-verbal behavior. ) Is used to acquire skeleton information of a user who views a moving image, and a system for overlay-displaying a rod-shaped avatar generated based on the skeleton information on the moving image is disclosed.

しかしながら、非特許文献1は、システムの利用者アンケートで、他のユーザとの一体感を感じられなかったという回答が多かったことを報告しており、その理由として、自分のアバタと他者のアバタが識別困難であったことや、自分のアバタと他者のアバタのインタラクションが表現できていなかったことなどを挙げている。 However, Non-Patent Document 1 reports that in a system user questionnaire, many respondents did not feel a sense of unity with other users. The reason for this is that their avatar and others He cited that the avatar was difficult to identify, and that he could not express the interaction between his avatar and the avatars of others.

特開2008−148071号公報JP 2008-148071 A

吉田有花,宮下芳明、身体動作の重畳表示による動画上での一体感共有、情報処理学会インタラクション2012論文集、p527−523、2012年Yuka Yoshida, Yoshiaki Miyashita, Sharing a sense of unity on moving images by superimposing body movements, IPSJ Interaction 2012, p527-523, 2012

本発明は、上記従来技術における課題に鑑みてなされたものであり、時を異にして配信動画を視聴した他のユーザとの一体感を演出することができる新規な情報提示システムを提供することを目的とする。 The present invention has been made in view of the above-described problems in the conventional technology, and provides a novel information presentation system capable of producing a sense of unity with other users who watch a distributed video at different times. With the goal.

本発明者は、時を異にして配信動画を視聴した他のユーザとの一体感を演出することができる新規な情報提示システムにつき鋭意検討した結果、以下の構成に想到し、本発明に至ったのである。 The present inventor has earnestly studied a new information presentation system capable of producing a sense of unity with other users who watched a distribution video at different times, and as a result, came up with the following configuration, and arrived at the present invention. It was.

すなわち、本発明によれば、複数の情報提示装置と情報配信サーバとがネットワークを介して接続される情報提示システムであって、前記情報提示装置は、ネットワークを介して配信される配信動画を第1の表示領域に表示する配信動画表示部と、前記第1の表示領域に表示される配信動画を視聴するユーザの身体動作に係る身体動作情報を取得する身体動作情報取得部と、前記身体動作情報に基づいて前記ユーザの身体動作を表現する第1のアバタを生成するアバタ生成部と、前記第1のアバタを第2の表示領域に表示するアバタ表示部と、を含み、前記情報配信サーバは、過去にユーザが配信動画を視聴したときの身体動作に係る身体動作情報を含むアバタ情報を保存するデータベースと、配信動画を表示する前記情報提示装置からの要求に応じて、過去に該配信動画を視聴した他のユーザの前記アバタ情報を送信するアバタ情報配信部と、を含み、前記アバタ生成部は、前記情報配信サーバから受信した前記アバタ情報に含まれる前記身体動作情報に基づいて、前記他のユーザの身体動作を再現する第2のアバタを生成し、前記アバタ表示部は、前記第1のアバタと前記第2のアバタを前記第2の表示領域に一緒に表示する、情報提示システムが提供される。 That is, according to the present invention, there is provided an information presentation system in which a plurality of information presentation devices and an information distribution server are connected via a network, wherein the information presentation device first distributes a distribution moving image distributed via the network. No. 1 display area, a distribution motion image display section, a physical motion information acquisition section for acquiring physical motion information relating to a physical motion of a user who views the distribution video displayed in the first display area, and the physical motion. The information distribution server includes: an avatar generation unit that generates a first avatar that expresses the physical action of the user based on information; and an avatar display unit that displays the first avatar in a second display area. Is a database that stores avatar information including physical movement information related to physical movements when a user views a distribution video in the past, and the distribution in the past in response to a request from the information presentation device that displays the distribution video. An avatar information distribution unit that transmits the avatar information of another user who viewed the video, and the avatar generation unit is based on the physical motion information included in the avatar information received from the information distribution server, A second avatar that reproduces the physical action of the other user is generated, and the avatar display unit displays the first avatar and the second avatar together in the second display area. A system is provided.

上述したように、本発明によれば、時を異にして配信動画を視聴した他のユーザとの一体感を演出することができる新規な情報提示システムが提供される。 As described above, according to the present invention, there is provided a novel information presentation system capable of producing a sense of unity with other users who watched a distribution video at different times.

第1実施形態の情報提示システムのネットワーク構成を示す図。The figure which shows the network structure of the information presentation system of 1st Embodiment. 第1実施形態における配信動画の視聴環境を示す図。The figure which shows the viewing-and-listening environment of the delivery video in 1st Embodiment. 第1実施形態における動画視聴画面を示す図。The figure which shows the moving image viewing screen in 1st Embodiment. 第1実施形態の情報提示システムを構成する各装置の機能構成を示す機能ブロック図。The functional block diagram which shows the function structure of each apparatus which comprises the information presentation system of 1st Embodiment. 第1実施形態における条件設定画面を示す図。The figure which shows the condition setting screen in 1st Embodiment. 第1実施形態の情報提示システムが実行する処理を示すフローチャート。The flowchart which shows the process which the information presentation system of 1st Embodiment performs. 第1実施形態における動画検索画面を示す図。The figure which shows the moving image search screen in 1st Embodiment. 第1実施形態のデータ構造を示す図。The figure which shows the data structure of 1st Embodiment. アバタの生成方法を説明するための概念図。The conceptual diagram for demonstrating the generation method of an avatar. 第1実施形態における骨格座標変換処理を示すフローチャート。The flowchart which shows the skeleton coordinate conversion process in 1st Embodiment. 第1実施形態における分割表示モード時のアバタ表示領域を示す図。The figure which shows the avatar display area in the split display mode in 1st Embodiment. 第1実施形態における骨格座標変換処理を示すフローチャート。The flowchart which shows the skeleton coordinate conversion process in 1st Embodiment. 第1実施形態における骨格座標変換処理を説明するための概念図。The conceptual diagram for demonstrating the skeleton coordinate conversion process in 1st Embodiment. 第1実施形態における一括表示割モード時のアバタ表示領域を示す図。The figure which shows the avatar display area|region in the batch display division mode in 1st Embodiment. 第1実施形態におけるアバタ情報生成処理を示すフローチャート。The flowchart which shows the avatar information generation process in 1st Embodiment. 第1実施形態におけるコメント情報生成処理を示すフローチャート。The flowchart which shows the comment information generation process in 1st Embodiment. 第1実施形態における音声再生モード時およびコメント表示モード時の動画視聴画面を示す図。The figure which shows the moving image viewing screen in the audio|voice reproduction mode and comment display mode in 1st Embodiment. 第2実施形態におけるアバタ表現のバリエーションを示す図。The figure which shows the variation of the avatar expression in 2nd Embodiment. 第2実施形態の情報提示システムを構成する各装置の機能構成を示す機能ブロック図。The functional block diagram which shows the functional structure of each apparatus which comprises the information presentation system of 2nd Embodiment. 各種テーブルを示す図。The figure which shows various tables. 第2実施形態のアバタ情報のデータ構造を示す図。The figure which shows the data structure of the avatar information of 2nd Embodiment. 第2実施形態の通知画面等を示す図。The figure which shows the notification screen etc. of 2nd Embodiment. 第2実施形態の動画検索画面等を示す図。The figure which shows the moving image search screen etc. of 2nd Embodiment. 第2実施形態の情報提示システムが実行する処理を示すフローチャート。The flowchart which shows the process which the information presentation system of 2nd Embodiment performs. 第2実施形態における動画視聴画面を示す図。The figure which shows the moving image viewing screen in 2nd Embodiment. 第2本実施形態におけるインタラクティブ情報生成処理を示すフローチャート。The flowchart which shows the interactive information generation process in 2nd this embodiment. 第2実施形態の情報提示システムが実行する処理を示すフローチャート。The flowchart which shows the process which the information presentation system of 2nd Embodiment performs. 第2実施形態における動画視聴画面を示す図。The figure which shows the moving image viewing screen in 2nd Embodiment. 第2実施形態における投票受付処理等を示すフローチャート。The flowchart which shows the vote acceptance process etc. in 2nd Embodiment. 第2実施形態におけるメッセージ通知画面を示す図。The figure which shows the message notification screen in 2nd Embodiment. 第2実施形態におけるメッセージ通知画面生成処理を示すフローチャート。The flowchart which shows the message notification screen generation process in 2nd Embodiment. 第3実施形態における条件設定画面を示す図。The figure which shows the condition setting screen in 3rd Embodiment. 第3実施形態における動画視聴画面を示す図。The figure which shows the moving image viewing screen in 3rd Embodiment. 第3実施形態における動画視聴画面を示す図。The figure which shows the moving image viewing screen in 3rd Embodiment. 第3実施形態における動画視聴画面を示す図。The figure which shows the moving image viewing screen in 3rd Embodiment.

以下、本発明を図面に示した実施の形態をもって説明するが、本発明は、図面に示した実施の形態に限定されるものではない。なお、以下に参照する各図においては、共通する要素について同じ符号を用い、適宜、その説明を省略するものとする。 The present invention will be described below with reference to the embodiments shown in the drawings, but the present invention is not limited to the embodiments shown in the drawings. In each drawing referred to below, common elements are denoted by the same reference numerals, and description thereof will be appropriately omitted.

(第1実施形態)
図1は、本発明の第1実施形態である情報提示システム100のネットワーク構成を示す。図1に示すように、本実施形態の情報提示システム100は、複数の情報提示装置10と、動画配信サーバ30と、アバタ情報配信サーバ20とを含んで構成されている。
(First embodiment)
FIG. 1 shows a network configuration of an information presentation system 100 according to the first embodiment of the present invention. As shown in FIG. 1, the information presentation system 100 of the present embodiment includes a plurality of information presentation devices 10, a moving image distribution server 30, and an avatar information distribution server 20.

情報提示装置10は、配信動画の視聴に使用されるパーソナル・コンピュータとして参照することができ、インターネットとして参照されるネットワーク50を介して動画配信サーバ30およびアバタ情報配信サーバ20のそれぞれと通信可能に接続されている。なお、以下では、情報提示装置10をPC10という。 The information presenting apparatus 10 can be referred to as a personal computer used for viewing distribution videos, and can communicate with each of the video distribution server 30 and the avatar information distribution server 20 via a network 50 referred to as the Internet. It is connected. In the following, the information presentation device 10 will be referred to as a PC 10.

動画配信サーバ30は、PC10からの要求に応じてデータベースから動画ファイル(以下、単に、動画という)を読み出して配信する。 The moving image distribution server 30 reads a moving image file (hereinafter, simply referred to as moving image) from the database and delivers it in response to a request from the PC 10.

一方、アバタ情報配信サーバ20は、PC10からの要求に応じてデータベースからアバタ情報を読み出して配信する。なお、アバタ情報の詳細については後述する。 On the other hand, the avatar information distribution server 20 reads out and distributes the avatar information from the database in response to the request from the PC 10. The details of the avatar information will be described later.

続いて、本実施形態における配信動画の視聴環境を図2に基づいて説明する。図2に示すように、配信動画の視聴に使用されるPC10には、表示装置12と、モーションキャプチャ装置14と、マイク16と、スピーカー18が接続されている。ここで、モーションキャプチャ装置14は、配信動画を視聴するユーザ40の身体動作を3次元計測するための手段であり、適切な位置に固定される。 Next, the viewing environment of the distributed moving image in this embodiment will be described based on FIG. As shown in FIG. 2, a display device 12, a motion capture device 14, a microphone 16, and a speaker 18 are connected to the PC 10 used for viewing the distributed moving image. Here, the motion capture device 14 is a means for three-dimensionally measuring the physical movement of the user 40 who views the distribution video, and is fixed at an appropriate position.

本実施形態では、ユーザ40が表示装置12に表示された配信動画を視聴しながらその内容に合わせて思い思いのアクション(身体動作/発話や発声)を起こすことを前提としており、モーションキャプチャ装置14は、配信動画を視聴するユーザ40の身体動作をトラッキングし、マイク16は、その間のユーザ40の発話や発声を収録する。 In the present embodiment, it is premised that the user 40 takes a desired action (physical action/speech or utterance) in accordance with the content while viewing the distribution video displayed on the display device 12, and the motion capture device 14 Tracks the physical movement of the user 40 who views the distributed video, and the microphone 16 records the utterance and utterance of the user 40 during that time.

本実施形態に好適なモーションキャプチャ装置14としては、マイクロソフト社のKinect(登録商標、以下同様。)を挙げることができる。なお、Kinectはマイクを内蔵しているので、モーションキャプチャ装置14としてKinectを使用する場合はマイク16を省略することができる。 Kinect (registered trademark, the same applies below) from Microsoft Corporation can be cited as a motion capture device 14 suitable for this embodiment. Since Kinect has a built-in microphone, when using Kinect as the motion capture device 14, the microphone 16 can be omitted.

ここで、本実施形態のPC10は、配信動画とアバタを同時に視聴するための動画視聴画面を生成して表示装置12に表示する。 Here, the PC 10 of the present embodiment generates a moving image viewing screen for simultaneously viewing the distributed moving image and the avatar, and displays the moving image viewing screen on the display device 12.

図3は、表示装置12に表示される動画視聴画面60を例示的に示す。図3に示すように、動画視聴画面60は、配信動画を表示するための配信動画表示領域62と、アバタを表示するためのアバタ表示領域64を備えている。動画視聴画面60において、配信動画表示領域62およびアバタ表示領域64のそれぞれがステージおよび観客席を想起させるように、配信動画表示領域62の下方に配置されるアバタ表示領域64が配置されている。 FIG. 3 exemplarily shows a moving image viewing screen 60 displayed on the display device 12. As shown in FIG. 3, the video viewing screen 60 includes a distribution video display area 62 for displaying a distribution video and an avatar display area 64 for displaying an avatar. On the moving image viewing screen 60, an avatar display region 64 arranged below the distributed moving image display region 62 is arranged so that each of the distributed moving image display region 62 and the avatar display region 64 reminds of the stage and the audience seats.

本実施形態においては、ステージに見立てた配信動画表示領域62に配信動画を表示するときに、これを視聴するユーザのアバタ(以下、ユーザアバタという)を観客席に見立てたアバタ表示領域64に表示する。このとき、配信動画表示領域62に表示される動画を過去に視聴した他のユーザのアバタ(以下、他者アバタという)をユーザアバタと一緒にアバタ表示領域64に表示することによって、配信動画を視聴するユーザは、あたかも他のユーザと一緒に同じステージを見ているかのような一体感や臨場感を演出する。 In the present embodiment, when the distribution moving image is displayed in the distribution moving image display area 62 like a stage, the avatar of the user who views the distribution moving image (hereinafter referred to as user avatar) is displayed in the avatar display area 64 like a spectator seat. To do. At this time, by displaying the avatars of other users who have watched the video displayed in the distribution video display area 62 in the past (hereinafter referred to as “other avatars”) in the avatar display area 64 together with the user avatars, the distribution video is displayed. The viewing user creates a sense of unity and presence as if he or she were watching the same stage with other users.

続いて、本実施形態の情報提示システム100を構成する各装置の機能構成を図4に示す機能ブロック図に基づいて説明する。 Next, the functional configuration of each device that constitutes the information presentation system 100 of the present embodiment will be described based on the functional block diagram shown in FIG.

図4に示すように、本実施形態のPC10は、配信動画取得部102、アバタ情報取得部103、配信動画表示部104、アバタ表示部105、身体動作情報取得部106、アバタ生成部107、身体特徴情報取得部108、身体活性度算出部109、音声データ取得部110、音声出力部112、コメント取得部114、重なり判定部116、アバタ表示位置変更部117、アバタ情報生成部118を含んで構成される。なお、上述した各機能手段は、PC10に専用アプリケーションをインストールすることによって実現される。 As shown in FIG. 4, the PC 10 of this embodiment includes a distribution moving image acquisition unit 102, an avatar information acquisition unit 103, a distribution moving image display unit 104, an avatar display unit 105, a physical motion information acquisition unit 106, an avatar generation unit 107, and a body. A configuration including a characteristic information acquisition unit 108, a physical activity calculation unit 109, a voice data acquisition unit 110, a voice output unit 112, a comment acquisition unit 114, an overlap determination unit 116, an avatar display position change unit 117, and an avatar information generation unit 118. To be done. The above-described functional units are realized by installing a dedicated application on the PC 10.

配信動画取得部102は、動画配信サーバ30から動画を取得するための機能手段であり、ユーザが選択した動画を動画配信サーバ30からダウンロードする。 The distribution moving image acquisition unit 102 is a functional unit for acquiring a moving image from the moving image distribution server 30, and downloads the moving image selected by the user from the moving image distribution server 30.

アバタ情報取得部103は、他のユーザのアバタ情報をアバタ情報配信サーバ20から取得するための機能手段であり、ユーザが動画配信サーバ30から配信される動画を視聴する際に、当該動画を過去に視聴した他のユーザのアバタ情報をアバタ情報配信サーバ20から取得する。 The avatar information acquisition unit 103 is a functional means for acquiring the avatar information of another user from the avatar information distribution server 20, and when the user views the video distributed from the video distribution server 30, the avatar information is pasted. The avatar information of another user who has viewed the above is acquired from the avatar information distribution server 20.

配信動画表示部104は、動画配信サーバ30から取得した動画を配信動画表示領域62(図3参照)に表示するための機能手段であり、例えば、動画配信サーバ30から配信される動画を配信動画表示領域62においてストリーミング再生する。 The distribution moving image display unit 104 is a functional unit for displaying a moving image acquired from the moving image distribution server 30 in the distribution moving image display area 62 (see FIG. 3). For example, a moving image distributed from the moving image distribution server 30 is a distributed moving image. Streaming reproduction is performed in the display area 62.

アバタ表示部105は、表示装置12に表示する動画を視聴するユーザのユーザアバタと当該動画を過去に視聴した他のユーザの他者アバタをアバタ表示領域64(図3参照)に一緒に表示するための機能手段である。ここで、本実施形態においては、アバタ表示領域64にアバタを表示する表示モードとして、「分割表示モード」と「一括表示モード」が用意されており、図5に示す条件設定画面70を介してユーザがいずれかのモードを選択できるようになっている。 The avatar display unit 105 displays the user avatar of the user who views the video displayed on the display device 12 and the avatar of another user who has viewed the video in the past together in the avatar display area 64 (see FIG. 3 ). It is a functional means for. Here, in the present embodiment, the “divided display mode” and the “collective display mode” are prepared as the display modes for displaying the avatars in the avatar display area 64, and via the condition setting screen 70 shown in FIG. The user can select either mode.

身体動作情報取得部106は、アバタ表示領域64に表示される動画を視聴するユーザの身体動作に係る身体動作情報を取得するための機能手段である。ここでいう身体動作情報とは、モーションキャプチャ装置14がトラッキングしたユーザの身体動作を表すデータであり、本実施形態においては、ユーザの身体の関節の位置座標(以下、骨格座標という)の時系列データを身体動作情報とする。 The physical motion information acquisition unit 106 is a functional unit that acquires physical motion information related to the physical motion of the user who views the moving image displayed in the avatar display area 64. The physical motion information here is data representing the physical motion of the user tracked by the motion capture device 14, and in the present embodiment, the time series of the position coordinates (hereinafter, referred to as skeleton coordinates) of the joints of the user's body. Data is used as physical movement information.

アバタ生成部107は、身体動作情報取得部106が取得した身体動作情報に基づいてユーザの身体動作を表現するユーザアバタを生成するとともに、アバタ情報配信サーバ20から取得したアバタ情報に基づいて、他のユーザの身体動作を再現する他者アバタを生成するための機能手段である。なお、アバタ生成部107は、アバタの描画色の割り当ても行う。 The avatar generation unit 107 generates a user avatar expressing the physical motion of the user based on the physical motion information acquired by the physical motion information acquisition unit 106, and based on the avatar information acquired from the avatar information distribution server 20, Is a functional means for generating another person's avatar that reproduces the body movement of the user. The avatar generation unit 107 also assigns the drawing color of the avatar.

身体特徴情報取得部108は、配信動画表示領域62に表示される動画を視聴するユーザの属性情報として、当該ユーザの身体特徴に係る身体特徴情報を取得するための機能手段である。 The physical characteristic information acquisition unit 108 is a functional unit for acquiring physical characteristic information relating to the physical characteristic of the user as attribute information of the user who views the moving image displayed in the distribution moving image display area 62.

身体活性度算出部109は、配信動画表示領域62に表示される動画を視聴するユーザの属性情報として、当該ユーザの身体動作情報に基づいて身体の活性度を算出するための機能手段である。 The physical activity calculation unit 109 is a functional unit that calculates the physical activity based on the physical motion information of the user as attribute information of the user who views the video displayed in the distribution video display area 62.

音声データ取得部110は、配信動画表示領域62に表示される動画を視聴するユーザの属性情報として、当該ユーザが発した音声の音声データを取得するための機能手段である。 The voice data acquisition unit 110 is a functional unit for acquiring voice data of voice uttered by the user as attribute information of the user who views the video displayed in the distribution video display area 62.

音声出力部112は、アバタ情報配信サーバ20から受信したアバタ情報に基づいて、配信動画表示領域62に表示する動画に同期させて他のユーザの音声を出力するための機能手段である。 The voice output unit 112 is a functional unit for outputting the voice of another user in synchronization with the moving image displayed in the distribution moving image display area 62 based on the avatar information received from the avatar information distribution server 20.

コメント取得部114は、配信動画表示領域62に表示される動画を視聴するユーザの属性情報として、当該ユーザが発した音声の音声データから抽出した発話をテキスト化したコメントを取得するための機能手段である。 The comment acquisition unit 114 is a functional unit for acquiring, as attribute information of the user who views the video displayed in the distribution video display area 62, a comment in which the utterance extracted from the voice data of the voice uttered by the user is converted into a text. Is.

重なり判定部116は、ユーザがアバタの表示モードとして「一括表示モード」を選択した場合に、アバタ表示領域64におけるユーザアバタの表示位置と他者アバタの表示位置が重なるか否かを判定するための機能手段である。 The overlap determination unit 116 determines whether the display position of the user avatar and the display position of the other avatar in the avatar display area 64 overlap when the user selects the “collective display mode” as the avatar display mode. Is a functional means of.

アバタ表示位置変更部117は、ユーザアバタの表示位置と他者アバタの表示位置が重ならないようにアバタの表示位置を変更するための機能手段である。 The avatar display position changing unit 117 is a functional means for changing the display position of the avatar so that the display position of the user avatar and the display position of the other avatar do not overlap.

アバタ情報生成部118は、アバタ情報を生成してアバタ情報配信サーバ20に送信するための機能手段である。ここで、送信するアバタ情報には、配信動画表示領域62に表示される動画を視聴するユーザの身体動作情報と、当該ユーザの属性情報と、これらの情報を取得した情報取得日時が含まれる。 The avatar information generation unit 118 is a functional means for generating avatar information and transmitting it to the avatar information distribution server 20. Here, the avatar information to be transmitted includes the physical movement information of the user who views the video displayed in the distribution video display area 62, the attribute information of the user, and the information acquisition date and time when these pieces of information were acquired.

一方、図4に示すように、本実施形態のアバタ情報配信サーバ20は、アバタ情報配信部22、アバタ情報管理部24、データベース26を含んで構成される。 On the other hand, as shown in FIG. 4, the avatar information distribution server 20 of the present embodiment includes an avatar information distribution unit 22, an avatar information management unit 24, and a database 26.

データベース26には、ユーザが動画を視聴したときの身体動作情報を含むアバタ情報が当該動画に紐付けて保存するための機能手段である。 The database 26 is a functional means for storing the avatar information including the physical movement information when the user views the moving image in association with the moving image.

アバタ情報配信部22は、動画を配信したPC10からの要求に応答して、データベース26から当該動画を過去に視聴したユーザの他者アバタに係るアバタ情報を読み出し、PC10に送信するための機能手段である。 In response to a request from the PC 10 that has distributed the moving image, the avatar information distribution unit 22 reads from the database 26 avatar information relating to another avatar of the user who has viewed the moving image in the past, and transmits the avatar information to the PC 10. Is.

アバタ情報管理部24は、PC10から受信したアバタ情報をデータベース26に保存するための機能手段である。 The avatar information management unit 24 is a functional means for storing the avatar information received from the PC 10 in the database 26.

以上、本実施形態の情報提示システム100を構成する各装置の機能構成について説明してきたが、次に、上述した各機能手段が実行する処理の内容を図6に示すフローチャートに基づいて説明する。 The functional configurations of the respective devices configuring the information presentation system 100 according to the present embodiment have been described above. Next, the content of the processing executed by each of the functional means described above will be described based on the flowchart shown in FIG. 6.

ユーザがPC10にインストールされた専用アプリケーションを起動すると、図7(a)に示すように、表示装置12の表示画面に動画検索画面が表示される。これを受けて、ユーザが動画検索画面に表示されるテキストボックスにキーワードを入力して検索を実行すると、図7(b)に示す検索結果画面が表示画面に表示される。これを受けて、ユーザが検索結果画面に表示された動画のサムネイル画像付きリストの中から任意の動画を選択すると、以下の処理が開始する。 When the user activates the dedicated application installed on the PC 10, a moving image search screen is displayed on the display screen of the display device 12, as shown in FIG. In response to this, when the user inputs a keyword into the text box displayed on the video search screen and executes the search, the search result screen shown in FIG. 7B is displayed on the display screen. In response to this, when the user selects an arbitrary moving image from the list with moving image thumbnail images displayed on the search result screen, the following process is started.

まず、ステップ101で、配信動画取得部102がユーザが選択した動画を動画配信サーバ30から読み込む。続くステップ102では、アバタ情報取得部103が読み込んだ動画に係る動画IDを指定したアバタ情報取得要求をアバタ情報配信サーバ20に送信する。これを受けて、アバタ情報配信サーバ20のアバタ情報配信部22は、PC10から受信したアバタ情報取得要求が指定する動画IDに紐付いた1以上のアバタ情報をデータベース26から読み出して、PC10に送信する。 First, in step 101, the distribution video acquisition unit 102 reads the video selected by the user from the video distribution server 30. In the following step 102, an avatar information acquisition request specifying the video ID of the video read by the avatar information acquisition unit 103 is transmitted to the avatar information distribution server 20. In response to this, the avatar information distribution unit 22 of the avatar information distribution server 20 reads from the database 26 one or more pieces of avatar information associated with the moving image ID specified by the avatar information acquisition request received from the PC 10, and transmits the avatar information to the PC 10. ..

図8(a)は、データベース26に保存されるアバタ情報のデータ構造を模式的に示す。アバタ情報は、過去に動画を視聴したユーザのアバタに関する情報であり、図8(a)に示すように、動画IDに紐付けられた所定形式のファイル(例えば、CSVファイル)にまとめて記述される。ここで、各アバタ情報には、ユーザID、アバタアニメーションのフレーム番号を付与したユーザの骨格座標の時系列データ、アバタ情報の取得日時、身体活性度、ユーザの身長、ユーザの大きさ、音声データへのパス、コメント情報へのパスが記述される。 FIG. 8A schematically shows the data structure of the avatar information stored in the database 26. The avatar information is information about an avatar of a user who has watched a moving image in the past, and as shown in FIG. 8A, is collectively described in a file of a predetermined format (for example, a CSV file) associated with the moving image ID. It Here, each avatar information includes a user ID, time-series data of skeleton coordinates of the user to which a frame number of the avatar animation is added, acquisition date and time of avatar information, physical activity, height of the user, size of the user, voice data. The path to the comment information and the path to the comment information are described.

図8(b)は、データベース26に保存されるコメント情報のデータ構造を模式的に示す。コメント情報は、過去に配信動画を視聴したユーザが当該動画に対して付与したコメントに関する情報であり、図8(b)に示すように、動画IDに紐付けられた所定形式のファイル(例えば、CSVファイル)にまとめて記述される。ここで、各コメント情報には、ユーザID、コメント付与時間、コメントの内容が記述される。なお、ここでいうコメント付与時間とは、動画の再生開始時を起点とした相対時間を意味する。 FIG. 8B schematically shows the data structure of the comment information stored in the database 26. The comment information is information regarding a comment added to the moving image by a user who viewed the distributed moving image in the past, and as shown in FIG. 8B, a file in a predetermined format associated with the moving image ID (for example, CSV file). Here, in each comment information, the user ID, the comment giving time, and the content of the comment are described. It should be noted that the comment addition time here means a relative time from the start of the reproduction of the moving image.

また、データベース26に保存される音声データは、過去に配信動画を視聴したユーザが当該動画を視聴中に収録された音声データである。 The audio data stored in the database 26 is audio data recorded while a user who has watched a distributed moving image in the past is watching the moving image.

アバタ情報配信サーバ20は、アバタ情報取得要求が指定する動画IDに紐付いたアバタ情報に記述されたパスに基づいてコメント情報および音声データを読み出し、それらをまとめてアバタ情報としてPC10に送信し、アバタ情報取得部103がこれを取得する。 The avatar information distribution server 20 reads the comment information and the voice data based on the path described in the avatar information associated with the moving image ID specified by the avatar information acquisition request, collectively transmits them to the PC 10 as avatar information, and The information acquisition unit 103 acquires this.

再び図6に戻って説明を続ける。 Returning to FIG. 6 again, the explanation will be continued.

続くステップ103では、モーションキャプチャ装置14による身体動作のトラッキングとマイク16による音声収録を開始すると同時に、続くステップ104で、配信動画表示部104がステップ101で読み込んだ動画を配信動画表示領域62(図3参照)に表示して再生を開始する。 In the following step 103, tracking of body movements by the motion capture device 14 and voice recording by the microphone 16 are started, and at the same time, in the following step 104, the moving image read by the distribution moving image display unit 104 in step 101 is displayed in the distribution moving image display area 62 (Fig. 3) and start playback.

その後、アバタのアニメーションのフレーム間隔(例えば、0.1[sec])に同期して以下に述べるステップ105〜110が繰り返し実行される。 Then, steps 105 to 110 described below are repeatedly executed in synchronization with the frame interval (for example, 0.1 [sec]) of the avatar animation.

まず、ステップ105では、身体動作情報取得部106がモーションキャプチャ装置14のトラッキングデータを解析してユーザの身体の関節の座標を骨格座標として取得し、取得した骨格座標(3次元座標)を2次元座標に変換する。そして、身体動作情報取得部106は、変換後の骨格座標(2次元座標)にフレーム番号[1]を付与して一時記憶に記憶する。 First, in step 105, the body motion information acquisition unit 106 analyzes the tracking data of the motion capture device 14 and acquires the coordinates of the joints of the user's body as the skeleton coordinates, and the acquired skeleton coordinates (three-dimensional coordinates) are two-dimensional. Convert to coordinates. Then, the body motion information acquisition unit 106 adds the frame number [1] to the converted skeleton coordinates (two-dimensional coordinates) and stores it in the temporary storage.

本実施形態では、ステップ105で、図9(a)に示すように、頭および背骨と四肢に存在する14箇所の関節の座標を骨格座標として取得しているが、他の実施形態では、ユーザの身体の関節のうち、任意の関節の座標を骨格座標として取得することができる。なお、骨格座標(3次元座標)を出力する機能を搭載したマイクロソフト社のKinectをモーションキャプチャ装置14として使用する場合は、身体動作情報取得部106は、Kinectが出力する骨格座標(3次元座標)を受け取って、それを2次元座標に変換する。 In the present embodiment, in step 105, as shown in FIG. 9A, the coordinates of 14 joints present in the head, spine, and limbs are acquired as skeletal coordinates. The coordinates of any joint among the joints of the body can be acquired as the skeleton coordinates. When using Kinect of Microsoft Corp. equipped with a function of outputting skeleton coordinates (three-dimensional coordinates) as the motion capture device 14, the body motion information acquisition unit 106 causes the skeleton coordinates (three-dimensional coordinates) output by Kinect. And convert it to two-dimensional coordinates.

続くステップ106では、アバタ生成部107が先のステップ102で取得した他者アバタのアバタ情報からフレーム番号[1]が付与された骨格座標(2次元座標)を読み出す。 In the following step 106, the avatar generation unit 107 reads the skeleton coordinates (two-dimensional coordinates) to which the frame number [1] is added from the avatar information of the other avatars acquired in the previous step 102.

続くステップ107では、アバタ生成部107が先のステップ105で取得した骨格座標(2次元座標)に基づいてユーザアバタを生成し、先のステップ106で取得した骨格座標(2次元座標)に基づいて1以上の他者アバタを生成する。図8(c)は、ステップ107で生成されるアバタのクラスのデータ構造を模式的に示す。図8(c)に示すように、アバタクラスには、フレームカウンタと、アバタの骨格座標(2次元座標)と、オフセット値(後述する)が記述される。なお、この段階でオフセット値は初期値0とされる。本実施形態では、図9(b)に示すように、頭の座標を中心とする円を描画し、背骨の座標を中心とする楕円を描画し、四肢の座標を結んだ線分を描画することで人型アバタを生成するが、他の実施形態では、他の適切な規則に従ってアバタを生成することができる。 In the following step 107, the avatar generation unit 107 generates a user avatar based on the skeleton coordinates (two-dimensional coordinates) acquired in the previous step 105, and based on the skeleton coordinates (two-dimensional coordinates) acquired in the previous step 106. Generate one or more other party avatars. FIG. 8C schematically shows the data structure of the avatar class generated in step 107. As shown in FIG. 8C, the avatar class describes a frame counter, skeleton coordinates (two-dimensional coordinates) of the avatar, and offset values (described later). At this stage, the offset value is set to the initial value 0. In this embodiment, as shown in FIG. 9B, a circle centering on the coordinates of the head is drawn, an ellipse centering on the coordinates of the spine is drawn, and a line segment connecting the coordinates of the extremities is drawn. While this produces a humanoid avatar, other embodiments may produce avatars according to other suitable rules.

ステップ107でアバタを生成した後、続くステップ108で、アバタ表示位置変更部117が骨格座標変換処理を実行し、続くステップ109で、アバタ生成部107が色割り当て処理を実行する。このとき、ステップ108およびステップ109では、ユーザが選択した表示モードに応じて異なる処理が実行される。 After generating the avatar in step 107, in the following step 108, the avatar display position changing unit 117 executes the skeleton coordinate conversion process, and in the following step 109, the avatar generating unit 107 executes the color allocation process. At this time, in step 108 and step 109, different processing is executed depending on the display mode selected by the user.

ここでは、まず、ユーザが「分割表示モード」を選択した場合にアバタ表示位置変更部117が実行する骨格座標変換処理を図10(a)に示すフローチャートに基づいて説明する。 Here, first, the skeleton coordinate conversion processing executed by the avatar display position changing unit 117 when the user selects the “divided display mode” will be described based on the flowchart shown in FIG.

まず、ステップ201で、先のステップ107で生成したアバタ(ユーザアバタと他者アバタ)の総数でアバタ表示領域64を分割する。続くステップ202では、分割してなる複数の領域の中で最も中央に位置する領域をユーザアバタの表示領域として設定し、ステップ203で、残りの領域を他者アバタの表示領域として設定する。 First, in step 201, the avatar display area 64 is divided by the total number of avatars (user avatar and other avatars) generated in step 107. In the following step 202, the most central area among the plurality of divided areas is set as the display area of the user avatar, and the remaining area is set as the display area of the other avatar in step 203.

続くステップ204では、ステップ203で設定した表示領域内に各アバタが収まるように、各アバタの骨格座標を変換して、処理を終了する。具体的には、設定した表示領域内に収まるように各アバタの大きさを縮小し、且つ、設定した表示領域内にアバタが移動するように縮小後の各アバタの骨格座標をシフトする。 In the following step 204, the skeleton coordinates of each avatar are converted so that each avatar fits within the display area set in step 203, and the process ends. Specifically, the size of each avatar is reduced so that it fits within the set display area, and the skeleton coordinates of each avatar after reduction are shifted so that the avatar moves within the set display area.

次に、ユーザが「分割表示モード」を選択した場合にアバタ生成部107が実行する色割り当て処理を図10(b)に示すフローチャートに基づいて説明する。 Next, the color allocation process executed by the avatar generation unit 107 when the user selects the “divided display mode” will be described based on the flowchart shown in FIG.

まず、ステップ301で、ユーザアバタの描画色に任意の色を割り当てる。次に、ステップ302で、他者アバタの描画色にユーザアバタの描画色と識別可能な色を割り当てて、処理を終了する。なお、ステップ302では、識別可能な色の組を予め用意しておき、それぞれの色を各アバタの描画色に割り当てるようにしてもよいし、ユーザが選択した描画色をユーザアバタに割り当てるとともに、当該描画色と識別可能な色を自動的に他者アバタに割り当てるようにしてもよい。 First, in step 301, an arbitrary color is assigned to the drawing color of the user avatar. Next, in step 302, a color that can be distinguished from the drawing color of the user avatar is assigned to the drawing color of the other avatar, and the process ends. In step 302, a set of distinguishable colors may be prepared in advance, and each color may be assigned to the drawing color of each avatar. Alternatively, the drawing color selected by the user may be assigned to the user avatar. A color that can be distinguished from the drawing color may be automatically assigned to another avatar.

図11(a)〜(c)は、「分割表示モード」時のアバタ表示領域64を例示する。図11に示す例では、ユーザアバタが白いアバタとして描画され、他者アバタが黒いアバタとして描画されている。このように、「分割表示モード」においては、ユーザアバタが他者アバタとは異なる色で中央に配置されるので、ユーザは自身のアバタを見失うことがない。 11A to 11C exemplify the avatar display area 64 in the "divided display mode". In the example shown in FIG. 11, the user avatar is drawn as a white avatar, and the other avatar is drawn as a black avatar. In this way, in the “divided display mode”, the user avatar is arranged in the center in a color different from that of the other avatars, so that the user does not lose sight of his or her own avatar.

続いて、ユーザが「一括表示モード」を選択した場合にアバタ表示位置変更部117が実行する骨格座標変換処理を図12(a)に示すフローチャートに基づいて説明する。 Next, the skeleton coordinate conversion processing executed by the avatar display position changing unit 117 when the user selects the “collective display mode” will be described based on the flowchart shown in FIG.

まず、ステップ401で、図9(b)に示すように、先のステップ105で取得したユーザの両手首に係る骨格座標(2次元座標)を中心とする2つの矩形領域と、背骨に係る骨格座標を中心とする1つの矩形領域を判定領域C1に設定する一方で、他者アバタの背骨に係る骨格座標を中心とする1つの矩形領域のみを判定領域C2に設定する。 First, in step 401, as shown in FIG. 9B, two rectangular regions centering on the skeletal coordinates (two-dimensional coordinates) of the user's wrists acquired in the previous step 105 and the skeleton of the spine. One rectangular area centered on the coordinates is set as the judgment area C1, while only one rectangular area centered on the skeletal coordinates of the spine of the other avatar is set as the judgment area C2.

続くステップ402では、ユーザアバタの判定領域C1と他者アバタの判定領域C2が重複しているか否かを判断する。ここでは、アバタクラス(図8(c)参照)の骨格座標にオフセット値を加えた値に基づいて画定した判定領域C1および判定領域C2について、両者の重複を判断する。その結果、判定領域C1と判定領域C2が重複していないと判断された場合は(S402、No)、そのまま処理を終了し、各アバタのアバタクラスのオフセット値を変更しない。例えば、図13(a)に示すように、ユーザアバタUの判定領域C1と他者アバタAの判定領域C2とが重なっていない場合、ユーザアバタUおよび他者アバタAのそれぞれのアバタクラスのオフセット値は変更されることなく、ユーザアバタUおよび他者アバタAの表示位置はそのまま維持される。 In the following step 402, it is determined whether or not the determination area C1 of the user avatar and the determination area C2 of the other avatar overlap. Here, with respect to the determination area C1 and the determination area C2 defined based on the value obtained by adding the offset value to the skeleton coordinates of the avatar class (see FIG. 8C), the overlapping of the both is determined. As a result, when it is determined that the determination area C1 and the determination area C2 do not overlap (No in S402), the processing is ended as it is, and the offset value of the avatar class of each avatar is not changed. For example, as shown in FIG. 13A, when the determination area C1 of the user avatar U and the determination area C2 of the other avatar A do not overlap, the offset of each avatar class of the user avatar U and the other avatar A. The values are not changed, and the display positions of the user avatar U and the other person's avatar A are maintained as they are.

一方、判定領域C1と判定領域C2が重複していると判断された場合は(S402、Yes)、処理はステップ403に進む。ステップ403では、重複した判定領域C2に係る他者アバタに係るアバタクラスのオフセット値を判定領域C1と判定領域C2が重複量だけ増減する。続くステップ404では、最新のオフセット値に基づいて重複した判定領域C2に係る他者アバタの骨格座標をシフトする。具体的には、重複した判定領域C2に係る他者アバタのアバタクラスに記述された骨格座標に対して最新のオフセット値を加算することで、当該他者アバタの骨格座標をシフトする。 On the other hand, if it is determined that the determination area C1 and the determination area C2 overlap (Yes in S402), the process proceeds to step 403. In step 403, the offset value of the avatar class related to the other avatar related to the overlapping determination area C2 is increased or decreased by the amount of overlap between the determination areas C1 and C2. In the following step 404, the skeleton coordinates of the other avatar related to the overlapping determination area C2 are shifted based on the latest offset value. Specifically, the latest offset value is added to the skeleton coordinates described in the avatar class of the other avatar related to the overlapping determination area C2 to shift the skeleton coordinates of the other avatar.

例えば、ユーザアバタUの判定領域C1と他者アバタAの判定領域C2とが図13(b)に示すような形で重複している場合、ステップ403で、他者アバタAのX軸方向のオフセット値を重複量αだけ減分し、ステップ404で、他者アバタAの骨格座標に重複量αだけ減分されたオフセット値を加算することで骨格座標をX軸方向負方向にシフトする。この場合、他者アバタAが紙面左方向にαだけ移動することになる。一方、ユーザアバタUの判定領域C1と他者アバタAの判定領域C2とが図13(c)に示すような形で重複している場合、ステップ403で、他者アバタAのX軸方向のオフセット値を重複量βだけ増分し、ステップ304で、他者アバタAの骨格座標に重複量βだけ増分されたオフセット値を加算することで骨格座標をX軸方向正方向にシフトする。この場合、他者アバタAが紙面右方向にβだけ移動することになる。 For example, when the determination area C1 of the user avatar U and the determination area C2 of the other person avatar A are overlapped as shown in FIG. 13B, in step 403, the other person avatar A in the X-axis direction is detected. The offset value is decremented by the overlap amount α, and in step 404, the skeleton coordinate is shifted in the negative direction of the X-axis direction by adding the offset value decremented by the overlap amount α to the skeleton coordinate of the other avatar A. In this case, the other person's avatar A moves by α in the leftward direction of the paper surface. On the other hand, when the determination area C1 of the user avatar U and the determination area C2 of the other person avatar A overlap in the form as shown in FIG. The offset value is incremented by the overlap amount β, and in step 304, the skeleton coordinate is shifted in the positive direction of the X-axis direction by adding the offset value incremented by the overlap amount β to the skeleton coordinate of the other avatar A. In this case, the other person's avatar A moves by β in the right direction on the paper surface.

次に、ユーザが「一括表示モード」を選択した場合にアバタ生成部107が実行する色割り当て処理を図12(b)に示すフローチャートに基づいて説明する。 Next, the color allocation process executed by the avatar generation unit 107 when the user selects the “collective display mode” will be described based on the flowchart shown in FIG.

まず、ステップ501で、ユーザアバタの描画色にHSV色空間における所定の色相角の色を割り当てる。なお、ステップ501では、予め設定された色をユーザアバタの描画色に割り当てるようにしてもよいし、ユーザに描画色を選択させるようにしてもよい。 First, in step 501, a color having a predetermined hue angle in the HSV color space is assigned to the drawing color of the user avatar. In step 501, a preset color may be assigned to the drawing color of the user avatar, or the user may be allowed to select the drawing color.

続くステップ502では、次の他者アバタに割り当てる色の色相角を算出する。具体的には、360を全アバタ数で除算した値を角度増分とし、先のステップ501でユーザアバタの描画色に割り当てた色の色相角に当該角度増分を加算する。続くステップ503では、算出した色相角の色を割り当てが済んでいない次の他者アバタの描画色に割り当てる。 In the following step 502, the hue angle of the color to be assigned to the next stranger avatar is calculated. Specifically, the value obtained by dividing 360 by the total number of avatars is set as the angle increment, and the angle increment is added to the hue angle of the color assigned to the drawing color of the user avatar in the previous step 501. In the following step 503, the color of the calculated hue angle is assigned to the drawing color of the other avatar that has not been assigned yet.

続くステップ504では、全ての他者アバタの色の割り当てが済んだか否かを判断し、済んでいない場合は(S504、No)、ステップ502に戻る。ステップ502では、ユーザアバタの描画色に割り当てた色の色相角に角度増分を加算し、ステップ503で、新たに算出された色相角の色を割り当てが済んでいない次の他者アバタの描画色に割り当てる。 In the following step 504, it is determined whether or not the colors of all the other avatars have been assigned. If not (S504, No), the process returns to step 502. In step 502, the angle increment is added to the hue angle of the color assigned to the drawing color of the user avatar, and in step 503, the drawing color of the other avatar to which the newly calculated hue angle has not been assigned yet. Assign to.

以降、全ての他者アバタの色の割り当てが済むまで、ステップ502〜504の処理を繰り返し、全ての他者アバタの色の割り当てが済むと(S504、Yes)、処理はステップ505に進む。続くステップ505では、他者アバタに設定した色に所定の透明度(例えば、70%)を設定して、処理を終了する。 After that, the processes in steps 502 to 504 are repeated until the colors of all the other avatars have been assigned. When the colors of all the other avatars have been assigned (S504, Yes), the process proceeds to step 505. In the following step 505, a predetermined transparency (for example, 70%) is set for the color set for the other avatar, and the process is ended.

再び図6に戻って説明を続ける。 Returning to FIG. 6 again, the explanation will be continued.

続くステップ110では、アバタ表示部105が、骨格座標変換処理(ステップ108)でシフトした骨格座標と色割り当て処理(ステップ109)で割り当てた描画色に基づいて生成されたユーザアバタおよび他者アバタの画像(1番目のフレーム画像)をアバタ表示領域64(図3参照)に描画する。以降、配信動画表示領域62に動画を再生している間、上述したステップ105〜110を繰り返し実行する。 In the following step 110, the avatar display unit 105 displays the user avatar and the other-person avatar generated based on the skeleton coordinates shifted in the skeleton coordinate conversion process (step 108) and the drawing color assigned in the color assignment process (step 109). The image (first frame image) is drawn in the avatar display area 64 (see FIG. 3). After that, while the moving image is being reproduced in the distribution moving image display area 62, steps 105 to 110 described above are repeatedly executed.

この間、ステップ105では、新たに取得したユーザの骨格座標に対して付与するフレーム番号を1ずつ増分し、ステップ106では、アバタ情報から読み出す他者アバタの骨格座標のフレーム番号を1ずつ増分する。なお、ステップ109の色割り当て処理は、2巡目以降の処理では、前回に割り当てた描画色を維持することでスキップすることができる。 In the meantime, in step 105, the frame number given to the newly acquired skeleton coordinate of the user is incremented by 1, and in step 106, the frame number of the skeleton coordinate of another avatar read from the avatar information is incremented by 1. The color allocation process of step 109 can be skipped in the second and subsequent processes by maintaining the drawing color allocated the previous time.

図14は、「一括表示割モード」時に、アバタ表示領域64に表示されるアバタのアニメーションを例示的に示す。図14(a)に示す例では、アバタ表示領域64に、配信動画表示領域62に表示される動画を視聴しているユーザのユーザアバタUと当該動画を過去に視聴した4名のユーザの他者アバタAが一緒に表示されている。このとき、動画を視聴するユーザが左右の空間を押しのけるようなジェスチャーをとると、これに応答して、図14(b)に示すように、他者アバタAの表示位置が変わる。 FIG. 14 exemplarily shows an animation of an avatar displayed in the avatar display area 64 in the “collective display split mode”. In the example shown in FIG. 14A, in the avatar display area 64, other than the user avatar U of the user who is viewing the video displayed in the distribution video display area 62 and the four users who have viewed the video in the past. Person Avatar A is also displayed. At this time, when the user who views the moving image makes a gesture to push away the left and right spaces, in response to this, the display position of the alien avatar A is changed as shown in FIG. 14B.

このように、「一括表示割モード」においては、ユーザアバタUが他者アバタAとは異なる色で中央に配置されるので、ユーザは自身のアバタを見失うことがない。また、近づくユーザアバタUに反応して他者アバタAがリアルタイムに離れる様子は、現実世界での自己と他人が距離を保つような感覚を想起させ、ユーザは、アバタ表現を介して他のユーザとの一体感を感じることができる。なお、「一括表示割モード」では、他者アバタAのそれぞれに別々の色が割り当てられ、且つ、各色に透過処理が施されるので、複数の他者アバタAの表示位置が重なった場合でも、各他者アバタAを見分けることが可能になる。 In this way, in the "collective display split mode", the user avatar U is arranged in the center in a color different from that of the other avatar A, and therefore the user does not lose sight of his or her own avatar. In addition, the appearance that the other person's avatar A leaves in real time in response to the approaching user avatar U reminds us of the feeling that the self and the other person keep a distance in the real world, and the user uses the avatar expression to express the other user's avatar A. You can feel a sense of unity with. In the "collective display split mode", different colors are assigned to the different avatars A, and the transparent processing is performed on the respective colors, so that even when the display positions of a plurality of different avatars A overlap. , It becomes possible to distinguish each other's avatar A.

なお、上述した実施形態では、両手首に係る骨格座標を中心とする矩形領域や背骨に係る骨格座標を中心とする矩形領域を判定領域として設定する態様を示したが、これはあくまで例示であって、判定領域の位置や数および形状について種々の設計変更が可能であることはいうまでもない。例えば、両足首に係る骨格座標に係る判定領域を設定してもよいし、全ての骨格座標に係る判定領域を設定してもよい。全ての骨格座標に判定領域を設定した場合、ユーザが押しのけるジェスチャーなど能動的にアクションを起こさなくても、周りの他者アバタがユーザアバタから自然に距離を取るように振る舞うであろう。 In addition, in the above-described embodiment, a mode in which a rectangular area centering on the skeletal coordinates of both wrists or a rectangular area centering on the skeletal coordinates of the spine is set as the determination area is shown, but this is merely an example. It goes without saying that various design changes can be made to the position, number and shape of the determination areas. For example, the determination areas related to the skeleton coordinates of both ankles may be set, or the determination areas related to all the skeleton coordinates may be set. When the determination regions are set to all the skeleton coordinates, other avatars around the user will behave naturally so as to take a distance from the user avatar, even if the user does not actively take action such as a gesture of pushing away.

動画の再生が終了すると、ステップ111で、モーションキャプチャ装置14によるトラッキングとマイク16による音声収録を同時に終了し、続くステップ112で、音声データ取得部110が収録した音声の音声データのファイルを生成・取得する。その後、続くステップ113において、アバタ情報生成部118がアバタ情報生成処理を実行して、処理を終了する。以下、アバタ情報生成処理を図15に示すフローチャートに基づいて説明する。 When the reproduction of the moving image ends, in step 111, the tracking by the motion capture device 14 and the sound recording by the microphone 16 are simultaneously ended, and in the following step 112, the sound data file of the sound recorded by the sound data acquisition unit 110 is generated. get. After that, in the following step 113, the avatar information generation unit 118 executes the avatar information generation process, and the process ends. Hereinafter, the avatar information generation process will be described based on the flowchart shown in FIG.

まず、ステップ601で、先のステップ105で取得した全フレームに係るユーザの骨格座標(2次元座標)を読み出す。 First, in step 601, the skeleton coordinates (two-dimensional coordinates) of the user for all the frames acquired in the previous step 105 are read.

続く、ステップ602では、身体特徴情報取得部108が「ユーザの身長」および「ユーザの大きさ」を算出する。ここで、「ユーザの身長」および「ユーザの大きさ」は、それぞれ、ユーザの身長およびユーザの身体の大きさを表す適切な指標であればよい。例えば、身体特徴情報取得部108は、身体動作情報取得部106が取得したユーザの骨格座標(3次元座標)に含まれる、頭の座標と足首の関節の座標の間の距離を「ユーザの身長」として取得し、モーションキャプチャ装置14の撮影画像内のユーザが写った領域の画素数と深度に基づいて算出されたユーザの投影面積を「ユーザの大きさ」として取得する。 Subsequently, in step 602, the physical characteristic information acquisition unit 108 calculates “height of user” and “size of user”. Here, the “user height” and the “user size” may be appropriate indexes representing the height of the user and the size of the body of the user, respectively. For example, the body feature information acquisition unit 108 determines the distance between the coordinates of the head and the coordinates of the joint of the ankle included in the skeleton coordinates (three-dimensional coordinates) of the user acquired by the body motion information acquisition unit 106 as “the height of the user. , And the projected area of the user calculated based on the number of pixels and the depth of the region in which the user is captured in the captured image of the motion capture device 14 is acquired as “the size of the user”.

続くステップ603では、コメント取得部114がコメント情報生成処理を実行する。以下、ステップ603で実行されるコメント情報生成処理を図16(a)に示すフローチャートに基づいて説明する。 In the following step 603, the comment acquisition unit 114 executes the comment information generation process. The comment information generation process executed in step 603 will be described below with reference to the flowchart shown in FIG.

まず、ステップ701で、収録した音声データを読み込んだ後、続くステップ702で、音声認識処理により当該音声データからユーザの発話を抽出して、その内容をテキスト化する。最後に、ステップ703で、発話内容(テキスト)をコメント内容とし、当該発話の収録時間をコメント付与時間とするコメント情報を生成する。なお、ここでいう発話の収録時間は、動画の再生開始時を起点とした相対時間とする。 First, in step 701, the recorded voice data is read, and then in step 702, the speech of the user is extracted from the voice data by voice recognition processing, and the content thereof is converted into text. Finally, in step 703, comment information is generated with the utterance content (text) as the comment content and the utterance recording time as the comment addition time. The utterance recording time here is a relative time from the start of the reproduction of the moving image.

上述した手順でコメント情報を生成すると、処理はステップ604に進み、身体活性度算出部109が身体活性度算出処理を実行する。以下、ステップ604で実行される身体活性度算出処理を図16(b)に示すフローチャートに基づいて説明する。 When the comment information is generated by the procedure described above, the process proceeds to step 604, and the physical activity calculating section 109 executes the physical activity calculating process. The physical activity calculation process executed in step 604 will be described below with reference to the flowchart shown in FIG.

まず、ステップ801では、先のステップ601で読み出した全フレームに係るユーザの骨格座標(2次元座標)の中から両手の骨格座標を読み出す。続くステップ802では、左手の骨格座標の分散と左手の骨格座標の分散をそれぞれ求める。最後に、ステップ803では、ステップ802で求めた両手の骨格座標の分散の合計値をユーザの身体活性度とする。 First, in step 801, the skeleton coordinates of both hands are read from the skeleton coordinates (two-dimensional coordinates) of the user for all the frames read in the previous step 601. In the following step 802, the variances of the left hand skeleton coordinates and the variances of the left hand skeleton coordinates are obtained. Finally, in step 803, the total value of the variances of the skeleton coordinates of both hands obtained in step 802 is set as the physical activity of the user.

続くステップ605では、アバタ情報生成部118が、先のステップ601〜604で取得した「ユーザの骨格座標」、「ユーザの身長」、「ユーザの大きさ」、「身体活性度」、これらの情報の取得日時、再生した動画の動画ID、ユーザIDを記述したアバタ情報ファイルを生成し、生成したアバタ情報ファイルと、ステップ603で生成した「コメント情報」と音声データ取得部110が取得した「音声データ」とを併せて、アバタ情報配信サーバ20に送信して、処理を終了する。 In the following step 605, the avatar information generation unit 118 acquires the “user's skeleton coordinates”, “user's height”, “user's size”, “physical activity”, and these information acquired in the previous steps 601-604. The avatar information file that describes the acquisition date and time, the moving image ID of the reproduced moving image, and the user ID is generated, the generated avatar information file, the “comment information” generated in step 603, and the “voice information acquired by the voice data acquisition unit 110. The data is also transmitted to the avatar information distribution server 20, and the process ends.

一方、アバタ情報配信サーバ20のアバタ情報管理部24は、PC10から受信した「コメント情報」と「音声データ」を動画IDに紐付けてデータベース26に保存するとともに、その保存先のパスとPC10から受信したアバタ情報ファイルに含まれる情報を記述してなるアバタ情報(図8(a)参照)を生成して、データベース26に保存する。 On the other hand, the avatar information management unit 24 of the avatar information distribution server 20 stores the “comment information” and the “voice data” received from the PC 10 in the database 26 while associating the “comment information” and the “voice data” with the moving image ID and the storage destination path and the PC 10. Avatar information (see FIG. 8A) that describes information included in the received avatar information file is generated and stored in the database 26.

以上、本実施形態の情報提示システム100が実行する処理の内容を説明してきたが、続いて、上述した「コメント情報」と「音声データ」の利用した情報提示方法を説明する。 The content of the process executed by the information presentation system 100 according to the present embodiment has been described above. Next, the information presentation method using the above-described “comment information” and “voice data” will be described.

本実施形態においては、配信動画表示領域62に表示する動画を過去に視聴した他のユーザの音声を再生するモード(以下、音声再生モードという)が用意されており、条件設定画面70(図5参照)を介してユーザが当該モードを選択できるようになっている。ここで、ユーザが音声再生モードを設定した場合、音声出力部112は、アバタ情報配信サーバ20から受信したアバタ情報に含まれる音声データを配信動画表示領域62に表示する動画に同期させて音声出力する。 In this embodiment, a mode (hereinafter, referred to as a voice reproduction mode) for reproducing the voice of another user who has watched the video displayed in the distribution video display area 62 in the past is prepared, and the condition setting screen 70 (FIG. 5) is provided. The user can select the mode via the (see). Here, when the user sets the audio reproduction mode, the audio output unit 112 outputs the audio data included in the avatar information received from the avatar information distribution server 20 in synchronization with the video displayed in the distribution video display area 62. To do.

図17(a)は、「音声再生モード」時の動画視聴画面60を示す。図17(a)に示す例では、ステージに見立てた配信動画表示領域62にロックコンサートの動画が表示されており、観客席に見立てたアバタ表示領域64には、その中央にユーザアバタUが表示され、その周りに多数の他者アバタAが表示されている。「音声再生モード」では、配信動画表示領域62に表示されるロックコンサートの動画を過去に視聴した他のユーザの音声を同時出力することより、観客席のざわめきや観客席に響く歓声を演出することができる。また、ユーザアバタに隣接する他者アバタに係る音声データをそれ以外の他者アバタに係る音声データよりも大きい音量で音声出力することによって、あたかも隣の観客の話声が漏れ聞こえてきているような臨場感を演出することもできる。 FIG. 17A shows the moving image viewing screen 60 in the “sound reproduction mode”. In the example shown in FIG. 17A, a moving image of a rock concert is displayed in a distribution moving image display area 62 that is like a stage, and a user avatar U is displayed in the center of an avatar display area 64 that is like a spectator seat. Around it, many other avatars A are displayed. In the "voice reproduction mode", the sound of the other user who has watched the video of the rock concert displayed in the distribution video display area 62 at the same time is output at the same time, thereby producing the buzz of the spectator seats and the cheers resounding in the spectator seats. be able to. Also, by outputting the voice data related to the other avatar adjacent to the user avatar at a volume higher than that of the voice data related to the other avatars other than that, it seems that the voice of the audience next to the user is leaking. You can also create a realistic feeling.

さらに、本実施形態においては、配信動画表示領域62に表示する動画を過去に視聴した他のユーザのコメントを表示するモード(以下、コメント表示モードという)が用意されており、条件設定画面70(図5参照)を介してユーザが当該モードを設定できるようになっている。ここで、ユーザがコメント表示モードを設定した場合、アバタ表示部105は、アバタ情報配信サーバ20から受信したアバタ情報に含まれるコメント情報のコメント内容(テキスト)をコメント付与時間に従って表示する。 Further, in the present embodiment, a mode (hereinafter referred to as a comment display mode) for displaying a comment of another user who has viewed the video displayed in the distribution video display area 62 in the past is prepared, and the condition setting screen 70 ( The user can set the mode via (see FIG. 5). Here, when the user sets the comment display mode, the avatar display unit 105 displays the comment content (text) of the comment information included in the avatar information received from the avatar information distribution server 20 according to the comment giving time.

図17(b)は、「音声再生モード」と「コメント表示モード」の両方を設定した時の動画視聴画面60を示す。図17(b)に示す例では、配信動画表示領域62に表示されるロックコンサートの動画を過去に視聴した他のユーザの音声が同時出力されることに加えて、ユーザアバタUに隣接する他者アバタAに対応するコメントのみが表示されている。この場合、観客席のざわめきや観客席に響く歓声の中で、隣に位置する他者アバタA(他のユーザ)の発話の内容を理解することができる。 FIG. 17B shows the moving image viewing screen 60 when both the “voice reproduction mode” and the “comment display mode” are set. In the example shown in FIG. 17B, in addition to the sounds of other users who have previously viewed the video of the rock concert displayed in the distribution video display area 62 being output at the same time, in addition to the case of being adjacent to the user avatar U, Only the comment corresponding to the person avatar A is displayed. In this case, the content of the utterance of another avatar A (another user) located next to the other can be understood in the buzz of the spectator seats and the cheers resounding in the spectator seats.

最後に、アバタ表示領域64に表示させる他者アバタの選択方法について説明する。本実施形態においては、アバタ表示領域64に表示する他者アバタの上限数とその検索条件を図5に示す条件設定画面70を介して設定できるようになっている。図5に示す例では、他者アバタの検索条件として並び替え条件を設定できるように構成されており、プルダウンメニューから「新しい順」、「よく動く順」、「背の高い順」、「体の大きい順」が並び替え条件の項目として選択できるようになっている。 Finally, a method of selecting another avatar to be displayed in the avatar display area 64 will be described. In the present embodiment, the upper limit number of other avatars displayed in the avatar display area 64 and the search conditions thereof can be set through the condition setting screen 70 shown in FIG. In the example shown in FIG. 5, the sorting condition can be set as a search condition for other avatars. From the pull-down menu, “new order”, “moving order”, “tall order”, “body order” "Large order of" can be selected as an item of the sorting condition.

例えば、ユーザが条件設定画面70を介して、上限数「N」および項目「新しい順」を設定した場合、アバタ情報取得部103は、先のステップ102(図6参照)で設定された検索条件を含む要求をアバタ情報配信サーバ20に送信する。これを受けて、アバタ情報配信部22は、データベース26に保存された動画IDに紐付いた複数のアバタ情報の中から、「取得日時」の値が新しい上位N件のアバタ情報を読み出す。その後、アバタ情報配信部22は、読み出したアバタ情報に記述されたパスに基づいてコメント情報および音声データを読み出し、それらをまとめてアバタ情報としてPC10に送信する。 For example, when the user sets the upper limit number “N” and the item “newest first” via the condition setting screen 70, the avatar information acquisition unit 103 causes the avatar information acquisition unit 103 to set the search condition set in step 102 (see FIG. 6). Is transmitted to the avatar information distribution server 20. In response to this, the avatar information distribution unit 22 reads the top N avatar information with the new “acquisition date/time” value from the plurality of avatar information stored in the database 26 and associated with the moving image ID. After that, the avatar information distribution unit 22 reads the comment information and the voice data based on the path described in the read avatar information, and collectively sends them to the PC 10 as avatar information.

なお、アバタ情報配信部22は、ユーザが「よく動く順」を選択した場合は、データベース26から、「身体活性度」の値が大きい上位N件のアバタ情報を読み出し、ユーザが「背の高い順」を選択した場合は、データベース26から、「ユーザの身長」の値が大きい上位N件のアバタ情報を読み出し、ユーザが「体の大きい順」を選択した場合は、データベース26から、「ユーザの大きさ」の値が大きい上位N件のアバタ情報を読み出す。 When the user selects the "order of frequent movements", the avatar information distribution unit 22 reads the top N avatar information with the highest "physical activity" value from the database 26, and the user is "tall". If "order" is selected, the top N avatar information with a large "user height" value is read from the database 26, and if the user selects "large order", the database 26 displays "user". The top N avatar information having a large value of “size” are read.

以上、説明したように、本実施形態によれば、ユーザアバタが他者アバタとは異なる色でアバタ表示領域の中央に配置されるので、ユーザは自身のアバタを見失うことがない。また、ユーザアバタと他者アバタのインタラクティブ表現により時を異にして配信動画を視聴した他のユーザとの一体感を演出することができる。 As described above, according to the present embodiment, the user avatar is arranged in the center of the avatar display area in a color different from that of the other avatars, so that the user does not lose sight of his own avatar. In addition, it is possible to create a sense of unity with other users who watch the distribution video at different times by interactively expressing the user avatar and the avatar of another person.

以上、本発明の第1実施形態を説明してきたが、続いて、本発明の第2実施形態を説明する。なお、以下では、第1実施形態の内容と共通する部分の説明を省略し、専ら、第1実施形態との相違点のみを説明するものとする。 The first embodiment of the present invention has been described above, and then the second embodiment of the present invention will be described. It should be noted that in the following, description of the parts common to the contents of the first embodiment will be omitted, and only the differences from the first embodiment will be explained.

(第2実施形態)
第2実施形態は、主に、下記(1)〜(4)の点で、第1実施形態と異なる。
(Second embodiment)
The second embodiment mainly differs from the first embodiment in the following points (1) to (4).

(1)動画の「鑑賞モード」を選択できる点
第2実施形態では、“見ながら踊るモード”と“見るだけモード”という2つの「鑑賞モード」が用意される。ここで、“見ながら踊るモード”は、第1実施形態で説明したのと同様の動作モードであり、当該モードでは、ユーザの動きに連動するユーザアバタが動画視聴画面60に表示される。一方、“見るだけモード”は、ユーザが配信動画に連動する他者アバタの動きを鑑賞して楽しむモードであり、当該モードでは、ユーザの撮影や音声の収録は行わず、ユーザの動きに連動するユーザアバタは動画視聴画面60に表示されない。
(1) Point where "viewing mode" of moving image can be selected In the second embodiment, two "viewing modes", "dancing mode while watching" and "only watching mode" are prepared. Here, the "watching and dancing mode" is an operation mode similar to that described in the first embodiment, and in this mode, the user avatar that is linked to the movement of the user is displayed on the moving image viewing screen 60. On the other hand, the "simply watch mode" is a mode in which the user enjoys watching and enjoying the movements of other avatars linked to the distribution video. In this mode, the user's shooting and audio recording are not performed, but the movements of the user are linked. The user avatar that does this is not displayed on the video viewing screen 60.

(2)アバタ表現のバリエーションが用意されている点
第2実施形態では、図18(a)、(b)に示すように、ユーザの性別とユーザが選択した鑑賞モードを識別できるようなアバタ表現が用意される。この点につき、図18(a)は、“見ながら踊るモード”が選択された場合の、男性ユーザと女性ユーザのアバター表現を例示的に示す。また、図18(b)は、“見るだけモード”が選択された場合の、男性ユーザと女性ユーザのアバター表現を例示的に示す。加えて、本実施形態では、図18(c)に示すように、ユーザの身体特徴を識別できるようなアバタ表現が用意される。
(2) A variation of the avatar expression is prepared In the second embodiment, as shown in FIGS. 18A and 18B, the avatar expression that can identify the sex of the user and the viewing mode selected by the user. Is prepared. In this regard, FIG. 18A exemplarily shows avatar expressions of the male user and the female user when the “dancing while watching mode” is selected. In addition, FIG. 18B exemplarily shows the avatar expressions of the male user and the female user when the “only watch mode” is selected. In addition, in the present embodiment, as shown in FIG. 18C, an avatar expression that can identify the physical characteristics of the user is prepared.

(3)他のユーザに投票できる点
第2実施形態では、“見るだけモード”において、動画視聴画面60に表示される他者アバタがその身体動作を表現するところの他のユーザ(以下、他者アバタのユーザという)に対して投票することができる。
(3) Points that can vote for other users In the second embodiment, in the “seen-only mode”, other users (hereinafter, other users) where the other person avatar displayed on the video viewing screen 60 expresses their physical movement. Who are called avatar users).

(4)他者アバタのユーザにメッセージを送ることができる点
第2実施形態では、“見るだけモード”において、動画視聴画面60に表示される他者アバタのユーザに宛ててメッセージを送ることができる。
(4) Point where message can be sent to other avatar user In the second embodiment, a message can be sent to the other avatar user displayed on the moving image viewing screen 60 in the “seen-only mode”. it can.

以下では、専ら、上記(1)〜(4)に挙げた相違点について説明する。 Below, the differences mentioned in the above (1) to (4) will be explained exclusively.

ここでは、まず、図19に示す機能ブロック図に基づいて、第2実施形態の情報提示システム100を構成する各装置の機能構成について説明する。 Here, first, based on the functional block diagram shown in FIG. 19, the functional configuration of each device constituting the information presentation system 100 of the second embodiment will be described.

図19に示すように、第2実施形態のPC10は、図4に示した第1実施形態のPC10の構成に加えて、投票受付部120、メッセージ受付部122、インタラクティブ情報生成部123を備える。 As shown in FIG. 19, the PC 10 of the second embodiment includes a voting acceptance unit 120, a message acceptance unit 122, and an interactive information generation unit 123 in addition to the configuration of the PC 10 of the first embodiment shown in FIG.

投票受付部120は、アバタ表示領域64に表示される他者アバタを介して当該他者アバタのユーザに対する投票を受け付けるための機能手段である。 The vote accepting unit 120 is a functional unit for accepting a vote for the user of the other avatar via the other avatar displayed in the avatar display area 64.

メッセージ受付部122は、アバタ表示領域64に表示される他者アバタを介して当該他者アバタのユーザに宛てたメッセージを受け付けるための機能手段である。 The message accepting unit 122 is a functional means for accepting a message addressed to the user of the other avatar via the other avatar displayed in the avatar display area 64.

インタラクティブ情報生成部123は、ユーザが選択した他者アバタのユーザの識別情報、他者アバタのユーザに対する投票および他者アバタのユーザに宛てたメッセージのいずれかを含むインタラクティブ情報を生成して、アバタ情報配信サーバ20に送信するための機能手段である。 The interactive information generation unit 123 generates interactive information including any of the identification information of the user of the other avatar selected by the user, the vote for the user of the other avatar, and the message addressed to the user of the other avatar, and the avatar. It is a functional means for transmitting to the information distribution server 20.

一方、図19に示すように、第2実施形態のアバタ情報配信サーバ20は、図4に示した第1実施形態のアバタ情報配信サーバ20の構成に加えて、ユーザ認証部21、選択履歴管理部23、投票履歴管理部27、メッセージ履歴管理部28、通知画面生成部29を備える。 On the other hand, as shown in FIG. 19, in addition to the configuration of the avatar information distribution server 20 of the first embodiment shown in FIG. 4, the avatar information distribution server 20 of the second embodiment has a user authentication unit 21, a selection history management. The unit 23, the voting history management unit 27, the message history management unit 28, and the notification screen generation unit 29 are provided.

ユーザ認証部21は、アバタ情報配信サーバ20の利用者のユーザ認証を実行するための機能手段である。 The user authentication unit 21 is a functional unit for executing user authentication of the user of the avatar information distribution server 20.

選択履歴管理部23は、ユーザによる他者アバタの選択の履歴を管理するための機能手段である。 The selection history management unit 23 is a functional unit for managing the history of the selection of another avatar by the user.

投票履歴管理部27は、他者アバタのユーザに対する投票の履歴を管理するための機能手段である。 The voting history management unit 27 is a functional unit for managing the history of voting for the user of another avatar.

メッセージ履歴管理部28は、他者アバタのユーザに宛てたメッセージの履歴を管理するための機能手段である。 The message history management unit 28 is a functional unit for managing the history of messages addressed to users of other avatars.

通知画面生成部29は、ユーザを選択した他のユーザ、ユーザに投票した他のユーザおよびユーザにメッセージを送信した他のユーザのうちのいずれかを表示する通知画面を生成し、PC10に送信するための機能手段である。 The notification screen generation unit 29 generates a notification screen that displays one of the other user who has selected the user, the other user who has voted for the user, and the other user who has sent the message to the user, and sends the notification screen to the PC 10. It is a functional means for.

また、第2実施形態では、アバタ情報配信サーバ20のデータベース26が、図20(a)〜(d)に示す4つのテーブル(ユーザ情報管理テーブル500、アバタ選択履歴管理テーブル600、投票履歴管理テーブル700、メッセージ履歴管理テーブル800)を保持する。以下、各テーブルの内容を説明する。 In addition, in the second embodiment, the database 26 of the avatar information distribution server 20 has four tables (user information management table 500, avatar selection history management table 600, voting history management table) shown in FIGS. 700, message history management table 800). The contents of each table will be described below.

図20(a)に示すように、ユーザ情報管理テーブル500は、ユーザの「ユーザID」を格納するためのフィールド501と、ユーザの「パスワード」を格納するためのフィールド502と、ユーザの「ユーザ名」を格納するためのフィールド503と、ユーザの「性別」を格納するためのフィールド504とを含んでおり、ユーザ登録時に入力された上記情報(ユーザID、パスワード、ユーザ名、性別、…)を紐付けて管理する。なお、「ユーザ名」はユーザの本名に限らず、ニックネームであってもよい。 As shown in FIG. 20A, the user information management table 500 includes a field 501 for storing the user's “user ID”, a field 502 for storing the user's “password”, and a user's “user”. It includes a field 503 for storing “first name” and a field 504 for storing “gender” of the user, and the above information (user ID, password, user name, gender,...) Input at the time of user registration. And manage it. The “user name” is not limited to the real name of the user, and may be a nickname.

図20(b)に示すように、アバタ選択履歴管理テーブル600は、選択されたアバタが表すところのユーザ(以下、「選択先ユーザ」という)のユーザIDを格納するためのフィールド601と、当該アバタを選択した他のユーザ(以下、「選択元ユーザ」という)のユーザIDを格納するためのフィールド602と、選択元ユーザが選択先ユーザを選択した回数の累計(以下、「累積選択回数」という)を格納するためのフィールド603と、選択先ユーザを選択したときに選択元ユーザが選択していた「鑑賞モード」を格納するためのフィールド604と、選択元ユーザが選択先ユーザを選択した直近の日時(以下、「最終選択日時」という)を格納するためのフィールド605とを含む。 As shown in FIG. 20B, the avatar selection history management table 600 includes a field 601 for storing a user ID of a user represented by the selected avatar (hereinafter, referred to as “selected user”), A field 602 for storing the user IDs of other users who have selected an avatar (hereinafter referred to as “selection source user”), and the total number of times the selection source user has selected the selection destination user (hereinafter, “cumulative selection count”). A field 603 for storing a "viewing mode" selected by the selection source user when the selection destination user is selected, and a selection source user selects the selection destination user. A field 605 for storing the latest date and time (hereinafter referred to as “last selected date and time”).

図20(c)に示すように、投票履歴管理テーブル700は、投票されたユーザ(以下、「投票先ユーザ」という)のユーザIDを格納するためのフィールド701と、投票先ユーザに投票した他のユーザ(以下、「投票元ユーザ」という)のユーザIDを格納するためのフィールド702と、投票元ユーザが投票先ユーザに投票した日時(以下、「投票日時」という)を格納するためのフィールド703とを含む。 As shown in FIG. 20C, the voting history management table 700 includes a field 701 for storing a user ID of a voted user (hereinafter, referred to as a “voteee user”) and other votes for the voteee user. 702 for storing the user IDs of users (hereinafter referred to as "voting source users") and fields for storing the date and time when the voting source user voted for the voting destination user (hereinafter referred to as "voting date and time"). 703 and.

図20(d)に示すように、メッセージ履歴管理テーブル800は、メッセージを送信されたユーザ(以下、「送信先ユーザ」という)のユーザIDを格納するためのフィールド801と、送信先ユーザにメッセージを送信した他のユーザ(以下、「送信元ユーザ」という)のユーザIDを格納するためのフィールド802と、送信元ユーザが送信先ユーザにメッセージを送信した日時(以下、「送信日時」という)を格納するためのフィールド803と、送信元ユーザが送信したメッセージ(テキストデータ)を格納するためのフィールド804と、送信元ユーザがメッセージを送信したときの動画視聴画面60をキャプチャした動画(以下、「キャプチャ動画」という)を格納するためのフィールド805とを含む。 As shown in FIG. 20D, the message history management table 800 includes a field 801 for storing a user ID of a user who has sent a message (hereinafter, referred to as “destination user”) and a message to the destination user. A field 802 for storing the user ID of another user who has transmitted the message (hereinafter referred to as "source user"), and the date and time when the source user transmitted a message to the destination user (hereinafter referred to as "transmission date and time"). A field 803 for storing a message, a field 804 for storing a message (text data) transmitted by the transmission source user, and a video (hereinafter, referred to as a video capturing screen 60 of the video viewing screen 60 when the transmission source user transmits the message). Field 805 for storing a "captured video").

ここで、図21は、第2実施形態のアバタ情報配信サーバ20のデータベース26に保存されるアバタ情報のデータ構造を示す。図21に示すように、第2実施形態では、第1実施形態のアバタ情報に記述されていた属性(ユーザID、アバタ情報の取得日時、身体活性度、ユーザの身長、ユーザの大きさ、音声データへのパス、コメント情報へのパス、ユーザの骨格座標の時系列データ)に加えて、ユーザの「ユーザ名」、ユーザの「性別」、ユーザを投票先とする投票数の累計である「累計得票数」および「会話モード」という4つの属性がアバタ情報に追加される。なお、「会話モード」の詳細については後述する。 Here, FIG. 21 shows a data structure of avatar information stored in the database 26 of the avatar information distribution server 20 of the second embodiment. As shown in FIG. 21, in the second embodiment, the attributes described in the avatar information of the first embodiment (user ID, acquisition date and time of avatar information, physical activity, height of user, size of user, voice) Data path, comment information path, time-series data of the user's skeleton coordinates), as well as the user's "user name", the user's "sex", and the cumulative number of votes cast by the user. Four attributes "total number of votes" and "conversation mode" are added to the avatar information. The details of the "conversation mode" will be described later.

以上、第2実施形態の情報提示システム100を構成する各装置の機能構成について説明してきたが、続いて、第2実施形態の情報提示システム100が実行する処理の内容を順を追って説明する。 Although the functional configurations of the respective devices configuring the information presentation system 100 of the second embodiment have been described above, the contents of the processing executed by the information presentation system 100 of the second embodiment will be sequentially described.

本実施形態では、ユーザは、サービスの利用に際して、アバタ情報配信サーバ20が提供する所定のログイン画面を介してログインする。図22(a)は、アバタ情報配信サーバ20が提供するログイン画面を例示的に示す。ユーザがログイン画面に自身のユーザIDとパスワードを入力してログインボタンをクリックすると、PC10は、入力されたユーザIDとパスワードを含む認証要求をアバタ情報配信サーバ20に送信する。これを受けて、アバタ情報配信サーバ20のユーザ認証部21は、PC10から受信した認証要求に含まれるユーザIDおよびパスワードを、それぞれ、ユーザ情報管理テーブル500のフィールド501および502の値と照合し、両者が一致した場合に、当該ユーザのログインを許可する。 In the present embodiment, when using the service, the user logs in via a predetermined login screen provided by the avatar information distribution server 20. FIG. 22A exemplarily shows a login screen provided by the avatar information distribution server 20. When the user inputs his/her user ID and password on the login screen and clicks the login button, the PC 10 sends an authentication request including the input user ID and password to the avatar information distribution server 20. In response to this, the user authentication unit 21 of the avatar information distribution server 20 collates the user ID and password included in the authentication request received from the PC 10 with the values of the fields 501 and 502 of the user information management table 500, respectively. If the two match, the login of the user is permitted.

ユーザのログインが許可されたことを受けて、通知画面生成部29は、ログインユーザに対して3種類のアプローチ(選択・投票・メッセージ送信)を行った他のユーザの存在をログインユーザに知らしめるための通知画面80を生成してPC10に送信し、PC10がこれを表示する。 In response to the login permission of the user, the notification screen generation unit 29 informs the login user of the existence of another user who has made three types of approaches (selection, voting, and message transmission) to the login user. Generates a notification screen 80 for sending to the PC 10, and the PC 10 displays it.

図22(b)は、PC10に表示される通知画面80を例示的に示す。図22(b)に示すように、通知画面80は、ログインユーザを選択した選択元ユーザを表示するための領域82と、ログインユーザに投票した投票元ユーザを表示するための領域84と、ログインユーザにメッセージを送信した送信元ユーザを表示するための領域86とを含み、通知画面生成部29は、以下の手順で通知画面80を生成する。 FIG. 22B exemplifies a notification screen 80 displayed on the PC 10. As shown in FIG. 22B, the notification screen 80 has an area 82 for displaying the selection source user who has selected the login user, an area 84 for displaying the voting source user who has voted for the login user, and the login. The notification screen generating unit 29 includes the area 86 for displaying the transmission source user who has transmitted the message to the user, and generates the notification screen 80 by the following procedure.

まず、ログインユーザのユーザIDをキーとして、アバタ選択履歴管理テーブル600(図20(b)参照)のフィールド601を検索し、キーに合致したレコードを、そのフィールド604の値(最終選択日時)の新しい順にソートする。次に、ソートしたレコードの上位N件のレコードのフィールド602およびフィールド604から、それぞれ、選択元ユーザの「ユーザID」および「鑑賞モード」を取得するとともに、取得した「ユーザID」に紐付いた「ユーザ名」と「性別」をユーザ情報管理テーブル500から取得する。次に、取得した「性別」と「鑑賞モード(“見ながら踊るモード”または“見るだけモード”)」に応じた態様のアバタを象ったアイコンを生成し、そのアイコンの上に取得した「ユーザ名」を付して、領域82に並べる。 First, the field 601 of the avatar selection history management table 600 (see FIG. 20B) is searched with the user ID of the logged-in user as a key, and the record matching the key is searched for with the value of the field 604 (date and time of last selection). Sort in ascending order. Next, the “user ID” and “viewing mode” of the selection source user are acquired from the fields 602 and 604 of the top N records of the sorted records, respectively, and the “user ID” associated with the acquired “user ID” is acquired. The “user name” and “sex” are acquired from the user information management table 500. Next, an icon representing an avatar in a form corresponding to the acquired "sex" and "viewing mode ("dancing mode while watching" or "only watching mode")" is generated, and the acquired " A user name” is attached and they are arranged in the area 82.

次に、ログインユーザのユーザIDをキーとして、投票履歴管理テーブル700(図20(c)参照)のフィールド701を検索し、キーに合致したレコードを、そのフィールド703の値(投票日時)の新しい順にソートする。次に、ソートしたレコードの上位N個のレコードのフィールド702から投票元ユーザの「ユーザID」を取得するとともに、取得したユーザIDに紐付いた「ユーザ名」と「性別」をユーザ情報管理テーブル500から取得する。次に、取得した「性別」と「鑑賞モード(この場合、“見るだけモード”)」に応じた態様のアバタを象ったアイコンを生成し、そのアイコンの上に取得したユーザ名を付して、領域84に並べる。 Next, using the user ID of the logged-in user as a key, the field 701 of the voting history management table 700 (see FIG. 20C) is searched, and the record that matches the key is updated with the new value (voting date and time) of the field 703. Sort in order. Next, the “user ID” of the voting source user is acquired from the field 702 of the top N records of the sorted records, and the “user name” and “sex” associated with the acquired user ID are acquired in the user information management table 500. To get from. Next, create an icon that imitates an avatar according to the acquired "gender" and "viewing mode (in this case, "only watch mode")", and add the acquired user name on the icon. Are arranged in the area 84.

次に、ログインユーザのユーザIDをキーとして、メッセージ履歴管理テーブル800(図20(d)参照)のフィールド801を検索し、キーに合致したレコードを、そのフィールド803の値(送信日時)の新しい順にソートする。次に、ソートしたレコードの上位N件のレコードのフィールド802から送信先ユーザの「ユーザID」を取得するとともに、取得したユーザIDに紐付いた「ユーザ名」と「性別」をユーザ情報管理テーブル500から取得する。次に、取得した「性別」と「鑑賞モード(この場合、“見るだけモード”)」に応じた態様のアバタを象ったアイコンを生成し、そのアイコンの上に取得したユーザ名を付して、領域86に並べる。 Next, using the user ID of the logged-in user as a key, the field 801 of the message history management table 800 (see FIG. 20D) is searched, and the record matching the key is updated with the new value (transmission date and time) of the field 803. Sort in order. Next, the “user ID” of the destination user is acquired from the field 802 of the top N records of the sorted records, and the “user name” and “sex” associated with the acquired user ID are stored in the user information management table 500. To get from. Next, create an icon that imitates an avatar according to the acquired "gender" and "viewing mode (in this case, "only watch mode")", and add the acquired user name on the icon. Are arranged in the area 86.

その後、通知画面80が表示されたことを受けて、ユーザが画面右上の“動画検索画面”ボタンをクリックすると、これに応答して、アバタ情報配信サーバ20が動画検索画面90をPC10に提供し、PC10がこれを表示する。 After that, in response to the notification screen 80 being displayed, when the user clicks the “video search screen” button in the upper right of the screen, the avatar information distribution server 20 provides the video search screen 90 to the PC 10 in response to this. , PC 10 displays this.

図23(a)は、PC10に表示される動画検索画面90を例示的に示す。図23(a)に示すように、本実施形態の動画検索画面90には、検索ワードを入力するためのテキストボックスに加えて、領域92に下記(1)〜(4)のプルダウンメニューが表示される。 FIG. 23A exemplifies a moving image search screen 90 displayed on the PC 10. As shown in FIG. 23A, in the moving image search screen 90 of this embodiment, in addition to a text box for inputting a search word, pull-down menus (1) to (4) below are displayed in a region 92. To be done.

(1)アバタの優先順位の並び替え条件を選択するためのプルダウンメニュー
本実施形態では、第1実施形態において条件設定画面70(図5参照)に表示されていたプルダウンメニューが、動画検索画面90に表示される。なお、本実施形態のプルダウンメニューでは、アバタの並び替え条件の項目として、「新しい順」、「よく動く順」、「得票数が多い順」、「選ばれた回数が多い順」が選択できるようになっている。
(1) Pull-down menu for selecting rearrangement condition of avatar priority In this embodiment, the pull-down menu displayed on the condition setting screen 70 (see FIG. 5) in the first embodiment is the moving image search screen 90. Displayed in. In the pull-down menu of the present embodiment, "new order", "moving order", "order with the most votes", and "order with the most selected times" can be selected as the avatar rearrangement condition items. It is like this.

(2)アバタの性別を選択するためのプルダウンメニュー
本実施形態では、アバタ(ユーザ)の性別条件を選択できるようになっており、プルダウンメニューから、「性別不問」、「男性」、「女性」のいずれかを選択できるようになっている。
(2) Pull-down menu for selecting gender of avatar In the present embodiment, it is possible to select the gender condition of avatar (user). From the pull-down menu, "sex independent", "male", and "female" are selected. You can choose either.

(3)鑑賞モードを選択するためのプルダウンメニュー
本実施形態では、先述したように、鑑賞モードを選択できるようになっており、プルダウンメニューから、「見ながら踊る」モード、または、「見るだけ」モードのいずれかを選択できるようになっている。
(3) Pull-down menu for selecting viewing mode In the present embodiment, as described above, the viewing mode can be selected. You can choose one of the modes.

(4)会話モードを選択するためのプルダウンメニュー
本実施形態では、会話モードを選択できるようになっており、プルダウンメニューから、「全てのユーザ」または「選んだユーザ」のいずれかを選択できるようになっている。ここで、「会話モード」とは、ログインユーザが“見ながら踊るモード”を選択した際に収録した収録音声の再生の許可先を選択するモードであり、会話モードとして、「全てのユーザ」が選択された場合には、本サービスを利用する全てのユーザに対して、ログインユーザの収録音声の再生が許可され、会話モードとして、「選んだユーザ」が選択された場合には、ログインユーザが該当する動画を視聴する際に選択した他者アバタのユーザに限定して、ログインユーザの音声の再生が許可される。
(4) Pull-down menu for selecting conversation mode In the present embodiment, the conversation mode can be selected, and either "all users" or "selected user" can be selected from the pull-down menu. It has become. Here, the "conversation mode" is a mode in which when the logged-in user selects the "dancing mode while watching", the permission destination of the reproduction of the recorded sound is selected. As the conversation mode, "all users" is selected. When selected, all users who use this service are permitted to play the recorded audio of the logged-in user. When "selected user" is selected as the conversation mode, the logged-in user is Only the user of the other avatar selected when viewing the corresponding video is permitted to play the voice of the logged-in user.

上述した動画検索画面90が表示されたことを受けて、ユーザが領域92に表示される各プルダウンメニューの項目を選択した上で、テキストボックスにキーワードを入力して検索を実行すると、画面は、図23(b)に示す検索結果画面に遷移する。これを受けて、ユーザが検索結果画面に表示された動画のサムネイル画像付きリストの中から任意の動画を選択すると処理が開始する。 In response to the display of the moving image search screen 90 described above, when the user selects each pull-down menu item displayed in the area 92 and then inputs a keyword in the text box to execute the search, the screen is The screen changes to the search result screen shown in FIG. In response to this, when the user selects an arbitrary moving image from the list with moving image thumbnail images displayed on the search result screen, the process starts.

ここでは、まず、ユーザが鑑賞モードとして“見ながら踊るモード”を選択した場合に、図19に示す各機能手段が実行する処理の内容を図24に示すフローチャートに基づいて説明する。 Here, first, the content of the process executed by each functional unit shown in FIG. 19 when the user selects the “dancing mode while watching” as the viewing mode will be described based on the flowchart shown in FIG.

まず、ステップ901で、配信動画取得部102がログインユーザが選択した動画を動画配信サーバ30から読み込む。続くステップ902では、アバタ情報取得部103が、読み込んだ動画に係る動画IDと、ログインユーザが動画検索画面90のプルダウンメニューで選択した“並び替え条件”と、ログインユーザの“性別条件”を指定したアバタ情報取得要求をアバタ情報配信サーバ20に送信する。これを受けて、アバタ情報配信サーバ20のアバタ情報配信部22は、まず、PC10から受信したアバタ情報取得要求に指定される動画IDに紐付いた1以上のアバタ情報の中から、当該要求において指定される“性別条件”に合致するアバタ情報を選出する。 First, in step 901, the distribution video acquisition unit 102 reads the video selected by the login user from the video distribution server 30. In the following step 902, the avatar information acquisition unit 103 specifies the moving image ID of the read moving image, the “sorting condition” selected by the login user in the pull-down menu of the moving image search screen 90, and the “sex condition” of the login user. The avatar information acquisition request is transmitted to the avatar information distribution server 20. In response to this, the avatar information distribution unit 22 of the avatar information distribution server 20 first specifies in the request from one or more pieces of avatar information associated with the video ID specified in the avatar information acquisition request received from the PC 10. The avatar information that matches the “gender condition” is selected.

具体的には、“性別条件”として「男性」が指定されていた場合には、性別属性として「男性」が記述されているアバタ情報を選出し、「女性」が指定されていた場合には、性別属性として「女性」が記述されているアバタ情報を選出し、「性別不問」が指定されていた場合には、指定される動画IDに紐付いた全てのアバタ情報を選出する。 Specifically, when "male" is specified as the "gender condition", avatar information in which "male" is described as the gender attribute is selected, and when "female" is specified The avatar information in which “female” is described as the gender attribute is selected, and when “sex unquestioned” is specified, all the avatar information associated with the specified moving image ID is selected.

続いて、アバタ情報配信部22は、“性別条件”に合致するアバタ情報の中から、受信したアバタ情報取得要求に指定される“並び替え条件”に合致するアバタ情報を選出する。ここで、“並び替え条件”として「得票数が多い順」が指定されていた場合、アバタ情報配信部22は、先に選出したアバタ情報の中から、そこに記述される「累計得票数」の値が大きい上位N件のアバタ情報を選出する。 Next, the avatar information distribution unit 22 selects avatar information that matches the “sorting condition” specified in the received avatar information acquisition request from the avatar information that matches the “sex condition”. Here, when “order with the largest number of votes” is specified as the “sorting condition”, the avatar information distribution unit 22 describes the “total number of votes” described in the avatar information selected earlier. The top N avatar information with a large value of are selected.

一方、“並び替え条件”として「選ばれた回数が多い順」が指定されていた場合、アバタ情報配信部22は、まず、ログインユーザのユーザIDをキーとして、アバタ選択履歴管理テーブル600(図20(b)参照)のフィールド601を検索し、キーに合致したレコードを、そのフィールド603の値(累積選択回数)を1番目の優先順位とし、その605の値(最終選択日時)を2番目の優先順位として、昇順にソートする。次に、ソートしたレコードの上位から順番に、そのフィールド603の値(選択元ユーザのユーザID)と先に選出したアバタ情報に記述されるユーザIDを照合し、合致するユーザIDが記述されたアバタ情報を順次選出する、といった手順N回繰り返すことにより、上位N件のアバタ情報を選出する。 On the other hand, when "order of most selected times" is specified as the "sorting condition", the avatar information distribution unit 22 first uses the user ID of the logged-in user as a key, and the avatar selection history management table 600 (Fig. 20(b)) field 601 is searched, and the value of the field 603 (cumulative selection count) is set as the first priority for the record matching the key, and the value of 605 (last selection date/time) is set as the second priority. Sort in ascending order of priority. Next, the value of the field 603 (user ID of the selection source user) and the user ID described in the previously selected avatar information are collated in order from the top of the sorted records, and the matching user ID is described. By repeating the procedure N times such as sequentially selecting avatar information, the top N avatar information is selected.

アバタ情報配信部22は、上述した手順で選出したN件のアバタ情報をデータベース26から読み出して、PC10に送信する。 The avatar information distribution unit 22 reads the N pieces of avatar information selected by the above-described procedure from the database 26 and transmits them to the PC 10.

続くステップ903では、モーションキャプチャ装置14による身体動作のトラッキングとマイク16による音声収録を開始すると同時に、続くステップ904で、配信動画表示部104がステップ901で読み込んだ動画の再生を開始する。その後、アバタのアニメーションのフレーム間隔(例えば、0.1[sec])に同期して、ステップ905〜910が繰り返し実行される。ここで、ステップ905〜910で実行される処理の内容は、第1実施形態の図6に示すステップ105〜110のそれと基本的には同じであるので、ここでは、その中でも、第1実施形態と一部内容が異なるステップ906および907の処理について説明する。 In the following step 903, the tracking of the body motion by the motion capture device 14 and the voice recording by the microphone 16 are started, and at the same time, in the following step 904, the distribution moving image display unit 104 starts the reproduction of the moving image read in step 901. Then, steps 905 to 910 are repeatedly executed in synchronization with the frame interval (for example, 0.1 [sec]) of the avatar animation. Here, since the contents of the processing executed in steps 905 to 910 are basically the same as those in steps 105 to 110 shown in FIG. 6 of the first embodiment, here, among them, the first embodiment will be described. The processing of steps 906 and 907, which are partially different in content from, will be described.

本実施形態のステップ906では、アバタ生成部107が先のステップ902で取得した他者アバタのアバタ情報からフレーム番号[1]が付与された骨格座標(2次元座標)を読み出すとともに、「ユーザ名」、「性別」、「ユーザの身長」、「ユーザの大きさ」を読み出す。 In step 906 of this embodiment, the avatar generation unit 107 reads out the skeleton coordinates (two-dimensional coordinates) to which the frame number [1] is added from the avatar information of the other avatar acquired in step 902, and the “user name , "Sex", "height of user", and "size of user".

本実施形態のステップ907では、アバタ生成部107が、ユーザ情報管理テーブル500からログインユーザの「性別」を取得し、先のステップ905で取得した骨格座標(2次元座標)とログインユーザの「性別」に基づいてユーザアバタを生成する。具体的には、ログインユーザの「性別」に応じた態様のアバタ(図18参照)を生成して、ユーザの性別を識別できるようにする。加えて、アバタ生成部107は、生成したログインユーザのアバタの頭上にログインユーザの「ユーザ名」を付する。 In step 907 of the present embodiment, the avatar generation unit 107 acquires the “sex” of the login user from the user information management table 500, and the skeleton coordinates (two-dimensional coordinates) acquired in step 905 and the “sex of the login user. A user avatar is generated based on. Specifically, an avatar (see FIG. 18) in a mode according to the “sex” of the logged-in user is generated so that the sex of the user can be identified. In addition, the avatar generation unit 107 adds the “user name” of the login user to the head of the generated avatar of the login user.

同時に、アバタ生成部107は、先のステップ906で取得した骨格座標(2次元座標)、「ユーザ名」、「性別」、「ユーザの身長」、「ユーザの大きさ」という5種類の情報に基づいて他者アバタを生成する。具体的には、取得した「性別」に応じた態様を選択した上で、「ユーザの身長」の値に応じて他者アバタの高さを増減し、「ユーザの大きさ」の値に応じて他者アバタの幅を増減することによって、他者アバタが表すところの他のユーザの性別とその身体特徴を識別できるようにする。加えて、アバタ生成部107は、生成した他者アバタの頭上に当該他者アバタのユーザの「ユーザ名」を付する。図25(a)は、ユーザが“見ながら踊るモード”において、アバタの並び替え条件として「新しい順」または「選ばれた回数が多い順」を選択していた場合の動画視聴画面60を例示的に示す。 At the same time, the avatar generation unit 107 stores the five types of information of the skeleton coordinates (two-dimensional coordinates) acquired in step 906, “user name”, “sex”, “user height”, and “user size”. Generate another avatar based on this. Specifically, after selecting a mode according to the acquired "sex", the height of the other avatar is increased or decreased according to the value of "user height", and according to the value of "user size". By increasing or decreasing the width of another user's avatar, it is possible to identify the sex of the other user as represented by the other user's avatar and its physical characteristics. In addition, the avatar generation unit 107 adds the "user name" of the user of the other avatar to the head of the generated other avatar. FIG. 25A exemplifies a video viewing screen 60 in the case where the user has selected “new order” or “order selected the most times” as the avatar rearrangement condition in the “watching and dancing mode”. To indicate.

一方、ログインユーザが、アバタの並び替え条件として「よく動く順」を選択していた場合には、アバタ生成部107は、順位が1位となった他者アバタの頭上に”王冠”のアイコンを付加する。さらに、ログインユーザが、「得票数が多い順」を選択していた場合には、順位が1位となった他者アバタの頭上に”王冠”のアイコンを付加するともに、各他者アバタのユーザ名の横に「得票数」を表示する。図25(b)は、ユーザが“見ながら踊るモード”において、アバタの並び替え条件として、「得票数が多い順」を選択していた場合の動画視聴画面60を例示的に示す。 On the other hand, when the logged-in user has selected "order of movement" as the avatar rearrangement condition, the avatar generation unit 107 causes the "crown" icon to appear above the other avatar whose rank is first. Is added. Furthermore, if the logged-in user has selected “in descending order of the number of votes”, the “crown” icon is added to the head of the other avatar who ranked first and the other avatars "Number of votes" is displayed next to the user name. FIG. 25B exemplarily shows the moving image viewing screen 60 when the user has selected “order with the largest number of votes” as the avatar rearrangement condition in the “dancing while watching” mode.

本実施形態では、動画の再生中、上述したステップ905〜910が繰り返し実行される。その後、動画の再生が終了すると、ステップ911で、モーションキャプチャ装置14によるトラッキングとマイク16による音声収録を同時に終了し、続くステップ912で、音声データ取得部110が収録した音声の音声データのファイルを生成・取得する。その後、続くステップ913において、アバタ情報生成部118がアバタ情報生成処理を実行する。 In the present embodiment, steps 905 to 910 described above are repeatedly executed during the reproduction of the moving image. After that, when the reproduction of the moving image ends, in step 911, the tracking by the motion capture device 14 and the sound recording by the microphone 16 are simultaneously ended, and in the following step 912, the sound data file of the sound recorded by the sound data acquisition unit 110 is created. Generate and get. After that, in the following step 913, the avatar information generation unit 118 executes the avatar information generation processing.

なお、ステップ913では、アバタ情報生成部118が、第1実施形態と同様に、図15に示すアバタ情報生成処理(ステップ601〜605)が実行されるところ、第2実施形態では、ステップ605の内容が以下の点で異なる。すなわち、本実施形態のステップ605では、アバタ情報生成部118が、ユーザ情報管理テーブル500からログインユーザの「ユーザ名」と「性別」を取得するとともに、ログインユーザが選択した「会話モード」を取得し、「会話モード」が「選んだユーザ」であった場合には、収録音声の再生許可先となるログインユーザが選択した他者アバタのユーザのユーザID(以下、再生許可先ユーザIDという)を取得する。その上で、アバタ情報生成部118は、取得した「ユーザ名」、「性別」、「会話モード」、「再生許可先ユーザID」と、先のステップ601〜604で取得した「ユーザの骨格座標」、「ユーザの身長」、「ユーザの大きさ」、「身体活性度」、これらの情報の「取得日時」、再生した動画の「動画ID」、ログインユーザの「ユーザID」を記述したアバタ情報ファイルを生成し、生成したアバタ情報ファイルと、ステップ603で生成した「コメント情報」と音声データ取得部110が取得した「音声データ」とを併せて、アバタ情報配信サーバ20に送信する。 Note that in step 913, the avatar information generation unit 118 executes the avatar information generation processing (steps 601 to 605) shown in FIG. 15 as in the first embodiment. The contents differ in the following points. That is, in step 605 of this embodiment, the avatar information generation unit 118 acquires the “user name” and “sex” of the login user from the user information management table 500, and also acquires the “conversation mode” selected by the login user. If the "conversation mode" is "selected user", the user ID of the user of the other avatar selected by the logged-in user who is the reproduction permission destination of the recorded voice (hereinafter, reproduction permission destination user ID). To get Then, the avatar information generation unit 118 acquires the “user name”, the “sex”, the “conversation mode”, the “reproduction permission destination user ID”, and the “user skeletal coordinates” acquired in steps 601 to 604. , “User height”, “User size”, “Physical activity”, “Acquisition date” of these information, “Movie ID” of the played video, and “User ID” of the logged-in user. An information file is generated, and the generated avatar information file, the “comment information” generated in step 603, and the “voice data” acquired by the voice data acquisition unit 110 are transmitted to the avatar information distribution server 20.

これを受けて、アバタ情報配信サーバ20のアバタ情報管理部24は、PC10から受信した「コメント情報」と「音声データ」を動画IDに紐付けてデータベース26に保存するとともに、その保存先のパスとPC10から受信したアバタ情報ファイルに含まれる情報(「ユーザID」、「ユーザ名」、「性別」、「取得日時」、「「身体活性度」、「ユーザの身長」、「ユーザの大きさ」、「ユーザの骨格座標」、「会話モード」、「再生許可先ユーザID」)を記述してなるアバタ情報(図21参照)を生成して、データベース26に保存する。 In response to this, the avatar information management unit 24 of the avatar information distribution server 20 stores the “comment information” and the “voice data” received from the PC 10 in the database 26 by associating them with the moving image ID and the path of the storage destination. And information included in the avatar information file received from the PC 10 (“user ID”, “user name”, “sex”, “acquisition date”, “physical activity”, “height of user”, “size of user”) , “User skeleton coordinates”, “conversation mode”, “reproduction permission destination user ID”) are generated and stored in the database 26.

最後に、ステップ914では、インタラクティブ情報生成部123が「インタラクティブ情報生成処理」を実行する。以下、図26に示すフローチャートに基づいて「インタラクティブ情報生成処理」を説明する。 Finally, in step 914, the interactive information generation unit 123 executes "interactive information generation processing". The "interactive information generation process" will be described below with reference to the flowchart shown in FIG.

まずステップ1001では、下記(1)〜(5)の情報をインタラクティブ情報に格納する。
(1)ログインユーザが選択した他者アバタのユーザのユーザID
(2)ログインユーザのユーザID
(3)ログインユーザが選択した鑑賞モード(この場合、“見ながら踊る”)
(4)他者アバタの選択日時(例えば、配信動画の再生を終了した日時)
(5)ログインユーザが視聴した配信動画の動画ID
First, in step 1001, the following information (1) to (5) is stored in the interactive information.
(1) User ID of the other avatar user selected by the login user
(2) User ID of login user
(3) Viewing mode selected by the logged-in user (in this case, "dancing while watching")
(4) Selected date and time of the avatar of another person (for example, the date and time when the reproduction of the distributed video is finished)
(5) Video ID of the distribution video viewed by the login user

続くステップ1002では、ログインユーザが選択した鑑賞モードによって処理が分岐し、この場合は、ログインユーザが選択した鑑賞モードは“見ながら踊るモード”であるので、処理はステップ1005に進む。続くステップ1005では、上記(1)〜(5)の情報が格納されたインタラクティブ情報をアバタ情報配信サーバ20に送信して、処理を終了する。 In the following step 1002, the process branches depending on the viewing mode selected by the logged-in user. In this case, the viewing mode selected by the logged-in user is the “dancing while watching” mode, and the process proceeds to step 1005. In the following step 1005, the interactive information in which the above information (1) to (5) is stored is transmitted to the avatar information distribution server 20, and the process is ended.

一方、アバタ情報配信サーバ20がPC10からインタラクティブ情報を受信したことに応答して、選択履歴管理部23が、インタラクティブ情報に含まれる上記(1)〜(4)の情報に基づいて、アバタ選択履歴管理テーブル600(図20(b)参照)を更新する。具体的には、インタラクティブ情報に含まれる他者アバタのユーザのユーザIDおよびログインユーザのユーザIDをキーとして、アバタ選択履歴管理テーブル600のフィールド601および602を検索し、2つのキーに合致するレコードが存在する場合は、そのフィールド603の値(累積選択回数)を1増分するとともに、当該レコードのフィールド604の値(鑑賞モード)をインタラクティブ情報に含まれる「見ながら踊る」に更新し、当該レコードのフィールド605の値(最終選択日時)をインタラクティブ情報に含まれる「選択日時」に更新する。 On the other hand, in response to the avatar information distribution server 20 receiving the interactive information from the PC 10, the selection history management unit 23 makes the avatar selection history based on the information (1) to (4) included in the interactive information. The management table 600 (see FIG. 20B) is updated. Specifically, using the user ID of the user of another avatar and the user ID of the logged-in user included in the interactive information as keys, the fields 601 and 602 of the avatar selection history management table 600 are searched, and records matching the two keys are searched. , The value of the field 603 (cumulative number of selections) is incremented by 1, and the value of the field 604 (viewing mode) of the record is updated to “dancing while watching” included in the interactive information, and the record The value of the field 605 (last selection date/time) is updated to “selection date/time” included in the interactive information.

なお、2つのキーに合致するレコードが存在しない場合は、その組み合わせの数だけ、新たにレコードを追加して、追加したレコードのフィールド601、602、603、604、605に、それぞれ、インタラクティブ情報に含まれる他者アバタのユーザのユーザID、インタラクティブ情報に含まれるログインユーザのユーザID、累積選択回数「1」、インタラクティブ情報に含まれる鑑賞モード「見ながら踊る」、インタラクティブ情報に含まれる「選択日時」を格納する。 If there are no records that match the two keys, new records are added by the number of the combinations, and the fields 601, 602, 603, 604, and 605 of the added records are added with interactive information. The user ID of the user of the other avatar included, the user ID of the login user included in the interactive information, the cumulative number of selections “1”, the viewing mode “dancing while watching” included in the interactive information, and the “selection date and time” included in the interactive information. Is stored.

以上、ユーザが鑑賞モードとして“見ながら踊るモード”を選択した場合に実行される処理について説明してきたが、続いて、ユーザが鑑賞モードとして“見るだけモード”を選択した場合に実行される処理を、図27に示すフローチャートに基づいて説明する。 The processing executed when the user selects the “dancing mode while watching” as the viewing mode has been described above. Next, the processing executed when the user selects the “only watching mode” as the viewing mode. Will be described based on the flowchart shown in FIG.

まず、ステップ1101で、配信動画取得部102がユーザが選択した動画を動画配信サーバ30から読み込む。続くステップ1102では、アバタ情報取得部103が、読み込んだ動画に係る動画IDと、ユーザが動画検索画面90のプルダウンメニューにおいて選択した“並び替え条件”および“性別条件”を指定したアバタ情報取得要求をアバタ情報配信サーバ20に送信する。これを受けて、アバタ情報配信サーバ20のアバタ情報配信部22は、まず、PC10から受信したアバタ情報取得要求に指定される動画IDに紐付いた1以上のアバタ情報の中から、当該要求において指定される“性別条件”と“並び替え条件”に合致するN件のアバタ情報を選出し、選出したN件のアバタ情報をデータベース26から読み出して、PC10に送信する。ここまでの処理は、“見ながら踊るモード”のそれと同じである。 First, in step 1101, the distribution moving image acquisition unit 102 reads the moving image selected by the user from the moving image distribution server 30. In the following step 1102, the avatar information acquisition unit 103 requests the avatar information acquisition in which the moving image ID relating to the read moving image and the “sorting condition” and “gender condition” selected by the user in the pull-down menu of the moving image search screen 90 are specified. Is transmitted to the avatar information distribution server 20. In response to this, the avatar information distribution unit 22 of the avatar information distribution server 20 first specifies in the request from one or more pieces of avatar information associated with the video ID specified in the avatar information acquisition request received from the PC 10. The N pieces of avatar information that match the “gender condition” and the “sorting condition” are selected, the selected N pieces of avatar information are read from the database 26, and are transmitted to the PC 10. The processing up to this point is the same as that of the "dancing while watching" mode.

続くステップ1103では、動画視聴画面60のビデオキャプチャを開始し、続くステップ1104で、配信動画表示部104がステップ1101で読み込んだ動画の再生を開始する。その後、アバタのアニメーションのフレーム間隔(例えば、0.1[sec])に同期して、ステップ1105〜1111が繰り返し実行される。ここで、ステップ1105〜1109のそれぞれのステップでは、図24に示すステップ906〜910と同様の処理が実行されるところ、“見るだけモード”では、ステップ1107とステップ1109の内容が以下の点で異なる。 In the following step 1103, video capture of the moving image viewing screen 60 is started, and in the following step 1104, the distribution moving image display unit 104 starts playing the moving image read in step 1101. Then, steps 1105 to 1111 are repeatedly executed in synchronization with the frame interval (for example, 0.1 [sec]) of the avatar animation. Here, in each of Steps 1105 to 1109, the same processing as Steps 906 to 910 shown in FIG. 24 is executed, but in the “seen mode”, the contents of Steps 1107 and 1109 are as follows. different.

具体的には、“見るだけモード”では、動画視聴画面60に、図28(a)に示すように、「アバタ移動」、「投票」、「メッセージ」という3つのアプローチ項目を選択するためのプルダウンメニュー65が表示され、ユーザがプルダウンメニュー65から「アバタ移動」を選択した場合、動画視聴画面60は、他者アバタのドラッグ&ドロップを受け付ける状態に遷移する。この場合、ユーザは、図28(a)に示すように、所望の他者アバタをドラッグ&ドロップすることによって任意の場所に移動させることができるようになる。ステップ1107の「骨格座標変換処理」では、ユーザが他者アバタを移動させることに伴って、アバタ表示位置変更部117が、移動する他者アバタのアバタクラスに記述された骨格座標に対してオフセット値を加算して、当該他者アバタの骨格座標をシフトする。 Specifically, in the “only watch mode”, as shown in FIG. 28( a ), a moving image viewing screen 60 is provided for selecting three approach items “moving avatar”, “voting”, and “message”. When the pull-down menu 65 is displayed and the user selects “move avatar” from the pull-down menu 65, the moving image viewing screen 60 transitions to a state in which drag and drop of another avatar is accepted. In this case, the user can move the desired other avatar to an arbitrary place by dragging and dropping it, as shown in FIG. In the “skeleton coordinate conversion process” of step 1107, the avatar display position changing unit 117 causes an offset with respect to the skeleton coordinates described in the avatar class of the moving other avatar as the user moves the other avatar. The values are added to shift the skeleton coordinates of the other avatar.

加えて、“見るだけモード”では、“見ながら踊るモード”のときにように、ログインユーザに連動するユーザアバタを生成しない代わりに、ステップ1109において、アバタ表示部105が、図28(a)に示すように、ログインユーザのアバタが椅子に座った態様を象ったアイコンをアバタ表示領域の中央に描画する。 In addition, in the "only watch mode", unlike the "dancing while watching mode", the user avatar linked to the logged-in user is not generated. As shown in FIG. 5, an icon representing the avatar of the logged-in user sitting on the chair is drawn in the center of the avatar display area.

また、“見るだけモード”では、上述したステップ1105〜1109に並行して、投票受付部120が「投票受付処理」を実行し(ステップ1110)、メッセージ受付部122が「メッセージ受付処理」を実行する(ステップ1111)。 Further, in the “only watch mode”, the voting accepting unit 120 executes the “voting accepting process” (step 1110) and the message accepting unit 122 executes the “message accepting process” in parallel with the above-described Steps 1105-1109. (Step 1111).

“見るだけモード”では、ユーザがプルダウンメニュー65から「投票」を選択すると、動画視聴画面60が、他者アバタを介して投票を受け付ける状態に遷移し、投票受付部120が、図29(a)のフローチャートに示す処理を実行する。 In the “only watch mode”, when the user selects “vote” from the pull-down menu 65, the video viewing screen 60 transitions to a state in which a vote is accepted via another person's avatar, and the vote accepting unit 120 causes the vote accepting unit 120 in FIG. ) The process shown in the flowchart is executed.

ステップ1201では、他者アバタのクリックを待機し(ステップ1201、No)、図28(b)に示すように、ユーザがいずれかの他者アバタをクリックしたことを検知すると(ステップ1201、Yes)、続くステップ1202で、クリックされた他者アバタのユーザのユーザIDと、得票数「1」と、投票日時(他者アバタをクリックした日時)と、ログインユーザが視聴した配信動画の動画IDを紐付けた情報(以下、投票関連情報という)を一時記憶に記録する。 In step 1201, the click of another avatar is waited for (step 1201, No), and when it is detected that the user has clicked any other avatar as shown in FIG. 28B (step 1201, Yes). In the following step 1202, the user ID of the user of the clicked other avatar, the number of votes “1”, the vote date and time (the date and time when the other avatar was clicked), and the video ID of the distribution video viewed by the logged-in user are displayed. The linked information (hereinafter referred to as voting-related information) is recorded in temporary storage.

一方、ユーザがプルダウンメニュー65から「メッセージ」を選択すると、動画視聴画面60が、他者アバタを介してメッセージの送信を受け付ける状態に遷移し、メッセージ受付部122が図29(b)のフローチャートが示す処理を実行する。 On the other hand, when the user selects “Message” from the pull-down menu 65, the video viewing screen 60 transitions to a state in which the transmission of a message is accepted via another person's avatar, and the message accepting unit 122 displays the flowchart of FIG. Perform the indicated process.

ステップ1301では、他者アバタのクリックを待機し(ステップ1301、No)、ユーザがいずれかの他者アバタをクリックしたことを検知すると(ステップ1301、Yes)、続くステップ1302で、図30(a)に示すように、動画視聴画面60の上にメッセージの入力フォーム66をオーバーレイ表示して、メッセージの入力を受け付ける。これを受けて、ユーザが入力フォーム66にメッセージを入力して送信ボタンをクリックすると、続くステップ1303で、クリックされた他者アバタのユーザのユーザIDと、入力フォーム66に入力されたメッセージ(テキストデータ)と、送信日時(送信ボタンがクリックされた日時)を紐付けた情報(以下、メッセージ関連情報という)を一時記憶に記録する。 In step 1301, the process waits for a click on another avatar (step 1301, No), and when it is detected that the user has clicked on any other avatar (step 1301, Yes), then in step 1302, as shown in FIG. ), a message input form 66 is overlay-displayed on the moving image viewing screen 60 to accept message input. In response to this, when the user inputs a message in the input form 66 and clicks the send button, in the next step 1303, the user ID of the clicked user of the other avatar and the message (text) input in the input form 66. Information (hereinafter referred to as message-related information) in which the data) and the transmission date and time (the date and time when the transmission button is clicked) are associated is recorded in the temporary storage.

本実施形態では、動画の再生中、上述したステップ1105〜1111が繰り返し実行される。その後、動画の再生が終了すると、ステップ1112で、動画視聴画面60のビデオキャプチャを終了し、続くステップ1113で、動画視聴画面60のビデオキャプチャを収めたキャプチャ動画のファイルを取得する。その後、続くステップ1114において、インタラクティブ情報生成部123が「インタラクティブ情報生成処理」を実行して、処理を終了する。ここで、インタラクティブ情報生成部123が“見るだけモード”実行する「インタラクティブ情報生成処理」を図26に示すフローチャートに基づいて説明する。 In the present embodiment, steps 1105 to 1111 described above are repeatedly executed during the reproduction of the moving image. After that, when the reproduction of the moving image ends, in step 1112, the video capture of the moving image viewing screen 60 ends, and in the following step 1113, a captured moving image file including the video capture of the moving image viewing screen 60 is acquired. After that, in the following step 1114, the interactive information generation unit 123 executes the "interactive information generation process" and ends the process. Here, the “interactive information generation process” executed by the interactive information generation unit 123 in the “seen mode” will be described with reference to the flowchart shown in FIG.

まずステップ1001では、下記(1)〜(4)の情報をインタラクティブ情報に格納する。
(1)ログインユーザが選択した他者アバタのユーザのユーザID
(2)ログインユーザのユーザID
(3)ログインユーザが選択した鑑賞モード(この場合、“見るだけ”)
(4)他者アバタの選択日時(例えば、配信動画の再生を終了した日時)
(5)ログインユーザが視聴した配信動画の動画ID
First, in step 1001, the following information (1) to (4) is stored in the interactive information.
(1) User ID of the other avatar user selected by the login user
(2) User ID of login user
(3) Viewing mode selected by the logged-in user (in this case, "just watch")
(4) Selected date and time of the avatar of another person (for example, the date and time when the reproduction of the distributed video is finished)
(5) Video ID of the distribution video viewed by the login user

続くステップ1002では、ログインユーザが選択した鑑賞モードによって処理が分岐し、この場合は、ログインユーザが選択した鑑賞モードは“見るだけモード”であるので、処理はステップ1003に進む。続くステップ1003では、一時記憶に先述の投票関連情報が格納されている場合に、当該投票関連情報をインタラクティブ情報に格納して、処理はステップ1004に進む。続くステップ1004では、一時記憶に先述のメッセージ関連情報が記憶されている場合に、当該メッセージ関連情報と、先のステップ1113(図27参照)で取得したキャプチャ動画ファイルをインタラクティブ情報に格納して、処理はステップ1005に進む。 In the following step 1002, the process branches depending on the viewing mode selected by the logged-in user. In this case, the viewing mode selected by the logged-in user is the “only view mode”, and therefore the process proceeds to step 1003. In the following step 1003, if the above-mentioned voting-related information is stored in the temporary storage, the voting-related information is stored in the interactive information, and the process proceeds to step 1004. In the following step 1004, when the above-mentioned message-related information is stored in the temporary storage, the message-related information and the captured moving image file acquired in the previous step 1113 (see FIG. 27) are stored in the interactive information, The process proceeds to step 1005.

続くステップ1005では、上記(1)〜(5)の情報、投票関連情報、メッセージ関連情報、およびキャプチャ動画ファイルが格納されたインタラクティブ情報をアバタ情報配信サーバ20に送信して、処理を終了する。 In the following step 1005, the interactive information in which the information of (1) to (5), the voting related information, the message related information, and the captured moving image file are stored is transmitted to the avatar information distribution server 20, and the process ends.

一方、アバタ情報配信サーバ20がPC10からインタラクティブ情報を受信したことに応答して、選択履歴管理部23は、インタラクティブ情報に含まれる上記(1)〜(4)の情報を読み出し、“見ながら踊るモード”におけるそれと同様の手順で、アバタ選択履歴管理テーブル600(図20(b)参照)を更新する。ただし、“見るだけモード”では、アバタ選択履歴管理テーブル600のフィールド604の値(鑑賞モード)が「見るだけ」に更新される。 On the other hand, in response to the avatar information distribution server 20 receiving the interactive information from the PC 10, the selection history management unit 23 reads the above information (1) to (4) included in the interactive information and “dancing while watching. The avatar selection history management table 600 (see FIG. 20B) is updated by the same procedure as that in the "mode". However, in the “only watch mode”, the value (viewing mode) of the field 604 of the avatar selection history management table 600 is updated to “only watch”.

加えて、“見るだけモード”では、投票履歴管理部27が、受信したインタラクティブ情報に含まれる投票関連情報に基づいて投票履歴管理テーブル700(図20(c)参照)を更新する。具体的には、投票関連情報に含まれる他者アバタのユーザのユーザIDの数だけ、新たにレコードを追加して、追加したレコードのフィールド701、702、703に、それぞれ、投票関連情報に含まれる他者アバタのユーザのユーザID、ログインユーザのユーザID、投票日時を格納する。また、投票履歴管理部27は、投票関連情報に含まれる動画IDと他者アバタのユーザのユーザIDをキーとして、データベース26に保存されるアバタ情報を検索し、2つのキーに合致するアバタ情報に記述される「累積得票数」の値を1増分する。 In addition, in the “only watch mode”, the voting history management unit 27 updates the voting history management table 700 (see FIG. 20C) based on the voting-related information included in the received interactive information. Specifically, new records are added by the number of user IDs of the users of other avatars included in the voting-related information, and the fields are added to the fields 701, 702, and 703 of the added record as voting-related information. The user ID of the user of the other avatar, the user ID of the login user, and the voting date and time are stored. In addition, the voting history management unit 27 searches the avatar information stored in the database 26 using the moving image ID included in the voting-related information and the user ID of the user of the other avatar as a key, and the avatar information matching the two keys. The value of "cumulative number of votes" described in 1 is incremented by 1.

さらに、加えて、“見るだけモード”では、メッセージ履歴管理部28が、受信したインタラクティブ情報に含まれるキャプチャ動画ファイルをデータベース26に保存するとともに、受信したインタラクティブ情報に含まれるメッセージ関連情報に基づいてメッセージ履歴管理テーブル800(図20(d)参照)を更新する。具体的には、メッセージ関連情報に含まれる他者アバタのユーザのユーザIDの数だけ、新たにレコードを追加して、追加したレコードのフィールド801、802、803、804、805に、それぞれ、メッセージ関連情報に含まれる他者アバタのユーザのユーザID、ログインユーザのユーザID、送信日時、メッセージ(テキストデータ)、保存したキャプチャ動画ファイルへのパスを格納する。 In addition, in the "only watch mode", the message history management unit 28 saves the captured moving image file included in the received interactive information in the database 26, and based on the message-related information included in the received interactive information. The message history management table 800 (see FIG. 20D) is updated. Specifically, new records are added by the number of user IDs of the users of other avatars included in the message-related information, and messages are added to fields 801, 802, 803, 804, and 805 of the added records, respectively. The user ID of the other avatar user, the user ID of the logged-in user, the transmission date and time, the message (text data), and the path to the saved captured moving image file included in the related information are stored.

以上、ユーザが鑑賞モードとして“見るだけモード”を選択した場合に実行される処理について説明してきたが、続いて、アバタ情報配信サーバ20の通知画面生成部29が実行する「メッセージ通知画面生成処理」を図31に示すフローチャートに基づいて説明する。 The processing executed when the user selects the “only watch mode” as the viewing mode has been described above. Subsequently, the “message notification screen generation processing” executed by the notification screen generation unit 29 of the avatar information distribution server 20. Will be described with reference to the flowchart shown in FIG.

アバタ情報配信サーバ20の通知画面生成部29は、ユーザのPC10に通知画面80(図22(b)参照)を提供した後、領域86に表示する他者アバタ(のアイコン)のクリックを待機する(ステップ1201、No)。そして、ユーザが領域86に表示されるいずれかの他者アバタ(のアイコン)をクリックしたことを検知すると(ステップ1401、Yes)、続くステップ1402で、クリックされた他者アバタのユーザのユーザIDをキーとして、メッセージ履歴管理テーブル800を検索し、キーに合致したレコードのフィールド804からメッセージ(テキストデータ)を読み出すと同時に、フィールド804に格納されるパスにアクセスしてキャプチャ動画ファイルを読み出す。 The notification screen generation unit 29 of the avatar information distribution server 20 waits for the click of another avatar (the icon thereof) displayed in the area 86 after providing the notification screen 80 (see FIG. 22B) to the user's PC 10. (Step 1201, No). Then, when it is detected that the user has clicked (an icon of) another avatar displayed in the area 86 (step 1401, Yes), in the subsequent step 1402, the user ID of the clicked user of the other avatar. The key is used as a key to search the message history management table 800, the message (text data) is read from the field 804 of the record matching the key, and at the same time, the path stored in the field 804 is accessed to read the captured moving image file.

その後、通知画面生成部29は、先のステップ1402で読み出したメッセージ(テキストデータ)とキャプチャ動画ファイルに基づいてメッセージ通知画面を生成し(ステップ1403)、生成したメッセージ通知画面をユーザのPC10に送信して(ステップ1404)、処理を終了する。図30(b)は、PC10に送信されたメッセージ通知画面67を例示的に示す。図30(b)に示す例では、メッセージ通知画面67として、キャプチャ動画の上にメッセージをオーバーレイ表示してなるダイアログ画面が通知画面80の上にオーバーレイ表示されている。 Then, the notification screen generation unit 29 generates a message notification screen based on the message (text data) read in the previous step 1402 and the captured moving image file (step 1403), and transmits the generated message notification screen to the user's PC 10. Then (step 1404), the process ends. FIG. 30B exemplarily shows the message notification screen 67 transmitted to the PC 10. In the example shown in FIG. 30B, as the message notification screen 67, a dialog screen formed by overlaying a message on the captured moving image is overlay-displayed on the notification screen 80.

以上、本発明の第2実施形態を説明してきたが、続いて、本発明の第3実施形態を説明する。なお、以下では、第2実施形態の内容と共通する部分の説明を省略し、専ら、第2実施形態との相違点のみを説明するものとする。 The second embodiment of the present invention has been described above, and then the third embodiment of the present invention will be described. Note that, in the following, description of the parts common to the contents of the second embodiment will be omitted, and only the differences from the second embodiment will be explained.

(第3実施形態)
第3実施形態は、アバタの表示モードとして、先の挙げた「分割表示モード」および「一括表示モード」に加えて、「連行モード」が用意されており、図23に示す条件設定画面70を介してユーザがいずれかのモードを選択できるようになっている点で、第2実施形態と異なる。以下、「連行モード」について説明する。
(Third Embodiment)
In the third embodiment, as a display mode of the avatar, in addition to the “divided display mode” and the “collective display mode” mentioned above, a “return mode” is prepared, and the condition setting screen 70 shown in FIG. 23 is displayed. This is different from the second embodiment in that the user can select one of the modes via the above. Hereinafter, the "convey mode" will be described.

ログインユーザが、鑑賞モードとして“見ながら踊るモード”を選択した場合において、「連行モード」を選択した場合、アバタ表示位置変更部117は、先のステップ907(図24参照)で生成したアバタ(ユーザアバタと他者アバタ)の総数と同数の矩形領域を定義し、定義した矩形領域を動画視聴画面60内に配信動画表示領域を囲むように配置する。その上で、動画視聴画面60の中央に位置する矩形領域をユーザアバタの表示領域として割り当て、残りの矩形領域を他者アバタの表示領域として割り当てる。ここで、ユーザアバタの表示領域の左右に設定される他者アバタの表示領域に対しては、ユーザアバタの表示領域に近い順番に優先順位が対応づけられており、並び替え条件に従って他者アバタを選択したときの昇順に従って、順位の高い他者アバタから順番に優先順位の高い表示領域(すなわち、ユーザアバタに近い表示領域)を割り当てる。アバタ表示位置変更部117は、各アバタが割り当てた表示領域内に収まるように、各アバタの骨格座標を変換する。 When the logged-in user selects the “dancing mode while watching” as the viewing mode and selects the “entrainment mode”, the avatar display position changing unit 117 causes the avatar (refer to FIG. 24) generated in step 907 described above. The same number of rectangular areas as the total number of user avatars and other avatars) is defined, and the defined rectangular areas are arranged in the moving image viewing screen 60 so as to surround the distribution moving image display region. Then, the rectangular area located in the center of the moving image viewing screen 60 is allocated as the display area of the user avatar, and the remaining rectangular area is allocated as the display area of the other avatar. Here, with respect to the display areas of the other avatars set to the left and right of the display area of the user avatar, the priorities are associated in the order close to the display area of the user avatar. In accordance with the ascending order when is selected, the display areas having higher priorities (that is, the display areas closer to the user avatar) are allocated in order from the other person's avatar having a higher order. The avatar display position changing unit 117 transforms the skeleton coordinates of each avatar so that the avatar fits within the display area allocated by each avatar.

図33(a)は、「連行モード」が選択された場合の動画視聴画面60を例示的に示す。図33(a)において、破線で示す矩形領域がアバタの表示領域であり、各表示領域には丸囲み数字で優先順位を付している(ただし、表示領域を示す破線および優先順位は画面上には表示されない)。 FIG. 33(a) exemplarily shows the moving image viewing screen 60 when the "return mode" is selected. In FIG. 33A, a rectangular area indicated by a broken line is an avatar display area, and each display area is given priority by circled numbers (however, the broken line indicating the display area and the priority order are on the screen). Not displayed).

ここで、第3実施形態では、図33(b)に示すように、ログインユーザ40がモーションキャプチャ装置14を前にして、丸囲み数字0〜8の位置(以下、位置0〜8という)を左右に移動することに同期して、ログインユーザのユーザアバタが、図33(a)に示す丸囲み数字0〜8が示す表示領域(以下、位置0〜8という)を移動するように構成されている。具体的には、アバタ表示位置変更部117は、モーションキャプチャ装置14の入力情報を解析して、ログインユーザが、図33(b)に示す位置0〜8のいずれに立っているかを判断し、ログインユーザが立っている位置(0〜8)に対応する表示領域(0〜8)にユーザアバタを移動させる。 Here, in the third embodiment, as shown in FIG. 33B, the login user 40 sets the positions of circled numbers 0 to 8 (hereinafter, referred to as positions 0 to 8) in front of the motion capture device 14. The user avatar of the logged-in user is configured to move in the display area (hereinafter, referred to as positions 0 to 8) indicated by circled numbers 0 to 8 shown in FIG. 33A in synchronization with the movement to the left and right. ing. Specifically, the avatar display position changing unit 117 analyzes the input information of the motion capture device 14 to determine which of the positions 0 to 8 shown in FIG. 33B the login user stands in, The user avatar is moved to the display area (0 to 8) corresponding to the position (0 to 8) where the logged-in user stands.

これにより、ログインユーザが、例えば、図33(b)の位置8に移動すると、これに応答して、動画視聴画面60では、図34(a)に示すように、ユーザアバタAが表示領域8に移動する。このとき、表示領域8には、既に、他者アバタEが配置されており、ユーザアバタAと他者アバタEが同時に表示領域8に配置された状態となる。本実施形態では、アバタ表示位置変更部117が、ユーザアバタと他者アバタが同じ表示領域に同時に配置された状態になった場合に、所定の開始条件の成否を監視し、開始条件が成立した場合に、当該他者アバタが当該ユーザアバタに追従して移動する状態(以下、連行状態という)に遷移する。連行状態に遷移して以降は、ログインユーザが図33(b)に示す位置(0〜8)を左右に移動すると、これに同期して、ユーザアバタと他者アバタが、あたかも手をつないでいるかのように連れだって、表示領域(0〜8)を移動する。 As a result, when the logged-in user moves to the position 8 in FIG. 33B, for example, in response to this, the user avatar A displays the display area 8 on the moving image viewing screen 60 as shown in FIG. Move to. At this time, the other person's avatar E is already arranged in the display area 8, and the user avatar A and the other person's avatar E are simultaneously arranged in the display area 8. In the present embodiment, the avatar display position changing unit 117 monitors the success or failure of a predetermined start condition when the user avatar and the other avatar are simultaneously placed in the same display area, and the start condition is satisfied. In this case, the other avatar makes a transition to a state in which the other avatar moves following the user avatar (hereinafter referred to as a "carrying state"). After the transition to the entrainment state, when the logged-in user moves the position (0 to 8) shown in FIG. 33B to the left or right, the user avatar and the avatar of another person synchronize with this and hold the hand as if they were holding hands. The display area (0 to 8) is moved even if it is accompanied by a person.

ここで、本実施形態では、上述した開始条件の内容を限定するものではなく、例えば、モーションキャプチャ装置14の入力情報から、ログインユーザの所定のジェスチャー(例えば、物を掴む仕草や手招きの仕草など)が検出されたことを開始条件としても良いし、ユーザアバタと他者アバタが同じ表示領域に同時に配置された状態に至ってからの経過時間が所定の閾値に達したことを開始条件としても良い。 Here, in the present embodiment, the content of the above-described start condition is not limited, and for example, based on the input information of the motion capture device 14, a predetermined gesture of the login user (for example, a gesture of grasping an object or a beckoning gesture). ) Is detected as the start condition, or the elapsed time after the user avatar and the other avatar are placed in the same display area at the same time may be set as the start condition. ..

一方、アバタ表示位置変更部117は、ユーザアバタと他者アバタが連行状態に遷移して以降、所定の終了条件の成否を監視し、終了条件が成立した場合に、連行状態を解消する。ここで、本実施形態では、上述した終了条件の内容を限定するものではなく、例えば、モーションキャプチャ装置14の入力情報から、ログインユーザの所定のジェスチャー(例えば、物を手放す仕草や人を追い払う仕草など)が検出されたことを終了条件としても良いし、ユーザアバタと他者アバタがある表示領域に到着してからの経過時間が所定の閾値に達したことを終了条件としても良い。 On the other hand, the avatar display position changing unit 117 monitors whether or not a predetermined ending condition is satisfied after the user avatar and the other-person avatar have transited to the accompanying state, and cancels the accompanying state when the ending condition is satisfied. Here, in the present embodiment, the content of the above-described termination condition is not limited, and for example, from the input information of the motion capture device 14, a predetermined gesture of the login user (for example, a gesture of letting go of an object or a gesture of expelling a person). May be used as the end condition, and the end condition may be that the elapsed time after the user avatar and the other avatar have arrived at a certain display area reaches a predetermined threshold value.

本実施形態では、ログインユーザは、上述した連行状態への遷移とその解消の仕組みを利用して、所望の他者アバタを任意の表示位置に連行すること(移動させること)ができる。以下、この点を具体例に基づいて説明する。 In the present embodiment, the logged-in user can take (move) the desired other-person avatar to an arbitrary display position by utilizing the above-described transition to the entrainment state and the mechanism of its cancellation. Hereinafter, this point will be described based on a specific example.

図34(b)は、ユーザアバタAが他者アバタEを連行して表示領域2に移動している状態を示す。この例の場合、他者アバタEの頭上に連行状態に遷移していることを示すエクスクラメーションマーク「!」が表示されている。この後、ユーザアバタAと他者アバタEが、既に他者アバタDが配置されている表示領域2に進入し、ユーザアバタAと他者アバタEが表示領域2内に留まっている間に所定の終了条件が成立すると、ユーザアバタAと他者アバタEの連行状態は解消され、その時点で、当該表示領域2が他者アバタEの表示領域に設定される。 FIG. 34B shows a state in which the user avatar A is carrying the other person's avatar E and is moving to the display area 2. In the case of this example, an exclamation mark “!” indicating that the other person's avatar E has transitioned to the entrainment state is displayed. After that, the user avatar A and the other person's avatar E enter the display area 2 where the other person's avatar D is already arranged, and the user avatar A and the other person's avatar E remain in the display area 2 for a predetermined period of time. When the ending condition of is satisfied, the entrainment state of the user avatar A and the other person's avatar E is canceled, and at that time, the display area 2 is set to the display area of the other person's avatar E.

これを受けて、他の他者アバタが図35(a)に示すように移動する。すなわち、元々表示領域2に配置されていた他者アバタDは、表示領域2から表示領域4に移動し、元々表示領域4に配置されていた他者アバタHは、表示領域4から表示領域6に移動し、元々表示領域6に配置されていた他者アバタKは、表示領域6から他者アバタEが元々配置されていた表示領域2に移動する。最後に、他者アバタEとの連行状態を解消したユーザアバタが元の表示領域0に移動することによって、動画視聴画面60のアバタの配置態様は、図35(b)に示す態様となる。 In response to this, another avatar of another person moves as shown in FIG. That is, the other avatar D originally arranged in the display area 2 moves from the display area 2 to the display area 4, and the other avatar H originally arranged in the display area 4 moves from the display area 4 to the display area 6. The other person's avatar K originally arranged in the display area 6 moves from the display area 6 to the display area 2 in which the other person's avatar E was originally arranged. Finally, by moving the user avatar, which has been removed from the entrainment state with the other person's avatar E, to the original display area 0, the arrangement mode of the avatars of the moving image viewing screen 60 becomes the mode shown in FIG. 35(b).

以上、説明したように、本実施形態によれば、動画視聴画面60上で他者アバタを相手にした仮想的なインタラクションが可能になるだけでなく、他者アバタを介して、他のユーザに投票したり、他のユーザにメッセージを送信したりすることにより、リアルな他者を相手にしたリアルなインタラクションのきっかけが提供されることになる。 As described above, according to the present embodiment, not only is it possible to perform virtual interaction with another person's avatar on the video viewing screen 60, but it is possible for another user to communicate with the other person via the other person's avatar. By voting or sending a message to other users, a real interaction trigger with a real other person is provided.

以上、本発明について実施形態をもって説明してきたが、本発明は上述した実施形態に限定されるものではなく、その他、当業者が推考しうる実施態様の範囲内において、本発明の作用・効果を奏する限り、本発明の範囲に含まれるものである。 Although the present invention has been described above with reference to the embodiments, the present invention is not limited to the above-described embodiments, and within the scope of the embodiments conceivable to those skilled in the art, the functions and effects of the present invention can be obtained. As long as it is effective, it is included in the scope of the present invention.

上述した実施形態の各機能は、C、C++、C#、Java(登録商標)などで記述された装置実行可能なプログラムにより実現でき、本実施形態のプログラムは、ハードディスク装置、CD−ROM、MO、DVD、フレキシブルディスク、EEPROM、EPROMなどの装置可読な記録媒体に格納して頒布することができ、また他装置が可能な形式でネットワークを介して伝送することができる。 Each function of the above-described embodiment can be realized by a device-executable program described in C, C++, C#, Java (registered trademark), and the like, and the program of the present embodiment is a hard disk device, a CD-ROM, an MO. , DVD, flexible disk, EEPROM, EPROM, etc., and can be stored in a device-readable recording medium for distribution, and can be transmitted via a network in a format that can be used by other devices.

10…情報提示装置
12…表示装置
14…モーションキャプチャ装置
16…マイク
18…スピーカー
20…アバタ情報配信サーバ
21…ユーザ認証部
22…アバタ情報配信部
23…選択履歴管理部
24…アバタ情報管理部
26…データベース
27…投票履歴管理部
28…メッセージ履歴管理部
29…通知画面生成部
30…動画配信サーバ
40…ユーザ
50…ネットワーク
60…動画視聴画面
62…配信動画表示領域
64…アバタ表示領域
65…プルダウンメニュー
66…入力フォーム
67…メッセージ通知画面
70…条件設定画面
80…通知画面
82,84,86…領域
90…動画検索画面
92…領域
100…情報提示システム
102…配信動画取得部
103…アバタ情報取得部
104…配信動画表示部
105…アバタ表示部
106…身体動作情報取得部
107…アバタ生成部
108…身体特徴情報取得部
109…身体活性度算出部
110…音声データ取得部
112…音声出力部
114…コメント取得部
116…重なり判定部
117…アバタ表示位置変更部
118…アバタ情報生成部
120…投票受付部
122…メッセージ受付部
123…インタラクティブ情報生成部
500…ユーザ情報管理テーブル
600…アバタ選択履歴管理テーブル
700…投票履歴管理テーブル
800…メッセージ履歴管理テーブル
10... Information presenting device 12... Display device 14... Motion capture device 16... Microphone 18... Speaker 20... Avata information distribution server 21... User authentication part 22... Avata information distribution part 23... Selection history management part 24... Avata information management part 26 ... database 27 ... voting history management unit 28 ... message history management unit 29 ... notification screen generation unit 30 ... video distribution server 40 ... user 50 ... network 60 ... video viewing screen 62 ... distribution video display area 64 ... avatar display area 65 ... pulldown Menu 66... Input form 67... Message notification screen 70... Condition setting screen 80... Notification screens 82, 84, 86... Area 90... Video search screen 92... Area 100... Information presentation system 102... Delivery video acquisition unit 103... Avatar information acquisition Unit 104... Delivery moving image display unit 105... Avatar display unit 106... Physical movement information acquisition unit 107... Avatar generation unit 108... Physical characteristic information acquisition unit 109... Physical activity calculation unit 110... Voice data acquisition unit 112... Voice output unit 114 ... comment acquisition unit 116... overlap determination unit 117... avatar display position changing unit 118... avatar information generation unit 120... voting reception unit 122... message reception unit 123... interactive information generation unit 500... user information management table 600... avatar selection history management Table 700... Voting history management table 800... Message history management table

Claims (25)

複数の情報提示装置と情報配信サーバとがネットワークを介して接続される情報提示システムであって、
前記情報提示装置は、
ネットワークを介して配信される配信動画を第1の表示領域に表示する配信動画表示部と、
前記第1の表示領域に表示される配信動画を視聴するユーザの身体動作に係る身体動作情報を取得する身体動作情報取得部と、
前記身体動作情報に基づいて前記ユーザの身体動作を表現する第1のアバタを生成するアバタ生成部と、
前記第1のアバタを第2の表示領域に表示するアバタ表示部と、
前記第1の表示領域に表示される配信動画を視聴するユーザの前記身体動作情報を含むアバタ情報を生成して前記情報配信サーバに送信するアバタ情報生成部と、
前記第1の表示領域に表示される配信動画を視聴するユーザの属性情報として、該ユーザの身体特徴に係る身体特徴情報を取得する身体特徴情報取得部と、
を含み、
前記情報配信サーバは、
過去にユーザが配信動画を視聴したときの身体動作に係る身体動作情報を含むアバタ情報を保存するデータベースと、
配信動画を表示する前記情報提示装置からの要求に応じて、過去に該配信動画を視聴した他のユーザの前記アバタ情報を送信するアバタ情報配信部と、
を含み、前記情報提示装置から受信した前記アバタ情報を前記データベースに保存し、
前記アバタ生成部は、
前記情報配信サーバから受信した前記アバタ情報に含まれる前記身体動作情報に基づいて、前記他のユーザの身体動作を再現する第2のアバタを生成し、
前記アバタ表示部は、
前記第1のアバタと前記第2のアバタを前記第2の表示領域に一緒に表示し、
前記身体動作情報と前記属性情報と情報取得日時を含む前記アバタ情報を前記情報配信サーバに送信する、
前記情報提示装置は、
表示する前記第2のアバタの上限数と検索条件を指定して前記情報配信サーバに前記アバタ情報を要求し、前記情報配信サーバは、指定された前記検索条件に合致する前記上限数以内の前記第2のアバタに係る前記アバタ情報を前記情報提示装置に送信する、情報提示システム。
An information presentation system in which a plurality of information presentation devices and an information distribution server are connected via a network,
The information presentation device,
A distribution video display unit for displaying a distribution video distributed via the network in the first display area;
A physical motion information acquisition unit that acquires physical motion information related to the physical motion of the user who views the distribution video displayed in the first display area;
An avatar generation unit that generates a first avatar expressing the physical movement of the user based on the physical movement information;
An avatar display section for displaying the first avatar in a second display area,
An avatar information generation unit that generates avatar information including the physical motion information of the user who views the distribution video displayed in the first display area and transmits the avatar information to the information distribution server;
A physical characteristic information acquisition unit that acquires physical characteristic information relating to the physical characteristics of the user as attribute information of the user who views the distribution video displayed in the first display area;
Including
The information distribution server,
A database that stores avatar information including physical motion information related to physical motion when a user views a distribution video in the past,
An avatar information distribution unit that transmits the avatar information of another user who has watched the distribution video in the past, in response to a request from the information presentation device that displays the distribution video,
Including, save the avatar information received from the information presentation device in the database,
The avatar generation unit,
Generating a second avatar that reproduces the physical motion of the other user based on the physical motion information included in the avatar information received from the information distribution server,
The avatar display section,
Displaying the first avatar and the second avatar together in the second display area ,
Transmitting the avatar information including the physical movement information, the attribute information, and the information acquisition date and time to the information distribution server,
The information presentation device,
The upper limit number of the second avatars to be displayed and a search condition are specified to request the avatar information from the information distribution server, and the information distribution server is within the upper limit number that matches the specified search condition. An information presentation system for transmitting the avatar information related to a second avatar to the information presentation device .
前記身体特徴情報は、ユーザの身長および身体の大きさを含む、
請求項に記載の情報提示システム。
The body characteristic information includes height and body size of the user,
The information presentation system according to claim 1 .
前記情報提示装置は、
前記第1の表示領域に表示される配信動画を視聴するユーザの属性情報として、該ユーザの前記身体動作情報に基づいて該身体の活性度を算出する身体活性度算出部を含む、
請求項1または2に記載の情報提示システム。
The information presentation device,
A physical activity calculation unit that calculates the activity of the body based on the physical movement information of the user as the attribute information of the user who views the distribution video displayed in the first display area.
The information presentation system according to claim 1 .
前記情報提示装置は、
前記第1の表示領域に表示される配信動画を視聴するユーザの属性情報として、該ユーザが発した音声の音声データを取得する音声データ取得部を含む、
請求項1〜3のいずれか一項に記載の情報提示システム。
The information presentation device,
A voice data acquisition unit that acquires voice data of voice uttered by the user as attribute information of the user who views the distribution video displayed in the first display area.
Information presentation system according to any one of claims 1 to 3.
前記情報提示装置は、
前記第1の表示領域に表示される配信動画を視聴するユーザの属性情報として、該ユーザが発した音声の音声データから抽出した発話をテキスト化したコメントを取得するコメント取得部を含む、
請求項1〜4のいずれか一項に記載の情報提示システム。
The information presentation device,
As attribute information of the user who views the distribution video displayed in the first display area, a comment acquisition unit that acquires a comment in which the utterance extracted from the voice data of the voice uttered by the user is converted into text is included.
The information presentation system according to any one of claims 1 to 4 .
前記情報提示装置は、
前記第1の表示領域に表示する配信動画に同期させて前記情報配信サーバから受信した前記アバタ情報に含まれる前記音声データを音声出力する音声出力部を含む、
請求項に記載の情報提示システム。
The information presentation device,
A voice output unit that outputs the voice data included in the avatar information received from the information delivery server in synchronization with a delivery video displayed in the first display area.
The information presentation system according to claim 1 .
前記音声出力部は、
前記第1のアバタに隣接する前記第2のアバタに係る前記音声データをそれ以外の前記第2のアバタに係る前記音声データよりも大きい音量で音声出力する、
請求項に記載の情報提示システム。
The voice output unit,
Outputting the voice data of the second avatar adjacent to the first avatar at a higher volume than the voice data of the other second avatars.
The information presentation system according to claim 6 .
前記アバタ表示部は、
前記第1の表示領域に表示する配信動画に同期させて前記情報配信サーバから受信した前記アバタ情報に含まれる前記コメントを対応する前記他のユーザの前記第2のアバタに関連付けて表示する、
請求項1〜7のいずれか一項に記載の情報提示システム。
The avatar display section,
The comment included in the avatar information received from the information distribution server in synchronization with the distribution moving image displayed in the first display area is displayed in association with the corresponding second avatar of the other user,
The information presentation system according to any one of claims 1 to 7 .
前記アバタ表示部は、
前記第1のアバタに隣接する前記第2のアバタに対応する前記コメントのみを表示する、
請求項8に記載の情報提示システム。
The avatar display section,
Display only the comment corresponding to the second avatar adjacent to the first avatar,
The information presentation system according to claim 8.
前記検索条件は所定項目の並び替え条件であり、前記所定項目は前記情報取得日時、前記身長、前記身体の大きさ、および前記身体の活性度のうちのいずれかを含む、
請求項に記載の情報提示システム。
The search condition is a condition for rearranging predetermined items, and the predetermined item includes any of the information acquisition date/time, the height, the size of the body, and the activity level of the body,
The information presentation system according to claim 1 .
前記情報提示装置は、
前記第2の表示領域における前記第1のアバタの第1の表示位置と前記第2のアバタの第2の表示位置が重なるか否かを判定する重なり判定部と、
前記第1の表示位置と前記第2の表示位置が重なると判定したときに、両者が重ならなくなるように該第2の表示位置を変更するアバタ表示位置変更部と
を含む、
請求項1〜10のいずれか一項に記載の情報提示システム。
The information presentation device,
An overlap determination unit that determines whether or not the first display position of the first avatar and the second display position of the second avatar in the second display area overlap with each other,
An avatar display position changing unit that changes the second display position so that the first display position and the second display position do not overlap each other when it is determined that the first display position and the second display position overlap.
The information presentation system according to any one of claims 1 to 10 .
前記アバタ生成部は、
前記第1のアバタおよび前記第2のアバタのそれぞれに異なる描画色を割り当て、該第2のアバタの描画色に所定の透明度を設定する、
請求項11に記載の情報提示システム。
The avatar generation unit,
Different drawing colors are assigned to the first avatar and the second avatar, and a predetermined transparency is set for the drawing color of the second avatar.
The information presentation system according to claim 11 .
前記アバタ表示部は、
前記第2の表示領域を前記第1のアバタと前記第2のアバタの総数で分割し、分割してなる複数の領域の中で最も中央に位置する領域を該第1のアバタの表示領域として設定し、残りの領域を該第2のアバタの表示領域として設定する、
請求項1〜12のいずれか一項に記載の情報提示システム。
The avatar display section,
The second display area is divided by the total number of the first avatar and the second avatar, and the area located at the center of the plurality of divided areas is set as the display area of the first avatar. And set the remaining area as the display area of the second avatar,
Information presentation system according to any one of claims 1 to 12.
前記アバタ生成部は、
前記第1のアバタおよび前記第2のアバタのそれぞれに異なる描画色を割り当てる、
請求項13に記載の情報提示システム。
The avatar generation unit,
Assigning different drawing colors to each of the first avatar and the second avatar,
The information presentation system according to claim 13 .
前記情報提示装置は、
前記第2の表示領域に表示される前記第2のアバタを介して当該第2のアバタがその身体動作を表現するところの前記他のユーザに対する投票を受け付ける投票受付部を含む、
請求項1〜14のいずれか一項に記載の情報提示システム。
The information presentation device,
A vote accepting unit that accepts a vote for the other user where the second avatar expresses its physical action via the second avatar displayed in the second display area,
The information presentation system according to any one of claims 1 to 14.
前記情報提示装置は、
前記第2の表示領域に表示される前記第2のアバタを介して当該第2のアバタがその身体動作を表現するところの前記他のユーザに宛てたメッセージを受け付けるメッセージ受付部を含む、
請求項15に記載の情報提示システム。
The information presentation device,
A message accepting unit that accepts a message addressed to the other user where the second avatar expresses its physical action via the second avatar displayed in the second display area,
The information presentation system according to claim 15 .
前記情報提示装置は、
ユーザが選択した前記第2のアバタがその身体動作を表現するところの前記他のユーザの識別情報、該他のユーザに対する投票および該他のユーザに宛てたメッセージを含むインタラクティブ情報を生成して、前記情報配信サーバに送信するインタラクティブ情報生成部を含む、
請求項16に記載の情報提示システム。
The information presentation device,
Generating interactive information including identification information of the other user where the second avatar selected by the user represents the physical movement, voting for the other user, and a message addressed to the other user, An interactive information generation unit for transmitting to the information distribution server,
The information presentation system according to claim 16 .
前記情報配信サーバは、
ユーザによる前記第2のアバタの選択の履歴を管理する選択履歴管理部を含む、
請求項17に記載の情報提示システム。
The information distribution server,
A selection history management unit that manages a history of selection of the second avatar by the user,
The information presentation system according to claim 17 .
前記情報配信サーバは、
前記第2のアバタがその身体動作を表現するところの前記他のユーザに対する投票の履歴を管理する投票履歴管理部を含む、
請求項18に記載の情報提示システム。
The information distribution server,
A voting history manager that manages a history of votes for the other user where the second avatar expresses its physical activity;
The information presentation system according to claim 18 .
前記情報配信サーバは、
前記第2のアバタがその身体動作を表現するところの前記他のユーザに宛てたメッセージの履歴を管理するメッセージ履歴管理部含む、
請求項19に記載の情報提示システム。
The information distribution server,
The second avatar includes a message history management unit that manages a history of messages addressed to the other user who expresses the physical action.
The information presentation system according to claim 19 .
前記情報配信サーバは、
ユーザを選択した前記他のユーザ、ユーザに投票した前記他のユーザおよびユーザにメッセージを送信した前記他のユーザを表示する通知画面を生成し、前記情報提示装置に送信する通知画面生成部を含む、
請求項20に記載の情報提示システム。
The information distribution server,
A notification screen generation unit that generates a notification screen that displays the other user who has selected a user, the other user who has voted for the user, and the other user who has sent a message to the user, and which transmits the notification screen to the information presentation device ,
The information presentation system according to claim 20 .
前記通知画面生成部は、
前記他のユーザがユーザに宛てたメッセージを表示するメッセージ通知画面を生成し、前記情報提示装置に送信する、
請求項21に記載の情報提示システム。
The notification screen generation unit,
A message notification screen for displaying a message addressed to the user by the other user is generated and transmitted to the information presentation device,
The information presentation system according to claim 21 .
前記メッセージ通知画面は、
前記他のユーザがメッセージを送信したときの表示画面をキャプチャした動画の上に該メッセージをオーバーレイ表示してなるダイアログ画面である、
請求項22に記載の情報提示システム。
The message notification screen is
A dialog screen in which the message is overlay-displayed on a moving image capturing a display screen when the other user sends a message,
The information presentation system according to claim 22 .
前記アバタ表示位置変更部は、
前記第1のアバタと前記第2のアバタの総数と同数の矩形領域を定義し、表示画面の中央に位置する矩形領域を前記第1のアバタの表示領域として割り当て、その左右に位置する残りの矩形領域を前記第2のアバタの表示領域として割り当て、ユーザが表示画面に対して左右に移動することに同期して、前記第1のアバタを前記第2のアバタの表示領域に移動させる、
請求項11〜23のいずれか一項に記載の情報提示システム。
The avatar display position changing unit,
The same number of rectangular areas as the total number of the first avatars and the second avatars are defined, the rectangular area located in the center of the display screen is assigned as the display area of the first avatar, and the remaining left and right areas are defined. A rectangular area is assigned as the display area of the second avatar, and the first avatar is moved to the display area of the second avatar in synchronization with the user moving left and right with respect to the display screen.
The information presentation system according to any one of claims 11 to 23 .
前記アバタ表示位置変更部は、
前記第1のアバタを前記第2のアバタの表示領域に移動させたときに、所定の開始条件が成立したことに応答して、該第2のアバタが該第1のアバタに追従して移動する連行状態に遷移させ、所定の終了条件が成立したことに応答して、該連行状態を解消する、
請求項11〜24のいずれか一項に記載の情報提示システム。
The avatar display position changing unit,
Moving said when a first avatar is moved to the display region of the second avatar, in response to a predetermined start condition is met, avatar of said second to follow the said first avatar To the driving state, and in response to the satisfaction of a predetermined termination condition, canceling the driving state.
The information presentation system according to any one of claims 11 to 24 .
JP2016135020A 2015-07-07 2016-07-07 Information presentation system, information presentation device and program Active JP6718169B2 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2015136112 2015-07-07
JP2015136112 2015-07-07

Publications (2)

Publication Number Publication Date
JP2017021799A JP2017021799A (en) 2017-01-26
JP6718169B2 true JP6718169B2 (en) 2020-07-08

Family

ID=57888248

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016135020A Active JP6718169B2 (en) 2015-07-07 2016-07-07 Information presentation system, information presentation device and program

Country Status (1)

Country Link
JP (1) JP6718169B2 (en)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6378716B2 (en) * 2016-04-27 2018-08-22 ソフトバンク株式会社 Attitude control system and program
JP7064265B2 (en) * 2017-11-28 2022-05-10 株式会社コロプラ Programs, information processing devices, and information processing methods for providing virtual experiences
KR102426652B1 (en) * 2018-01-19 2022-07-28 이에스비 랩스, 인코퍼레이티드. Virtual interactive audience interface
JP7193253B2 (en) * 2018-05-10 2022-12-20 株式会社 ディー・エヌ・エー System, method and program for distributing videos
JP7256870B2 (en) * 2019-04-17 2023-04-12 マクセル株式会社 Video display device and its display control method
JP7098575B2 (en) * 2019-06-25 2022-07-11 グリー株式会社 A video distribution system that delivers live video containing animations of character objects generated based on the movement of actors.
JP6793807B1 (en) * 2019-12-26 2020-12-02 株式会社ドワンゴ Programs, information processing equipment and methods
JP6942844B1 (en) * 2020-06-23 2021-09-29 グリー株式会社 Computer programs, methods, and server equipment
JP7083380B2 (en) * 2020-09-28 2022-06-10 グリー株式会社 Computer programs, methods and server equipment
JP7455300B2 (en) * 2021-09-03 2024-03-26 グリー株式会社 Information processing system, information processing method and computer program

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5231093B2 (en) * 2008-06-17 2013-07-10 ヤフー株式会社 Content updating apparatus, method and program
JP4755672B2 (en) * 2008-06-17 2011-08-24 ヤフー株式会社 Content editing apparatus, method and program
JP5122407B2 (en) * 2008-09-08 2013-01-16 株式会社タイトー Content editing server and content editing program
US8661353B2 (en) * 2009-05-29 2014-02-25 Microsoft Corporation Avatar integrated shared media experience
US9159151B2 (en) * 2009-07-13 2015-10-13 Microsoft Technology Licensing, Llc Bringing a visual representation to life via learned input from the user
JP5987227B2 (en) * 2010-10-25 2016-09-07 サムスン エレクトロニクス カンパニー リミテッド Social network-based TV broadcast content sharing method, TV broadcast content sharing server, method for receiving social network-based TV broadcast content sharing service, and TV device
EP3457705A1 (en) * 2013-05-30 2019-03-20 Sony Corporation Display controller, display control method, and computer program

Also Published As

Publication number Publication date
JP2017021799A (en) 2017-01-26

Similar Documents

Publication Publication Date Title
JP6718169B2 (en) Information presentation system, information presentation device and program
US10699482B2 (en) Real-time immersive mediated reality experiences
US10632372B2 (en) Game content interface in a spectating system
US10345897B2 (en) Spectator interactions with games in a specatating system
US10390064B2 (en) Participant rewards in a spectating system
US10376795B2 (en) Game effects from spectating community inputs
US10484439B2 (en) Spectating data service for a spectating system
US11071919B2 (en) Joining games from a spectating system
JP6369462B2 (en) Client device, control method, system, and program
US11792485B2 (en) Systems and methods for annotating video media with shared, time-synchronized, personal reactions
US9244533B2 (en) Camera navigation for presentations
US20170001122A1 (en) Integrating games systems with a spectating system
JP2019536131A (en) Controls and interfaces for user interaction in virtual space
WO2017004433A1 (en) Integrating games systems with a spectating system
JP2020039029A (en) Video distribution system, video distribution method, and video distribution program
JP2010219849A (en) Image generation system, program, information storage medium, server system, and content distribution system
US20220174361A1 (en) Spectator filter video compositing
JP6951394B2 (en) Video distribution system that distributes videos including messages from viewers
Correia et al. Connected layers: evaluating visualizations of embodiment in contemporary dance performances
JP7455308B2 (en) Information processing system, information processing method, information processing program
Rome Narrative virtual reality filmmaking: A communication conundrum
US11878250B2 (en) Content enhancement system and method
US20240013488A1 (en) Groups and Social In Artificial Reality
JP7288990B2 (en) Video distribution system, video distribution method and video distribution program
Meirson Choose Your Own Adventure: The Future of Interactive Media

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190520

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200212

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200218

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200326

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200526

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200605

R150 Certificate of patent or registration of utility model

Ref document number: 6718169

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150