JP2020177488A - Program, terminal apparatus, and content reproduction system - Google Patents

Program, terminal apparatus, and content reproduction system Download PDF

Info

Publication number
JP2020177488A
JP2020177488A JP2019079851A JP2019079851A JP2020177488A JP 2020177488 A JP2020177488 A JP 2020177488A JP 2019079851 A JP2019079851 A JP 2019079851A JP 2019079851 A JP2019079851 A JP 2019079851A JP 2020177488 A JP2020177488 A JP 2020177488A
Authority
JP
Japan
Prior art keywords
information
reproduction
content
playback
character
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019079851A
Other languages
Japanese (ja)
Inventor
早人 池田
Hayato Ikeda
早人 池田
秀行 藤原
Hideyuki Fujiwara
秀行 藤原
弘幸 村田
Hiroyuki Murata
弘幸 村田
政樹 加藤
Masaki Kato
政樹 加藤
佐々木 直哉
Naoya Sasaki
直哉 佐々木
明 北原
Akira Kitahara
明 北原
秀昭 大橋
Hideaki Ohashi
秀昭 大橋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Bandai Namco Entertainment Inc
Bandai Namco Studios Inc
Original Assignee
Bandai Namco Entertainment Inc
Bandai Namco Studios Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Bandai Namco Entertainment Inc, Bandai Namco Studios Inc filed Critical Bandai Namco Entertainment Inc
Priority to JP2019079851A priority Critical patent/JP2020177488A/en
Publication of JP2020177488A publication Critical patent/JP2020177488A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)
  • Digital Computer Display Output (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

To provide a program, a terminal apparatus and the like which can realize synchronization of commencement of contents reproduction with ease when contents including motion pictures obtained by capturing a character in a virtual three-dimensional space are reproduced.SOLUTION: A terminal apparatus includes: a content reproducing unit for reproducing contents including a motion picture generated by capturing, by a virtual camera, a virtual three-dimensional space where at least one character is disposed; and a reading unit for, if a captured image obtained by capturing a reproduction information display object displaying reproduction information including reproduction timing information is acquired, extracting, from the captured image, the reproduction timing information for use in designation of the reproduction start timing for the contents. The content reproducing unit starts reproduction of the contents at the reproduction start timing designated based on the reproduction timing information.SELECTED DRAWING: Figure 7

Description

本発明は、プログラム、端末装置及びコンテンツ再生システム等に関する。 The present invention relates to a program, a terminal device, a content reproduction system, and the like.

近年、仮想的なアイドルのキャラクタが仮想3次元空間において踊ったり、歌ったりする様子を撮影したMV(Music Video)の動画を、端末装置において再生して観賞できるコンテンツ再生システムが脚光を浴びている。このようなMV動画においては、ソロのアイドルではなく、アイドルグループを構成する複数のアイドルが踊ったり、歌ったりする様子を観賞したいというニーズがある。 In recent years, a content playback system that allows a virtual idol character to play and watch a MV (Music Video) movie of dancing and singing in a virtual three-dimensional space on a terminal device has been in the limelight. .. In such a MV movie, there is a need to watch not a solo idol but a plurality of idols forming an idol group dancing and singing.

このようなニーズに応える1つの手法として、例えば特許文献1に開示される技術を利用して、例えば複数の端末の各端末に、仮想的なアイドルグループを構成する複数のキャラクタの各キャラクタを表示する手法が考えられる。この手法によれば、複数の端末を用いて、複数のキャラクタが踊ったり、歌ったりする様子をMV動画として観賞できるシステムを実現することも可能である。なお特許文献2には、ARマーカを用いる拡張現実のゲームにおける同期やカメラ位置の変更に関する技術が開示されている。また特許文献3には、2次元コードを利用したグループ登録の技術について開示されている。 As one method for responding to such needs, for example, by utilizing the technique disclosed in Patent Document 1, for example, each character of a plurality of characters constituting a virtual idle group is displayed on each terminal of a plurality of terminals. A method to do is conceivable. According to this method, it is also possible to realize a system in which a plurality of characters can be watched as an MV moving image of dancing and singing by using a plurality of terminals. Patent Document 2 discloses a technique relating to synchronization and change of camera position in an augmented reality game using an AR marker. Further, Patent Document 3 discloses a technique for group registration using a two-dimensional code.

特開2005−173291号公報Japanese Unexamined Patent Publication No. 2005-173291 特開2013−61870号公報Japanese Unexamined Patent Publication No. 2013-61870 特開2014−215924号公報Japanese Unexamined Patent Publication No. 2014-215924

しかしながら、複数の端末を用いてコンテンツ再生システムを実現しようとすると、複数の端末においてキャラクタの動きや楽曲を同期させる必要があるという課題がある。また参加者である複数のユーザが全員集まるまで、MVの動画再生が開始されず、長い間、待たなければならないという問題もある。また複数の端末が通信できない環境や、通信が途切れてしまうような環境においては、複数の端末が同期した動画再生を実現できないという問題もある。 However, in order to realize a content reproduction system using a plurality of terminals, there is a problem that it is necessary to synchronize the movements of characters and music on the plurality of terminals. There is also a problem that the MV video playback is not started until all the users who are participants gather, and it is necessary to wait for a long time. Further, in an environment in which a plurality of terminals cannot communicate with each other or in an environment in which communication is interrupted, there is also a problem that a plurality of terminals cannot realize synchronized video playback.

本開示によれば、仮想3次元空間のキャラクタを撮影した動画を含むコンテンツの再生において、コンテンツ再生の開始の同期を簡素に実現できるプログラム、端末装置及びコンテンツ再生システム等を提供できる。 According to the present disclosure, it is possible to provide a program, a terminal device, a content reproduction system, and the like that can simply realize synchronization of the start of content reproduction in the reproduction of content including a moving image of a character in a virtual three-dimensional space.

本開示の一態様は、少なくとも1つのキャラクタが配置された仮想3次元空間を仮想カメラにより撮影することで生成される動画を含むコンテンツを再生するコンテンツ再生部と、再生タイミング情報を含む再生情報を表示する再生情報表示物を撮影した撮影画像が取得された場合に、前記撮影画像から、前記コンテンツの再生開始タイミングを指定するための前記再生タイミング情報を抽出する読取り部とを含み、前記コンテンツ再生部は、前記再生タイミング情報に基づき指定された前記再生開始タイミングで、前記コンテンツの再生を開始する端末装置に関係する。また本開示の一態様は、上記各部としてコンピュータを機能させるプログラム、又は該プログラムを記憶したコンピュータ読み取り可能な情報記憶媒体に関係する。 One aspect of the present disclosure is a content reproduction unit that reproduces content including a moving image generated by shooting a virtual three-dimensional space in which at least one character is arranged by a virtual camera, and reproduction information including reproduction timing information. Reproduction information to be displayed The content reproduction includes a reading unit that extracts the reproduction timing information for designating the reproduction start timing of the content from the photographed image when the photographed image of the displayed object is acquired. The unit relates to a terminal device that starts playback of the content at the playback start timing specified based on the playback timing information. Further, one aspect of the present disclosure relates to a program that causes a computer to function as each of the above parts, or a computer-readable information storage medium that stores the program.

本開示の一態様によれば、再生タイミング情報を含む再生情報を表示する再生情報表示物の撮影画像が取得されると、撮影画像から、再生タイミング情報が抽出される。そして、抽出された再生タイミング情報に基づき指定された再生開始タイミングで、仮想3次元空間のキャラクタを仮想カメラで撮影することで生成される動画を含むコンテンツの再生が開始される。このようにすれば、通信等を行うことなく、撮影画像から、再生開始タイミングを指定する再生タイミング情報を抽出して、仮想3次元空間のキャラクタを仮想カメラで撮影することで生成される動画のコンテンツの再生を、再生開始タイミングにおいてスタートできるようになる。従って、仮想3次元空間のキャラクタを撮影した動画を含むコンテンツの再生において、コンテンツ再生の開始の同期を簡素に実現できる端末装置、プログラム等の提供が可能になる。 According to one aspect of the present disclosure, when a photographed image of a reproduction information display object displaying reproduction information including reproduction timing information is acquired, reproduction timing information is extracted from the photographed image. Then, at the playback start timing specified based on the extracted playback timing information, the playback of the content including the moving image generated by shooting the character in the virtual three-dimensional space with the virtual camera is started. By doing so, the playback timing information that specifies the playback start timing is extracted from the shot image without communication or the like, and the character in the virtual three-dimensional space is shot with the virtual camera to generate the moving image. Content playback can be started at the playback start timing. Therefore, it is possible to provide a terminal device, a program, or the like that can simply realize synchronization of the start of content reproduction in the reproduction of content including a moving image of a character in a virtual three-dimensional space.

また本開示の一態様では、前記少なくとも1つのキャラクタとして、ユーザが選択したキャラクタが前記仮想3次元空間に配置され、前記再生情報は、前記コンテンツ再生部により再生される前記コンテンツを指定するためのコンテンツ識別情報を含み、前記コンテンツ再生部は、前記コンテンツ識別情報により指定された前記コンテンツ及び前記ユーザが選択した前記キャラクタの位置に応じて、前記キャラクタのモーションの決定と、前記仮想カメラの位置の設定を行ってもよい。 Further, in one aspect of the present disclosure, as the at least one character, a character selected by the user is arranged in the virtual three-dimensional space, and the reproduction information is for designating the content to be reproduced by the content reproduction unit. The content reproduction unit includes the content identification information, and determines the motion of the character and the position of the virtual camera according to the position of the content specified by the content identification information and the character selected by the user. You may make settings.

このようにすれば、指定されたコンテンツ及びユーザの選択したキャラクタの位置に応じた、適切なモーションの選択と仮想カメラの位置の設定が可能になる。 In this way, it is possible to select an appropriate motion and set the position of the virtual camera according to the designated content and the position of the character selected by the user.

また本開示の一態様では、ユーザの入力情報に基づいて、前記少なくとも1つのキャラクタとして複数のキャラクタを前記仮想3次元空間に配置設定する仮想空間設定部と、前記仮想カメラの位置の設定を行う仮想カメラ制御部を含んでもよい(仮想空間設定部、仮想カメラ制御部としてコンピュータを機能させてもよい)。 Further, in one aspect of the present disclosure, a virtual space setting unit for arranging and setting a plurality of characters as the at least one character in the virtual three-dimensional space and a position of the virtual camera are set based on user input information. A virtual camera control unit may be included (a computer may function as a virtual space setting unit and a virtual camera control unit).

このようにすれば、ユーザの入力情報を反映させて、複数のキャラクタを配置し、配置された複数のキャラクタに応じた適切な位置に仮想カメラを設定できるようになる。 In this way, a plurality of characters can be arranged by reflecting the input information of the user, and the virtual camera can be set at an appropriate position according to the arranged plurality of characters.

また本開示の一態様では、前記少なくとも1つのキャラクタとして、複数のキャラクタが前記仮想3次元空間に配置され、前記コンテンツ再生部は、前記複数のキャラクタの配置に応じて、前記複数のキャラクタの各キャラクタのモーションを決定してもよい。 Further, in one aspect of the present disclosure, a plurality of characters are arranged in the virtual three-dimensional space as the at least one character, and the content reproduction unit is each of the plurality of characters according to the arrangement of the plurality of characters. The motion of the character may be determined.

このようにすれば、複数のキャラクタを仮想3次元空間に配置した場合に、キャラクタの配置位置に応じた適切なモーションを選択して、キャラクタを動作させることが可能になる。 In this way, when a plurality of characters are arranged in the virtual three-dimensional space, it is possible to select an appropriate motion according to the arrangement position of the characters and operate the characters.

また本開示の一態様では、前記再生タイミング情報は、基準時刻から設定時間後の時刻を、前記再生開始タイミングの指定時刻として指定する情報であり、前記コンテンツ再生部は、前記指定時刻に、前記コンテンツの再生を開始してもよい。 Further, in one aspect of the present disclosure, the reproduction timing information is information that designates a time after a set time from the reference time as a designated time of the reproduction start timing, and the content reproduction unit performs the above-mentioned at the designated time. You may start playing the content.

このようにすれば、設定時間を指定するだけで、基準時刻から設定時間後の指定時刻において、コンテンツの再生を開始できるようになり、ユーザの利便性の向上を図れる。 By doing so, it is possible to start playing the content at a designated time after the set time by simply specifying the set time, and it is possible to improve the convenience of the user.

また本開示の一態様では、前記指定時刻の前に、前記コンテンツ再生部を起動する起動部を含んでもよい(起動部としてコンピュータを機能させてもよい)。 Further, in one aspect of the present disclosure, an activation unit that activates the content reproduction unit may be included before the designated time (a computer may function as the activation unit).

このようにすれば指定時刻の前のタイミングにおいて、コンテンツ再生部を起動して、コンテンツの再生を適正に実行できるようになる。 By doing so, the content reproduction unit can be activated at the timing before the designated time, and the content can be appropriately reproduced.

また本開示の一態様では、前記再生情報を生成する再生情報生成部と、前記再生情報を表示する前記再生情報表示物を出力するための処理を行う出力処理部を含んでもよい(再生情報生成部、出力処理部としてとしてコンピュータを機能させてもよい)。 Further, one aspect of the present disclosure may include a reproduction information generation unit that generates the reproduction information and an output processing unit that performs a process for outputting the reproduction information display object that displays the reproduction information (reproduction information generation). The computer may function as a unit or output processing unit).

このようにすれば、コンテンツの再生開始タイミングを指定するための再生タイミング情報を含む再生情報を、再生情報表示物を介して他の端末に伝達できるようになる。 In this way, the reproduction information including the reproduction timing information for designating the reproduction start timing of the content can be transmitted to another terminal via the reproduction information display object.

また本開示の一態様は、ホスト端末と、少なくとも1つのゲスト端末を有し、少なくとも1つのキャラクタが配置された仮想3次元空間を仮想カメラにより撮影することで生成される動画を含むコンテンツを再生するためのコンテンツ再生システムであって、前記ホスト端末は、前記コンテンツの再生開始タイミングを指定するための再生タイミング情報を含む再生情報を生成し、前記再生情報を表示する再生情報表示物を出力し、前記少なくとも1つのゲスト端末は、前記再生情報表示物を撮影した撮影画像を取得した場合に、前記撮影画像から、前記再生タイミング情報を抽出し、前記再生タイミング情報に基づき指定された前記再生開始タイミングで、前記コンテンツの再生を開始するコンテンツ再生システムに関係する。 Further, one aspect of the present disclosure is to reproduce content including a moving image generated by shooting a virtual three-dimensional space having a host terminal and at least one guest terminal and arranging at least one character with a virtual camera. The host terminal generates playback information including playback timing information for designating the playback start timing of the content, and outputs a playback information display object for displaying the playback information. When the at least one guest terminal acquires a photographed image obtained by photographing the reproduction information display object, the reproduction timing information is extracted from the photographed image, and the reproduction start designated based on the reproduction timing information. It relates to a content reproduction system that starts reproduction of the content at a timing.

本開示の一態様では、ホスト端末が再生タイミング情報を含む再生情報を生成し、再生情報が表示される再生情報表示物をゲスト端末が撮影することで、再生開始タイミングを指定する再生タイミング情報を、ホスト端末からゲスト端末に伝えることが可能になる。そしてこの再生タイミング情報で指定される再生開始タイミングにおいて、仮想3次元空間のキャラクタを仮想カメラで撮影することで生成される動画を含むコンテンツの再生を開始できるようになる。このようにすれば、ホスト端末とゲスト端末とを通信接続しなくても、再生開始タイミングを指定する再生タイミング情報をホスト端末からゲスト端末に伝えて、動画のコンテンツの再生を、再生開始タイミングにおいてスタートできるようになる。従って、仮想3次元空間のキャラクタを撮影した動画を含むコンテンツの再生において、コンテンツ再生の開始の同期を簡素に実現できるコンテンツ再生システムの提供が可能になる。 In one aspect of the present disclosure, the host terminal generates playback information including playback timing information, and the guest terminal captures a playback information display object on which the playback information is displayed, thereby providing playback timing information that specifies the playback start timing. , It becomes possible to transmit from the host terminal to the guest terminal. Then, at the reproduction start timing specified by the reproduction timing information, it becomes possible to start the reproduction of the content including the moving image generated by shooting the character in the virtual three-dimensional space with the virtual camera. In this way, even if the host terminal and the guest terminal are not connected by communication, the playback timing information that specifies the playback start timing is transmitted from the host terminal to the guest terminal, and the video content is played back at the playback start timing. You will be able to start. Therefore, it is possible to provide a content reproduction system that can easily realize synchronization of the start of content reproduction in the reproduction of the content including the moving image of the character in the virtual three-dimensional space.

また本開示の一態様では、前記少なくとも1つのゲスト端末として、第1のゲスト端末と第2のゲスト端末を含み、前記第1のゲスト端末は、前記第1のゲスト端末の第1のユーザが選択した第1のキャラクタの情報を含む設定情報を、第1のユーザ情報として生成し、前記第1のユーザ情報を表示する第1の再生情報表示物を出力し、前記第2のゲスト端末は、前記第2のゲスト端末の第2のユーザが選択した第2のキャラクタの情報を含む設定情報を、第2のユーザ情報として生成し、前記第2のユーザ情報を表示する第2の再生情報表示物を出力し、前記ホスト端末は、前記第1の再生情報表示物と前記第2の再生情報表示物を撮影した撮影画像を取得した場合に、前記撮影画像に基づいて、前記仮想3次元空間での前記第1、第2のキャラクタの配置位置を決定し、前記第1、第2のキャラクタの前記配置位置を指示するキャラクタ配置情報を含む前記再生情報を生成し、前記再生情報を表示する前記再生情報表示物を出力し、前記第1、第2のゲスト端末の各ゲスト端末は、前記再生情報表示物を撮影した前記撮影画像を取得した場合に、前記撮影画像から前記キャラクタ配置情報を抽出し、前記キャラクタ配置情報に基づいて、前記仮想3次元空間に前記第1、第2のキャラクタを配置して、前記コンテンツの再生を行ってよい。 Further, in one aspect of the present disclosure, the at least one guest terminal includes a first guest terminal and a second guest terminal, and the first guest terminal is a user of the first user of the first guest terminal. Setting information including the information of the selected first character is generated as the first user information, the first reproduction information display object for displaying the first user information is output, and the second guest terminal is , The second reproduction information which generates the setting information including the information of the 2nd character selected by the 2nd user of the 2nd guest terminal as the 2nd user information, and displays the 2nd user information. When the display object is output and the host terminal acquires a photographed image obtained by photographing the first reproduction information display object and the second reproduction information display object, the virtual three-dimensional structure is based on the photographed image. The placement position of the first and second characters in space is determined, the reproduction information including the character arrangement information indicating the arrangement position of the first and second characters is generated, and the reproduction information is displayed. When the reproduced information display object is output and each guest terminal of the first and second guest terminals acquires the photographed image obtained by photographing the reproduction information display object, the character arrangement information is obtained from the photographed image. The first and second characters may be arranged in the virtual three-dimensional space based on the character arrangement information, and the content may be reproduced.

このようにすればホスト端末は、第1、第2のゲスト端末の第1、第2のユーザが選択した第1、第2のキャラクタについての情報を含む設定情報を、第1、第2のゲスト端末から取得して、第1、第2のキャラクタを仮想3次元空間に配置できるようになる。 In this way, the host terminal can use the first and second guest terminals to provide setting information including information about the first and second characters selected by the first and second users of the first and second guest terminals. It becomes possible to acquire from the guest terminal and arrange the first and second characters in the virtual three-dimensional space.

また本開示の一態様では、前記ホスト端末は、前記第1の再生情報表示物と前記第2の再生情報表示物を撮影した撮影画像を取得した場合に、前記撮影画像での前記第1の再生情報表示物と前記第2の再生情報表示物の位置関係に基づいて、前記仮想3次元空間での前記第1、第2のキャラクタの前記配置位置を決定し、前記キャラクタ配置情報を生成してもよい。 Further, in one aspect of the present disclosure, when the host terminal acquires a photographed image obtained by photographing the first reproduction information display object and the second reproduction information display object, the first reproduction information display object in the photographed image is obtained. Based on the positional relationship between the reproduction information display object and the second reproduction information display object, the arrangement positions of the first and second characters in the virtual three-dimensional space are determined, and the character arrangement information is generated. You may.

このようにすれば、撮影画像での第1の再生情報表示物と第2の再生情報表示物の位置関係を利用して、第1、第2のキャラクタを仮想3次元空間に配置できるようになる。 In this way, the first and second characters can be arranged in the virtual three-dimensional space by utilizing the positional relationship between the first reproduction information display object and the second reproduction information display object in the captured image. Become.

また本開示の一態様では、前記ホスト端末は、前記第1の再生情報表示物を撮影した第1の撮影画像と、前記第2の再生情報表示物を撮影した第2の撮影画像を取得した場合に、前記第1、第2の撮影画像の取得順に基づいて、前記仮想3次元空間での前記第1、第2のキャラクタの前記配置位置を決定し、前記キャラクタ配置情報を生成してもよい。 Further, in one aspect of the present disclosure, the host terminal has acquired a first captured image obtained by photographing the first reproduction information display object and a second photographed image obtained by photographing the second reproduction information display object. In this case, even if the placement position of the first and second characters in the virtual three-dimensional space is determined based on the acquisition order of the first and second captured images, and the character placement information is generated. Good.

このようにすれば、第1、第2の撮影画像の取得順を利用して、第1、第2のキャラクタを仮想3次元空間に配置できるようになる。 In this way, the first and second characters can be arranged in the virtual three-dimensional space by using the acquisition order of the first and second captured images.

また本開示の一態様では、前記ホスト端末は、前記第1、第2のゲスト端末の前記第1、第2のユーザが選択した前記第1、第2のキャラクタと、前記ホスト端末のユーザが選択したキャラクタについての前記仮想3次元空間での配置を決定してもよい。 Further, in one aspect of the present disclosure, the host terminal includes the first and second characters selected by the first and second users of the first and second guest terminals and the user of the host terminal. The arrangement of the selected character in the virtual three-dimensional space may be determined.

このようにすれば、第1、第2のゲスト端末のユーザが選択した第1、第2のキャラクタに加えて、ホスト端末のユーザが選択したキャラクタについても、仮想3次元空間に配置できるようになる。 In this way, in addition to the first and second characters selected by the users of the first and second guest terminals, the characters selected by the user of the host terminal can also be arranged in the virtual three-dimensional space. Become.

また本開示の一態様では、前記ホスト端末は、基準時刻から設定時間後の時刻を、前記再生開始タイミングの指定時刻として指定する前記再生タイミング情報を生成し、前記少なくとも1つのゲスト端末は、前記指定時刻に、前記コンテンツの再生を開始してもよい。 Further, in one aspect of the present disclosure, the host terminal generates the reproduction timing information for designating the time after the set time from the reference time as the designated time of the reproduction start timing, and the at least one guest terminal is the said. Playback of the content may be started at a designated time.

このようにすれば、設定時間を指定するだけで、基準時刻から設定時間後の指定時刻において、コンテンツの再生を開始できるようになり、ユーザの利便性の向上を図れる。 By doing so, it is possible to start playing the content at a designated time after the set time by simply specifying the set time, and it is possible to improve the convenience of the user.

また本開示の一態様では、前記ホスト端末は、前記ホスト端末の画面の明滅により、前記再生情報表示物を出力してもよい。 Further, in one aspect of the present disclosure, the host terminal may output the reproduction information display object by blinking the screen of the host terminal.

このようにすれば、ホスト端末の画面の明滅により、ホスト端末から第1、第2のゲスト端末に再生情報を伝達できるようになる。 In this way, the playback information can be transmitted from the host terminal to the first and second guest terminals by blinking the screen of the host terminal.

本実施形態のコンテンツ再生システムの構成例。A configuration example of the content playback system of the present embodiment. 本実施形態の端末装置の構成例。Configuration example of the terminal device of this embodiment. 再生情報表示物の撮影についての説明図。Explanatory drawing about shooting of reproduction information display thing. 再生情報表示物を用いた再生情報の読取りについての説明図。Explanatory drawing about reading of reproduction information using reproduction information display thing. 画面の明滅による再生情報表示物の出力の説明図。Explanatory drawing of output of reproduction information display object by blinking screen. 本実施形態の同期手法についての説明図。Explanatory drawing about the synchronization method of this embodiment. 本実施形態の処理例を説明するフローチャート。The flowchart explaining the processing example of this embodiment. 図8(A)、図8(B)はキャラクタ位置や仮想カメラの設定手法の説明図。8 (A) and 8 (B) are explanatory views of a character position and a virtual camera setting method. キャラクタの配置に応じた仮想カメラやモーションの設定の説明図。Explanatory drawing of virtual camera and motion setting according to character arrangement. ユーザの入力情報に基づくキャラクタの配置手法の説明図。Explanatory drawing of character arrangement method based on user input information. 図11(A)、図11(B)は再生開始タイミングの設定手法の説明図。11 (A) and 11 (B) are explanatory views of a playback start timing setting method. コンテンツ再生システムの処理例を説明するフローチャート。A flowchart illustrating a processing example of a content playback system. コンテンツ再生システムの処理例を説明するフローチャート。A flowchart illustrating a processing example of a content playback system. 図14(A)、図14(B)は撮影画像での再生情報表示物の位置関係に基づくキャラクタの配置手法の説明図。14 (A) and 14 (B) are explanatory views of a character arrangement method based on the positional relationship of the reproduced information display object in the captured image. 図15(A)、図15(B)も撮影画像での再生情報表示物の位置関係に基づくキャラクタの配置手法の説明図。15 (A) and 15 (B) are also explanatory views of a character arrangement method based on the positional relationship of the reproduced information display object in the captured image. 撮影画像の取得順に基づくキャラクタの配置手法の説明図。Explanatory drawing of character arrangement method based on acquisition order of photographed image. 大型モニターに再生情報表示物を表示する手法の説明図。Explanatory drawing of a method of displaying a reproduction information display object on a large monitor.

以下、本実施形態について説明する。なお、以下に説明する本実施形態は、特許請求の範囲の記載内容を不当に限定するものではない。また本実施形態で説明される構成の全てが、必須構成要件であるとは限らない。 Hereinafter, this embodiment will be described. It should be noted that the present embodiment described below does not unreasonably limit the description of the scope of claims. Moreover, not all of the configurations described in the present embodiment are essential configuration requirements.

1.コンテンツ再生システム、端末装置
図1に本実施形態のコンテンツ再生システムの構成例を示す。図1のコンテンツ再生システムは、ホスト端末TMHと、ゲスト端末TM1〜TMnを含む。ホスト端末TMHは、親機端末、ホスト装置等と呼ぶこともでき、ゲスト端末TM1〜TMnは、子機端末、クライアント端末等と呼ぶこともできる。なお図1では複数のゲスト端末TM1〜TMnが設けられているが、ゲスト端末の台数は1台であってもよい。
1. 1. Content playback system, terminal device FIG. 1 shows a configuration example of the content playback system of the present embodiment. The content reproduction system of FIG. 1 includes a host terminal TMH and guest terminals TM1 to TMn. The host terminal TMH can also be called a master terminal, a host device, or the like, and the guest terminals TM1 to TMn can also be called a slave terminal, a client terminal, or the like. Although a plurality of guest terminals TM1 to TMn are provided in FIG. 1, the number of guest terminals may be one.

ゲスト端末TM1〜TMnは、例えばゲストの役割として動作し、ホスト端末TMHは、例えばホストの役割として動作する。ゲスト端末TM1〜TMn及びホスト端末TMHは、例えば後述の図2に示すような構成の端末装置により実現できる。但し、ゲストとしての役割であった端末が、ホスト端末になり、ホストとしての役割であった端末が、ゲスト端末になるというように、ホストとゲストの役割は交換可能である。このため、例えばゲスト端末及びホスト端末の各々には、ゲストとして動作するためのプログラムと、ホストとして動作するプログラムの両方がインストールされることになる。なお後述の図17に示すような適用例の場合には、ホスト端末は例えばサーバ装置により実現され、ゲスト端末は、クライアント端末となる端末装置により実現される。この場合にはホストとゲストの役割の交換は行われないようになる。 The guest terminals TM1 to TMn operate, for example, as a guest role, and the host terminal TMH operates, for example, as a host role. The guest terminals TM1 to TMM and the host terminal TMH can be realized by, for example, a terminal device having a configuration as shown in FIG. 2 described later. However, the roles of the host and the guest can be exchanged, such that the terminal that was the role of the guest becomes the host terminal and the terminal that was the role of the host becomes the guest terminal. Therefore, for example, both the program for operating as a guest and the program for operating as a host are installed in each of the guest terminal and the host terminal. In the case of the application example shown in FIG. 17 described later, the host terminal is realized by, for example, a server device, and the guest terminal is realized by a terminal device serving as a client terminal. In this case, the roles of the host and the guest will not be exchanged.

図2にゲスト端末やホスト端末を実現する端末装置の構成例を示す。なお、本実施形態の端末装置は図2の構成に限定されず、その構成要素の一部を省略したり、他の構成要素を追加するなどの種々の変形実施が可能である。 FIG. 2 shows a configuration example of a terminal device that realizes a guest terminal or a host terminal. The terminal device of the present embodiment is not limited to the configuration shown in FIG. 2, and various modifications such as omitting a part of the constituent elements or adding other constituent elements can be performed.

端末装置は、例えばネット接続機能(インターネット接続等)を有する携帯型通信端末であり、例えばスマートフォンや携帯電話機などである。但し端末装置は、例えば携帯型ゲーム装置やタブレット型PCなどの携帯型端末であってもよい。 The terminal device is, for example, a portable communication terminal having an Internet connection function (Internet connection, etc.), such as a smartphone or a mobile phone. However, the terminal device may be a portable terminal such as a portable game device or a tablet PC.

操作部160は、ユーザが種々の操作情報を入力するためのものである。操作部160は、例えば操作ボタン、タッチパネル型ディスプレイ、スライドボタン、各種センサ(角速度センサ、加速度センサ等)、又はマイクなどにより実現できる。なおタッチパネル型ディスプレイでは、例えば操作部160となるタッチパネルと、ディスプレイとなる表示部190とが一体的に設けられることになる。 The operation unit 160 is for the user to input various operation information. The operation unit 160 can be realized by, for example, an operation button, a touch panel type display, a slide button, various sensors (angular velocity sensor, acceleration sensor, etc.), a microphone, or the like. In the touch panel type display, for example, a touch panel serving as an operation unit 160 and a display unit 190 serving as a display are integrally provided.

撮影部162は、対象物の撮影を行うものであり、CCDやCMOSセンサなどの画像センサと、フォーカスレンズ等により構成される光学系などにより実現される。なお撮影部162として、画面と反対側に設けられるメインのカメラと、画面側に設けられるサブのインカメラを設けてもよい。 The photographing unit 162 photographs an object, and is realized by an image sensor such as a CCD or CMOS sensor and an optical system composed of a focus lens or the like. The photographing unit 162 may be provided with a main camera provided on the opposite side of the screen and a sub in-camera provided on the screen side.

記憶部170は各種の情報を記憶する。記憶部170は、処理部100や通信部196などのワーク領域として機能する。プログラムや、プログラムの実行に必要なデータは、この記憶部170に保持される。記憶部170の機能は、半導体メモリ(DRAM、SRAM、VRAM)、HDD(hard disk drive)、又はSSD(Solid State Drive)などにより実現できる。記憶部170は、コンテンツ情報記憶部172、再生情報記憶部174、仮想空間情報記憶部176を含む。コンテンツ情報記憶部172は、再生対象となるコンテンツの情報を記憶する。コンテンツの情報は、例えばキャラクタが配置された仮想3次元空間を仮想カメラにより撮影することで生成される動画の情報や、動画と共に再生される楽曲の情報などを含む。再生情報記憶部174は、コンテンツ再生のための情報である再生情報を記憶する。再生情報は、後述する再生タイミング情報を含む。また再生情報は、コンテンツ識別情報やキャラクタの設定情報を含むことができる。仮想空間情報記憶部176は、仮想3次元空間を構成するための情報である仮想空間情報を記憶する。例えば仮想空間情報として、仮想3次元空間に配置設定される3次元のオブジェクトについての情報を記憶する。なお記憶部170は、仮想空間画像のレンダリングのための描画バッファを含むこともできる。 The storage unit 170 stores various types of information. The storage unit 170 functions as a work area such as the processing unit 100 and the communication unit 196. The program and data necessary for executing the program are stored in the storage unit 170. The function of the storage unit 170 can be realized by a semiconductor memory (DRAM, SRAM, VRAM), an HDD (hard disk drive), an SSD (Solid State Drive), or the like. The storage unit 170 includes a content information storage unit 172, a reproduction information storage unit 174, and a virtual space information storage unit 176. The content information storage unit 172 stores information on the content to be reproduced. The content information includes, for example, information on a moving image generated by shooting a virtual three-dimensional space in which a character is arranged by a virtual camera, information on a musical piece played together with the moving image, and the like. The reproduction information storage unit 174 stores reproduction information which is information for content reproduction. The reproduction information includes the reproduction timing information described later. Further, the reproduction information can include content identification information and character setting information. The virtual space information storage unit 176 stores virtual space information, which is information for constructing a virtual three-dimensional space. For example, as virtual space information, information about a three-dimensional object arranged and set in the virtual three-dimensional space is stored. The storage unit 170 may also include a drawing buffer for rendering a virtual space image.

情報記憶媒体180は、コンピュータにより読み取り可能な媒体であり、プログラムやデータなどを格納するものである。情報記憶媒体180は、光ディスク(DVD、BD、CD)、HDD、或いは半導体メモリ(ROM)などにより実現できる。処理部100は、情報記憶媒体180に格納されるプログラム(データ)に基づいて本実施形態の種々の処理を行う。即ち情報記憶媒体180には、本実施形態の各部としてコンピュータ(入力装置、処理部、記憶部、出力部を備える装置)を機能させるためのプログラム(各部の処理をコンピュータに実行させるためのプログラム)が記憶される。 The information storage medium 180 is a medium that can be read by a computer and stores programs, data, and the like. The information storage medium 180 can be realized by an optical disk (DVD, BD, CD), an HDD, a semiconductor memory (ROM), or the like. The processing unit 100 performs various processes of the present embodiment based on the program (data) stored in the information storage medium 180. That is, the information storage medium 180 is a program for causing a computer (a device including an input device, a processing unit, a storage unit, and an output unit) to function as each part of the present embodiment (a program for causing the computer to execute processing of each part). Is memorized.

表示部190は、本実施形態により生成された画像を出力するディスプレイであり、その機能は、液晶ディスプレイ(LCD)又は有機ELディスプレイなどにより実現できる。なおタッチパネル型ディスプレイの場合には、液晶ディスプレイ又は有機ELディスプレイなどのディスプレイに対してタッチパネルが一体的に形成されることになる。 The display unit 190 is a display that outputs an image generated by the present embodiment, and its function can be realized by a liquid crystal display (LCD), an organic EL display, or the like. In the case of a touch panel type display, the touch panel is integrally formed with a display such as a liquid crystal display or an organic EL display.

I/F(インターフェース)部194は、携帯型情報記憶媒体195とのインターフェース処理を行うものであり、その機能はI/F処理用のASICなどにより実現できる。携帯型情報記憶媒体195は、ユーザが各種の情報を保存するためのものであり、電源が非供給になった場合にもこれらの情報の記憶を保持する記憶装置である。携帯型情報記憶媒体195は、ICカード(メモリカード)、USBメモリ、或いは磁気カードなどにより実現できる。 The I / F (interface) unit 194 performs interface processing with the portable information storage medium 195, and the function can be realized by an ASIC or the like for I / F processing. The portable information storage medium 195 is for the user to store various types of information, and is a storage device that retains the storage of such information even when the power is not supplied. The portable information storage medium 195 can be realized by an IC card (memory card), a USB memory, a magnetic card, or the like.

通信部196は、有線や無線のネットワークを介して外部(他の装置)との間で通信を行うものであり、その機能は、通信用ASIC又は通信用プロセッサなどのハードウェアや、通信用ファームウェアにより実現できる。 The communication unit 196 communicates with an external device (another device) via a wired or wireless network, and its functions include hardware such as a communication ASIC or a communication processor, and communication firmware. Can be realized by.

なお本実施形態の各部としてコンピュータを機能させるためのプログラム(データ)は、サーバ(ホスト装置)が有する情報記憶媒体からネットワーク及び通信部196を介して情報記憶媒体180(或いは記憶部170)に配信してもよい。このようなサーバによる情報記憶媒体の使用も本実施形態の範囲内に含めることができる。 The program (data) for operating the computer as each part of the present embodiment is distributed from the information storage medium of the server (host device) to the information storage medium 180 (or storage unit 170) via the network and the communication unit 196. You may. The use of the information storage medium by such a server can also be included in the scope of the present embodiment.

処理部100(プロセッサ)は、操作部160からの操作入力情報やプログラムなどに基づいて、コンテンツ再生処理、読取り処理、仮想空間設定処理、仮想カメラ制御処理、起動処理、再生情報生成処理、出力処理、表示処理、或いは音処理などを行う。 The processing unit 100 (processor) performs content reproduction processing, reading processing, virtual space setting processing, virtual camera control processing, startup processing, reproduction information generation processing, and output processing based on operation input information and programs from the operation unit 160. , Display processing, sound processing, etc.

処理部100の各部が行う本実施形態の各処理はプロセッサ(ハードウェアを含むプロセッサ)により実現できる。例えば本実施形態の各処理は、プログラム等の情報に基づき動作するプロセッサと、プログラム等の情報を記憶するメモリにより実現できる。プロセッサは、例えば各部の機能が個別のハードウェアで実現されてもよいし、或いは各部の機能が一体のハードウェアで実現されてもよい。例えば、プロセッサはハードウェアを含み、そのハードウェアは、デジタル信号を処理する回路及びアナログ信号を処理する回路の少なくとも一方を含むことができる。例えば、プロセッサは、回路基板に実装された1又は複数の回路装置(例えばIC等)や、1又は複数の回路素子(例えば抵抗、キャパシター等)で構成することもできる。プロセッサは、例えばCPU(Central Processing Unit)であってもよい。但し、プロセッサはCPUに限定されるものではなく、GPU(Graphics Processing Unit)、或いはDSP(Digital Signal Processor)等、各種のプロセッサを用いることが可能である。またプロセッサはASICによるハードウェア回路であってもよい。またプロセッサは、アナログ信号を処理するアンプ回路やフィルター回路等を含んでもよい。メモリ(記憶部170)は、SRAM、DRAM等の半導体メモリであってもよいし、レジスターであってもよい。或いはハードディスク装置(HDD)等の磁気記憶装置であってもよいし、光学ディスク装置等の光学式記憶装置であってもよい。例えば、メモリはコンピュータにより読み取り可能な命令を格納しており、当該命令がプロセッサにより実行されることで、処理部100の各部の処理が実現されることになる。ここでの命令は、プログラムを構成する命令セットでもよいし、プロセッサのハードウェア回路に対して動作を指示する命令であってもよい。 Each process of the present embodiment performed by each unit of the processing unit 100 can be realized by a processor (a processor including hardware). For example, each process of the present embodiment can be realized by a processor that operates based on information such as a program and a memory that stores information such as a program. In the processor, for example, the functions of each part may be realized by individual hardware, or the functions of each part may be realized by integrated hardware. For example, a processor includes hardware, which hardware can include at least one of a circuit that processes a digital signal and a circuit that processes an analog signal. For example, a processor may be composed of one or more circuit devices (for example, ICs, etc.) mounted on a circuit board, or one or more circuit elements (for example, resistors, capacitors, etc.). The processor may be, for example, a CPU (Central Processing Unit). However, the processor is not limited to the CPU, and various processors such as a GPU (Graphics Processing Unit) or a DSP (Digital Signal Processor) can be used. Further, the processor may be a hardware circuit by ASIC. Further, the processor may include an amplifier circuit, a filter circuit, and the like for processing an analog signal. The memory (storage unit 170) may be a semiconductor memory such as SRAM or DRAM, or may be a register. Alternatively, it may be a magnetic storage device such as a hard disk device (HDD), or an optical storage device such as an optical disk device. For example, the memory stores instructions that can be read by a computer, and when the instructions are executed by the processor, the processing of each part of the processing unit 100 is realized. The instructions here may be an instruction set that constitutes a program, or may be an instruction that instructs the hardware circuit of the processor to operate.

処理部100は、コンテンツ再生部102、読取り部104、仮想空間設定部106、仮想カメラ制御部108、起動部109、再生情報生成部110、出力処理部112、表示処理部120、音処理部130を含む。上述したように、これらの各部により実行される本実施形態の各処理は、プロセッサ(或いはプロセッサ及びメモリ)により実現できる。なお、これらの構成要素(各部)の一部を省略したり、他の構成要素を追加するなどの種々の変形実施が可能である。 The processing unit 100 includes a content reproduction unit 102, a reading unit 104, a virtual space setting unit 106, a virtual camera control unit 108, an activation unit 109, a reproduction information generation unit 110, an output processing unit 112, a display processing unit 120, and a sound processing unit 130. including. As described above, each process of the present embodiment executed by each of these parts can be realized by a processor (or a processor and a memory). It is possible to carry out various modifications such as omitting a part of these components (each part) or adding other components.

表示処理部120は、表示部190に画像を表示するための処理を行う。例えば表示処理部120は、処理部100で行われる種々の処理の結果に基づいて描画処理を行い、これにより画像を生成し、表示部190に表示する。例えば表示処理部120は、記憶部170の描画バッファに対する描画処理を行うことで、仮想3次元空間において仮想カメラから見える画像である仮想空間画像を生成できる。 The display processing unit 120 performs processing for displaying an image on the display unit 190. For example, the display processing unit 120 performs drawing processing based on the results of various processing performed by the processing unit 100, thereby generating an image and displaying it on the display unit 190. For example, the display processing unit 120 can generate a virtual space image that is an image that can be seen by a virtual camera in a virtual three-dimensional space by performing drawing processing on the drawing buffer of the storage unit 170.

音処理部130は、処理部100で行われる種々の処理の結果に基づいて音の生成処理を行う。具体的には、楽曲(音楽、BGM)、効果音、又は音声などを生成し、音出力部192に出力させる。 The sound processing unit 130 performs sound generation processing based on the results of various processing performed by the processing unit 100. Specifically, a musical piece (music, BGM), a sound effect, a voice, or the like is generated and output to the sound output unit 192.

そして本実施形態の端末装置は、図2に示すように、コンテンツ再生部102と読取り部104を含む。例えば端末装置が図1で説明したゲスト端末である場合には、コンテンツ再生部102の処理と読取り部104の処理を行うことになる。例えばゲスト端末となる端末装置は、コンテンツ再生部102の処理と読取り部104の処理を実行するためのプログラムに基づき動作することで、ゲストの役割としての動作を行うことになる。 Then, as shown in FIG. 2, the terminal device of the present embodiment includes the content reproduction unit 102 and the reading unit 104. For example, when the terminal device is the guest terminal described with reference to FIG. 1, the content reproduction unit 102 and the reading unit 104 are processed. For example, the terminal device serving as a guest terminal operates based on a program for executing the processing of the content reproduction unit 102 and the processing of the reading unit 104, thereby performing the operation as a guest.

コンテンツ再生部102は、コンテンツの再生処理を行う。具体的にはコンテンツ再生部102は、少なくとも1つのキャラクタが配置された仮想3次元空間を仮想カメラにより撮影することで生成される動画を含むコンテンツを再生する処理を行う。キャラクタは、例えばアイドルや歌手やダンサーなどを模したモデルオブジェクトである。仮想3次元空間は、オブジェクト空間とも呼ばれる。仮想3次元空間には、例えばキャラクタのオブジェクト、背景のオブジェクトなどの仮想3次元空間を構成する種々のオブジェクトが配置設定される。そしてコンテンツ再生部102は、このような仮想3次元空間を仮想カメラにより撮影することで生成される動画を含むコンテンツの再生処理を行う。ここで、動画は、仮想空間情報記憶部176に記憶される3次元のオブジェクトの情報等に基づいてリアルタイムに生成される動画であってもよい。例えばリアルタイムで生成される動画を、ストリーミング再生のように再生する。コンテンツ再生部102は、このようにリアルタイムのレンダリングにより生成される動画の再生を行うことができる。或いは、コンテンツ再生部102は、予め作成されてコンテンツ情報記憶部172に記憶されている動画を再生してもよい。 The content reproduction unit 102 performs content reproduction processing. Specifically, the content reproduction unit 102 performs a process of reproducing content including a moving image generated by shooting a virtual three-dimensional space in which at least one character is arranged by a virtual camera. A character is a model object that imitates an idol, a singer, a dancer, or the like. The virtual three-dimensional space is also called an object space. In the virtual three-dimensional space, various objects constituting the virtual three-dimensional space, such as a character object and a background object, are arranged and set. Then, the content reproduction unit 102 performs the reproduction processing of the content including the moving image generated by shooting such a virtual three-dimensional space with a virtual camera. Here, the moving image may be a moving image generated in real time based on the information of a three-dimensional object stored in the virtual space information storage unit 176. For example, a moving image generated in real time is played back like streaming playback. The content reproduction unit 102 can reproduce the moving image generated by the real-time rendering in this way. Alternatively, the content reproduction unit 102 may reproduce a moving image created in advance and stored in the content information storage unit 172.

読取り部104は、情報の読み取り処理を行う。例えば読取り部104は、再生タイミング情報を含む再生情報を表示する再生情報表示物を撮影した撮影画像が取得された場合に、撮影画像から、再生タイミング情報を抽出する。例えば本実施形態では、再生タイミング情報を含む再生情報を表示する再生情報表示物を、撮影部162により撮影する。例えばゲスト端末の撮影部162が、ホスト端末の画面に表示される再生情報表示物を撮影する。そして読取り部104は、撮影部162の撮影により取得された撮影画像から、再生タイミング情報を抽出する。例えば再生情報表示物が、QRコード(QRコードは登録商標)等の2次元コードである場合には、読取り部104は、2次元コードのデコード処理等を行って、再生情報に含まれる再生タイミング情報を抽出する。また再生情報は、コンテンツ識別情報を含むことができる。この場合には、読取り部104は、撮影部162の撮影により取得された撮影画像から、コンテンツ識別情報と再生タイミング情報を抽出する。例えば読取り部104は、QRコード等の2次元コードのデコード処理等を行って、再生情報に含まれるコンテンツ識別情報と再生タイミング情報を抽出する。 The reading unit 104 performs information reading processing. For example, the reading unit 104 extracts the reproduction timing information from the photographed image when the photographed image of the reproduction information display object which displays the reproduction information including the reproduction timing information is acquired. For example, in the present embodiment, the photographing unit 162 photographs a reproduction information display object that displays reproduction information including reproduction timing information. For example, the photographing unit 162 of the guest terminal photographs the reproduction information display object displayed on the screen of the host terminal. Then, the reading unit 104 extracts the reproduction timing information from the photographed image acquired by the photographing of the photographing unit 162. For example, when the reproduction information display object is a two-dimensional code such as a QR code (QR code is a registered trademark), the reading unit 104 performs a two-dimensional code decoding process or the like to perform reproduction timing included in the reproduction information. Extract information. The playback information can also include content identification information. In this case, the reading unit 104 extracts the content identification information and the reproduction timing information from the captured image acquired by the photographing of the photographing unit 162. For example, the reading unit 104 performs decoding processing of a two-dimensional code such as a QR code to extract content identification information and reproduction timing information included in the reproduction information.

ここで再生タイミング情報は、コンテンツの再生開始タイミングを指定するための情報である。この再生開始タイミングは、例えば絶対的な時間を表す時刻であることが望ましい。例えば再生開始タイミングは、コンテンツ再生の開始時刻を指定する指定時刻である。またコンテンツ識別情報は、コンテンツ再生部102により再生されるコンテンツを指定するための情報である。例えばコンテンツにIDが付与される場合には、コンテンツ識別情報はコンテンツに付与されたコンテンツIDである。コンテンツ再生部102は、このコンテンツ識別情報を用いることで、コンテンツ再生部102の再生対象となる複数のコンテンツの中から、コンテンツ識別情報により指定されるコンテンツを選択できるようになる。 Here, the reproduction timing information is information for designating the reproduction start timing of the content. It is desirable that the reproduction start timing is, for example, a time representing an absolute time. For example, the playback start timing is a designated time that specifies the start time of content playback. Further, the content identification information is information for designating the content to be reproduced by the content reproduction unit 102. For example, when an ID is assigned to the content, the content identification information is the content ID assigned to the content. By using this content identification information, the content reproduction unit 102 can select the content specified by the content identification information from a plurality of contents to be reproduced by the content reproduction unit 102.

そしてコンテンツ再生部102は、再生タイミング情報に基づき指定された再生開始タイミングで、コンテンツの再生を開始する。例えば再生情報が、コンテンツ識別情報と再生タイミング情報を含む場合には、コンテンツ再生部102は、コンテンツ識別情報に基づき、予め記憶された複数のコンテンツの中から1つのコンテンツを選択する。例えばコンテンツ情報記憶部172には、コンテンツ再生部102が再生可能な複数のコンテンツの情報が記憶されている。コンテンツ再生部102は、これらの複数のコンテンツの中から、再生対象となる1つのコンテンツを選択する。そしてコンテンツ再生部102は、再生タイミング情報に基づき指定された再生開始タイミングで、選択したコンテンツの再生を開始する。 Then, the content reproduction unit 102 starts the reproduction of the content at the reproduction start timing designated based on the reproduction timing information. For example, when the reproduction information includes the content identification information and the reproduction timing information, the content reproduction unit 102 selects one content from a plurality of contents stored in advance based on the content identification information. For example, the content information storage unit 172 stores information on a plurality of contents that can be reproduced by the content reproduction unit 102. The content reproduction unit 102 selects one content to be reproduced from the plurality of contents. Then, the content reproduction unit 102 starts the reproduction of the selected content at the reproduction start timing designated based on the reproduction timing information.

なお以下では、再生情報が、再生タイミング情報及びコンテンツ識別情報の両方を含む場合について主に例にとり説明する。但し、再生対象となるコンテンツが1つだけである場合や、複数のコンテンツがコンテンツ情報記憶部172に記憶されていても、再生するコンテンツが予め決まっている場合には、再生情報は、コンテンツ識別情報を含まなくてもよく、再生タイミング情報だけを含めばよい。 In the following, a case where the reproduction information includes both the reproduction timing information and the content identification information will be described mainly as an example. However, if there is only one content to be reproduced, or if a plurality of contents are stored in the content information storage unit 172 but the content to be reproduced is predetermined, the reproduction information is identified as the content. It is not necessary to include the information, and it is sufficient to include only the reproduction timing information.

例えば端末装置は、現在時刻を取得するための計時部(タイマー)を有している。計時部は、例えばサーバからネットワークを介して時刻情報を取得することで、端末装置での時刻情報を更新する。一例としては、コンテンツ再生のアプリケーションプログラムのログイン時などにおいて、サーバから時刻情報を取得する。なお時刻情報はGPSなどを用いて取得してもよい。そしてコンテンツ再生部102は、端末装置の計時部での時刻情報に基づく現在時刻と、再生タイミング情報に基づき指定される再生開始タイミングである指定時刻を比較し、現在時刻が指定時刻になったと判断されたときに、コンテンツ識別情報に基づき選択したコンテンツの再生を開始する。即ち、少なくとも1つのキャラクタが配置された仮想3次元空間を仮想カメラにより撮影することで生成される動画の再生を開始する。また動画に対応づけられた楽曲の再生も開始する。 For example, the terminal device has a time measuring unit (timer) for acquiring the current time. The timekeeping unit updates the time information on the terminal device, for example, by acquiring the time information from the server via the network. As an example, time information is acquired from the server when logging in to an application program for content playback. The time information may be acquired using GPS or the like. Then, the content reproduction unit 102 compares the current time based on the time information in the time measuring unit of the terminal device with the specified time which is the reproduction start timing specified based on the reproduction timing information, and determines that the current time has reached the specified time. When this is done, playback of the selected content based on the content identification information is started. That is, the reproduction of the moving image generated by shooting the virtual three-dimensional space in which at least one character is arranged by the virtual camera is started. It also starts playing the music associated with the video.

また本実施形態では、上述の少なくとも1つのキャラクタとして、ユーザが選択したキャラクタが仮想3次元空間に配置される。仮想3次元空間は例えばオブジェクト空間であり、3次元モデルである複数のオブジェクトが配置設定され、このような仮想3次元空間の3次元位置に対して、ユーザが選択したキャラクタが配置される。そしてコンテンツ再生部102は、コンテンツ識別情報により指定されたコンテンツ及びユーザが選択したキャラクタの位置に応じて、キャラクタのモーションの決定と、仮想カメラの位置の設定を行う。更にコンテンツ再生部102は、仮想カメラの動作(動き)の設定を行うことができる。 Further, in the present embodiment, a character selected by the user is arranged in the virtual three-dimensional space as at least one character described above. The virtual three-dimensional space is, for example, an object space, and a plurality of objects that are three-dimensional models are arranged and set, and a character selected by the user is arranged with respect to the three-dimensional position of such a virtual three-dimensional space. Then, the content reproduction unit 102 determines the motion of the character and sets the position of the virtual camera according to the content specified by the content identification information and the position of the character selected by the user. Further, the content reproduction unit 102 can set the operation (movement) of the virtual camera.

ここで、ユーザが選択したキャラクタは、例えばユーザのお気に入りキャラクタである。例えば複数のキャラクタにより、仮想的なアイドルグループが構成されており、この仮想的なアイドルグループを構成する複数のキャラクタの一人が、ユーザのお気に入りキャラクタとして、例えば予め登録されている。なお、ユーザが選択したキャラクタである選択キャラクタは、必ずしも、このようなお気に入りキャラクタでなくてもよい。そして、仮想的なアイドルグループの演奏対象となるコンテンツが、コンテンツ識別情報により決定され、ユーザのお気に入りキャラクタ等の選択キャラクタが特定されると、そのコンテンツの演奏における選択キャラクタのステージでのポジションであるキャラクタ位置により、当該選択キャラクタのモーションや仮想カメラの位置が決定される。モーションは、キャラクタをモーションさせるためのモーションデータであり、モーションデータは、キャラクタのモデルオブジェクトのスケルトン(ボーン)の時系列の動きを特定するデータである。そして仮想カメラは、例えば、決定された位置(ステージでのポジション)に配置される選択キャラクタに正対する位置などに配置される。また選択キャラクタに応じて、仮想カメラの動作(カメラワーク)が決まっている場合には、仮想カメラがそのような動作を行うように、仮想カメラ制御部108が仮想カメラを制御する。 Here, the character selected by the user is, for example, a user's favorite character. For example, a virtual idle group is composed of a plurality of characters, and one of the plurality of characters constituting the virtual idle group is registered in advance as a user's favorite character, for example. The selected character, which is the character selected by the user, does not necessarily have to be such a favorite character. Then, the content to be played by the virtual idle group is determined by the content identification information, and when the selected character such as the user's favorite character is specified, it is the position of the selected character in the performance of the content on the stage. The character position determines the motion of the selected character and the position of the virtual camera. The motion is motion data for moving the character, and the motion data is data for specifying the time-series movement of the skeleton (bone) of the model object of the character. Then, the virtual camera is arranged, for example, at a position facing the selected character arranged at a determined position (position on the stage). When the operation of the virtual camera (camera work) is determined according to the selected character, the virtual camera control unit 108 controls the virtual camera so that the virtual camera performs such an operation.

仮想空間設定部106は、オブジェクトが配置される仮想3次元空間(オブジェクト空間)の設定処理を行う。例えば、キャラクタのオブジェクトや背景のオブジェクトなどの3次元オブジェクトを、仮想3次元空間に配置設定する処理を行う。即ちワールド座標系でのオブジェクトの位置や回転角度(向き、方向と同義)を決定し、その位置(X、Y、Z)にその回転角度(X、Y、Z軸回りでの回転角度)でオブジェクトを配置する。 The virtual space setting unit 106 performs setting processing of a virtual three-dimensional space (object space) in which objects are arranged. For example, a process of arranging and setting a three-dimensional object such as a character object or a background object in a virtual three-dimensional space is performed. That is, the position and rotation angle (synonymous with orientation and direction) of an object in the world coordinate system are determined, and the rotation angle (rotation angle around the X, Y, Z axis) is used at that position (X, Y, Z). Place the object.

仮想カメラ制御部108は、仮想3次元空間での仮想カメラの位置や方向を制御する。例えばキャラクタの振り付けに応じたカメラワークが行われる場合には、仮想カメラ制御部108は、当該カメラワークに応じた動作を行うように、仮想カメラの位置や方向を制御する。 The virtual camera control unit 108 controls the position and direction of the virtual camera in the virtual three-dimensional space. For example, when the camera work is performed according to the choreography of the character, the virtual camera control unit 108 controls the position and direction of the virtual camera so as to perform the operation according to the camera work.

そして本実施形態では、仮想空間設定部106が、例えばユーザの入力情報に基づいて、少なくとも1つのキャラクタとして複数のキャラクタを仮想3次元空間に配置設定する。例えば仮想的なアイドルを構成する複数のキャラクタを、仮想3次元空間の仮想的なステージに配置設定する。例えば操作部160を用いて入力されたユーザの入力情報に基づいて、複数のキャラクタを配置設定する。そして仮想カメラ制御部108は、このように複数のキャラクタが配置設定された仮想3次元空間において、仮想カメラの位置の設定を行う。例えば仮想3次元空間に配置設定された複数のキャラクタのうち、端末装置のユーザの選択キャラクタに正対する位置に、仮想カメラの位置を設定し、当該選択キャラクタを撮影した仮想空間画像が生成されるようにする。 Then, in the present embodiment, the virtual space setting unit 106 arranges and sets a plurality of characters as at least one character in the virtual three-dimensional space based on, for example, user input information. For example, a plurality of characters constituting a virtual idle are arranged and set on a virtual stage in a virtual three-dimensional space. For example, a plurality of characters are arranged and set based on the user's input information input using the operation unit 160. Then, the virtual camera control unit 108 sets the position of the virtual camera in the virtual three-dimensional space in which the plurality of characters are arranged and set in this way. For example, among a plurality of characters arranged and set in the virtual three-dimensional space, the position of the virtual camera is set at a position facing the selected character of the user of the terminal device, and a virtual space image obtained by capturing the selected character is generated. To do so.

また本実施形態では、少なくとも1つのキャラクタとして、複数のキャラクタが仮想3次元空間に配置され、コンテンツ再生部102は、複数のキャラクタの配置に応じて、複数のキャラクタの各キャラクタのモーションを決定する。例えばキャラクタの配置位置、又はその配置位置のキャラクタに対してモーションのデータが対応づけられている。そしてコンテンツ再生部102は、キャラクタの配置に応じて、配置位置又は当該配置位置のキャラクタに対応づけられたモーションのデータを再生する。このようにすれば、複数の配置位置の各位置に配置される、複数のキャラクタの各キャラクタについて、その配置位置に対応するモーションのデータを用いて、振り付けなどの動作を制御できるようになる。例えば複数の配置位置の各位置に応じて、キャラクタの踊り等の振り付けが異なる場合に、各配置位置に応じた振り付けで、キャラクタを動作させることが可能になる。 Further, in the present embodiment, a plurality of characters are arranged in a virtual three-dimensional space as at least one character, and the content reproduction unit 102 determines the motion of each character of the plurality of characters according to the arrangement of the plurality of characters. .. For example, motion data is associated with a character placement position or a character at that placement position. Then, the content reproduction unit 102 reproduces the arrangement position or the motion data associated with the character at the arrangement position according to the arrangement of the characters. In this way, for each character of the plurality of characters arranged at each position of the plurality of arrangement positions, the movement such as choreography can be controlled by using the motion data corresponding to the arrangement position. For example, when the choreography of the character's dance or the like is different according to each position of the plurality of arrangement positions, the character can be operated by the choreography according to each arrangement position.

また再生タイミング情報は、例えば基準時刻から設定時間後の時刻を、再生開始タイミングの指定時刻として指定する情報である。そしてコンテンツ再生部102は、この指定時刻に、コンテンツの再生を開始する。例えば再生情報表示物から抽出された再生タイミング情報には、再生開始タイミングとして、基準時刻から設定時間後の時刻である指定時刻が設定されている。そしてコンテンツ再生部102は、前述の計時部により計時されている現在時刻と、再生開始タイミングである指定時刻を比較し、現在時刻が指定時刻になったタイミングで、コンテンツの再生を開始する。 Further, the reproduction timing information is information for designating, for example, a time after a set time from the reference time as a designated time for the reproduction start timing. Then, the content reproduction unit 102 starts reproduction of the content at this designated time. For example, in the reproduction timing information extracted from the reproduction information display object, a designated time, which is a time after the set time from the reference time, is set as the reproduction start timing. Then, the content reproduction unit 102 compares the current time timed by the timekeeping unit described above with the designated time which is the reproduction start timing, and starts reproducing the content at the timing when the current time reaches the designated time.

ここで基準時刻は、一例としては、再生情報表示物の表示時刻や生成時刻などである。例えばホスト端末のユーザは、再生開始タイミングを決めるための設定時間を指定する。そして例えば設定時間が20分である場合には、「20分後にスタートする」というように、ゲスト端末の他のユーザに伝える。そして現在時刻は計時部により計時されているため、例えば基準時刻から設定時間後の時刻が何時何分何秒なのかを特定でき、基準時刻から設定時間後の時刻である指定時刻を、再生開始タイミングとして設定できる。 Here, the reference time is, for example, the display time or the generation time of the reproduced information display object. For example, the user of the host terminal specifies a set time for determining the playback start timing. Then, for example, when the set time is 20 minutes, the other user of the guest terminal is informed, such as "start after 20 minutes". And since the current time is timed by the metering unit, for example, it is possible to specify what time is the time after the set time from the reference time, and the specified time, which is the time after the set time from the reference time, is started to be played back. Can be set as timing.

また起動部109は、上述した指定時刻の前に、コンテンツ再生部102を起動するための処理を行う。例えば読取り部104が、再生情報表示物の撮影画像から、コンテンツ識別情報及び再生タイミング情報を抽出した後、端末装置がスリープモードに移行する場合がある。例えば上述のように設定時間として例えば20分が設定された場合に、この設定時間の20分の間において、端末装置がスリープモードに移行する場合がある。このような場合にも、起動部109が、再生開始タイミングとなる指定時刻の前に、コンテンツ再生部102(端末装置)を起動して、スリープモードから通常動作モードに移行させる。これにより、現在時刻が指定時刻になったときに、コンテンツ再生部102は、コンテンツの再生を適正に実行できるようになる。 Further, the activation unit 109 performs a process for activating the content reproduction unit 102 before the above-mentioned designated time. For example, the terminal device may shift to the sleep mode after the reading unit 104 extracts the content identification information and the reproduction timing information from the captured image of the reproduction information display object. For example, when, for example, 20 minutes is set as the set time as described above, the terminal device may shift to the sleep mode during the set time of 20 minutes. Even in such a case, the activation unit 109 activates the content reproduction unit 102 (terminal device) before the designated time, which is the reproduction start timing, to shift from the sleep mode to the normal operation mode. As a result, when the current time reaches the designated time, the content reproduction unit 102 can appropriately reproduce the content.

また図2に示すように端末装置は、再生情報生成部110と出力処理部112を含む。例えば端末装置が図1で説明したホスト端末である場合には、再生情報生成部110の処理と出力処理部112の処理を行うことになる。例えばホスト端末となる端末装置は、再生情報生成部110の処理と出力処理部112の処理を実行するためのプログラムに基づき動作することで、ホストの役割としての動作を行うことになる。なおホスト端末の画面にも、キャラクタの画像を含む仮想空間画像が生成されて表示されるため、ホスト端末はコンテンツ再生部102の処理も実行する。 Further, as shown in FIG. 2, the terminal device includes a reproduction information generation unit 110 and an output processing unit 112. For example, when the terminal device is the host terminal described with reference to FIG. 1, the reproduction information generation unit 110 and the output processing unit 112 are processed. For example, the terminal device serving as a host terminal operates based on a program for executing the processing of the reproduction information generation unit 110 and the processing of the output processing unit 112, thereby performing the operation as a host. Since a virtual space image including a character image is generated and displayed on the screen of the host terminal, the host terminal also executes the processing of the content reproduction unit 102.

再生情報生成部110は、再生情報を生成する。例えば再生情報生成部110は、再生されるコンテンツを指定するためのコンテンツ識別情報と、コンテンツの再生開始タイミングを指定するための再生タイミング情報を含む再生情報を生成する。そして出力処理部112は、再生情報を表示する再生情報表示物を出力するための処理を行う。例えば再生情報表示物が、QRコード等の2次元コードである場合には、出力処理部112は、この2次元コードを表示部190により表示するための出力処理を行う。また再生情報表示物が、再生情報が印刷された印刷物である場合には、出力処理部112は、印刷媒体に再生情報を印刷して出力するための処理を行う。或いは後述するようにホスト端末の画面の明滅により、再生情報表示物を出力する場合には、ホスト端末の出力処理部112は、画面の明滅により再生情報をゲスト端末に伝達するための出力処理を行う。 The reproduction information generation unit 110 generates reproduction information. For example, the reproduction information generation unit 110 generates reproduction information including content identification information for designating the content to be reproduced and reproduction timing information for specifying the reproduction start timing of the content. Then, the output processing unit 112 performs a process for outputting a reproduction information display object for displaying the reproduction information. For example, when the reproduced information display object is a two-dimensional code such as a QR code, the output processing unit 112 performs output processing for displaying the two-dimensional code on the display unit 190. When the reproduction information display object is a printed matter on which the reproduction information is printed, the output processing unit 112 performs a process for printing the reproduction information on a print medium and outputting the reproduction information. Alternatively, as will be described later, when the playback information display object is output due to the blinking of the screen of the host terminal, the output processing unit 112 of the host terminal performs an output process for transmitting the reproduction information to the guest terminal by blinking the screen. Do.

なお、必ずしも1つの再生情報に、コンテンツ識別情報及び再生タイミング情報の両方を含める必要はない。例えば再生情報生成部110は、コンテンツ識別情報を含む第1の再生情報と、再生タイミング情報を含む第2の再生情報を再生してもよい。即ちコンテンツ識別情報と再生タイミング情報を分けて、第1、第2の再生情報というように2つの再生情報を生成する。そして出力処理部112は、第1の再生情報を表示する第1の再生情報表示物を出力するための処理と、第2の再生情報を表示する第2の再生情報表示物を出力するための処理を行うようにしてもよい。 It should be noted that it is not always necessary to include both the content identification information and the reproduction timing information in one reproduction information. For example, the reproduction information generation unit 110 may reproduce the first reproduction information including the content identification information and the second reproduction information including the reproduction timing information. That is, the content identification information and the reproduction timing information are separated to generate two reproduction information such as the first and second reproduction information. Then, the output processing unit 112 is for processing for outputting the first reproduction information display object for displaying the first reproduction information and for outputting the second reproduction information display object for displaying the second reproduction information. The process may be performed.

2.本実施形態の手法
次に本実施形態の手法について詳細に説明する。なお以下では、キャラクタが、仮想的な女性アイドルのキャラクタである場合を主に例に説明するが、本実施形態のアイドルはこのような仮想的な女性アイドルのキャラクタに限定されるものでない。例えばキャラクタは、男性のアイドルのキャラクタであってもよいし、アイドルではない歌手のキャラクタやダンサーのキャラクタなどであってもよい。
2. Method of this Embodiment Next, the method of this embodiment will be described in detail. In the following, the case where the character is a virtual female idol character will be mainly described as an example, but the idol of the present embodiment is not limited to such a virtual female idol character. For example, the character may be a male idol character, a non-idol singer character, a dancer character, or the like.

2.1 コンテンツ再生の同期
図3では、コンテンツ再生システムは、ホスト端末TMHとゲスト端末TM1、TM2、TM3、TM4により構成される。なおコンテンツ再生システムは、少なくとも1つのゲスト端末を含めばよく、ゲスト端末の台数は任意である。
2.1 Synchronization of content reproduction In FIG. 3, the content reproduction system is composed of a host terminal TMH and guest terminals TM1, TM2, TM3, and TM4. The content playback system may include at least one guest terminal, and the number of guest terminals is arbitrary.

ホスト端末TMHは、図4に示すように、コンテンツの再生開始タイミングを指定するための再生タイミング情報を含む再生情報を生成する。具体的にはホスト端末TMHは、当該再生タイミング情報と、コンテンツを指定するためのコンテンツ識別情報を含む再生情報を生成する。なお前述したように再生情報は、少なくとも再生タイミング情報を含めばよい。そしてホスト端末TMHは、再生情報を表示する再生情報表示物を出力する。図3では、再生情報表示物として2次元コードであるコードQCが、ホスト端末TMHの画面に表示されている。即ちホスト端末TMHは、動画、楽曲等のコンテンツのコンテンツ識別情報と、再生開始の指定時刻である再生タイミング情報を含む再生情報を2次元コード化(QRコード化)して画面に表示する。 As shown in FIG. 4, the host terminal TMH generates playback information including playback timing information for designating the playback start timing of the content. Specifically, the host terminal TMH generates playback information including the playback timing information and content identification information for designating the content. As described above, the reproduction information may include at least the reproduction timing information. Then, the host terminal TMH outputs a reproduction information display object that displays the reproduction information. In FIG. 3, a code QC, which is a two-dimensional code, is displayed on the screen of the host terminal TMH as a reproduction information display object. That is, the host terminal TMH converts the content identification information of the contents such as moving images and music and the reproduction information including the reproduction timing information which is the designated time of the reproduction start into two-dimensional code (QR code) and displays it on the screen.

なお、コンテンツ識別情報と再生タイミング情報を同一コード内に含めずに、2回に分けて、生成、表示してもよい。例えばコンテンツ識別情報を含む第1の再生情報を生成し、第1の再生情報をコード化した第1のコードをホスト端末TMHの画面に表示する。次に再生タイミング情報を含む第2の再生情報を生成し、第2の再生情報をコード化した第2のコードをホスト端末TMHの画面に表示する。 Note that the content identification information and the reproduction timing information may be generated and displayed in two steps without being included in the same code. For example, the first reproduction information including the content identification information is generated, and the first code in which the first reproduction information is encoded is displayed on the screen of the host terminal TMH. Next, the second reproduction information including the reproduction timing information is generated, and the second code in which the second reproduction information is encoded is displayed on the screen of the host terminal TMH.

図3に示すように、ゲスト端末TM1〜TM4は、ホスト端末TMHの画面に表示されたコードQCを、撮影部162であるカメラにより撮影する。そしてゲスト端末TM1〜TM4は、撮影画像から、再生タイミング情報を抽出する。具体的にはコードQCのデコードを行うことで、再生タイミング情報を抽出する。更に具体的には、コードQCのデコードを行うことで、コンテンツ識別情報と再生タイミング情報を抽出する。 As shown in FIG. 3, the guest terminals TM1 to TM4 photograph the code QC displayed on the screen of the host terminal TMH by the camera which is the photographing unit 162. Then, the guest terminals TM1 to TM4 extract the reproduction timing information from the captured image. Specifically, the reproduction timing information is extracted by decoding the code QC. More specifically, the content identification information and the reproduction timing information are extracted by decoding the code QC.

なおゲスト端末TM1〜TM4は、コンテンツ識別情報と再生タイミング情報を2回に分けて、読取り、抽出を行うようにしてもよい。例えば上述のようにホスト端末TMHが、コンテンツ識別情報を含む第1の再生情報をコード化した第1のコードを画面に表示した場合に、ゲスト端末TM1〜TM4は、この第1のコードを撮影して読み取って、コンテンツ識別情報を抽出する。またホスト端末TMHが、再生タイミング情報を含む第2の再生情報をコード化した第2のコードを画面に表示した場合に、ゲスト端末TM1〜TM4は、この第2のコードを撮影して読み取って、再生タイミング情報を抽出する。 The guest terminals TM1 to TM4 may read and extract the content identification information and the reproduction timing information in two steps. For example, when the host terminal TMH displays the first code that encodes the first playback information including the content identification information on the screen as described above, the guest terminals TM1 to TM4 capture the first code. And read it to extract the content identification information. Further, when the host terminal TMH displays a second code that encodes the second playback information including the playback timing information on the screen, the guest terminals TM1 to TM4 photograph and read the second code. , Extract playback timing information.

また図3では、再生情報表示物として、コードQCが用いられているが、本実施形態はこれに限定されない。例えばホスト端末TMHが、コンテンツ識別情報や再生タイミング情報を含む再生情報が印刷された印刷物の印刷処理を行ってもよい。例えばコードQCを印刷媒体に印刷するための処理を行う。そしてゲスト端末TM1〜TM4が、この印刷物の再生情報をカメラで撮影することなどにより読み取って、コンテンツ識別情報や再生タイミング情報を抽出してもよい。 Further, in FIG. 3, the code QC is used as the reproduction information display object, but the present embodiment is not limited to this. For example, the host terminal TMH may perform printing processing of a printed matter on which reproduction information including content identification information and reproduction timing information is printed. For example, a process for printing the code QC on a print medium is performed. Then, the guest terminals TM1 to TM4 may read the reproduction information of the printed matter by taking a picture with a camera or the like to extract the content identification information and the reproduction timing information.

或いは図5に示すようにホスト端末TMHが、ホスト端末TMHの画面の明滅により、再生情報表示物を出力するようにしてもよい。例えばホスト端末TMHは、例えば点灯状態が第1の論理レベル(例えば論理「1」)に割り当てられ、消灯状態が第2の論理レベル(例えば論理「0」)に割り当てられるような画面の明滅を行うことで、再生情報をコード化して出力する。そしてゲスト端末TM1〜TM4が、ホスト端末TMHの画面の明滅を検出することで、再生情報を読み取る。例えばゲスト端末TM1〜TM4が、ホスト端末TMHの画面の明滅をカメラなどにより撮影することで、再生情報を読み取ることができる。このようにすれば、ホスト端末の画面の明滅により、ホスト端末TMHからゲスト端末TM1〜TM4に再生情報を伝達できるようになる。なおホスト端末TMHがスピーカを用いた音の出力により再生情報を出力し、ゲスト端末TM1〜TM4がマイクを用いて、この再生情報を収音して、解析するような変形実施も可能である。 Alternatively, as shown in FIG. 5, the host terminal TMH may output the reproduction information display object by blinking the screen of the host terminal TMH. For example, the host terminal TMH blinks the screen such that the lighting state is assigned to the first logic level (for example, logic "1") and the turning state is assigned to the second logic level (for example, logic "0"). By doing so, the playback information is encoded and output. Then, the guest terminals TM1 to TM4 read the reproduction information by detecting the blinking of the screen of the host terminal TMH. For example, the guest terminals TM1 to TM4 can read the playback information by photographing the blinking of the screen of the host terminal TMH with a camera or the like. In this way, the playback information can be transmitted from the host terminal TMH to the guest terminals TM1 to TM4 by blinking the screen of the host terminal. It is also possible to carry out a modification in which the host terminal TMH outputs the reproduction information by outputting the sound using the speaker, and the guest terminals TM1 to TM4 use the microphone to collect and analyze the reproduction information.

そしてゲスト端末TM1〜TM4は、抽出されたコンテンツ識別情報に基づき、複数のコンテンツの中から1つのコンテンツを選択し、抽出された再生タイミング情報に基づき指定された再生開始タイミングで、選択したコンテンツの再生を開始する。即ちキャラクタが踊ったり、歌ったりするMVの動画の再生を開始する。またホスト端末TMHの画面にもキャラクタのMVの動画を表示する場合には、ホスト端末TMHも、再生タイミング情報に対応する再生開始タイミングで、選択したコンテンツの再生を開始する。 Then, the guest terminals TM1 to TM4 select one content from a plurality of contents based on the extracted content identification information, and at the playback start timing specified based on the extracted playback timing information, the selected content Start playback. That is, the playback of the MV movie in which the character dances or sings is started. Further, when displaying the MV moving image of the character on the screen of the host terminal TMH, the host terminal TMH also starts playing the selected content at the playback start timing corresponding to the playback timing information.

このようにすることで図6に示すように、ゲスト端末TM1〜TM4及びホスト端末TMHは、再生開始タイミングにおいて、キャラクタCH1〜CH3、CHHによるMVの動画のコンテンツの再生を同期スタートできるようになる。即ち再生開始タイミングである指定時刻において、キャラクタCH1〜CH3、CHHによるMVの動画が同時にスタートして、ゲスト端末TM1〜TM4及びホスト端末TMHの画面に表示されるようになる。 By doing so, as shown in FIG. 6, the guest terminals TM1 to TM4 and the host terminal TMH can synchronously start the reproduction of the MV video content by the characters CH1 to CH3 and CHH at the reproduction start timing. .. That is, at the designated time, which is the playback start timing, the MV moving images by the characters CH1 to CH3 and CHH start at the same time and are displayed on the screens of the guest terminals TM1 to TM4 and the host terminal TMH.

図7は本実施形態の処理例を説明するフローチャートである。本実施形態のコンテンツ再生システムは、ホスト端末と、少なくとも1つのゲスト端末を有し、少なくとも1つのキャラクタが配置された仮想3次元空間を仮想カメラにより撮影することで生成される動画を含むコンテンツを再生する。具体的には図7に示すように、ホスト端末は、コンテンツを指定するためのコンテンツ識別情報と、コンテンツの再生開始タイミングを指定するための再生タイミング情報とを含む再生情報を生成する(ステップS1)。そして再生情報を表示する再生情報表示物を出力する(ステップS2)。具体的には図3に示すように再生情報表示物としてQRコード等の2次元のコードをホスト端末の画面に表示する。 FIG. 7 is a flowchart illustrating a processing example of the present embodiment. The content playback system of the present embodiment has a host terminal, at least one guest terminal, and content including a moving image generated by shooting a virtual three-dimensional space in which at least one character is arranged by a virtual camera. Reproduce. Specifically, as shown in FIG. 7, the host terminal generates playback information including content identification information for designating the content and playback timing information for designating the playback start timing of the content (step S1). ). Then, the reproduction information display object for displaying the reproduction information is output (step S2). Specifically, as shown in FIG. 3, a two-dimensional code such as a QR code is displayed on the screen of the host terminal as a reproduction information display object.

そしてゲスト端末は、再生情報表示物を撮影して撮影画像を取得する(ステップS11)。即ち再生情報表示物である2次元のコードを撮影して撮影画像を取得する。そして撮影画像から、コンテンツ識別情報と再生タイミング情報を抽出する(ステップS12)。例えば2次元のコードのデコードを行うことで、再生情報に含まれるコンテンツ識別情報と再生タイミング情報を抽出する。そしてコンテンツ識別情報に基づき、予め記憶された複数のコンテンツの中から1つのコンテンツを選択する(ステップS13)。即ち再生対象となる動画、楽曲等のコンテンツを選択する。そして再生タイミング情報に基づき指定された再生開始タイミングで、選択したコンテンツの再生を開始する(ステップS14)。即ち図6に示すようにキャラクタが踊ったり、歌ったりするMVの動画のコンテンツの再生を開始する。つまり、キャラクタが配置された仮想3次元空間を仮想カメラにより撮影することで生成される動画を含むコンテンツが再生される。動作の再生の際には、動画に対応する楽曲もゲスト端末やホスト端末から出力されるようになる。 Then, the guest terminal captures the reproduced information display object and acquires the captured image (step S11). That is, a captured image is acquired by photographing a two-dimensional code which is a reproduction information display object. Then, the content identification information and the reproduction timing information are extracted from the captured image (step S12). For example, by decoding a two-dimensional code, the content identification information and the reproduction timing information included in the reproduction information are extracted. Then, based on the content identification information, one content is selected from a plurality of contents stored in advance (step S13). That is, the content such as a moving image or a musical piece to be played back is selected. Then, at the playback start timing specified based on the playback timing information, playback of the selected content is started (step S14). That is, as shown in FIG. 6, the reproduction of the content of the MV moving image in which the character dances or sings is started. That is, the content including the moving image generated by shooting the virtual three-dimensional space in which the character is arranged by the virtual camera is reproduced. When the operation is reproduced, the music corresponding to the moving image is also output from the guest terminal or the host terminal.

このように本実施形態によれば、ホスト端末がコンテンツ再生情報と再生タイミング情報を含む再生情報を生成し、再生情報が表示される再生情報表示物をゲスト端末が撮影することで、再生開始タイミングを指定する再生タイミング情報を、ホスト端末からゲスト端末に伝えることが可能になる。そしてこの再生タイミング情報で指定される再生開始タイミングで、仮想3次元空間のキャラクタを仮想カメラで撮影することで生成される動画を含むコンテンツの再生が開始される。このようにすれば、ホスト端末とゲスト端末とを通信接続しなくても、再生開始タイミングを指定する再生タイミング情報をホスト端末からゲスト端末に伝えて、動画のコンテンツの再生を、再生開始タイミングで同時にスタートできるようになる。そして図6に示すように、ゲスト端末とホスト端末の各々の画面に対して、対応する各キャラクタを表示することで、あたかも複数のキャラクタが同期して踊ったり歌ったりするように見えるコンテンツ再生を実現できる。なお、以下では、ゲスト端末及びホスト端末を、説明の簡素化のために、適宜、単に複数の端末と呼ぶ場合がある。 As described above, according to the present embodiment, the host terminal generates the playback information including the content playback information and the playback timing information, and the guest terminal shoots the playback information display object on which the playback information is displayed, so that the playback start timing It becomes possible to transmit the playback timing information for specifying to the guest terminal from the host terminal. Then, at the reproduction start timing specified by the reproduction timing information, the reproduction of the content including the moving image generated by shooting the character in the virtual three-dimensional space with the virtual camera is started. In this way, even if the host terminal and the guest terminal are not connected by communication, the playback timing information that specifies the playback start timing is transmitted from the host terminal to the guest terminal, and the video content is played back at the playback start timing. You will be able to start at the same time. Then, as shown in FIG. 6, by displaying each corresponding character on each screen of the guest terminal and the host terminal, content reproduction that makes it appear as if a plurality of characters dance or sing in synchronization is performed. realizable. In the following, the guest terminal and the host terminal may be simply referred to as a plurality of terminals as appropriate for the sake of simplification of description.

例えば複数の端末に表示される複数のキャラクタの動きや、複数の端末から出力される楽曲に、時間的なズレが発生すると、ユーザが不自然さを感じてしまうという問題がある。 For example, if there is a time lag between the movements of a plurality of characters displayed on a plurality of terminals and the music output from the plurality of terminals, there is a problem that the user feels unnatural.

この点、本実施形態によれば、再生タイミング情報を用いることで、複数の端末間での正確な同期をとることができる。従って、複数の端末に表示される複数のキャラクタの動きや、複数の端末から出力される楽曲に、時間的なズレが殆ど生じないようになる。従って、あたかも本物のアイドルグループが動きを合わせて踊ったり歌ったりするように見えるコンテンツ再生を実現できるようになる。 In this regard, according to the present embodiment, accurate synchronization can be achieved between a plurality of terminals by using the reproduction timing information. Therefore, there is almost no time lag between the movements of the plurality of characters displayed on the plurality of terminals and the music output from the plurality of terminals. Therefore, it becomes possible to realize content reproduction that makes it appear as if a real idol group dances and sings in unison.

また例えば本実施形態の比較例の手法として、複数の端末を通信接続して動画再生の同期をとる手法も考えられる。しかしながら、この手法では、複数の端末が通信できない環境や、通信が途切れてしまうような環境においては、同期した動画再生を適切に実現できないという問題がある。 Further, for example, as a method of the comparative example of the present embodiment, a method of connecting a plurality of terminals by communication and synchronizing the moving image playback can be considered. However, this method has a problem that synchronized video reproduction cannot be appropriately realized in an environment in which a plurality of terminals cannot communicate or in an environment in which communication is interrupted.

この点、本実施形態では、複数の端末を通信接続しなくても、再生タイミング情報をホスト端末からゲスト端末に伝えて、動画再生の同期をとることができるため、上記のような問題を解決できる。 In this respect, in the present embodiment, the playback timing information can be transmitted from the host terminal to the guest terminal to synchronize the video playback without connecting a plurality of terminals via communication, so that the above problems can be solved. it can.

また複数のユーザが集まって図6に示すようなコンテンツ再生を行う場合に、複数のユーザが集まるまで、動画再生が開始されず、待たなければならないという問題がある。少人数のグループであれば、待ち時間も短くてよいが、多人数のグループの場合、受付時間をある程度設けて人数を集めるか、予定人数に達するまでグループが作られないため、待ち時間が長くなるという問題がある。また受付時間を設けた場合、アクセスが集中するため、負荷に耐えられるシステム設計が必要となる。 Further, when a plurality of users gather to play the content as shown in FIG. 6, there is a problem that the moving image playback is not started and must wait until the plurality of users gather. For a small group, the waiting time may be short, but for a large group, the waiting time is long because the reception time is set to some extent and the number of people is gathered or the group is not created until the planned number of people is reached. There is a problem of becoming. In addition, if the reception time is set, access will be concentrated, so it is necessary to design a system that can withstand the load.

この点、本実施形態によれば、図3のようにホスト端末によるコード(広義には再生情報表示物)の表示と、ゲスト端末によるコードの読取りを行った後、所与の設定時間が経過した再生開始タイミングにおいて、動画のコンテンツの再生を開始できる。従って、ユーザは、コードの表示や読取りが行われた後、再生開始タイミングである指定時刻になるまで待機し、指定時刻において図6に示すように端末を並べることで、多人数での動画再生を楽しめるようになる。 In this regard, according to the present embodiment, a given set time elapses after the host terminal displays the code (in a broad sense, the playback information display object) and the guest terminal reads the code as shown in FIG. Playback of the video content can be started at the playback start timing. Therefore, after the code is displayed or read, the user waits until the designated time, which is the playback start timing, and arranges the terminals at the designated time as shown in FIG. 6, so that a large number of people can play the video. You will be able to enjoy.

またスマートフォン等の端末では、画面が縦長になっている。この場合に、本実施形態では、図6に示すように、端末の縦長の画面の長辺方向に沿ってキャラクタが立っている動画を再生すると共に、これらの複数の端末を、画面の短辺に沿った方向に並べて配置する。これにより、あたかも5人のキャラクタがステージにおいて並んで踊っているように見える動画の再生が可能になり、従来にはないコンテンツ再生システムの実現が可能になる。 In addition, the screen of terminals such as smartphones is vertically long. In this case, in the present embodiment, as shown in FIG. 6, a moving image in which a character stands along the long side direction of the vertically long screen of the terminal is played, and these a plurality of terminals are displayed on the short side of the screen. Arrange them side by side in the direction along. This makes it possible to play back a moving image in which five characters appear to be dancing side by side on the stage, and it is possible to realize a content playback system that has never existed before.

次にキャラクタのモーションの設定や仮想カメラの設定などについて詳細に説明する。本実施形態では、例えば、少なくとも1つのキャラクタとして、ユーザが選択したキャラクタが仮想3次元空間に配置される。例えば図8(A)に示すように、複数のユーザの各ユーザは、自身のお気に入りのキャラクタを、自身の端末において選択する。これにより、図6に示す複数の端末の各端末には、各端末のユーザのお気に入りのキャラクタが表示されるようになる。この場合に本実施形態では、コンテンツ識別情報により指定されたコンテンツ及びユーザが選択したキャラクタの位置に応じて、キャラクタのモーションの決定と、仮想カメラの位置の設定を行う。例えば図8(B)に示すように、コンテンツID及びキャラクタ位置に対して、キャラクタのモーションのIDと仮想カメラの位置や動作の設定を対応づけることができる。このようにすれば、指定されたコンテンツ及びユーザの選択したキャラクタの位置に応じた、適切なモーションの選択と仮想カメラの位置の設定が可能になる。 Next, the character motion settings and virtual camera settings will be described in detail. In the present embodiment, for example, a character selected by the user as at least one character is arranged in the virtual three-dimensional space. For example, as shown in FIG. 8A, each user of a plurality of users selects his / her favorite character on his / her terminal. As a result, the favorite character of the user of each terminal is displayed on each terminal of the plurality of terminals shown in FIG. In this case, in the present embodiment, the motion of the character is determined and the position of the virtual camera is set according to the content specified by the content identification information and the position of the character selected by the user. For example, as shown in FIG. 8B, it is possible to associate the motion ID of the character with the position and operation settings of the virtual camera with respect to the content ID and the character position. In this way, it is possible to select an appropriate motion and set the position of the virtual camera according to the designated content and the position of the character selected by the user.

一例としては、図6の複数の端末の複数のユーザの各ユーザは、自身のお気に入りのキャラクタを選択する。そして、ユーザの端末においては、ユーザが選択した一人のお気に入りのキャラクタだけが、ステージのセンターポジションに配置される。即ち図8(B)のキャラクタ位置は、ステージのセンターポジションに設定される。例えばユーザのお気に入りキャラクタが、図9のセンターのキャラクタCHAとして配置される。そして仮想カメラは、センターに配置されるキャラクタCHAが、画面のほぼ中央に映るように設定される。即ち、仮想カメラの位置は図9の仮想カメラVCAの位置に設定され、センターに配置されるキャラクタCHAの前方の位置に配置されるようになる。このように仮想カメラの位置は、キャラクタの位置によって決定される。そして、キャラクタのモーションは、コンテンツである楽曲に対応したセンターポジションのキャラクタ用のモーションが選択される。例えば図9では、センターポジションのキャラクタCHA用のモーションデータMTAを用いて、キャラクタCHAのモーション再生が行われる。即ち、コンテンツ(コンテンツID)とキャラクタ位置により、モーション(モーションID)も決定されるようになる。またキャラクタの動きに合わせて、仮想カメラのカメラワークを行う場合にも、仮想カメラの動作であるカメラワークは、センターポジションのキャラクタ用のモーションに応じたカメラワークとなる。即ち、仮想カメラの動作も、コンテンツやキャラクタ位置に応じて決まるようになる。 As an example, each user of the plurality of users of the plurality of terminals in FIG. 6 selects his / her favorite character. Then, on the user's terminal, only one favorite character selected by the user is placed at the center position of the stage. That is, the character position in FIG. 8B is set to the center position of the stage. For example, the user's favorite character is arranged as the center character CHA in FIG. Then, the virtual camera is set so that the character CHA arranged in the center is projected in the substantially center of the screen. That is, the position of the virtual camera is set to the position of the virtual camera VCA of FIG. 9, and is arranged at a position in front of the character CHA arranged at the center. In this way, the position of the virtual camera is determined by the position of the character. Then, as the motion of the character, the motion for the character at the center position corresponding to the music that is the content is selected. For example, in FIG. 9, motion reproduction of the character CHA is performed using the motion data MTA for the character CHA at the center position. That is, the motion (motion ID) is also determined by the content (content ID) and the character position. Further, even when the camera work of the virtual camera is performed according to the movement of the character, the camera work which is the operation of the virtual camera is the camera work corresponding to the motion for the character at the center position. That is, the operation of the virtual camera is also determined according to the content and the character position.

また本実施形態では、ユーザの入力情報に基づいて、複数のキャラクタを仮想3次元空間に配置設定し、配置された複数のキャラクタに応じて、仮想カメラの位置の設定を行うようにしてもよい。具体的には図10に示すように、ユーザの入力情報に基づいて、ユーザのお気に入りキャラクタ以外のキャラクタの配置と、お気に入りキャラクタ(広義にはユーザの選択キャラクタ)の配置位置の変更を行う。このようにすれば、ユーザの入力情報を反映させて、複数のキャラクタを配置し、配置された複数のキャラクタに応じた適切な位置に仮想カメラを設定できるようになる。 Further, in the present embodiment, a plurality of characters may be arranged and set in the virtual three-dimensional space based on the input information of the user, and the position of the virtual camera may be set according to the arranged plurality of characters. .. Specifically, as shown in FIG. 10, based on the input information of the user, the arrangement of characters other than the user's favorite character and the arrangement position of the favorite character (in a broad sense, the user's selected character) are changed. In this way, a plurality of characters can be arranged by reflecting the input information of the user, and the virtual camera can be set at an appropriate position according to the arranged plurality of characters.

例えば本実施形態では、基本的には、ユーザが選択したお気に入りのキャラクタは、ステージのセンターポジションに配置される。この場合に、ユーザのお気に入りキャラクタ以外の複数のキャラクタを、ユーザの入力情報に基づいて、仮想3次元空間のステージに配置できるようにする。例えば図10において、ユーザのお気に入りキャラクタが、センターのキャラクタCHAとして配置された場合に、センターポジション以外の他のキャラクタCHB、CHC、CHD、CHEについても、ユーザの入力情報に基づいて配置できるようにする。なお、ユーザは、自身のお気に入りキャラクタの配置についても変更することができ、例えばお気に入りキャラクタを、センターポジション以外のポジションに配置することもできる。例えばユーザは、お気に入りキャラクタを、センターポジションの隣のキャラクタCHBとして配置することもできる。 For example, in the present embodiment, basically, the favorite character selected by the user is placed at the center position of the stage. In this case, a plurality of characters other than the user's favorite character can be arranged on the stage in the virtual three-dimensional space based on the user's input information. For example, in FIG. 10, when the user's favorite character is arranged as the center character CHA, the characters CHB, CHC, CHD, and CHE other than the center position can also be arranged based on the user's input information. To do. The user can also change the arrangement of his / her favorite character, for example, the favorite character can be arranged at a position other than the center position. For example, the user can also place the favorite character as the character CHB next to the center position.

更に、ユーザは、複数のキャラクタのうちの、どのキャラクタを中心に仮想カメラで撮影するかを設定することができる。例えばユーザのお気に入りキャラクタが、図10のキャラクタCHAとしてセンターポジションに配置された場合には、このお気に入りキャラクタが中心に映るように、仮想カメラの位置を図10の仮想カメラVCAの位置に設定する。またユーザが、センターポジションの隣のキャラクタCHBを、お気に入りにキャラクタとして配置した場合に、通常の仮想カメラの位置は仮想カメラVCAの位置であるが、お気に入りキャラクタの前方に仮想カメラが位置するように、仮想カメラの位置を仮想カメラVCBの位置に変更してもよい。仮想カメラ制御部108により、仮想カメラの位置を制御できることで、このような仮想カメラの位置の設定が可能になる。このようにすれば、ユーザは、敢えてセンターポジション以外を選択しながら、仮想カメラについては、お気に入りキャラクタの前方に配置することが可能になる。例えば仮想的なアイドルグループに対応する現実世界のアイドルにおいて、ユーザのお気に入りのアイドルのポジションがセンターポジションではない場合がある。このような場合には、上記のようなキャラクタのポジションの設定と仮想カメラの位置の設定を行うことで、ユーザの要望に応えることができる。 Further, the user can set which character among the plurality of characters is to be photographed by the virtual camera. For example, when the user's favorite character is placed in the center position as the character CHA of FIG. 10, the position of the virtual camera is set to the position of the virtual camera VCA of FIG. 10 so that the favorite character is reflected in the center. Also, when the user places the character CHB next to the center position as a character in the favorite, the position of the normal virtual camera is the position of the virtual camera VCA, but the virtual camera is located in front of the favorite character. , The position of the virtual camera may be changed to the position of the virtual camera VCB. Since the position of the virtual camera can be controlled by the virtual camera control unit 108, such a position of the virtual camera can be set. In this way, the user can dare to select a position other than the center position and place the virtual camera in front of the favorite character. For example, in a real-world idol corresponding to a virtual idol group, the user's favorite idol position may not be the center position. In such a case, the user's request can be met by setting the character position and the virtual camera position as described above.

また本実施形態では、複数のキャラクタが仮想3次元空間に配置される場合に、複数のキャラクタの配置に応じて、複数のキャラクタの各キャラクタのモーションを決定する。例えば図10のように複数キャラクタが配置される場合、楽曲に対応したポジションによって、キャラクタのモーションが変わる。例えばセンターのポジションのキャラクタCHAでは、モーションデータMTAを用いてモーションの再生が行われ、その隣のキャラクタCHBでは、モーションデータMTBを用いてモーションの再生が行われる。他のキャラクタについても同様である。このように本実施形態では、複数のキャラクタの配置位置に応じて、各キャラクタのモーションなどの行動が決定される。このようにすれば、複数のキャラクタを仮想3次元空間に配置した場合に、キャラクタの配置位置に応じた適切なモーションを選択して、キャラクタを動作させることが可能になる。なお、仮想3次元空間に配置するキャラクタが1つである場合は、キャラクタの行動をユーザが選択できるようにしてもよい。 Further, in the present embodiment, when a plurality of characters are arranged in a virtual three-dimensional space, the motion of each character of the plurality of characters is determined according to the arrangement of the plurality of characters. For example, when a plurality of characters are arranged as shown in FIG. 10, the motion of the characters changes depending on the position corresponding to the music. For example, the character CHA at the center position uses the motion data MTA to reproduce the motion, and the character CHB next to it uses the motion data MTB to reproduce the motion. The same applies to other characters. As described above, in the present embodiment, actions such as motion of each character are determined according to the arrangement positions of the plurality of characters. In this way, when a plurality of characters are arranged in the virtual three-dimensional space, it is possible to select an appropriate motion according to the arrangement position of the characters and operate the characters. When there is only one character arranged in the virtual three-dimensional space, the user may be able to select the action of the character.

また本実施形態では、再生タイミング情報は、基準時刻から設定時間後の時刻を、再生開始タイミングの指定時刻として指定する情報であり、この指定時刻において、コンテンツの再生を開始する。 Further, in the present embodiment, the reproduction timing information is information that specifies the time after the set time from the reference time as the designated time of the reproduction start timing, and the reproduction of the content is started at this designated time.

例えば図11(A)では、ホスト端末TMHの画面に、「10分後にスタートします」という表示が行われている。例えばコードQCが生成されて表示される時刻を基準時刻とした場合に、図11(B)に示すように、この基準時刻TREFから、設定時間STM=10分後の時刻が、再生開始タイミングの指定時刻TSPとして設定される。例えば図11(A)の表示が行われた時刻が午後6時であれば、基準時刻TREFである午後6時から10分後の午後6時10分が、指定時刻TSPになる。即ちコードQCでは、指定時刻TSPが午後6時10分となる再生タイミング情報が、コード化されるようになる。そして指定時刻TSPである午後6時10分を再生開始タイミングとして、図6のコンテンツ再生が行われるようになる。また図11(A)の表示が行われた時刻が午後7時30分であれば、基準時刻TREFである午後7時30分から、設定時間STM=10分後の午後7時40分が、指定時刻TSPになる。即ちコードQCでは、指定時刻TSPが午後7時40分となる再生タイミング情報が、コード化されるようになる。そして指定時刻TSPである午後7時40分を再生開始タイミングとして、図6のコンテンツ再生が行われるようになる。 For example, in FIG. 11A, the display "Starts in 10 minutes" is displayed on the screen of the host terminal TMH. For example, when the time when the code QC is generated and displayed is set as the reference time, as shown in FIG. 11B, the time after the set time STM = 10 minutes from the reference time TREF is the playback start timing. It is set as the specified time TSP. For example, if the time when the display of FIG. 11A is displayed is 6:00 pm, the designated time TSP is 6:10 pm, which is 10 minutes after 6:00 pm, which is the reference time TREF. That is, in the code QC, the reproduction timing information in which the designated time TSP is 6:10 pm is coded. Then, the content of FIG. 6 is reproduced with the reproduction start timing of 6:10 pm, which is the designated time TSP. If the time when the display in FIG. 11A is displayed is 7:30 pm, the reference time TREF is 7:30 pm, and the set time STM = 10 minutes later, 7:40 pm is designated. It becomes the time TSP. That is, in the code QC, the reproduction timing information in which the designated time TSP is 7:40 pm is coded. Then, the content of FIG. 6 is played back with the designated time TSP of 7:40 pm as the playback start timing.

このようにすれば、複数のゲスト端末の各ユーザが、図11(A)のコードQCを撮影することで、図11(A)の表示時刻である基準時刻から設定時間後の時刻が、再生開始タイミングの指定時刻として設定されるようになる。そしてユーザは、図11(A)に示すような表示を見ることなどで、設定時間である10分後にコンテンツ再生を開始することを把握できるようになるため、ユーザの利便性の向上を図れる。 By doing so, each user of the plurality of guest terminals captures the code QC of FIG. 11 (A), so that the time after the set time from the reference time, which is the display time of FIG. 11 (A), is reproduced. It will be set as the specified time of the start timing. Then, the user can grasp that the content playback is started after 10 minutes, which is the set time, by looking at the display as shown in FIG. 11A, so that the convenience of the user can be improved.

なお各端末は、サーバからネットワークを介して取得した時刻情報に基づいて、端末での現在時刻を更新する。例えばログイン時などにおいて、アプリケーションプログラム内(ゲーム内)の時刻である現在時刻を、サーバの時刻に基づいて調整する。これにより、複数の端末間での時刻のズレを最小限にすることができる。従って、図11(A)で説明した手法で設定されるコンテンツ再生の指定時刻も、複数の端末間での時刻のズレが最小限になり、コンテンツ再生の際のキャラクタの動きのズレや、楽曲の演奏タイミングのズレが発生するのを防止できる。 Each terminal updates the current time on the terminal based on the time information acquired from the server via the network. For example, at the time of login, the current time, which is the time in the application program (in the game), is adjusted based on the time on the server. As a result, the time difference between a plurality of terminals can be minimized. Therefore, the designated time for content playback set by the method described with reference to FIG. 11 (A) also minimizes the time lag between a plurality of terminals, and the lag in character movement during content playback and the music. It is possible to prevent the deviation of the performance timing of.

また本実施形態では、指定時刻の前に、コンテンツ再生部102を起動する。例えば図11(B)において指定時刻TSPの前のタイミングTI(例えば指定時刻TSPの直前のタイミング)において、コンテンツ再生部102を自動起動する。このようにすれば、基準時刻TREFの後に、端末がスリープモードに移行したような場合においても、指定時刻TSPの前のタイミングTIにおいて、コンテンツ再生部102を起動して、スリープモードから通常動作モードに移行させることができる。これにより、現在時刻が指定時刻TSPになったときに、コンテンツ再生部102は、コンテンツの再生を適正に開始できるようになる。 Further, in the present embodiment, the content reproduction unit 102 is activated before the designated time. For example, in FIG. 11B, the content reproduction unit 102 is automatically started at the timing TI before the designated time TSP (for example, the timing immediately before the designated time TSP). By doing so, even when the terminal shifts to the sleep mode after the reference time TREF, the content reproduction unit 102 is activated at the timing TI before the specified time TSP, and the sleep mode is changed to the normal operation mode. Can be migrated to. As a result, when the current time reaches the designated time TSP, the content reproduction unit 102 can properly start the reproduction of the content.

2.2 コンテンツ再生システムの詳細
次に本実施形態のコンテンツ再生システムの詳細例について説明する。図12はコンテンツ再生システムの詳細な処理例を説明するフローチャートである。
2.2 Details of the content playback system Next, a detailed example of the content playback system of the present embodiment will be described. FIG. 12 is a flowchart illustrating a detailed processing example of the content reproduction system.

図12において、本実施形態のコンテンツ再生システムは、ホスト端末と、第1のゲスト端末と第2のゲスト端末を含む。そして第1のゲスト端末は、第1のゲスト端末の第1のユーザが選択した第1のキャラクタの情報を含む設定情報を、第1のユーザ情報として生成する(ステップS21)。そして第1のユーザ情報を表示する第1の再生情報表示物を出力する(ステップS22)。図14(A)を例にとれば、第1のゲスト端末であるゲスト端末TM1は、第1の再生情報表示物として2次元のコードQC1を、ゲスト端末TM1の画面に表示する。 In FIG. 12, the content reproduction system of the present embodiment includes a host terminal, a first guest terminal, and a second guest terminal. Then, the first guest terminal generates setting information including the information of the first character selected by the first user of the first guest terminal as the first user information (step S21). Then, the first reproduction information display object for displaying the first user information is output (step S22). Taking FIG. 14A as an example, the guest terminal TM1 which is the first guest terminal displays the two-dimensional code QC1 on the screen of the guest terminal TM1 as the first reproduction information display object.

第2のゲスト端末は、第2のゲスト端末の第2のユーザが選択した第2のキャラクタの情報を含む設定情報を、第2のユーザ情報として生成する(ステップS31)。そして第2のユーザ情報を表示する第2の再生情報表示物を出力する(ステップS32)。図14(A)を例にとれば、第2のゲスト端末であるゲスト端末TM2は、第2の再生情報表示物として2次元のコードQC2を、ゲスト端末TM2の画面に表示する。 The second guest terminal generates setting information including the information of the second character selected by the second user of the second guest terminal as the second user information (step S31). Then, a second playback information display object that displays the second user information is output (step S32). Taking FIG. 14A as an example, the guest terminal TM2, which is the second guest terminal, displays the two-dimensional code QC2 on the screen of the guest terminal TM2 as the second reproduction information display object.

次にホスト端末は、第1、第2の再生情報表示物を同時撮影して、撮影画像を取得する(ステップS41)。例えば図14(A)に示すような撮影画像IMを取得する。この撮影画像IMには、第1の再生情報表示物であるコードQC1と第2の再生情報表示物であるコードQC2が表示されている。そしてホスト端末は、取得した撮影画像に基づいて、仮想3次元空間での第1、第2のキャラクタの配置位置を決定する(ステップS42)。そして第1、第2のキャラクタの配置位置を指示するキャラクタ配置情報を含む再生情報を生成する(ステップS43)。この再生情報は、キャラクタ配置情報と、図4で説明したコンテンツ識別情報及び再生タイミング情報を含んでいる。そしてホスト端末は、再生情報を表示する再生情報表示物を出力する(ステップS44)。具体的には図3に示すように、再生情報表示物として2次元のコードQCを、ホスト端末TMHの画面に表示する。この再生情報表示物であるコードQCは、コンテンツ識別情報、再生タイミング情報及びキャラクタ配置情報を含んでいる。 Next, the host terminal simultaneously shoots the first and second reproduction information display objects and acquires the shot image (step S41). For example, a captured image IM as shown in FIG. 14 (A) is acquired. In this captured image IM, a code QC1 which is a first reproduction information display object and a code QC2 which is a second reproduction information display object are displayed. Then, the host terminal determines the placement positions of the first and second characters in the virtual three-dimensional space based on the acquired captured image (step S42). Then, the reproduction information including the character arrangement information indicating the arrangement position of the first and second characters is generated (step S43). This reproduction information includes character arrangement information, content identification information and reproduction timing information described with reference to FIG. Then, the host terminal outputs a reproduction information display object that displays the reproduction information (step S44). Specifically, as shown in FIG. 3, a two-dimensional code QC is displayed on the screen of the host terminal TMH as a reproduction information display object. The code QC, which is the reproduction information display object, includes content identification information, reproduction timing information, and character arrangement information.

次に第1のゲスト端末は、ホスト端末が出力する再生情報表示物を撮影して、撮影画像を取得する(ステップS23)。そして撮影画像からキャラクタ配置情報を抽出する(ステップS24)。そしてキャラクタ配置情報に基づいて、仮想3次元空間に第1、第2のキャラクタを配置して、コンテンツの再生を行う(ステップS25)。なお、ここでは省略しているが、ステップS24において第1のゲスト端末は、キャラクタ配置情報に加えて、図4で説明したコンテンツ識別情報及び再生タイミング情報も抽出する。そしてステップS25において、これらのコンテンツ識別情報及び再生タイミング情報を用いてコンテンツ再生を行う。 Next, the first guest terminal captures a reproduction information display object output by the host terminal and acquires a captured image (step S23). Then, the character arrangement information is extracted from the captured image (step S24). Then, based on the character arrangement information, the first and second characters are arranged in the virtual three-dimensional space, and the content is reproduced (step S25). Although omitted here, in step S24, the first guest terminal extracts the content identification information and the reproduction timing information described in FIG. 4 in addition to the character arrangement information. Then, in step S25, the content is reproduced using the content identification information and the reproduction timing information.

同様に第2のゲスト端末は、ホスト端末TMHが出力する再生情報表示物を撮影して、撮影画像を取得する(ステップS33)。そして撮影画像からキャラクタ配置情報を抽出する(ステップS34)。そしてキャラクタ配置情報に基づいて、仮想3次元空間に第1、第2のキャラクタを配置して、コンテンツの再生を行う(ステップS35)。なお、ここでは省略しているが、ステップS34において第2のゲスト端末は、キャラクタ配置情報に加えて、コンテンツ識別情報及び再生タイミング情報も抽出する。そしてステップS35において、これらのコンテンツ識別情報及び再生タイミング情報を用いてコンテンツ再生を行う。 Similarly, the second guest terminal captures the reproduction information display object output by the host terminal TMH and acquires the captured image (step S33). Then, the character arrangement information is extracted from the captured image (step S34). Then, based on the character arrangement information, the first and second characters are arranged in the virtual three-dimensional space, and the content is reproduced (step S35). Although omitted here, in step S34, the second guest terminal extracts the content identification information and the reproduction timing information in addition to the character arrangement information. Then, in step S35, the content is reproduced using the content identification information and the reproduction timing information.

図12に示す処理例によれば、ホスト端末は、第1、第2のゲスト端末の第1、第2のユーザが選択した第1、第2のキャラクタについての情報を含む設定情報を、第1、第2のゲスト端末から取得できるようになる。例えば第1、第2のユーザが、お気に入りキャラクタとしてどのキャラクタを選択したのかについての情報を取得できる。これによりホスト端末は、第1、第2のユーザが選択した第1、第2のキャラクタを仮想3次元空間に配置できるようになる。従って、仮想3次元空間に複数のキャラクタを配置する際に、第1、第2のゲスト端末の第1、第2のユーザが所望するキャラクタを配置できるようになる。 According to the processing example shown in FIG. 12, the host terminal sets setting information including information about the first and second characters selected by the first and second users of the first and second guest terminals. It will be possible to acquire from the first and second guest terminals. For example, the first and second users can acquire information about which character is selected as the favorite character. As a result, the host terminal can arrange the first and second characters selected by the first and second users in the virtual three-dimensional space. Therefore, when arranging a plurality of characters in the virtual three-dimensional space, the characters desired by the first and second users of the first and second guest terminals can be arranged.

またホスト端末は、図12のステップS41に示すように、第1の再生情報表示物と第2の再生情報表示物を撮影した撮影画像を取得し、ステップS42に示すように、撮影画像での第1の再生情報表示物と第2の再生情報表示物の位置関係に基づいて、仮想3次元空間での第1、第2のキャラクタの配置位置を決定し、ステップS43に示すように、キャラクタ配置情報を生成する。このようにすれば、撮影画像での第1の再生情報表示物と第2の再生情報表示物の位置関係に応じた位置に、仮想3次元空間での第1、第2のキャラクタの配置できるようになる。 Further, the host terminal acquires a photographed image of the first reproduction information display object and the second reproduction information display object as shown in step S41 of FIG. 12, and as shown in step S42, the photographed image is used. Based on the positional relationship between the first reproduction information display object and the second reproduction information display object, the placement positions of the first and second characters in the virtual three-dimensional space are determined, and as shown in step S43, the characters Generate placement information. In this way, the first and second characters can be arranged in the virtual three-dimensional space at positions corresponding to the positional relationship between the first reproduction information display object and the second reproduction information display object in the captured image. Will be.

例えば図14(A)において、第1の再生情報表示物であるコードQC1と、第2の再生情報表示物であるコードQC2についての、撮影画像IMでの位置関係に応じて、第1、第2のユーザの第1、第2のキャラクタを配置できるようになる。一例としては、図14(A)に示すようなコードQC1、QC2の位置関係である場合には、図14(B)に示すようにキャラクタCH1、CH2を配置する。ここで、キャラクタCH1が第1のキャラクタであり、キャラクタCH2が第2のキャラクタである。例えば図14(B)では、ホスト端末のキャラクタCHHは、例えばステージのセンターポジションに配置される。一方、図14(A)に示すように、ゲスト端末TM1のコードQC1は、撮影画像IMにおいて左側に位置し、ゲスト端末TM2のコードQC2は、撮影画像IMにおいて右側に位置している。従って、この場合にはコードQC1、QC2の配置と対応するように、ゲスト端末TM1の第1のユーザのキャラクタCH1については、センターのキャラクタCHHに対して、正面から見て左に配置し、ゲスト端末TM2の第2のユーザのキャラクタCH2については、正面から見て右に配置する。このようにすれば、撮影画像での第1、第2の再生情報表示物の位置関係を利用して、第1、第2のキャラクタであるキャラクタCH1、CH2を仮想3次元空間に配置できるようになる。 For example, in FIG. 14A, the first and first codes QC1 which are the first reproduction information display objects and the code QC2 which is the second reproduction information display object are first and first depending on the positional relationship in the captured image IM. The first and second characters of two users can be placed. As an example, in the case of the positional relationship of the codes QC1 and QC2 as shown in FIG. 14 (A), the characters CH1 and CH2 are arranged as shown in FIG. 14 (B). Here, the character CH1 is the first character, and the character CH2 is the second character. For example, in FIG. 14B, the character CHH of the host terminal is arranged at, for example, the center position of the stage. On the other hand, as shown in FIG. 14A, the code QC1 of the guest terminal TM1 is located on the left side of the captured image IM, and the code QC2 of the guest terminal TM2 is located on the right side of the captured image IM. Therefore, in this case, the character CH1 of the first user of the guest terminal TM1 is arranged to the left of the center character CHH so as to correspond to the arrangement of the codes QC1 and QC2, and the guest is arranged. The character CH2 of the second user of the terminal TM2 is arranged on the right side when viewed from the front. By doing so, the characters CH1 and CH2, which are the first and second characters, can be arranged in the virtual three-dimensional space by utilizing the positional relationship of the first and second reproduction information display objects in the captured image. become.

またホスト端末は、第1、第2のゲスト端末の第1、第2のユーザが選択した第1、第2のキャラクタと、ホスト端末のユーザが選択したキャラクタについての仮想3次元空間での配置を決定することができる。例えば図14(B)では、ホスト端末のユーザはセンターのポジションに自身のキャラクタCHHを配置している。或いはホスト端末のユーザは、センターの隣のポジションに自身のキャラクタCHHを配置することもできる。このようにすれば、第1、第2のゲスト端末のユーザが選択したキャラクタに加えて、ホスト端末のユーザが選択したキャラクタについても、仮想3次元空間に配置できるようになる。 Further, the host terminal is arranged in a virtual three-dimensional space with respect to the first and second characters selected by the first and second users of the first and second guest terminals and the characters selected by the user of the host terminal. Can be determined. For example, in FIG. 14B, the user of the host terminal places his / her character CHH in the center position. Alternatively, the user of the host terminal can place his / her character CHH in a position next to the center. In this way, in addition to the characters selected by the users of the first and second guest terminals, the characters selected by the users of the host terminal can also be arranged in the virtual three-dimensional space.

また図12のステップS21、S31において、第1、第2のゲスト端末が生成する第1、第2のキャラクタの設定情報は、第1、第2のユーザがお気に入りキャラクタとして選択した第1、第2のキャラクタを指定する情報を含むことができ、更に第1、第2のキャラクタのポジションを指定する情報を含むこともできる。なお楽曲のコンテンツにおいて、第1、第2のキャラクタのポジションが決まっている場合には、お気に入りのキャラクタを選択した時点で、ポジションも決定されることになる。また第1、第2のキャラクタのポジションは、ホスト端末のユーザが決定したり、所定のアルゴリズムにしたがって自動的に決定されるようにしてもよい。例えばホスト端末は、第1、第2のゲスト端末から希望のポジションを受け付けて、各キャラクタのポジションを決定してもよい。この場合に、第1、第2のゲスト端末から、ポジションについての第1希望、第2希望等を受け付けるようにしてもよい。 Further, in steps S21 and S31 of FIG. 12, the setting information of the first and second characters generated by the first and second guest terminals is the first and first characters selected by the first and second users as favorite characters. Information that specifies the two characters can be included, and information that specifies the positions of the first and second characters can also be included. If the positions of the first and second characters are determined in the content of the music, the positions are also determined when the favorite character is selected. Further, the positions of the first and second characters may be determined by the user of the host terminal or may be automatically determined according to a predetermined algorithm. For example, the host terminal may accept a desired position from the first and second guest terminals and determine the position of each character. In this case, the first choice, the second choice, etc. regarding the position may be accepted from the first and second guest terminals.

また端末の画面側のインカメラを起動させる共に画面に各再生情報表示物(コード)を表示して、ステップS41での撮影と、ステップS23、S33での撮影を同時に行うようにしてもよい。例えばホスト端末は、ステップS44のように再生情報表示物(コード)を画面に表示しながら、画面側のインカメラによりステップS41の撮影を行って、第1、第2のゲスト端末の第1、第2の再生情報表示物の撮影画像を取得する。第1、第2のゲスト端末は、ステップS22、S32のように第1、第2の再生情報表示物(コード)を表示しながら、画面側のインカメラによりステップS23、S33の撮影を行って、再生情報表示物の撮影画像を取得する。このようにすることで撮影を2回に分けることなく各端末が各撮影画像を取得できるようになる。 Further, the in-camera on the screen side of the terminal may be activated and each reproduction information display object (code) may be displayed on the screen so that the shooting in step S41 and the shooting in steps S23 and S33 can be performed at the same time. For example, the host terminal takes a picture of step S41 with the in-camera on the screen side while displaying the reproduction information display object (code) on the screen as in step S44, and the first and second guest terminals of the first and second guest terminals, The photographed image of the second reproduction information display object is acquired. The first and second guest terminals take pictures of steps S23 and S33 with the in-camera on the screen side while displaying the first and second reproduction information display objects (codes) as in steps S22 and S32. , Playback information Acquire the captured image of the displayed object. By doing so, each terminal can acquire each photographed image without dividing the photographing into two times.

また図14(B)においても、仮想カメラの位置を、VCH、VC1、VC2に示すような任意の位置に設定可能である。また図14(A)、(B)では、ゲスト端末TM1、TM2の画面に表示されるコードQC1、QC2の位置関係を用いて、キャラクタCH1、CH2の配置を設定している。これに対して図15(A)、図15(B)では、ゲスト端末TM1、TM2、TM3、TM4の画面に表示されるコードQC1、QC2、QC3、QC4の位置関係を用いて、キャラクタCH1、CH2、CH3、CH4の配置を設定している。このように本実施形態によれば、配置対象となるキャラクタの数が増えた場合にも、容易に対応できる。 Further, also in FIG. 14B, the position of the virtual camera can be set to an arbitrary position as shown in VCH, VC1 and VC2. Further, in FIGS. 14A and 14B, the arrangement of the characters CH1 and CH2 is set by using the positional relationship of the codes QC1 and QC2 displayed on the screens of the guest terminals TM1 and TM2. On the other hand, in FIGS. 15 (A) and 15 (B), the character CH1 and the characters CH1 and The arrangement of CH2, CH3, and CH4 is set. As described above, according to the present embodiment, even when the number of characters to be arranged increases, it can be easily dealt with.

図13は、本実施形態の詳細な他の処理例を説明するフローチャートである。図13が図12と異なるのは、図13のステップS41a、S41b、ステップS42、S43である。即ち図13において、ホスト端末は、第1のゲスト端末が出力する第1の再生情報表示物を撮影して、第1の撮影画像を取得する(ステップS41a)。また第2のゲスト端末が出力する第2の再生情報表示物を撮影して、第2の撮影画像を取得する(ステップS41b)。そして第1、第2の撮影画像の取得順に基づいて、仮想3次元空間での第1、第2のキャラクタの配置位置を決定する(ステップS42)。そして第1、第2のキャラクタの配置位置を指示するキャラクタ配置情報を含む再生情報を生成する(ステップS43)。 FIG. 13 is a flowchart illustrating another detailed processing example of the present embodiment. FIG. 13 is different from FIG. 12 in steps S41a and S41b and steps S42 and S43 of FIG. That is, in FIG. 13, the host terminal captures the first reproduction information display object output by the first guest terminal and acquires the first captured image (step S41a). Further, the second reproduction information display object output by the second guest terminal is photographed to acquire the second photographed image (step S41b). Then, the placement positions of the first and second characters in the virtual three-dimensional space are determined based on the acquisition order of the first and second captured images (step S42). Then, the reproduction information including the character arrangement information indicating the arrangement position of the first and second characters is generated (step S43).

例えば図16では、第1の再生情報表示物であるコードQC1を撮影した撮影画像IM1が取得され、次に、第2の再生情報表示物であるコードQC2を撮影した撮影画像IM2が取得されている。また第3の再生情報表示物であるコードQC3を撮影した撮影画像IM3が取得され、第4の再生情報表示物であるコードQC4を撮影した撮影画像IM4が取得されている。ここで撮影画像IM1、IM2、IM3、IM4が、各々、第1、第2、第3、第4の撮影画像である。このような取得順で撮影画像IM1、IM2、IM3、IM4が取得された場合に、例えば図15(B)に示すように、キャラクタCH1、CH2、CH3、CH4を配置設定する。このようにすれば、撮影画像IM1、IM2、IM3、IM4の取得順を利用して、キャラクタCH1、CH2、CH3、CH4を仮想3次元空間に配置できるようになる。 For example, in FIG. 16, the captured image IM1 in which the code QC1 which is the first reproduction information display object is photographed is acquired, and then the photographed image IM2 in which the code QC2 which is the second reproduction information display object is photographed is acquired. There is. Further, the captured image IM3 obtained by photographing the code QC3 which is the third reproduction information display object is acquired, and the photographed image IM4 obtained by photographing the code QC4 which is the fourth reproduction information display object is acquired. Here, the captured images IM1, IM2, IM3, and IM4 are the first, second, third, and fourth captured images, respectively. When the captured images IM1, IM2, IM3, and IM4 are acquired in such an acquisition order, the characters CH1, CH2, CH3, and CH4 are arranged and set, for example, as shown in FIG. 15B. In this way, the characters CH1, CH2, CH3, and CH4 can be arranged in the virtual three-dimensional space by using the acquisition order of the captured images IM1, IM2, IM3, and IM4.

図17は、大型モニターに再生情報表示物を表示する手法の説明図である。図17では、例えば建物に設置された大型のモニターに、再生情報表示物である2次元のコードが表示される。そして多数のユーザが、ゲスト端末であるスマートフォンで、大型モニターのコードを撮影する。そして所定の設定時間後に、これらの多数のユーザのゲスト端末において、MVの動画のコンテンツの再生を同時タイミングで開始する。この場合には、ホスト端末は、運営側が用意するサーバ装置になる。例えばライブ会場に図17のような大型のモニターを設置し、モニターに再生情報表示物である2次元のコードを表示する。そして観客がスマートフォンでモニターのコードを撮影する。これにより所定の設定時間後に、例えばライブでの演奏に同期するようなMVの動画再生を、多数の観客のスマートフォンにおいて、同時タイミングで開始できるようになり、プロモーション効果の高いコンテンツ再生システムの実現が可能になる。 FIG. 17 is an explanatory diagram of a method of displaying a reproduction information display object on a large monitor. In FIG. 17, for example, a two-dimensional code, which is a reproduction information display object, is displayed on a large monitor installed in a building. Then, many users shoot the code of a large monitor with a smartphone, which is a guest terminal. Then, after a predetermined set time, playback of the MV video content is started at the same timing on the guest terminals of these a large number of users. In this case, the host terminal is a server device prepared by the management side. For example, a large monitor as shown in FIG. 17 is installed at a live venue, and a two-dimensional code, which is a reproduction information display object, is displayed on the monitor. The audience then shoots the monitor code with their smartphone. As a result, after a predetermined set time, for example, MV video playback that synchronizes with a live performance can be started at the same timing on the smartphones of a large number of spectators, and a content playback system with a high promotion effect can be realized. It will be possible.

なお、上記のように本実施形態について詳細に説明したが、本開示の新規事項および効果から実体的に逸脱しない多くの変形が可能であることは当業者には容易に理解できるであろう。従って、このような変形例はすべて本開示の範囲に含まれるものとする。例えば、明細書又は図面において、少なくとも一度、より広義または同義な異なる用語(再生情報表示物等)と共に記載された用語(コード等)は、明細書又は図面のいかなる箇所においても、その異なる用語に置き換えることができる。またコンテンツ再生処理、読取り処理、仮想空間設定処理、仮想カメラ制御処理、再生情報生成処理、出力処理、表示処理、音処理等も、本実施形態で説明したものに限定されず、これらと均等な手法・処理・構成も本開示の範囲に含まれる。 Although the present embodiment has been described in detail as described above, those skilled in the art will easily understand that many modifications that do not substantially deviate from the novel matters and effects of the present disclosure are possible. Therefore, all such modifications are within the scope of the present disclosure. For example, a term (code, etc.) described at least once in a specification or drawing together with a different term (reproduced information display, etc.) in a broader sense or synonymously means the different term in any part of the specification or drawing. Can be replaced. Further, the content reproduction processing, reading processing, virtual space setting processing, virtual camera control processing, reproduction information generation processing, output processing, display processing, sound processing, etc. are not limited to those described in the present embodiment, and are equivalent to these. Methods, processes and configurations are also included within the scope of this disclosure.

TMH…ホスト端末、TM1〜TMn…ゲスト端末、QC…コード、
CH1〜CH4、CHH、CHA〜CHE…キャラクタ、
VC1〜VC4、VCH、VCA〜VCE…仮想カメラ、
MT1〜MT4、MTH、MTA〜MTE…モーションデータ、
TREF…基準時刻、STM…設定時間、TSP…指定時刻、T1…タイミング、
100…処理部、102…コンテンツ再生部、104…読取り部、
106…仮想空間設定部、108…仮想カメラ制御部、109…起動部、
110…再生情報生成部、112…出力処理部、120…表示処理部、
130…音処理部、160…操作部、162…撮影部、170…記憶部、
172…コンテンツ情報記憶部、174…再生情報記憶部、
176…仮想空間情報記憶部、180…情報記憶媒体、190…表示部、
192…音出力部、194…I/F部、
195…携帯型情報記憶媒体、196…通信部、
TMH ... host terminal, TM1-TMn ... guest terminal, QC ... code,
CH1 to CH4, CHH, CHA to CHE ... Character,
VC1 to VC4, VCH, VCA to VCE ... Virtual camera,
MT1-MT4, MTH, MTA-MTE ... Motion data,
TREF ... Reference time, STM ... Set time, TSP ... Specified time, T1 ... Timing,
100 ... Processing unit, 102 ... Content playback unit, 104 ... Reading unit,
106 ... virtual space setting unit, 108 ... virtual camera control unit, 109 ... activation unit,
110 ... Reproduction information generation unit, 112 ... Output processing unit, 120 ... Display processing unit,
130 ... Sound processing unit, 160 ... Operation unit, 162 ... Shooting unit, 170 ... Storage unit,
172 ... Content information storage unit, 174 ... Reproduction information storage unit,
176 ... Virtual space information storage unit, 180 ... Information storage medium, 190 ... Display unit,
192 ... Sound output section, 194 ... I / F section,
195 ... Portable information storage medium, 196 ... Communication unit,

Claims (15)

少なくとも1つのキャラクタが配置された仮想3次元空間を仮想カメラにより撮影することで生成される動画を含むコンテンツを再生するコンテンツ再生部と、
再生タイミング情報を含む再生情報を表示する再生情報表示物を撮影した撮影画像が取得された場合に、前記撮影画像から、前記コンテンツの再生開始タイミングを指定するための前記再生タイミング情報を抽出する読取り部として、
コンピュータを機能させ、
前記コンテンツ再生部は、
前記再生タイミング情報に基づき指定された前記再生開始タイミングで、前記コンテンツの再生を開始することを特徴とするプログラム。
A content playback unit that reproduces content including moving images generated by shooting a virtual three-dimensional space in which at least one character is arranged with a virtual camera, and a content playback unit.
Displaying playback information including playback timing information When a shot image of a playback information display object is acquired, the playback timing information for specifying the playback start timing of the content is extracted from the shot image. As a department
Make your computer work
The content playback unit
A program characterized in that playback of the content is started at the playback start timing specified based on the playback timing information.
請求項1において、
前記少なくとも1つのキャラクタとして、ユーザが選択したキャラクタが前記仮想3次元空間に配置され、
前記再生情報は、前記コンテンツ再生部により再生される前記コンテンツを指定するためのコンテンツ識別情報を含み、
前記コンテンツ再生部は、
前記コンテンツ識別情報により指定された前記コンテンツ及び前記ユーザが選択した前記キャラクタの位置に応じて、前記キャラクタのモーションの決定と、前記仮想カメラの位置の設定を行うことを特徴とするプログラム。
In claim 1,
As the at least one character, a character selected by the user is arranged in the virtual three-dimensional space.
The playback information includes content identification information for designating the content to be played by the content playback unit.
The content playback unit
A program characterized in that the motion of the character is determined and the position of the virtual camera is set according to the content specified by the content identification information and the position of the character selected by the user.
請求項1において、
ユーザの入力情報に基づいて、前記少なくとも1つのキャラクタとして複数のキャラクタを前記仮想3次元空間に配置設定する仮想空間設定部と、
前記仮想カメラの位置の設定を行う仮想カメラ制御部として、
コンピュータを機能させることを特徴とするプログラム。
In claim 1,
A virtual space setting unit that arranges and sets a plurality of characters as the at least one character in the virtual three-dimensional space based on user input information.
As a virtual camera control unit that sets the position of the virtual camera,
A program characterized by making a computer work.
請求項1乃至3のいずれかにおいて、
前記少なくとも1つのキャラクタとして、複数のキャラクタが前記仮想3次元空間に配置され、
前記コンテンツ再生部は、
前記複数のキャラクタの配置に応じて、前記複数のキャラクタの各キャラクタのモーションを決定することを特徴とするプログラム。
In any one of claims 1 to 3,
As the at least one character, a plurality of characters are arranged in the virtual three-dimensional space.
The content playback unit
A program characterized in that the motion of each character of the plurality of characters is determined according to the arrangement of the plurality of characters.
請求項1乃至4のいずれかにおいて、
前記再生タイミング情報は、基準時刻から設定時間後の時刻を、前記再生開始タイミングの指定時刻として指定する情報であり、
前記コンテンツ再生部は、
前記指定時刻に、前記コンテンツの再生を開始することを特徴とするプログラム。
In any of claims 1 to 4,
The reproduction timing information is information that specifies a time after a set time from the reference time as a designated time of the reproduction start timing.
The content playback unit
A program characterized in that playback of the content is started at the designated time.
請求項5において、
前記指定時刻の前に、前記コンテンツ再生部を起動する起動部として、
コンピュータを機能させることを特徴とするプログラム。
In claim 5,
As an activation unit that activates the content playback unit before the designated time.
A program characterized by making a computer work.
請求項1乃至6のいずれかにおいて、
前記再生情報を生成する再生情報生成部と、
前記再生情報を表示する前記再生情報表示物を出力するための処理を行う出力処理部として、
コンピュータを機能させることを特徴とするプログラム。
In any of claims 1 to 6,
A reproduction information generation unit that generates the reproduction information,
As an output processing unit that performs processing for outputting the reproduction information display object for displaying the reproduction information
A program characterized by making a computer work.
少なくとも1つのキャラクタが配置された仮想3次元空間を仮想カメラにより撮影することで生成される動画を含むコンテンツを再生するコンテンツ再生部と、
再生タイミング情報を含む再生情報を表示する再生情報表示物を撮影した撮影画像が取得された場合に、前記撮影画像から、前記コンテンツの再生開始タイミングを指定するための前記再生タイミング情報を抽出する読取り部と、
を含み、
前記コンテンツ再生部は、
前記再生タイミング情報に基づき指定された前記再生開始タイミングで、前記コンテンツの再生を開始することを特徴とする端末装置。
A content playback unit that reproduces content including moving images generated by shooting a virtual three-dimensional space in which at least one character is arranged with a virtual camera, and a content playback unit.
Displaying playback information including playback timing information When a shot image of a playback information display object is acquired, the playback timing information for specifying the playback start timing of the content is extracted from the shot image. Department and
Including
The content playback unit
A terminal device characterized in that playback of the content is started at the playback start timing designated based on the playback timing information.
ホスト端末と、少なくとも1つのゲスト端末を有し、少なくとも1つのキャラクタが配置された仮想3次元空間を仮想カメラにより撮影することで生成される動画を含むコンテンツを再生するためのコンテンツ再生システムであって、
前記ホスト端末は、
前記コンテンツの再生開始タイミングを指定するための再生タイミング情報を含む再生情報を生成し、前記再生情報を表示する再生情報表示物を出力し、
前記少なくとも1つのゲスト端末は、
前記再生情報表示物を撮影した撮影画像を取得した場合に、前記撮影画像から、前記再生タイミング情報を抽出し、
前記再生タイミング情報に基づき指定された前記再生開始タイミングで、前記コンテンツの再生を開始することを特徴とするコンテンツ再生システム。
It is a content playback system for playing back content including moving images generated by shooting a virtual three-dimensional space in which at least one character is arranged with a host terminal and at least one guest terminal with a virtual camera. hand,
The host terminal
Generates playback information including playback timing information for designating the playback start timing of the content, and outputs a playback information display object that displays the playback information.
The at least one guest terminal is
When a photographed image obtained by photographing the reproduction information display object is acquired, the reproduction timing information is extracted from the photographed image.
A content reproduction system characterized in that reproduction of the content is started at the reproduction start timing designated based on the reproduction timing information.
請求項9において、
前記少なくとも1つのゲスト端末として、第1のゲスト端末と第2のゲスト端末を含み、
前記第1のゲスト端末は、前記第1のゲスト端末の第1のユーザが選択した第1のキャラクタの情報を含む設定情報を、第1のユーザ情報として生成し、前記第1のユーザ情報を表示する第1の再生情報表示物を出力し、
前記第2のゲスト端末は、前記第2のゲスト端末の第2のユーザが選択した第2のキャラクタの情報を含む設定情報を、第2のユーザ情報として生成し、前記第2のユーザ情報を表示する第2の再生情報表示物を出力し、
前記ホスト端末は、
前記第1の再生情報表示物と前記第2の再生情報表示物を撮影した撮影画像を取得した場合に、前記撮影画像に基づいて、前記仮想3次元空間での前記第1、第2のキャラクタの配置位置を決定し、前記第1、第2のキャラクタの前記配置位置を指示するキャラクタ配置情報を含む前記再生情報を生成し、前記再生情報を表示する前記再生情報表示物を出力し、
前記第1、第2のゲスト端末の各ゲスト端末は、
前記再生情報表示物を撮影した前記撮影画像を取得した場合に、前記撮影画像から前記キャラクタ配置情報を抽出し、
前記キャラクタ配置情報に基づいて、前記仮想3次元空間に前記第1、第2のキャラクタを配置して、前記コンテンツの再生を行うことを特徴とするコンテンツ再生システム。
In claim 9.
The at least one guest terminal includes a first guest terminal and a second guest terminal.
The first guest terminal generates setting information including information of the first character selected by the first user of the first guest terminal as the first user information, and generates the first user information. Output the first playback information display object to be displayed,
The second guest terminal generates setting information including the information of the second character selected by the second user of the second guest terminal as the second user information, and generates the second user information. Output the second playback information display object to be displayed,
The host terminal
When the photographed image obtained by photographing the first reproduction information display object and the second reproduction information display object is acquired, the first and second characters in the virtual three-dimensional space are obtained based on the photographed image. Is determined, the reproduction information including the character arrangement information indicating the arrangement position of the first and second characters is generated, and the reproduction information display object for displaying the reproduction information is output.
Each guest terminal of the first and second guest terminals is
When the photographed image obtained by photographing the reproduction information display object is acquired, the character arrangement information is extracted from the photographed image.
A content reproduction system characterized in that the first and second characters are arranged in the virtual three-dimensional space based on the character arrangement information to reproduce the contents.
請求項10において、
前記ホスト端末は、
前記第1の再生情報表示物と前記第2の再生情報表示物を撮影した撮影画像を取得した場合に、前記撮影画像での前記第1の再生情報表示物と前記第2の再生情報表示物の位置関係に基づいて、前記仮想3次元空間での前記第1、第2のキャラクタの前記配置位置を決定し、前記キャラクタ配置情報を生成することを特徴とするコンテンツ再生システム。
In claim 10,
The host terminal
When the photographed image obtained by photographing the first reproduction information display object and the second reproduction information display object is acquired, the first reproduction information display object and the second reproduction information display object in the photographed image are obtained. A content reproduction system characterized in that the arrangement positions of the first and second characters in the virtual three-dimensional space are determined based on the positional relationship of the characters, and the character arrangement information is generated.
請求項10において、
前記ホスト端末は、
前記第1の再生情報表示物を撮影した第1の撮影画像と、前記第2の再生情報表示物を撮影した第2の撮影画像を取得した場合に、前記第1、第2の撮影画像の取得順に基づいて、前記仮想3次元空間での前記第1、第2のキャラクタの前記配置位置を決定し、前記キャラクタ配置情報を生成することを特徴とするコンテンツ再生システム。
In claim 10,
The host terminal
When the first photographed image obtained by photographing the first reproduction information display object and the second photographed image obtained by photographing the second reproduction information display object are acquired, the first and second photographed images A content reproduction system characterized in that the arrangement positions of the first and second characters in the virtual three-dimensional space are determined based on the acquisition order, and the character arrangement information is generated.
請求項10乃至12のいずれかにおいて、
前記ホスト端末は、
前記第1、第2のゲスト端末の前記第1、第2のユーザが選択した前記第1、第2のキャラクタと、前記ホスト端末のユーザが選択したキャラクタについての前記仮想3次元空間での配置を決定することを特徴とするコンテンツ再生システム。
In any of claims 10 to 12,
The host terminal
Arrangement of the first and second characters selected by the first and second users of the first and second guest terminals and the characters selected by the user of the host terminal in the virtual three-dimensional space. A content playback system characterized by determining.
請求項9乃至13のいずれかにおいて、
前記ホスト端末は、
基準時刻から設定時間後の時刻を、前記再生開始タイミングの指定時刻として指定する前記再生タイミング情報を生成し、
前記少なくとも1つのゲスト端末は、
前記指定時刻に、前記コンテンツの再生を開始することを特徴とするコンテンツ再生システム。
In any of claims 9 to 13,
The host terminal
Generates the reproduction timing information that specifies the time after the set time from the reference time as the designated time of the reproduction start timing.
The at least one guest terminal is
A content playback system characterized in that playback of the content is started at the designated time.
請求項9乃至14のいずれかにおいて、
前記ホスト端末は、
前記ホスト端末の画面の明滅により、前記再生情報表示物を出力することを特徴とするコンテンツ再生システム。
In any of claims 9 to 14,
The host terminal
A content reproduction system characterized in that the reproduction information display object is output by blinking the screen of the host terminal.
JP2019079851A 2019-04-19 2019-04-19 Program, terminal apparatus, and content reproduction system Pending JP2020177488A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019079851A JP2020177488A (en) 2019-04-19 2019-04-19 Program, terminal apparatus, and content reproduction system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019079851A JP2020177488A (en) 2019-04-19 2019-04-19 Program, terminal apparatus, and content reproduction system

Publications (1)

Publication Number Publication Date
JP2020177488A true JP2020177488A (en) 2020-10-29

Family

ID=72937359

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019079851A Pending JP2020177488A (en) 2019-04-19 2019-04-19 Program, terminal apparatus, and content reproduction system

Country Status (1)

Country Link
JP (1) JP2020177488A (en)

Similar Documents

Publication Publication Date Title
RU2754991C2 (en) System of device for viewing mixed reality and method for it
US10537798B2 (en) Server apparatus, dynamic-image delivery system, and control method and computer readable storage medium used therein
TWI752502B (en) Method for realizing lens splitting effect, electronic equipment and computer readable storage medium thereof
KR102028139B1 (en) Method for displaying image using augmented reality
JP7248437B2 (en) Programs, electronics and data recording methods
JP4981370B2 (en) Movie generation system and movie generation method
CN113822970A (en) Live broadcast control method and device, storage medium and electronic equipment
KR20050082559A (en) Dance learning system, internet community service system and internet community service method using the same, dance learning method, and computer executable recording media on which programs implement said methods are recorded
JP2015097639A (en) Karaoke device, dance scoring method, and program
CN113792646A (en) Dance action auxiliary generation method and device and dance equipment
JP2017012559A (en) Video game processing program, video game processing system, and user terminal
CN109116987A (en) A kind of holographic display system based on Kinect gesture control
JP2023153790A (en) program
JP6313003B2 (en) Karaoke apparatus, image output method, and program
JP2020177488A (en) Program, terminal apparatus, and content reproduction system
JP2009059015A (en) Composite image output device and composite image output processing program
JP2009059014A (en) Composite image output device and composite image output processing program
JP4983494B2 (en) Composite image output apparatus and composite image output processing program
JP6849851B2 (en) Shooting system, shooting device and user shooting method
WO2023130715A1 (en) Data processing method and apparatus, electronic device, computer-readable storage medium, and computer program product
JP7167388B1 (en) Movie creation system, movie creation device, and movie creation program
US20240114181A1 (en) Information processing device, information processing method, and program
JP4168803B2 (en) Image output device
EP4306192A1 (en) Information processing device, information processing terminal, information processing method, and program
JP6063739B2 (en) Singing video generation system

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20210630