JP6849851B2 - Shooting system, shooting device and user shooting method - Google Patents

Shooting system, shooting device and user shooting method Download PDF

Info

Publication number
JP6849851B2
JP6849851B2 JP2020175829A JP2020175829A JP6849851B2 JP 6849851 B2 JP6849851 B2 JP 6849851B2 JP 2020175829 A JP2020175829 A JP 2020175829A JP 2020175829 A JP2020175829 A JP 2020175829A JP 6849851 B2 JP6849851 B2 JP 6849851B2
Authority
JP
Japan
Prior art keywords
video
performer
unit
data
audio
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020175829A
Other languages
Japanese (ja)
Other versions
JP2021022940A (en
Inventor
彩人 藤井
彩人 藤井
泰生 堤
泰生 堤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Television Network Corp
Original Assignee
Nippon Television Network Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Television Network Corp filed Critical Nippon Television Network Corp
Priority to JP2020175829A priority Critical patent/JP6849851B2/en
Publication of JP2021022940A publication Critical patent/JP2021022940A/en
Application granted granted Critical
Publication of JP6849851B2 publication Critical patent/JP6849851B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、撮影システム、撮影装置及びユーザ撮影方法に関する。 The present invention relates to a photographing system, a photographing apparatus, and a user photographing method.

従来、利用者を含む被写体をカメラで撮影し、その撮影画像と付加画像とを合成した合成画像を印刷写真として出力する遊戯用の自動写真作成装置がある。 Conventionally, there is an automatic photo creation device for a game in which a subject including a user is photographed with a camera and a composite image obtained by combining the photographed image and an additional image is output as a print photograph.

しかし、上記の自動写真作成装置は、装置メーカが、付加画像としての画像ソースを別に作成して予め装置に記憶させておき、それを利用者が編集作業で利用するようになっている。従って、利用者は、装置メーカ側で予め用意された付加画像を利用するしかなく、十分な満足感を得ることができない。 However, in the above-mentioned automatic photo creation device, the device maker separately creates an image source as an additional image and stores it in the device in advance, and the user uses it for editing work. Therefore, the user has no choice but to use the additional image prepared in advance by the device maker, and cannot obtain a sufficient sense of satisfaction.

そこで、先行被写体の撮影画像やその編集画像を、後続被写体としての利用者の撮影画像に付加するための新たな付加画像として登録することができる自動写真作成装置が発明されている(特許文献1)。尚、先行被写体は、パブリシティ権や商品化権が認められ得る付加価値を有する人、例えば、タレント等である。これにより、タレント等と並んだ写真を撮影することができ、従来にはない満足感が得られるとしている。 Therefore, an automatic photo creation device has been invented that can register a photographed image of a preceding subject and an edited image thereof as a new additional image for adding to a photographed image of a user as a succeeding subject (Patent Document 1). ). The preceding subject is a person having added value to whom the right of publicity or the right of commercialization can be recognized, for example, a talent. As a result, it is possible to take pictures alongside talents, etc., and it is said that a feeling of satisfaction that has never existed before can be obtained.

特開2008-005401号公報Japanese Unexamined Patent Publication No. 2008-005401

ところで、上記自動写真作成装置の付加画像が静止画であり、上記自動写真作成装置の目的は、ユーザとタレント等とが並んだ写真を提供することである。 By the way, the additional image of the automatic photo creation device is a still image, and an object of the automatic photo creation device is to provide a photo in which a user, a talent, or the like are arranged side by side.

しかしながら、上記自動写真作成装置は、ユーザは、タレント等と同じ空間を共有するような体験をすることができず、単なる合成写真の提供に留まっており、ユーザに十分な満足感を与えるものではなかった。 However, the above-mentioned automatic photo creation device does not allow the user to experience sharing the same space as a talent or the like, and merely provides a composite photo, which does not give the user a sufficient sense of satisfaction. There wasn't.

そこで、本発明は、ユーザがタレント等の演者と同じ空間を共有するような体験を得ることができるともに、ユーザがその体験の記録画像を得ることができる撮影システム、撮影装置及びユーザ撮影方法を提供することにある。 Therefore, the present invention provides a photographing system, an imaging device, and a user photographing method in which a user can obtain an experience of sharing the same space as a performer such as a talent, and the user can obtain a recorded image of the experience. To provide.

本発明の一態様は、管理装置と、少なくとも1以上の撮影装置と、を備え、前記管理装置は、前記撮影装置から送信される記録画像を保存し、保存場所を示す情報であり、ユーザの端末により読み取り可能な保存場所情報を前記撮影装置に送信する保存部と、を備え、前記撮影装置は、ユーザを撮影するカメラと、表示部と、演者の動画である拡張現実用映像データと、前記拡張現実用映像データの演者による案内及び静止画の撮影開始タイミングの音声を含む音声データとを、含むコンテンツデータを記憶する記憶部と、前記コンテンツデータの拡張現実用映像データの演者の動画と、前記カメラが撮影したユーザの撮影映像とを合成して合成映像を生成し、前記合成映像を前記表示部に表示し、前記演者の音声による撮影開始タイミングに合わせて前記合成映像の静止画を記録する映像処理部と、前記コンテンツデータの音声データを用いて、前記表示部に表示される合成映像に同期して前記演者の音声を出力する音声出力部と、前記静止画を前記記録画像として、前記管理装置に送信する送信部と、前記保存場所情報を受信し、前記保存場所情報を提示する保存場所提示部と、を備える撮影システムである。 One aspect of the present invention includes a management device and at least one or more photographing devices, and the management device stores recorded images transmitted from the photographing devices, and is information indicating a storage location of a user. The imaging device includes a storage unit that transmits storage location information that can be read by a terminal to the photographing device, and the photographing device includes a camera for photographing a user, a display unit, augmented reality video data that is a moving image of a performer, and the like. A storage unit that stores the content data including the guidance by the performer of the extended reality video data and the audio data including the audio of the shooting start timing of the still image, and the moving image of the performer of the extended reality video data of the content data. , The combined image is generated by synthesizing the image taken by the user taken by the camera, the combined image is displayed on the display unit, and the still image of the combined image is displayed in accordance with the shooting start timing by the voice of the performer. The video processing unit to be recorded, the audio output unit that outputs the voice of the performer in synchronization with the composite video displayed on the display unit using the audio data of the content data, and the still image as the recorded image. An imaging system including a transmission unit that transmits data to the management device and a storage location presentation unit that receives the storage location information and presents the storage location information.

本発明の一態様は、ユーザを撮影するカメラと、表示部と、演者の動画である拡張現実用映像データと、前記拡張現実用映像データの演者による案内及び静止画の撮影開始タイミングの音声を含む音声データとを、含むコンテンツデータを記憶する記憶部と、前記コンテンツデータの拡張現実用映像データの演者の動画と、前記カメラが撮影したユーザの撮影映像とを合成して合成映像を生成し、前記合成映像を前記表示部に表示し、前記演者の音声による撮影開始タイミングに合わせて前記合成映像の静止画を記録する映像処理部と、前記コンテンツデータの音声データを用いて、前記表示部に表示される合成映像に同期して前記演者の音声を出力する音声出力部と、前記静止画像を記録画像として、管理装置に送信する送信部と、前記記録画像の保存場所を示す情報であり、ユーザの端末により読み取り可能な保存場所情報を前記管理装置から受信し、前記保存場所情報を提示する保存場所提示部と、を備える撮影装置である。 One aspect of the present invention is a camera for photographing a user, a display unit, augmented reality video data which is a moving image of a performer, guidance by the performer of the augmented reality video data, and audio of a still image shooting start timing. A composite video is generated by synthesizing a storage unit that stores content data including audio data, a video of a performer of the extended reality video data of the content data, and a video shot by a user shot by the camera. The display unit uses the video processing unit that displays the composite video on the display unit and records the still image of the composite video in accordance with the shooting start timing by the voice of the performer, and the audio data of the content data. Information indicating an audio output unit that outputs the voice of the performer in synchronization with the composite video displayed on the screen, a transmission unit that transmits the still image as a recorded image to the management device, and a storage location of the recorded image. An imaging device including a storage location presentation unit that receives storage location information that can be read by a user's terminal from the management device and presents the storage location information.

本発明の一態様は、演者の動画である拡張現実用映像データと、前記拡張現実用映像データの演者による案内及び静止画の撮影開始タイミングの音声を含む音声データとを、含むコンテンツデータを記憶した記憶部を備えたコンピュータのユーザ撮影方法であって、コンピュータは、カメラが撮影したユーザの撮影映像と前記拡張現実用映像データの演者の動画とを合成して合成映像を生成し、前記合成映像を表示部に表示し、コンピュータは、前記コンテンツデータの音声データを用いて、前記表示部に表示される合成映像に同期して前記演者の音声を出力し、コンピュータは、前記演者の音声による撮影開始タイミングに合わせて前記合成映像の静止画を記録し、コンピュータは、前記静止画像を記録画像として、管理装置に送信し、コンピュータは、前記記録画像の保存場所を示す情報であり、ユーザの端末により読み取り可能な保存場所情報を前記管理装置から受信し、前記保存場所情報を提示するユーザ撮影方法である。 One aspect of the present invention stores content data including extended reality video data which is a moving image of a performer and audio data including audio of guidance by the performer of the extended reality video data and shooting start timing of a still image. It is a user shooting method of a computer provided with a storage unit, and the computer synthesizes a video shot by the user shot by the camera and a video of the performer of the extended reality video data to generate a composite video, and the composite video is generated. The video is displayed on the display unit, the computer uses the audio data of the content data, and outputs the voice of the performer in synchronization with the composite video displayed on the display unit, and the computer uses the voice of the performer. A still image of the composite image is recorded according to a shooting start timing, the computer transmits the still image as a recorded image to a management device, and the computer is information indicating a storage location of the recorded image, which is information of a user. This is a user photographing method in which storage location information readable by a terminal is received from the management device and the storage location information is presented.

本発明は、ユーザが演者と同じ空間を共有するような体験を得ることができるともに、ユーザがその体験の記録画像を得ることができる。 According to the present invention, the user can obtain an experience in which the user shares the same space as the performer, and the user can obtain a recorded image of the experience.

図1は本実施形態における撮影システムの全体構成例を示す図である。FIG. 1 is a diagram showing an example of the overall configuration of the photographing system according to the present embodiment. 図2は撮影装置1のブロック図である。FIG. 2 is a block diagram of the photographing apparatus 1. 図3は映像処理部154が行う合成映像の合成処理を説明するための図である。FIG. 3 is a diagram for explaining the compositing process of the composite video performed by the video processing unit 154. 図4はコンテンツデータベースの一例を示した図である。FIG. 4 is a diagram showing an example of a content database. 図5は設定データの一例を示した図である。FIG. 5 is a diagram showing an example of setting data. 図6は撮影装置1の外観を示す図である。FIG. 6 is a diagram showing the appearance of the photographing apparatus 1. 図7は管理サーバ2のブロック図である。FIG. 7 is a block diagram of the management server 2. 図8は撮影装置管理データベースの一例である。FIG. 8 is an example of a photographing apparatus management database. 図9は決済サーバ3のブロック図である。FIG. 9 is a block diagram of the payment server 3. 図10は装置間のシーケンス図である。FIG. 10 is a sequence diagram between devices. 図11は撮影装置1の設定処理(Step1)の動作フローチャートである。FIG. 11 is an operation flowchart of the setting process (Step 1) of the photographing device 1. 図12は管理サーバ2の管理処理(Step2)の動作フローチャートである。FIG. 12 is an operation flowchart of the management process (Step 2) of the management server 2. 図13は撮影処理(Step3)の動作フローチャートである。FIG. 13 is an operation flowchart of the shooting process (Step 3). 図14は操作入力部13に表示されるコンテンツの選択画面の一例である。FIG. 14 is an example of a content selection screen displayed on the operation input unit 13. 図15は操作入力部13に表示される利用料金画面の一例である。FIG. 15 is an example of a usage fee screen displayed on the operation input unit 13. 図16は保存場所のアドレスを示す二次元コードが表示された画面の一例である。FIG. 16 is an example of a screen on which a two-dimensional code indicating the address of the storage location is displayed. 図17は端末4にダウンロードされた記録画像が、端末4のディスプレイに表示された場合の一例である。FIG. 17 is an example of a case where the recorded image downloaded to the terminal 4 is displayed on the display of the terminal 4. 図18は第2の実施の形態における撮影システムの全体構成例を示す図である。FIG. 18 is a diagram showing an example of the overall configuration of the photographing system according to the second embodiment. 図19は演者撮影装置5のブロック図である。FIG. 19 is a block diagram of the performer photographing device 5. 図20は第2の実施の形態の管理サーバ2のブロック図である。FIG. 20 is a block diagram of the management server 2 of the second embodiment. 図21は第2の実施の形態における撮影装置管理データベースの一例である。FIG. 21 is an example of a photographing apparatus management database according to the second embodiment.

<第1の実施の形態>
[全体構成]
図1は、本実施形態における撮影システムの全体構成例を示す図である。図1に示すように、撮影システムは、撮影装置1と、管理サーバ2と、決済サーバ3と、端末4とを備えて構成される。撮影装置1と、管理サーバ2と、決済サーバ3と、端末4とは、通信回線Nに接続可能で、相互に通信可能である。
<First Embodiment>
[overall structure]
FIG. 1 is a diagram showing an example of the overall configuration of the photographing system according to the present embodiment. As shown in FIG. 1, the photographing system includes a photographing device 1, a management server 2, a payment server 3, and a terminal 4. The photographing device 1, the management server 2, the payment server 3, and the terminal 4 can be connected to the communication line N and can communicate with each other.

通信回線Nは、データ通信が可能な通信路を意味する。すなわち、通信回線Nは、直接接続のための専用線(専用ケーブル)やイーサネット(登録商標)等によるLANの他、電話通信網やケーブル網、インターネット等の通信網を含み、通信方法については有線/無線を問わない。 The communication line N means a communication path capable of data communication. That is, the communication line N includes a telephone communication network, a cable network, a communication network such as the Internet, as well as a LAN by a dedicated line (dedicated cable) for direct connection and Ethernet (registered trademark), and the communication method is wired. / Regardless of wireless.

撮影装置1は、イベント会場、映画館等の施設に設置され、ユーザ(被写体)の撮影映像と、コンテンツ映像とを合成した合成映像を生成する装置である。尚、コンテンツ映像は、芸能人(ドラマ・映画などのキャスト、アイドル等)やスポーツ選手等(以下、これらをまとめて演者と記載する)の拡張現実用の映像(例えば、動画)である。また、撮影装置1は、デジタルサイネージの機能も備えている。また、撮影装置1は、基本的には、複数存在し、各イベント会場、映画館等の施設に設置される。 The photographing device 1 is installed in a facility such as an event venue or a movie theater, and is a device that generates a composite image obtained by synthesizing a photographed image of a user (subject) and a content image. The content video is an augmented reality video (for example, a video) of an entertainer (cast of drama / movie, idol, etc.), an athlete, etc. (hereinafter, these are collectively referred to as a performer). The photographing device 1 also has a digital signage function. In addition, there are basically a plurality of photographing devices 1, and they are installed in facilities such as event venues and movie theaters.

管理サーバ2は、撮影装置1により使用されるコンテンツ映像及び広告の管理と、ユーザ(被写体)に提供する記録画像の保存を行うサーバである。 The management server 2 is a server that manages content images and advertisements used by the photographing device 1 and stores recorded images provided to the user (subject).

決済サーバ3は、撮影装置1の利用料金の決済を行うサーバである。 The payment server 3 is a server that pays the usage fee of the photographing device 1.

端末4は、ユーザ(被写体)が所持する端末であり、無線通信基地局等を介して通信回線Nに接続し、管理サーバ2とデータ通信を行うことができる。端末4は、例えば、スマートフォンや、携帯電話機、パソコン、タブレット型コンピュータ等である。端末4は、基本的には、複数存在し、各ユーザ(被写体)により操作される。そして、端末4は、少なくとも、画像データを受信し、その画像データを格納又は表示する機能、撮影機能などを持つ。 The terminal 4 is a terminal owned by the user (subject), and can be connected to the communication line N via a wireless communication base station or the like to perform data communication with the management server 2. The terminal 4 is, for example, a smartphone, a mobile phone, a personal computer, a tablet computer, or the like. Basically, there are a plurality of terminals 4, and each user (subject) operates them. The terminal 4 has at least a function of receiving image data and storing or displaying the image data, a shooting function, and the like.

[各装置の構成]
撮影装置1の構成を説明する。図2は撮影装置1のブロック図である。
[Configuration of each device]
The configuration of the photographing device 1 will be described. FIG. 2 is a block diagram of the photographing apparatus 1.

図2中、10はカメラであり、11はディスプレイであり、12はスピーカであり、13は操作入力部であり、14は近距離無線通信部であり、15は処理部であり、16は送受信部であり、17は記憶部である。 In FIG. 2, 10 is a camera, 11 is a display, 12 is a speaker, 13 is an operation input unit, 14 is a short-range wireless communication unit, 15 is a processing unit, and 16 is a transmission / reception unit. It is a part, and 17 is a storage part.

カメラ10は、ユーザ(被写体)と、ユーザ(被写体)が存在する空間の背景とを撮影するカメラである。カメラ10が撮影した映像(静止画、動画の双方を含む)を、以下、撮影映像と記載する。この撮影映像は処理部15に入力される。 The camera 10 is a camera that captures a user (subject) and a background of a space in which the user (subject) exists. An image (including both a still image and a moving image) captured by the camera 10 is hereinafter referred to as a captured image. This captured image is input to the processing unit 15.

ディスプレイ11は、カメラ10により撮影された撮影映像とコンテンツ映像とが合成された映像が表示される。 The display 11 displays a video in which the shot video shot by the camera 10 and the content video are combined.

スピーカ12はコンテンツの音声が出力される。 The speaker 12 outputs the sound of the content.

操作部入力部13は、ユーザ(被写体)が撮影に関する各種操作を入力するためのものであり、操作入力に応じた操作入力信号を処理部15に出力する。操作入力部13の機能は、例えば、キーボード、マウス、タッチ操作パッド、ホームボタン、ボタンスイッチや、ジョイスティック、トラックボールといったユーザが指で操作する素子はもちろん、加速度センサや角速度センサ、傾斜センサ、地磁気センサといった、運動や姿勢を検知する素子等によっても実現できる。本実施の形態の操作部入力部13は、操作情報が表示されるディプレイを備えるタッチ操作パネルである。 The operation unit input unit 13 is for the user (subject) to input various operations related to shooting, and outputs an operation input signal corresponding to the operation input to the processing unit 15. The functions of the operation input unit 13 include not only elements operated by the user such as a keyboard, a mouse, a touch operation pad, a home button, a button switch, a joystick, and a trackball, but also an acceleration sensor, an angular speed sensor, an inclination sensor, and geomagnetism. It can also be realized by an element such as a sensor that detects movement or posture. The operation unit input unit 13 of the present embodiment is a touch operation panel including a display on which operation information is displayed.

近距離無線通信部14は、利用料金の決済に使用される非接触型ICカードのリーダ・ライタである。 The short-range wireless communication unit 14 is a reader / writer for a contactless IC card used for payment of usage fees.

処理部15は、記憶部17に格納されるプログラムやコンテンツデータ、操作入力部13からの操作入力信号等に基づいて撮影装置1の動作を統括的に制御する。処理部15の機能は、例えば、CPUやGPU等のマイクロプロセッサ、ASIC、ICメモリ等の電子部品によって実現できる。この処理部15は、主な機能部として、管理部151と、操作制御部152と、決済処理部153と、映像処理部154と、サイネージ制御部155と、音声制御部156と、保存場所提示部157とを備える。 The processing unit 15 comprehensively controls the operation of the photographing device 1 based on the program and content data stored in the storage unit 17, the operation input signal from the operation input unit 13, and the like. The function of the processing unit 15 can be realized by, for example, a microprocessor such as a CPU or GPU, or an electronic component such as an ASIC or an IC memory. The processing unit 15 presents the management unit 151, the operation control unit 152, the payment processing unit 153, the video processing unit 154, the signage control unit 155, the voice control unit 156, and the storage location as the main functional units. A unit 157 is provided.

管理部151は、撮影装置1の設定及びデータの管理を行う。撮影装置1の設定は、撮影装置1の付与されたアカウント及びパスワードによる認証後、管理者が必要な設定を行う。撮影装置1の設定の代表的なものとして、撮影装置1で使用するコンテンツの設定がある。コンテンツは、管理サーバ2からダウンロードし、記憶部17に格納される。コンテンツのダウンロードは、自動でコンテンツのダウンロードが行われる自動更新モードと、管理者が希望するコンテンツを選択してダウンロードする手動更新モードがある。管理者がいずれかのモードを設定することにより、コンテンツのダウンロードが行われ、コンテンツが撮影装置1に格納される。 The management unit 151 sets the photographing device 1 and manages the data. The setting of the photographing device 1 is performed by the administrator after authentication by the account and password given to the photographing device 1. As a typical setting of the photographing device 1, there is a setting of contents used in the photographing device 1. The content is downloaded from the management server 2 and stored in the storage unit 17. There are two types of content download: an automatic update mode in which the content is automatically downloaded, and a manual update mode in which the administrator selects and downloads the desired content. When the administrator sets either mode, the content is downloaded and the content is stored in the photographing device 1.

コンテンツには、ユーザ(被写体)の撮影映像と合成されるコンテンツ映像と、デジタルサイネージに使用されるサイネージ映像(広告映像)とがある。コンテンツ映像は、芸能人(ドラマ・映画などのキャスト、アイドル等)やスポーツ選手等の演者の映像であり、拡張現実用の映像データである。コンテンツ映像は、基本的には動画である。また、サイネージ映像は、広告映像であり、動画、静止画のいずれも含む。尚、コンテンツ映像と、それらの映像に関するメタデータ(識別情報及び利用料金など)とを含めてコンテンツデータ記載する。同様に、サイネージ映像と、それらの映像に関するメタデータ(識別情報など)とを含めてサイネージデータと記載する。 The content includes a content image synthesized with a photographed image of a user (subject) and a signage image (advertisement image) used for digital signage. The content video is a video of a performer such as an entertainer (cast of a drama / movie, an idol, etc.) or an athlete, and is video data for augmented reality. The content video is basically a video. Further, the signage video is an advertisement video, and includes both a moving image and a still image. In addition, the content data including the content video and the metadata (identification information, usage fee, etc.) related to the video is described. Similarly, the signage video and the metadata (identification information, etc.) related to the video are described as signage data.

操作制御部152は、コンテンツの内容(例えば、サムネイル映像)や操作情報を操作部入力部13に表示する。また、操作部入力部13からの操作信号を受信する。 The operation control unit 152 displays the content (for example, thumbnail video) and operation information on the operation unit input unit 13. In addition, the operation signal from the operation unit input unit 13 is received.

決済処理部153は、近距離無線通信部14により読み取られた非接触型ICカードの決済情報を受信し、決済情報を決済サーバ3に送信する。また、決済が完了した場合、決済サーバ3から決済完了情報を受信する。 The payment processing unit 153 receives the payment information of the contactless IC card read by the short-range wireless communication unit 14, and transmits the payment information to the payment server 3. When the payment is completed, the payment completion information is received from the payment server 3.

映像処理部154は、カメラ10からのユーザ(被写体)の撮影映像を入力し、撮影映像に、ユーザ(被写体)が選択したコンテンツのコンテンツ映像を重畳した合成映像を生成する。 The image processing unit 154 inputs the captured image of the user (subject) from the camera 10 and generates a composite image in which the content image of the content selected by the user (subject) is superimposed on the captured image.

映像処理部154が行う合成映像の生成について説明する。合成映像を生成するためには、撮影映像、フィル(Fill)信号及びキー信号の3種類の映像信号が必要となる。フィル(Fill)信号は、ユーザ(被写体)が選択したコンテンツの演者のコンテンツ映像である。キー信号は、フィル(Fill)信号であるコンテンツ映像を重畳する領域を指定する信号である。尚、本実施の形態では、フィル(Fill)信号及びキー信号が、拡張現実用映像データである。 The generation of the composite video performed by the video processing unit 154 will be described. In order to generate a composite video, three types of video signals, a captured video, a fill signal, and a key signal, are required. The Fill signal is a content image of the performer of the content selected by the user (subject). The key signal is a signal that specifies an area on which the content video, which is a fill signal, is superimposed. In the present embodiment, the fill signal and the key signal are augmented reality video data.

図3は映像処理部154が行う合成映像の合成処理を説明するための図である。合成処理は、撮影映像の全領域のうち、キー信号に基づいて指定される領域に、フィル信号の演者の映像をはめ込むことによって、合成映像を生成する。尚、図3では、ある所定フレームの合成処理を説明した図であり、実際は、撮影映像、コンテンツ映像は動画であるため、フレーム単位で合成映像の生成処理が行われる。 FIG. 3 is a diagram for explaining the compositing process of the composite video performed by the video processing unit 154. The compositing process generates a compositing image by fitting the image of the performer of the fill signal into the area designated based on the key signal in the entire area of the captured image. It should be noted that FIG. 3 is a diagram for explaining the compositing process of a predetermined frame. In reality, since the captured video and the content video are moving images, the compositing video is generated in frame units.

また、撮影空間におけるユーザ(被写体)と演者との位置関係が分かる場合は、重畳するフィル(Fill)信号(演者の映像)とユーザ(被写体)の領域とが重なる部分は、前方に位置する方を優先的に合成する。このようにすれば、より自然な仮想空間の映像を演出することが可能である。尚、ユーザ(被写体)と演者との位置関係は、赤外線による測定や、映像の画像解析などの従来方法を用いることが出来る。 If the positional relationship between the user (subject) and the performer in the shooting space is known, the part where the superimposed fill signal (performer's image) and the user (subject) area overlap is the one located in front. Is preferentially synthesized. In this way, it is possible to produce a more natural image of the virtual space. As for the positional relationship between the user (subject) and the performer, conventional methods such as infrared measurement and video image analysis can be used.

また、映像処理部154は、合成映像(動画)のうちのある時刻の映像を静止画として記録する機能も有する。この記録された記録画像は、後述する管理サーバ2の保存場所に保存される。尚、記録画像は静止画に限定するものではなく、合成映像(動画)の全部又は一部の動画でも良い。 The video processing unit 154 also has a function of recording a video at a certain time in the composite video (moving image) as a still image. The recorded recorded image is saved in a storage location of the management server 2 described later. The recorded image is not limited to a still image, and may be a moving image of all or a part of a composite video (moving image).

サイネージ制御部155は、撮影装置1が撮影に利用されていない時間に、サイネージデータを使用してディスプレイ11に広告を表示する。 The signage control unit 155 uses the signage data to display an advertisement on the display 11 when the photographing device 1 is not used for photographing.

音声制御部156は、コンテンツデータに含まれる音声データを使用して、ユーザ(被写体)の撮影映像の撮影時に、映像上の演者の音声や、利用案内の音声などをスピーカ12から出力する。 The voice control unit 156 uses the voice data included in the content data to output the voice of the performer on the video, the voice of the usage guide, and the like from the speaker 12 when shooting the shot video of the user (subject).

保存場所提示部157は、上述した記録画像の保存場所をユーザ(被写体)に通知する。通知方法としては、記録画像の保存場所のアドレスを示す二次元コード(QRコード(登録商標)など)を、ディスプレイ11に表示する方法がある。但し、これに限定されず、保存場所のアドレスを、ディスプレイ11に直接表示しても良いし、他の方法でも良い。 The storage location presentation unit 157 notifies the user (subject) of the storage location of the recorded image described above. As a notification method, there is a method of displaying a two-dimensional code (QR code (registered trademark) or the like) indicating the address of the storage location of the recorded image on the display 11. However, the present invention is not limited to this, and the address of the storage location may be displayed directly on the display 11, or another method may be used.

送受信部16は、通信回線Nを介して、管理サーバ2及び決済サーバ3との間で、データの送受信を行う。 The transmission / reception unit 16 transmits / receives data to / from the management server 2 and the payment server 3 via the communication line N.

記憶部17は、撮影装置1に必要な各種データが格納される。例えば、コンテンツデータベースや、設定データ等である。 The storage unit 17 stores various data required for the photographing device 1. For example, a content database, setting data, and the like.

図4はコンテンツデータベースの一例を示した図である。図4に示すデータベースは、ユーザとの撮影に使用される演者のコンテンツデータと、広告として使用されるサイネージデータとが格納されている。コンテンツデータは、コンテンツ識別情報(ID)と、コンテンツ名と、拡張現実用の映像データ(フィル(Fill)信号、キー信号を含む)と、音声データと、メタデータとを含む。サイネージデータは、サイネージ識別情報(ID)と、広告名と、映像データと、音声データと、メタデータとを含む。尚、図4は一例であり、これに限られない。 FIG. 4 is a diagram showing an example of a content database. The database shown in FIG. 4 stores the content data of the performer used for shooting with the user and the signage data used as an advertisement. The content data includes content identification information (ID), a content name, video data for augmented reality (including a fill signal and a key signal), audio data, and metadata. The signage data includes signage identification information (ID), an advertisement name, video data, audio data, and metadata. Note that FIG. 4 is an example, and the present invention is not limited to this.

図5は設定データの一例を示した図である。図5に示す設定データは、撮影装置1のアカウントと、管理パスワードと、自動更新の有無と、広告開始時間(撮影装置1が最後に使用されてからの経過時間)、補助データを含む。尚、図5は一例であり、これに限られない。 FIG. 5 is a diagram showing an example of setting data. The setting data shown in FIG. 5 includes an account of the photographing device 1, a management password, the presence / absence of automatic update, an advertisement start time (elapsed time since the photographing device 1 was last used), and auxiliary data. Note that FIG. 5 is an example, and the present invention is not limited to this.

上述した撮影装置1の外観を、図6に示す。 The appearance of the above-mentioned photographing apparatus 1 is shown in FIG.

次に、管理サーバ2の構成を説明する。図7は管理サーバ2のブロック図である。 Next, the configuration of the management server 2 will be described. FIG. 7 is a block diagram of the management server 2.

図7中、20は入力部であり、21は送受信部であり、22は処理部であり、23は記憶部である。 In FIG. 7, 20 is an input unit, 21 is a transmission / reception unit, 22 is a processing unit, and 23 is a storage unit.

入力部20は、管理者が各種操作を入力するためのものであり、操作入力に応じた操作入力信号を処理部22に出力する。入力部20の機能は、例えば、キーボード、マウス、タッチ操作パッド、ホームボタン、ボタンスイッチや、ジョイスティック、トラックボールといったユーザが指で操作する素子はもちろん、加速度センサや角速度センサ、傾斜センサ、地磁気センサといった、運動や姿勢を検知する素子等によっても実現できる。 The input unit 20 is for the administrator to input various operations, and outputs an operation input signal corresponding to the operation input to the processing unit 22. The functions of the input unit 20 include not only elements operated by the user such as a keyboard, mouse, touch operation pad, home button, button switch, joystick, and trackball, but also an acceleration sensor, an angular velocity sensor, an inclination sensor, and a geomagnetic sensor. It can also be realized by an element that detects movement or posture.

送受信部21は、通信回線Nを介して、撮影装置1との間で、データの送受信を行う。 The transmission / reception unit 21 transmits / receives data to / from the photographing device 1 via the communication line N.

処理部22は、記憶部23に格納されるプログラムやコンテンツデータ、入力部20からの操作入力信号等に基づいて管理サーバ2の動作を統括的に制御する。処理部15の機能は、例えば、CPUやGPU等のマイクロプロセッサ、ASIC、ICメモリ等の電子部品によって実現できる。この処理部22は、主な機能部として、コンテンツ管理部121し、撮影データ保存管理部122とを備える。 The processing unit 22 comprehensively controls the operation of the management server 2 based on the program and content data stored in the storage unit 23, the operation input signal from the input unit 20, and the like. The function of the processing unit 15 can be realized by, for example, a microprocessor such as a CPU or GPU, or an electronic component such as an ASIC or an IC memory. The processing unit 22 includes a content management unit 121 and a shooting data storage management unit 122 as main functional units.

コンテンツ管理部121は、撮影装置1に設定するコンテンツデータを管理する。具体的には、記憶部23に格納された撮影装置管理データベースを用いて、撮影装置1で使用されるコンテンツなどを管理する。図8は撮影装置管理データベースの一例である。図8に示す撮影装置管理データベースは、撮影装置の識別情報、アカウント、パスワード、自動更新の有無及び利用可能なコンテンツの識別情報を、撮影装置1毎に記録している。 The content management unit 121 manages the content data set in the photographing device 1. Specifically, the content used in the photographing device 1 is managed by using the photographing device management database stored in the storage unit 23. FIG. 8 is an example of a photographing apparatus management database. The photographing device management database shown in FIG. 8 records the identification information of the photographing device, the account, the password, the presence / absence of automatic update, and the identification information of the available contents for each photographing device 1.

撮影データ保存管理部122は、撮影装置1が撮影した記録画像を記憶23に保存し、保存場所のアドレスを撮影装置1に通知する。 The shooting data storage management unit 122 saves the recorded image shot by the shooting device 1 in the storage 23, and notifies the shooting device 1 of the address of the storage location.

次に、決済サーバ3の構成を説明する。図9は決済サーバ3のブロック図である。 Next, the configuration of the payment server 3 will be described. FIG. 9 is a block diagram of the payment server 3.

図9中、30は送受信部であり、31は決済処理部であり、32は記憶部である。 In FIG. 9, 30 is a transmission / reception unit, 31 is a payment processing unit, and 32 is a storage unit.

送受信部30は、通信回線Nを介して、撮影装置1との間で、データの送受信を行う。 The transmission / reception unit 30 transmits / receives data to / from the photographing device 1 via the communication line N.

決済処理部31は、撮影装置1から決済情報を受信し、記憶部32に格納されるプログラムや決済データに基づいて決済処理を行い、決済完了情報を撮影装置1に送信する。決済処理部31は、例えば、CPUやGPU等のマイクロプロセッサ、ASIC、ICメモリ等の電子部品によって実現できる。尚、非接触型ICカードの料金の決済は、従来からある方法を用いることができる。 The payment processing unit 31 receives payment information from the photographing device 1, performs payment processing based on the program and payment data stored in the storage unit 32, and transmits the payment completion information to the photographing device 1. The payment processing unit 31 can be realized by, for example, a microprocessor such as a CPU or GPU, or an electronic component such as an ASIC or an IC memory. It should be noted that a conventional method can be used for payment of the contactless IC card fee.

[各装置の動作]
第1の実施の形態の動作を説明する。図10は装置間のシーケンス図である。
[Operation of each device]
The operation of the first embodiment will be described. FIG. 10 is a sequence diagram between devices.

まず、撮影装置1を利用可能な状態にするために、設定処理を行う(Step1)。そして、管理サーバ2は、撮影装置1からの設定要求に応答して、管理処理を行い、コンテンツデータやサイネージデータを送信する(Step2)。 First, a setting process is performed in order to make the photographing device 1 available (Step 1). Then, the management server 2 performs management processing in response to the setting request from the photographing device 1 and transmits the content data and the signage data (Step 2).

ここで、撮影装置1の設定処理(Step1)の動作を、フローチャートを用いて説明する。図11は撮影装置1の設定処理(Step1)の動作フローチャートである。 Here, the operation of the setting process (Step 1) of the photographing apparatus 1 will be described with reference to a flowchart. FIG. 11 is an operation flowchart of the setting process (Step 1) of the photographing device 1.

まず、撮影装置1の管理者は、操作入力部13を操作して管理画面を表示する。操作制御部152は、管理画面を操作入力部13に表示する(Step100)。 First, the administrator of the photographing device 1 operates the operation input unit 13 to display the management screen. The operation control unit 152 displays the management screen on the operation input unit 13 (Step 100).

管理者は、操作入力部13を操作して、識別情報(アカウント)及びパスワードを入力する(Step101)。 The administrator operates the operation input unit 13 to input the identification information (account) and the password (Step 101).

管理部151は、入力された識別情報(アカウント)及びパスワードの照合を行い(Step102)、認証できたならば(Step103)、更新モードの選択に遷移する。一方、認証できない場合は、設定処理を終了する。 The management unit 151 collates the input identification information (account) and password (Step 102), and if the authentication is successful (Step 103), transitions to the selection of the update mode. On the other hand, if authentication is not possible, the setting process ends.

認証できた場合は、管理画面には、自動更新モードと手動更新モードとが表示される。管理者は、いずれかのモードを選択する。 If the authentication is successful, the management screen displays the automatic update mode and the manual update mode. The administrator selects one of the modes.

管理者が自動更新モードを選択した場合(Step104)は、撮影装置1で利用可能なコンテンツデータとサイネージデータとが管理サーバ2から送信され、管理部151は、それらのコンテンツデータとサイネージデータを記憶部17のコンテンツデータベースに格納し、コンテンツの設定を完了する。そして、設定完了通知を管理サーバ2に送信する。 When the administrator selects the automatic update mode (Step104), the content data and signage data available in the photographing device 1 are transmitted from the management server 2, and the management unit 151 stores the content data and the signage data. It is stored in the content database of Part 17, and the content setting is completed. Then, the setting completion notification is transmitted to the management server 2.

一方、管理者が手動更新モードを選択した場合(Step104)は、管理サーバ2から撮影装置1で利用可能なコンテンツデータ及びサイネージデータの一覧が送信され、管理部151は、コンテンツデータ及びサイネージデータの一覧情報を表示する(Step105)。管理者は、操作入力部13を操作し、一覧情報から利用したいコンテンツデータ及びサイネージデータを選択する(Step106)。そして、管理部151は、選択されたコンテンツデータ及びサイネージデータを、管理サーバ2からダウンロードし(Step107)、記憶部17のコンテンツデータベースに格納し、コンテンツの設定を完了する(Step108)。そして、設定完了通知を管理サーバ2に送信する。 On the other hand, when the administrator selects the manual update mode (Step104), the management server 2 transmits a list of content data and signage data available in the photographing device 1, and the management unit 151 sends the content data and signage data. Display list information (Step 105). The administrator operates the operation input unit 13 and selects the content data and signage data to be used from the list information (Step 106). Then, the management unit 151 downloads the selected content data and the signage data from the management server 2 (Step 107), stores the selected content data and the signage data in the content database of the storage unit 17, and completes the content setting (Step 108). Then, the setting completion notification is transmitted to the management server 2.

次に、管理サーバ2の管理処理(Step2)の動作を、フローチャートを用いて説明する。図12は管理サーバ2の管理処理(Step2)の動作フローチャートである。 Next, the operation of the management process (Step 2) of the management server 2 will be described with reference to a flowchart. FIG. 12 is an operation flowchart of the management process (Step 2) of the management server 2.

管理サーバ2は、撮影装置1から設定要求に応答して、識別情報(アカウント)の照合を行う(Step200)。識別情報(アカウント)が登録されているものであれば(Step201)、撮影装置1からのモードの要求に対応する処理を行う。 The management server 2 responds to the setting request from the photographing device 1 and collates the identification information (account) (Step 200). If the identification information (account) is registered (Step 201), the process corresponding to the mode request from the photographing device 1 is performed.

撮影装置1から要求されたモードが手動更新モードである場合(Step202)、記憶部23の撮影装置管理データベースのうち、設定要求した撮影装置1のアカウントの利用可能コンテンツのフィールドに記載されているコンテンツID又はサイネージIDに対応するコンテンツデータ及びサイネージデータの一覧を送信する(Step203)。撮影装置1からコンテンツデータ及びサイネージデータの選択情報を受信すると、選択されたコンテンツデータ及びサイネージデータを撮影装置1に送信する(Step204)。そして、撮影装置1から設定完了通知を受信すると、管理処理を終了する(Step205)。 When the mode requested by the photographing device 1 is the manual update mode (Step202), the content described in the available content field of the account of the photographing device 1 requested to be set in the photographing device management database of the storage unit 23. A list of content data and signage data corresponding to the ID or signage ID is transmitted (Step 203). When the selection information of the content data and the signage data is received from the photographing device 1, the selected content data and the signage data are transmitted to the photographing device 1 (Step 204). Then, when the setting completion notification is received from the photographing device 1, the management process is terminated (Step 205).

一方、撮影装置1から要求されたモードが自動更新モードである場合、記憶部23の撮影装置管理データベースのうち、設定要求した撮影装置1のアカウントの自動更新有無のフィールドのフラグを”ON”にする(Step206)。そして、コンテンツデータベースに登録されているコンテンツのうち、設定要求した撮影装置1のアカウントの利用可能コンテンツのフィールドに記載されているコンテンツID又はサイネージIDに対応するコンテンツデータ及びサイネージデータを検索し(Step207)、利用可能なコンテンツデータ及びサイネージデータを送信する(Step208)。そして、撮影装置1から設定完了通知を受信すると、管理処理を終了する(Step205)。 On the other hand, when the mode requested by the photographing device 1 is the automatic update mode, the flag of the field of whether or not the account of the photographing device 1 requested to be set is automatically updated is set to "ON" in the photographing device management database of the storage unit 23. (Step 206). Then, among the contents registered in the content database, the content data and the signage data corresponding to the content ID or the signage ID described in the available content field of the account of the photographing device 1 for which the setting is requested are searched (Step 207). ), The available content data and signage data are transmitted (Step 208). Then, when the setting completion notification is received from the photographing device 1, the management process is terminated (Step 205).

尚、自動更新が有効であるアカウントの撮影装置1については、利用可能コンテンツの変更があった場合には、利用可能コンテンツフィールドに記載されているIDに対応するコンテンツデータ又はサイネージデータを、自動的に撮影装置1に送信し、撮影装置1のコンテンツの自動更新を行う。 For the shooting device 1 of the account for which automatic update is enabled, when the available content is changed, the content data or signage data corresponding to the ID described in the available content field is automatically converted. Is transmitted to the photographing device 1 to automatically update the contents of the photographing device 1.

図10のシーケンス図の説明に戻る。 Returning to the description of the sequence diagram of FIG.

撮影装置1の設定が完了すると、ユーザ(被写体)が撮影装置1を利用することが可能となる。そして、ユーザ(被写体)が撮影装置1の利用を開始すると、撮影装置1は撮影処理(Step3)を実行する。 When the setting of the photographing device 1 is completed, the user (subject) can use the photographing device 1. Then, when the user (subject) starts using the photographing device 1, the photographing device 1 executes the photographing process (Step 3).

ここで、撮影処理(Step3)の動作を、フローチャートを用いて説明する。図13は撮影処理(Step3)の動作フローチャートである。 Here, the operation of the shooting process (Step 3) will be described with reference to a flowchart. FIG. 13 is an operation flowchart of the shooting process (Step 3).

撮影装置1の操作制御部152は、コンテンツの一覧を操作入力部13に表示する(Step300)。図14は操作入力部13に表示されるコンテンツの選択画面の一例である。図14の例では、コンテンツAAA、コンテンツBBB及びコンテンツCCCの3種類のコンテンツが選択可能な画面の例である。 The operation control unit 152 of the photographing device 1 displays a list of contents on the operation input unit 13 (Step 300). FIG. 14 is an example of a content selection screen displayed on the operation input unit 13. In the example of FIG. 14, it is an example of a screen in which three types of contents, content AAA, content BBB, and content CCC, can be selected.

撮影装置1を利用するユーザは、操作入力部13に表示されているコンテンツの一覧から希望のコンテンツを選択する。選択は、コンテンツの一覧から希望のコンテンツをタッチすることにより行われる(Step301)。 The user who uses the photographing device 1 selects a desired content from the list of contents displayed on the operation input unit 13. The selection is made by touching the desired content from the content list (Step 301).

コンテンツが選択されると、操作入力部13の画面にはコンテンツの利用料金の画面が表示される(Step302)。図15は操作入力部13に表示される利用料金画面の一例である。図15の例では、コンテンツAAAの利用料金が600円であり、ICカードを近距離無線通信部14にタッチすることを要求する画面の例である。 When the content is selected, the content usage fee screen is displayed on the screen of the operation input unit 13 (Step 302). FIG. 15 is an example of a usage fee screen displayed on the operation input unit 13. In the example of FIG. 15, the usage fee of the content AAA is 600 yen, and it is an example of a screen requesting that the IC card be touched by the short-range wireless communication unit 14.

ユーザが利用料金画面の指示に従って、ICカードを近距離無線通信部14にタッチすることにより、料金の決済情報を決済処理部153が受信し(Step303)、決済情報を決済サーバ3に送信する(Step304)。 When the user touches the short-range wireless communication unit 14 with the IC card according to the instruction on the usage charge screen, the payment processing unit 153 receives the payment information of the charge (Step 303) and transmits the payment information to the payment server 3 (Step 303). Step 304).

撮影装置1の決済処理部153は、決済サーバ3から決済完了情報を受信し(Step305)、決済が完了したことを操作入力部13に表示し、撮影が開始されることを通知する(Step306)。 The payment processing unit 153 of the photographing device 1 receives the payment completion information from the payment server 3 (Step 305), displays the completion of the payment on the operation input unit 13, and notifies that the shooting is started (Step 306). ..

カメラによるユーザ(被写体)の撮影が開始されると、その撮影映像がディスプレイ11に表示される。続いて、映像処理部154は、撮影映像に選択したコンテンツの仮想現実用の映像データを重畳し、合成映像を生成する(Step307)。そして、映像処理部154は、合成映像(動画)をディスプレイ11に表示する(Step308)。このとき、コンテンツの音声データにより、演者の音声もスピーカから出力される。例えば、「AAAです。今日は撮影会に参加してくれてありがとう。」等の音声が出力される。このように、ディスプレイ11には、演者とユーザとが一緒に同じ空間に存在する映像が表示され(図3の合成映像を参照)、音声も聞こえるので、ユーザは演者と一緒に同じ空間を共有するような疑似体験を得ることが出来る。そして、演者から記念撮影のタイミングが告げられ、記録画像(静止画)の撮影が行われる(Step309)。 When the camera starts shooting the user (subject), the shot image is displayed on the display 11. Subsequently, the video processing unit 154 superimposes the video data for virtual reality of the selected content on the captured video to generate a composite video (Step 307). Then, the video processing unit 154 displays the composite video (moving image) on the display 11 (Step 308). At this time, the voice of the performer is also output from the speaker according to the voice data of the content. For example, a voice such as "AAA. Thank you for participating in the photo session today." Is output. In this way, the display 11 displays an image in which the performer and the user coexist in the same space (see the composite image in FIG. 3), and the sound can be heard, so that the user shares the same space with the performer. You can get a simulated experience like that. Then, the performer announces the timing of commemorative photography, and the recorded image (still image) is photographed (Step 309).

撮影が終了すると、保存場所提示部157は、管理サーバに、静止画をアップロードし(Step310)、保存場所のアドレスを、二次元コードを使用して、操作入力部13の画面に表示する(Step311)。図16は保存場所のアドレスを示す二次元コードが表示された画面の一例である。 When the shooting is completed, the storage location presentation unit 157 uploads the still image to the management server (Step 310), and displays the address of the storage location on the screen of the operation input unit 13 using the two-dimensional code (Step 311). ). FIG. 16 is an example of a screen on which a two-dimensional code indicating the address of the storage location is displayed.

以上で、撮影処理の説明を終了する。 This is the end of the description of the shooting process.

図10のシーケンス図の説明に戻る。 Returning to the description of the sequence diagram of FIG.

Step4は、決済サーバ3で行われる決済処理である。撮影装置1から送信されたユーザのICカードの決済情報を受信し、その決済情報に基づいて決済完了情報を撮影装置1に送信する。 Step 4 is a payment process performed by the payment server 3. The payment information of the user's IC card transmitted from the photographing device 1 is received, and the payment completion information is transmitted to the photographing device 1 based on the payment information.

Step5は、管理サーバ2で行われる保存処理である。撮影装置1から送信された記録画像(静止画)を保存し、その保存場所のアドレスを撮影装置1に送信する。 Step 5 is a storage process performed by the management server 2. The recorded image (still image) transmitted from the photographing device 1 is saved, and the address of the storage location is transmitted to the photographing device 1.

ユーザは端末1の撮影機能を利用し、操作入力部13の画面に表示された二次元コードを撮影し、二次元コードで示されるアドレスにアクセスする(Step6)。そして、端末1は、撮影した記録画像(静止画)を端末1にダウンロードする(Step7)。図17は端末4にダウンロードされた記録画像が、端末4のディスプレイに表示された場合の一例である。 The user uses the photographing function of the terminal 1 to photograph the two-dimensional code displayed on the screen of the operation input unit 13 and access the address indicated by the two-dimensional code (Step 6). Then, the terminal 1 downloads the captured recorded image (still image) to the terminal 1 (Step 7). FIG. 17 is an example of a case where the recorded image downloaded to the terminal 4 is displayed on the display of the terminal 4.

一方、撮影装置1のサイネージ制御部155は、一定時間(例えば、3分)、ユーザによる撮影装置1の利用がない場合は、記憶部17のコンテンツデータベースのサイネージデータから、映像データ及音声データを取得し、ディスプレイ11に映像データによる広告を表示し、スピーカ12から音声データによる音声を出力する(Step8)。 On the other hand, the signage control unit 155 of the photographing device 1 selects video data and audio data from the signage data of the content database of the storage unit 17 when the user does not use the photographing device 1 for a certain period of time (for example, 3 minutes). The image is acquired, an advertisement based on video data is displayed on the display 11, and audio based on audio data is output from the speaker 12 (Step 8).

以上で、第1の実施の形態の動作の説明を終了する。 This is the end of the description of the operation of the first embodiment.

第1の実施の形態は、演者の映像(動画)とユーザの撮影映像とを合成してディスプレイに表示させ、音声も聞こえるように構成しているので、ユーザは演者と一緒に同じ空間を共有するような体験を得ることが出来る。また、その体験の記念として記録される記録画像は、管理サーバに保存され、ユーザは端末にダウンロードすることができるので、例えば、SNS等によるシェアの利便性向上を図ることができると共に、物理的な印刷を行わないため、コストの削減も図れる。 In the first embodiment, the image (video) of the performer and the image taken by the user are combined and displayed on the display so that the sound can be heard, so that the user shares the same space with the performer. You can get an experience like that. In addition, the recorded image recorded as a memorial of the experience is saved in the management server and can be downloaded to the terminal by the user. Therefore, for example, it is possible to improve the convenience of sharing by SNS or the like and physically. Costs can be reduced because no printing is performed.

また、第1の実施の形態は、管理サーバにより、撮影装置で使用されるコンテンツを一括で管理しているので、撮影装置で使用するコンテンツの設定の即時性・登録の柔軟性を実現することができる。 Further, in the first embodiment, since the content used in the photographing device is collectively managed by the management server, the immediacy of setting the content used in the photographing device and the flexibility of registration are realized. Can be done.

更に、第1の実施の形態の撮影装置は、デジタルサイネージの機能も搭載されているので、撮影装置が利用されていない時間を有効に活用することもできる。 Further, since the photographing apparatus of the first embodiment is also equipped with a digital signage function, it is possible to effectively utilize the time when the photographing apparatus is not used.

<第2の実施の形態>
第2の実施の形態を説明する。図18は第2の実施の形態における撮影システムの全体構成例を示す図である。
<Second embodiment>
A second embodiment will be described. FIG. 18 is a diagram showing an example of the overall configuration of the photographing system according to the second embodiment.

第2の実施の形態では、第1の実施の形態に加えて、演者のライブ映像を撮影し、ライブ映像から撮影装置1で使用するコンテンツデータ(フィル(Fill)信号、キー信号及び音声データ)を生成する演者撮影装置5が設けられている。 In the second embodiment, in addition to the first embodiment, the live image of the performer is photographed, and the content data (fill signal, key signal, and audio data) used in the photographing device 1 from the live image is taken. A performer photographing device 5 for generating the above is provided.

図19は演者撮影装置5のブロック図である。図19中、50カメラであり、51はマイク、52はディスプレイであり、53は送受信部であり、54は処理部であり、55は記憶部である。 FIG. 19 is a block diagram of the performer photographing device 5. In FIG. 19, 50 cameras, 51 is a microphone, 52 is a display, 53 is a transmission / reception unit, 54 is a processing unit, and 55 is a storage unit.

カメラ50は、演者のライブ映像を撮影するカメラである。カメラ50が撮影した映像をライブ映像と記載する。このライブ映像は処理部54に入力される。 The camera 50 is a camera that captures a live image of the performer. The image taken by the camera 50 is referred to as a live image. This live video is input to the processing unit 54.

マイク51は、演者の音声を取得し、取得した音声を処理部54に出力する。 The microphone 51 acquires the voice of the performer and outputs the acquired voice to the processing unit 54.

ディスプレイ52は、カメラ50により撮影されたライブ映像が表示される。 The display 52 displays a live image taken by the camera 50.

送受信部53は、通信回線Nを介して、管理サーバ2との間で、データの送受信を行う。 The transmission / reception unit 53 transmits / receives data to / from the management server 2 via the communication line N.

処理部54は、記憶部55に格納されるプログラムに基づいて演者撮影装置5の動作を統括的に制御する。処理部54の機能は、例えば、CPUやGPU等のマイクロプロセッサ、ASIC、ICメモリ等の電子部品によって実現できる。この処理部54は、主な機能部として、フィル(Fill)信号生成部151と、キー信号生成部152と、ライブコンテンツデータ生成部153とを備える。 The processing unit 54 comprehensively controls the operation of the performer photographing device 5 based on the program stored in the storage unit 55. The function of the processing unit 54 can be realized by, for example, a microprocessor such as a CPU or GPU, or an electronic component such as an ASIC or an IC memory. The processing unit 54 includes a fill signal generation unit 151, a key signal generation unit 152, and a live content data generation unit 153 as main functional units.

フィル(Fill)信号生成部151は、カメラ50で撮影されたライブ映像から、リアルタイムで、演者のフィル(Fill)信号を生成する。キー信号生成部152は、カメラ50で撮影されたライブ映像から、リアルタイムで、演者のキー信号を生成する。これらの処理は、例えば、クロマキーの技術を用いることができる。 The fill signal generation unit 151 generates a fill signal of the performer in real time from the live image captured by the camera 50. The key signal generation unit 152 generates a key signal of the performer in real time from the live image captured by the camera 50. For these processes, for example, chroma key technology can be used.

ライブコンテンツデータ生成部153は、演者のフィル(Fill)信号、キー信号及びマイク51で取得された演者の音声を含むライブコンテンツデータを生成する。このライブコンテンツデータは、送受信部53を介して、リアルタイムで、管理サーバ2に送信される。 The live content data generation unit 153 generates live content data including the performer's fill signal, the key signal, and the performer's voice acquired by the microphone 51. This live content data is transmitted to the management server 2 in real time via the transmission / reception unit 53.

第2の実施の形態の管理サーバ2を説明する。図20は第2の実施の形態の管理サーバ2のブロック図である。第2の実施の形態の管理サーバ2が第1の実施の形態と異なる所は、リアルタイム配信部123が追加されたことである。 The management server 2 of the second embodiment will be described. FIG. 20 is a block diagram of the management server 2 of the second embodiment. The difference between the management server 2 of the second embodiment and the first embodiment is that the real-time distribution unit 123 has been added.

リアルタイム配信部123は、演者撮影装置5から受信したライブコンテンツデータを、所定の撮影装置1にリアルタイムでストリーミング配信する。配信する撮影装置1は、記憶部23に格納されている撮影装置管理データベースを用いて決定する。図21は第2の実施の形態における撮影装置管理データベースの一例である。図21に示される撮影装置管理データベースは、第1の実施の形態に加えて、ライブ配信の有無のフィールドが設けられている。リアルタイム配信部123は、撮影装置管理データベースのライブ配信フィールドが「有」のフラグである撮影装置1に、受信したライブコンテンツデータを送信する。 The real-time distribution unit 123 streams and distributes the live content data received from the performer photographing device 5 to the predetermined photographing device 1 in real time. The photographing device 1 to be distributed is determined by using the photographing device management database stored in the storage unit 23. FIG. 21 is an example of a photographing apparatus management database according to the second embodiment. The photographing apparatus management database shown in FIG. 21 is provided with a field for presence / absence of live distribution in addition to the first embodiment. The real-time distribution unit 123 transmits the received live content data to the photographing device 1 in which the live distribution field of the photographing device management database is a flag of “Yes”.

撮影装置1は、管理データベース2からライブコンテンツデータを受信すると、記憶部17に格納しつつ、カメラによるユーザ(被写体)の撮影を開始する。その撮影映像がディスプレイ11に表示される。続いて、映像処理部154は、ライブコンテンツデータのキー信号を用いて、フィル(Fill)信号とユーザの撮影画像とを合成する(図13のStep307)。そして、映像処理部154は、合成映像(動画)をディスプレイ11に表示する(図13のStep308)。他の処理は、第1の実施の形態と同様である。 When the photographing device 1 receives the live content data from the management database 2, the photographing device 1 starts photographing the user (subject) by the camera while storing the live content data in the storage unit 17. The captured image is displayed on the display 11. Subsequently, the video processing unit 154 synthesizes the fill signal and the photographed image of the user by using the key signal of the live content data (Step 307 in FIG. 13). Then, the video processing unit 154 displays the composite video (moving image) on the display 11 (Step 308 in FIG. 13). Other processes are the same as in the first embodiment.

第2の実施の形態は、演者のライブ映像からコンテンツデータを生成し、管理装置が各撮影装置にライブ配信している。従って、ひとり演者が、異なる場所の多数のユーザと同時に空間を共有するといったことが可能である。 In the second embodiment, content data is generated from the live video of the performer, and the management device performs live distribution to each shooting device. Therefore, it is possible for a single performer to share a space with many users in different places at the same time.

以上、好ましい実施の形態をあげて本発明を説明したが、本発明は必ずしも上記実施の形態に限定されるものではなく、その技術的思想の範囲内において様々に変形し実施することが出来る。 Although the present invention has been described above with reference to preferred embodiments, the present invention is not necessarily limited to the above embodiments, and can be variously modified and implemented within the scope of the technical idea.

1 撮影装置
2 管理サーバ
3 決済サーバ
4 端末
5 演者撮影装置
10 カメラ
11 ディスプレイ
12 スピーカ
13 操作入力部
14 近距離無線通信部
15 処理部
16 送受信部
17 記憶部
20 入力部
21 送受信部
22 処理部
23 記憶部
30 送受信部
31 決済処理部
32 記憶部
1 Shooting device 2 Management server 3 Payment server 4 Terminal 5 Performer shooting device 10 Camera 11 Display 12 Speaker 13 Operation input unit 14 Short-range wireless communication unit 15 Processing unit 16 Transmission / reception unit 17 Storage unit 20 Input unit 21 Transmission / reception unit 22 Processing unit 23 Storage unit 30 Transmission / reception unit 31 Payment processing unit 32 Storage unit

Claims (9)

管理装置と、少なくとも1以上の撮影装置と、を備え、
前記管理装置は、
前記撮影装置から送信される記録画像を保存し、保存場所を示す情報であり、ユーザの端末により読み取り可能な保存場所情報を前記撮影装置に送信する保存部と、
を備え、
前記撮影装置は、
ユーザを撮影する第1のカメラと、
表示部と、
演者の動画である拡張現実用映像データと、前記拡張現実用映像データの演者による案内及び静止画の撮影開始タイミングの音声を含む音声データとを、含むコンテンツデータを記憶する記憶部と、
前記コンテンツデータの拡張現実用映像データの演者の動画と、前記第1のカメラが撮影したユーザの撮影映像とを合成して合成映像を生成し、前記合成映像を前記表示部に表示し、前記演者の音声による撮影開始タイミングに合わせて前記合成映像の静止画を記録する映像処理部と、
前記コンテンツデータの音声データを用いて、前記表示部に表示される合成映像に同期して前記演者の音声を出力する音声出力部と、
前記静止画を前記記録画像として、前記管理装置に送信する送信部と、
前記保存場所情報を受信し、前記保存場所情報を提示する保存場所提示部と、
を備える
撮影システム。
It is equipped with a management device and at least one or more photographing devices.
The management device is
A storage unit that stores the recorded image transmitted from the photographing device and indicates the storage location, and transmits the storage location information that can be read by the user's terminal to the photographing device.
With
The photographing device is
The first camera that shoots the user,
Display and
A storage unit that stores content data including augmented reality video data that is a moving image of the performer and audio data including audio for guidance by the performer of the augmented reality video data and shooting start timing of a still image.
A composite video is generated by synthesizing the video of the performer of the extended reality video data of the content data and the video shot by the user taken by the first camera, and the composite video is displayed on the display unit. A video processing unit that records a still image of the composite video according to the shooting start timing by the performer's voice, and
Using the audio data of the content data, an audio output unit that outputs the audio of the performer in synchronization with the composite video displayed on the display unit, and an audio output unit.
A transmission unit that transmits the still image as the recorded image to the management device, and
A storage location presentation unit that receives the storage location information and presents the storage location information,
A shooting system equipped with.
前記保存場所提示部は、前記保存場所情報を前記表示部に表示する
請求項1に記載の撮影システム。
The photographing system according to claim 1, wherein the storage location presentation unit displays the storage location information on the display unit.
前記映像処理部は、ユーザの撮影開始から終了後までの前記合成映像を、前記記録画像として記録する
請求項1又は請求項2に記載の撮影システム。
The shooting system according to claim 1 or 2, wherein the video processing unit records the composite video from the start to the end of the shooting of the user as the recorded image.
前記演者を撮影する第2のカメラと、
前記第2のカメラで撮影された演者の撮影映像から、前記演者の拡張現実用映像データを生成する拡張現実用映像データ生成部と、
前記演者の音声を取得するマイクと、
前記マイクで取得された前記演者の音声から、音声データを生成する音声データ生成部と、
前記拡張現実用映像データ及び音声データを少なくとも含むライブコンテンツデータを、前記管理装置に送信する送信部と、
を備える演者撮影装置を備え、
前記管理装置は、前記ライブコンテンツデータを受信し、少なくとも1以上の前記撮影装置に前記ライブコンテンツデータをライブ配信するライブ配信部を備え、
前記撮影装置は、前記ライブコンテンツデータを受信する受信部を備え、
前記撮影装置の前記映像処理部は、前記ライブコンテンツデータの拡張現実用映像データと前記第1のカメラが撮影したユーザの撮影映像とを合成して合成映像を生成し、前記合成映像を前記表示部に表示し、前記合成映像の少なくとも一部を前記記録画像として記録し、
前記撮影装置の前記音声出力部は、前記ライブコンテンツデータの音声データを用いて、前記表示部に表示される合成映像に同期して前記演者の音声を出力する
請求項1から請求項3のいずれかに記載の撮影システム。
A second camera that shoots the performer,
An augmented reality video data generation unit that generates augmented reality video data of the performer from the video shot by the performer taken by the second camera.
With a microphone that acquires the voice of the performer,
A voice data generation unit that generates voice data from the voice of the performer acquired by the microphone, and
A transmission unit that transmits live content data including at least the augmented reality video data and audio data to the management device, and
Equipped with a performer shooting device
The management device includes a live distribution unit that receives the live content data and performs live distribution of the live content data to at least one or more shooting devices.
The photographing device includes a receiving unit that receives the live content data.
The video processing unit of the shooting device synthesizes the augmented reality video data of the live content data and the user's shot video shot by the first camera to generate a composite video, and displays the composite video. Display on the unit, and record at least a part of the composite video as the recorded image.
Any of claims 1 to 3, wherein the audio output unit of the photographing device uses the audio data of the live content data to output the audio of the performer in synchronization with the synthetic video displayed on the display unit. The shooting system described in Crab.
ユーザを撮影するカメラと、
表示部と、
演者の動画である拡張現実用映像データと、前記拡張現実用映像データの演者による案内及び静止画の撮影開始タイミングの音声を含む音声データとを、含むコンテンツデータを記憶する記憶部と、
前記コンテンツデータの拡張現実用映像データの演者の動画と、前記カメラが撮影したユーザの撮影映像とを合成して合成映像を生成し、前記合成映像を前記表示部に表示し、前記演者の音声による撮影開始タイミングに合わせて前記合成映像の静止画を記録する映像処理部と、
前記コンテンツデータの音声データを用いて、前記表示部に表示される合成映像に同期して前記演者の音声を出力する音声出力部と、
前記静止画を記録画像として、管理装置に送信する送信部と、
前記記録画像の保存場所を示す情報であり、ユーザの端末により読み取り可能な保存場所情報を前記管理装置から受信し、前記保存場所情報を提示する保存場所提示部と、
を備える撮影装置。
A camera that shoots the user and
Display and
A storage unit that stores content data including augmented reality video data that is a moving image of the performer and audio data including audio for guidance by the performer of the augmented reality video data and shooting start timing of a still image.
The video of the performer of the extended reality video data of the content data and the video shot by the user taken by the camera are combined to generate a composite video, the composite video is displayed on the display unit, and the voice of the performer is displayed. A video processing unit that records a still image of the composite video according to the shooting start timing by
Using the audio data of the content data, an audio output unit that outputs the audio of the performer in synchronization with the composite video displayed on the display unit, and an audio output unit.
A transmission unit that transmits the still image as a recorded image to the management device,
A storage location presentation unit that receives information indicating a storage location of the recorded image and can be read by a user's terminal from the management device and presents the storage location information.
A shooting device equipped with.
前記保存場所提示部は、前記保存場所情報を前記表示部に表示する
請求項5に記載の撮影装置。
The imaging device according to claim 5, wherein the storage location presentation unit displays the storage location information on the display unit.
前記映像処理部は、ユーザの撮影開始から終了後までの前記合成映像を、前記記録画像として記録する
請求項5又は請求項6に記載の撮影装置。
The imaging device according to claim 5 or 6, wherein the image processing unit records the composite image from the start to the end of the image of the user as the recorded image.
演者を撮影したライブ映像から生成された前記演者の拡張現実用映像データと、前記演者の音声から生成された音声データとを少なくとも含むライブコンテンツデータを、前記管理装置から受信する受信部を備え、
前記映像処理部は、前記ライブコンテンツデータの拡張現実用映像データと、前記カメラが撮影したユーザの撮影映像とを合成して合成映像を生成し、前記合成映像を前記表示部に表示し、前記合成映像の少なくとも一部を前記記録画像として記録し、
前記音声出力部は、前記ライブコンテンツデータの音声データを用いて、前記表示部に表示される合成映像に同期して前記演者の音声を出力する
請求項5から請求項7のいずれかに記載の撮影装置。
It is provided with a receiving unit that receives live content data including at least the augmented reality video data of the performer generated from the live video of the performer and the audio data generated from the audio of the performer from the management device.
The video processing unit synthesizes the augmented reality video data of the live content data and the video captured by the user taken by the camera to generate a composite video, displays the composite video on the display unit, and displays the composite video. At least a part of the composite video is recorded as the recorded image,
The method according to any one of claims 5 to 7, wherein the audio output unit uses the audio data of the live content data to output the audio of the performer in synchronization with the composite video displayed on the display unit. Shooting device.
演者の動画である拡張現実用映像データと、前記拡張現実用映像データの演者による案内及び静止画の撮影開始タイミングの音声を含む音声データとを、含むコンテンツデータを記憶した記憶部を備えたコンピュータのユーザ撮影方法であって、
コンピュータは、カメラが撮影したユーザの撮影映像と前記拡張現実用映像データの演者の動画とを合成して合成映像を生成し、前記合成映像を表示部に表示し、
コンピュータは、前記コンテンツデータの音声データを用いて、前記表示部に表示される合成映像に同期して前記演者の音声を出力し、
コンピュータは、前記演者の音声による撮影開始タイミングに合わせて前記合成映像の静止画を記録し、
コンピュータは、前記静止画を記録画像として、管理装置に送信し、
コンピュータは、前記記録画像の保存場所を示す情報であり、ユーザの端末により読み取り可能な保存場所情報を前記管理装置から受信し、前記保存場所情報を提示する
ユーザ撮影方法。
A computer equipped with a storage unit that stores content data including augmented reality video data that is a moving image of a performer and audio data including audio for guidance by the performer and audio of a still image shooting start timing. It is a user shooting method of
The computer synthesizes the video captured by the user taken by the camera and the video of the performer of the augmented reality video data to generate a composite video, and displays the composite video on the display unit.
The computer uses the audio data of the content data to output the audio of the performer in synchronization with the composite video displayed on the display unit.
The computer records a still image of the composite video at the timing of starting shooting by the voice of the performer.
The computer transmits the still image as a recorded image to the management device, and then
A user photographing method in which a computer is information indicating a storage location of the recorded image, receives storage location information that can be read by a user's terminal from the management device, and presents the storage location information.
JP2020175829A 2020-10-20 2020-10-20 Shooting system, shooting device and user shooting method Active JP6849851B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020175829A JP6849851B2 (en) 2020-10-20 2020-10-20 Shooting system, shooting device and user shooting method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020175829A JP6849851B2 (en) 2020-10-20 2020-10-20 Shooting system, shooting device and user shooting method

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2019043388A Division JP7313847B2 (en) 2019-03-11 2019-03-11 Photography system, photography device, management device and photography method

Publications (2)

Publication Number Publication Date
JP2021022940A JP2021022940A (en) 2021-02-18
JP6849851B2 true JP6849851B2 (en) 2021-03-31

Family

ID=74573816

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020175829A Active JP6849851B2 (en) 2020-10-20 2020-10-20 Shooting system, shooting device and user shooting method

Country Status (1)

Country Link
JP (1) JP6849851B2 (en)

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002056204A (en) * 2000-08-11 2002-02-20 Plaza Create Co Ltd System and method for providing service and information storage medium
JP2003283740A (en) * 2002-03-22 2003-10-03 Seiko Instruments Inc Image processing system and processed image providing method
JP2010002732A (en) * 2008-06-20 2010-01-07 Bmb Corp Karaoke video recording device

Also Published As

Publication number Publication date
JP2021022940A (en) 2021-02-18

Similar Documents

Publication Publication Date Title
JP6474932B2 (en) COMMUNICATION TERMINAL, COMMUNICATION METHOD, PROGRAM, AND COMMUNICATION SYSTEM
CN106664438B (en) Server device, moving picture delivery system, and control method used therefor
US10171617B2 (en) Communication system that support review of usage details for a communication service
JP5939659B2 (en) Photo / video system
JP6273206B2 (en) Communication terminal, communication method, and program
JP6258862B2 (en) Image processing apparatus, image processing method, and program
US20210150773A1 (en) System and method for generating an augmented reality experience
JP2014085644A (en) Karaoke system
JP4423929B2 (en) Image output device, image output method, image output processing program, image distribution server, and image distribution processing program
JP5090115B2 (en) Moving image distribution apparatus, moving image distribution method and program thereof
JP2023153790A (en) program
TW201917556A (en) Multi-screen interaction method and apparatus, and electronic device
JP6849851B2 (en) Shooting system, shooting device and user shooting method
JP2020057329A (en) Guide system
JP7167629B2 (en) guide system
JP7102937B2 (en) Game image shooting system
KR102258495B1 (en) Sharing system of star&#39;s image and method of the same
JP2004173320A (en) Image providing apparatus
JP6909903B1 (en) Image management device, image management system and image management method
JP6909902B1 (en) Image management device, image management system and image management method
JP7167207B2 (en) program, method, information processing device, system
JP2005107988A (en) Image output device, image output method, image output processing program, image delivery server and image delivery processing program
JP6909904B1 (en) Image management device, image management system and image management method
JP2004180141A (en) Moving image photographing management system using digital photographing and transmitting unit
JP2016178434A (en) Printed matter generation device, server device, and moving image data reproduction method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201020

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20201020

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20201218

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210127

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210215

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210303

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210304

R150 Certificate of patent or registration of utility model

Ref document number: 6849851

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250